Raisonnement probabiliste
|
|
- Gaston René
- il y a 8 ans
- Total affichages :
Transcription
1 Plan Raisonnement probabiliste IFT Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte Quel type d agent? Jusqu à maintenant, nous avons principalement étudié des techniques pour des environnements déterministes Que faire lorsque l environnement est non percepts Agent déterministe? Capteur Observabilité partielle Inférence Envir ε ment Information bruitée actions Comportement Effecteurs stochastique Environnement complexe 3 Un agent doit pouvoir gérer : L incertitude lié à l environnement probabilité La qualité de ses décisions utilité Agent État Comment le monde évolue? Quel est l impact de mes actions? Utilité Capteurs Comment le monde est maintenant? Comment sera le monde si je fais l action A? À quel point je vais être satisfait dans un tel état? Quelle action dois-je faire maintenant? Effecteurs Envir ε ment 4
2 Agent basé sur l utilité Raisonnement incertain : Réseaux bayésiens Raisonnement incertain (ch.13-14) Dans cette section, nous étudions les réseaux bayésiens Basés sur les probabilités un formalisme éprouvé Permettent de représenter les dépendances entre les variables Donnent une spécification concise des distributions de probabilités conjointes. Théorie de la décision (ch.16-17) Niveau_énergie Armé Attaque Proche Dangereux Visible Audible 5 6 Notions de probabilité Révision des concepts de probabilité au chapitre 13 Règle du produit P ( a, b) = P( a b) P( b) = P( b a) P( a) P Règle de bayes ( ) ( a b) P( a) P a b = P( b) Distributions de probabilités conjointes P(x,y,z) Utile pour faire des inférences Mais peuvent être difficile à calculer en pratique (grande taille) Conditionnement ( ) P( Y z) P( z) P Y = z Indépendance et indépendance conditionnelle Permettent de réduire les calculs reliés à ces distributions. P ( X Y ) = P( X ) P ( X, Y ) = P( X ) P( Y ) 7 Syntaxe F 0.15 F Réseau bayésien MalDeDents SondeAccroche Un graphe orienté acyclique Chaque nœud annoté d une table de probabilités conditionnelles. Plus spécifiquement, il contient: Un ensemble de variables aléatoires Un ensemble de liens orientés connectant deux nœuds. S il y a un lien du nœud X vers Y, on dit que X est le parent de Y. Chaque nœud a une distribution de probabilité conditionnelle P(X i Parents(X i )) qui quantifie l effet du parent sur le nœud. Carie V P(MD) 0.6 P(Carie) 0.02 Carie Carie V P(SA)
3 Syntaxe des réseaux bayésiens : Exemple du dentiste Météo MalDeDents Carie SondeAccroche Indépendance : Météo est indépendante des autres variables Indépendance conditionnelle : MalDeDents et SondeAccroche le sont sachant Carie. Il n y a aucun lien direct entre MalDeDents et SondeAccroche. Syntaxe des réseaux bayésiens : Exemple de l alarme Vous avez un nouveau système d alarme à la maison : Il sonne lorsqu il y a un cambriolage (Burglary) Il sonne parfois lorsqu il y a un tremblement de terre (Earthquake) Vous avez deux voisins qui vous appellent au bureau s ils entendent l alarme. John appelle tout le temps quand il entend l alarme, mais parfois il confond le téléphone avec l alarme (JohnCalls). Mary aime écouter de la musique forte et parfois elle n entend pas l alarme (MaryCalls). Sachant qui a appelé : Quelle est la probabilité qu il y ait un cambriolage? 9 10 Syntaxe des réseaux bayésiens : Exemple de l alarme Syntaxe des réseaux bayésiens : Exemple de l alarme La topologie du réseau reflète un ensemble de relations d indépendances conditionnelles Bulgary et Earthquake affectent directement la probabilité de déclenchement d une alarme Le fait que John ou Mary appelle ne dépend que de l alarme. John et Mary ne perçoivent pas directement le cambriolage Ils ne perçoivent pas les tremblements de terre mineurs Ils ne se consultent pas avant d appeler 11 12
4 Syntaxe des réseaux bayésiens : Exemple de l alarme Syntaxe des réseaux bayésiens : Spécification concise Table de probabilités conditionnelles (TPC) Pour une variable booléenne X i avec k parents booléens Elle contient 2 k rangés. Chaque rangée a une probabilité p pour X i = Vrai La valeur pour X i = Faux est 1 p Si on borne le nombre maximal de parents à k Alors le réseau demande O(n2 k ) nombres. Linéaire en n, au lieu de O(2 n ) pour une table complète Pour notre exemple On a besoin de 10 valeur au lieu de 2 5 = 32 pour la table complète de probabilité conjointe Sémantique Un réseau définit la distribution conjointe complète de probabilités Correspond au produit des distributions conditionnelles locales : Exemple: Construction Il faut une méthode garantissant qu une série d indépendances conditionnelles vérifiées localement induise la sémantique globale requise Choisir un ordre sur les variables X 1,,X n Pour i = 1 à n Faire - Ajouter X i au réseaur - Sélectionner ses parents dans X 1,, X i-1 tels que P(X i Parents(X i )) = P(X i X 1,,X i-1 ) Fin Pour Il est préférable d avoir un modèle causal C est-à-dire qu il est mieux d ajouter la cause «racine» en premier Et ensuite les variables qui sont influencées par la cause 15 16
5 Exemple Supposons que l on choisit l ordre B, E, A, M, J Exemple Supposons que l on choisit le mauvais ordre M, J, A, B, E Bulgary MaryCalls Alarm Earthquake JohnCalls P(J M) = P(J)? Non P(A J,M) = P(A J)? Non P(A J,M) = P(A M)? Non P(B A,J,M) = P(B A)? Oui P(B A,J,M) = P(B)? Non P(E B,A,J,M) = P(E A)? Non P(E B,A,J,M) = P(E A,B)? Oui On obtient un réseaux plus complexe avec des probabilités plus difficiles à déterminer. Bulgary MaryCalls Alarm JohnCalls Earthquake Sémantique Sémantique locale : chaque nœud est conditionnellement indépendant des nœuds qui ne sont pas ses descendants étant donné ses parents. Sémantique Chaque nœud est indépendant des autres sachant sa couverture de Markov (Markov Blanket) Parent + Enfants + Parents des enfants
6 Sommaire Les réseaux bayésiens sont une manière naturelle de représenter les dépendances causales. C est une représentation compact des distributions conjointes de probabilité. Généralement facile à construire. Inférence exacte But : Calculer la distribution de probabilité a posteriori d un ensemble de variables de requête Étant donnée un événement observé, c.-à-d. à des variables d évidence dont les valeurs sont déterminées L ensemble complet de variables X: X : variable de question E: l ensemble des variables d évidence e: un événement particulier Y: l ensemble des variables cachées X = { X } U E U Y Inférence exacte Une question typique: P(X e) Dans l exemple du cambriolage On pourrait observer l événement JohnCalls = vrai et MaryCalls = vari. Par la suite, on pourrait se demander s il y a eu un cambriolage. Inférence exacte : Inférence par énumération Les réseaux bayésiens donnent la représentation complète de la table de distribution conjointe Alors on peut utiliser la formule suivante (voir chapitre 13) Si on reprend l exemple précédent où les variables cachées sont Earthquake et Alarm
7 Inférence exacte : Inférence par énumération Inférence exacte : Inférence par énumération On peut réécrire la formule en utilisant les entrées des tables de probabilités conditionnelles du réseau bayésien. Pour Burglary = vrai, on obtient: B M A E J Arbre de calcul : En simplifiant, on obtient: 25 Répétitions 26 Inférence exacte : Inférence par énumération En effectuant les calculs, on obtient: Inférence exacte : Inférence par énumération Si on fait la même chose pour Burglary = false, on obtient: Même si les deux appellent, il n y a que 28% des chances qu il y ait eu un cambriolage. La complexité en temps de l inférence par énumération est de O(2 n )
8 Inférence exacte : Élimination de variables Améliore l algorithme par énumération en évitant les calculs répétés. La somme est effectuée de la droite vers la gauche. Exemple cambriolage : Inférence exacte : Élimination de variables - Exemple Pour le facteur M, on enregistre les probabilités, étant donné chaque valeur de a, dans un vecteur à deux éléments. Facteurs On fait la même chose pour J. Pour le facteur A, on obtient une matrice de 2 x 2 x 2, f A (A,B,E) Inférence exacte : Élimination de variables - Exemple Inférence exacte : Élimination de variables - Exemple Il faut maintenant faire la somme du produit des trois facteurs La barre sur le A, indique que l on a fait la somme pour A Le facteur et la sommation sur E sont calculés de la même manière. Finalement, on obtient: La multiplication utilisée est un pointwise product 31 32
9 Inférence exacte : Pointwise product Le pointwise product de deux facteurs f 1 et f 2 donne un nouveau facteur f Les variables sont l union des variables de f 1 et f 2. Exemple: Inférence exacte : Variables inutiles Considérons: P(J b) La somme sur M donne 1 Donc M est inutile. Théorème: Y est inutile sauf si Ici: donc, M est inutile Réseaux bayésiens Inférence approximative Les méthodes d inférences exactes que l on vient de voir ne sont pas utilisables pour de grands réseaux. C est pourquoi on considère des approches approximatives. On va voir des algorithmes basés sur l échantillonnage aléatoire (Monte Carlo) dont la précision va dépendre du nombre d échantillons. Méthodes d échantillonnage directe La forme la plus simple d échantillonnage aléatoire est de générer des événements sans variable d évidence La distribution de probabilité à partir de laquelle un échantillon pour une variable est choisi est basée sur les valeurs attribuées aux parents
10 Exemple d échantillonnage directe Exemple d échantillonnage directe Exemple d échantillonnage directe Exemple d échantillonnage directe 39 40
11 Exemple d échantillonnage directe Exemple d échantillonnage directe Exemple d échantillonnage directe Exemple d échantillonnage directe Résultat = [T, F, T, T] On répète plusieurs fois pour obtenir un échantillon! 43 44
12 Échantillonnage directe : Estimer la probabilité d un événement On peut estimer la probabilité d un événement avec la fraction des événements générés aléatoirement qui remplit la condition. Par exemple Si on génère 1000 échantillons Que pour 511 d entre eux Rain = true Donc on peut faire l estimation suivante : Échantillonnage par rejet Utiliser pour déterminer les probabilités conditionnelles. Méthode: Génère des échantillons comme la méthode précédente Enlève tous les échantillons où les variables d évidence n ont pas les bonnes valeurs Estime la probabilité en comptant parmi les échantillons restants Échantillonnage par rejet Échantillonnage par rejet Supposons que l on veut estimer P(Rain Sprinkler = true) en utilisant 100 échantillons. Dans 73 échantillons, Sprinkler = false Ils sont donc rejetés Pour les 27 échantillons où Sprinkler = true 8 ont Rain = true 19 ont Rain = false Donc 47 48
13 Échantillonnage par rejet Problème de cette méthode Elle rejette beaucoup d échantillons Elle génère donc beaucoup d échantillons inutiles. Si un grand nombre de variables d évidence L approche est impraticable pour les problèmes complexes Autre approche Likelihood weighting Évite l inefficacité de l échantillonnage par rejet Génère uniquement des échantillons consistants avec les variables d évidence Idée : Fixer les variables d évidence Échantillonner uniquement sur les autres variables Attribuer un poids aux échantillons selon la probabilité que l événement survienne en accord avec les évidences Réseaux bayésiens Inférence approximative Réseaux bayésiens Inférence approximative, e) w =
14 Réseaux bayésiens Inférence approximative Réseaux bayésiens Inférence approximative w = 1 53 w = 1 54 Réseaux bayésiens Inférence approximative Réseaux bayésiens Inférence approximative w = 1 * w = 1 *
15 Réseaux bayésiens Inférence approximative Réseaux bayésiens Inférence approximative w = 1 * w = 1 * 0.1 * 0.99 = L estimation de la probabilité La somme pondérée des échantillons où ce qui est recherchée est vrai. Plus efficace que l échantillonnage par rejet Mais l efficacité de la méthode se dégrade si le nombre de variables d évidence augmente, parce que: La majorité des échantillons vont avoir des petits poids Seulement une minorité d échantillons vont avoir pratiquement tout le poids total. Inférence par MCMC Algorithme Markov Chain Monte Carlo (MCMC) Génère les événements en faisant un changement aléatoire à l événement précédent. L algorithme maintient donc un état courant où toutes les variables ont une valeurs. Pour générer le prochain état: Choisir une variable qui n est pas une variable d évidence. La distribution de cette variable dépend des valeurs des variables dans son Markov Blanket 59 60
16 Inférence approximative Inférence par MCMC Inférence approximative Inférence par MCMC Exemple: si on génère 100 échantillons et que l on trouve: 31 où Rain = true 69 où Rain = false Donc, l estimation de la distribution est Normalize(31,69) = (0.31,0.69). Avec Sprinkler = true et WetGrass = true, il y a quatre états possibles Conclusion Un réseau bayésien est un graphe dirigé acyclique Les nœuds correspondent à des variables aléatoires Chaque nœud a une distribution conditionnelle Moyen concis de représenter les relations d indépendance conditionnelle Représente une distribution conjointe complète L inférence revient à calculer la distribution de probabilité d un ensemble de variables étant donné un ensemble de variables d observations On peut approximer ce calcul par de l échantillonnage et les techniques MCMC 63
APPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE
SûretéGlobale.Org La Guitonnière 49770 La Meignanne Téléphone : +33 241 777 886 Télécopie : +33 241 200 987 Portable : +33 6 83 01 01 80 Adresse de messagerie : c.courtois@sureteglobale.org APPORT DES
Plus en détailFIMA, 7 juillet 2005
F. Corset 1 S. 2 1 LabSAD Université Pierre Mendes France 2 Département de Mathématiques Université de Franche-Comté FIMA, 7 juillet 2005 Plan de l exposé plus court chemin Origine du problème Modélisation
Plus en détailBaccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé
Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01
Plus en détailLes Réseaux Bayesiens
Les Réseaux Bayesiens A quoi sert un réseau bayésien? à représenter la connaissance d un système technique Le "système" dont on représente la connaissance au moyen d'un réseau bayésien peut être aussi
Plus en détailCHAPITRE 5. Stratégies Mixtes
CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détail4.2 Unités d enseignement du M1
88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter
Plus en détailMCMC et approximations en champ moyen pour les modèles de Markov
MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailMASTER SIS PRO : logique et sécurité DÉTECTION D INTRUSIONS. Odile PAPINI, LSIS. Université de Toulon et du Var. papini@univ-tln.
MASTER SIS PRO : logique et sécurité DÉTECTION D INTRUSIONS Odile PAPINI, LSIS. Université de Toulon et du Var. papini@univ-tln.fr Plan Introduction Généralités sur les systèmes de détection d intrusion
Plus en détailChristophe CANDILLIER Cours de DataMining mars 2004 Page 1
Christophe CANDILLIER Cours de DataMining mars 2004 age 1 1. Introduction 2. rocessus du DataMining 3. Analyse des données en DataMining 4. Analyse en Ligne OLA 5. Logiciels 6. Bibliographie Christophe
Plus en détailChp. 4. Minimisation d une fonction d une variable
Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie
Plus en détailINF6304 Interfaces Intelligentes
INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie
Plus en détailProbabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...
1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................
Plus en détailLe théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines
Plus en détailIndépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles
Chapitre 3 Événements indépendants et Probabilités conditionnelles Indépendance Indépendance Probabilité conditionnelle Definition Deux événements A et B sont dits indépendants si P(A B) = P(A).P(B) Attention
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailTable des matières. I Mise à niveau 11. Préface
Table des matières Préface v I Mise à niveau 11 1 Bases du calcul commercial 13 1.1 Alphabet grec...................................... 13 1.2 Symboles mathématiques............................... 14 1.3
Plus en détailBaccalauréat ES/L Amérique du Sud 21 novembre 2013
Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée
Plus en détailRésumé des communications des Intervenants
Enseignements de la 1ere semaine (du 01 au 07 décembre 2014) I. Titre du cours : Introduction au calcul stochastique pour la finance Intervenante : Prof. M hamed EDDAHBI Dans le calcul différentiel dit
Plus en détailDéroulement. Evaluation. Préambule. Définition. Définition. Algorithmes et structures de données 28/09/2009
Déroulement Algorithmes et structures de données Cours 1 et 2 Patrick Reuter http://www.labri.fr/~preuter/asd2009 CM mercredi de 8h00 à 9h00 (Amphi Bât. E, 3 ème étage) ED - Groupe 3 : mercredi, 10h30
Plus en détailCAPTEURS - CHAINES DE MESURES
CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,
Plus en détailChapitre 3 : INFERENCE
Chapitre 3 : INFERENCE 3.1 L ÉCHANTILLONNAGE 3.1.1 Introduction 3.1.2 L échantillonnage aléatoire 3.1.3 Estimation ponctuelle 3.1.4 Distributions d échantillonnage 3.1.5 Intervalles de probabilité L échantillonnage
Plus en détailTrépier avec règle, ressort à boudin, chronomètre, 5 masses de 50 g.
PHYSQ 130: Hooke 1 LOI DE HOOKE: CAS DU RESSORT 1 Introduction La loi de Hooke est fondamentale dans l étude du mouvement oscillatoire. Elle est utilisée, entre autres, dans les théories décrivant les
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailModélisation aléatoire en fiabilité des logiciels
collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailRéseaux bayésiens. 3 e édition Patrick Naïm, Pierre-Henri Wuillemin, Philippe Leray, Olivier Pourret, Anna Becker
Réseaux bayésiens 3 e édition Patrick Naïm, Pierre-Henri Wuillemin, Philippe Leray, Olivier Pourret, Anna Becker Avec la contribution de Bruce G. Marcot, Carmen Lacave et Francisco J. Díez Groupe Eyrolles,
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailMaster d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien
Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien Denis Cousineau Sous la direction de Roberto di Cosmo Juin 2005 1 Table des matières 1 Présentation
Plus en détailProbabilités conditionnelles Loi binomiale
Exercices 23 juillet 2014 Probabilités conditionnelles Loi binomiale Équiprobabilité et variable aléatoire Exercice 1 Une urne contient 5 boules indiscernables, 3 rouges et 2 vertes. On tire au hasard
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailIntelligence artificielle et les défis en robotique mobile et autonome
Intelligence artificielle et les défis en robotique mobile et autonome Éric Beaudry http://planiart.usherbrooke.ca/~eric/ Étudiant au doctorat en informatique Laboratoires Planiart et Laborius 13 février
Plus en détailL exclusion mutuelle distribuée
L exclusion mutuelle distribuée L algorithme de L Amport L algorithme est basé sur 2 concepts : L estampillage des messages La distribution d une file d attente sur l ensemble des sites du système distribué
Plus en détailBaccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
Plus en détailProbabilités et Statistiques. Feuille 2 : variables aléatoires discrètes
IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de
Plus en détailFonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Plus en détailAttitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014
Attitude des ménages face au risque - M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014 Plan du cours 1. Introduction : demande de couverture et comportements induits pa 2. Représentations
Plus en détailLES TYPES DE DONNÉES DU LANGAGE PASCAL
LES TYPES DE DONNÉES DU LANGAGE PASCAL 75 LES TYPES DE DONNÉES DU LANGAGE PASCAL CHAPITRE 4 OBJECTIFS PRÉSENTER LES NOTIONS D ÉTIQUETTE, DE CONS- TANTE ET DE IABLE DANS LE CONTEXTE DU LAN- GAGE PASCAL.
Plus en détailBaccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé
Baccalauréat S/L Métropole La Réunion 13 septembre 2013 Corrigé A. P. M.. P. XRCIC 1 Commun à tous les candidats Partie A 1. L arbre de probabilité correspondant aux données du problème est : 0,3 0,6 H
Plus en détailSTAGE IREM 0- Premiers pas en Python
Université de Bordeaux 16-18 Février 2014/2015 STAGE IREM 0- Premiers pas en Python IREM de Bordeaux Affectation et expressions Le langage python permet tout d abord de faire des calculs. On peut évaluer
Plus en détailModèles à Événements Discrets. Réseaux de Petri Stochastiques
Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés
Plus en détailP1 : Corrigés des exercices
P1 : Corrigés des exercices I Exercices du I I.2.a. Poker : Ω est ( l ensemble ) des parties à 5 éléments de l ensemble E des 52 cartes. Cardinal : 5 I.2.b. Bridge : Ω est ( l ensemble ) des parties à
Plus en détailStatistiques Décisionnelles L3 Sciences Economiques & Gestion Faculté d économie, gestion & AES Université Montesquieu - Bordeaux 4 2013-2014
Tests du χ 2 Statistiques Décisionnelles L3 Sciences Economiques & Gestion Faculté d économie, gestion & AES Université Montesquieu - Bordeaux 4 2013-2014 A. Lourme http://alexandrelourme.free.fr Outline
Plus en détailL utilisation d un réseau de neurones pour optimiser la gestion d un firewall
L utilisation d un réseau de neurones pour optimiser la gestion d un firewall Réza Assadi et Karim Khattar École Polytechnique de Montréal Le 1 mai 2002 Résumé Les réseaux de neurones sont utilisés dans
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailApprentissage Automatique
Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailWeb Science. Master 1 IFI. Andrea G. B. Tettamanzi. Université de Nice Sophia Antipolis Département Informatique andrea.tettamanzi@unice.
Web Science Master 1 IFI Andrea G. B. Tettamanzi Université de Nice Sophia Antipolis Département Informatique andrea.tettamanzi@unice.fr 1 Annonce : recherche apprenti Projet Géo-Incertitude Objectifs
Plus en détailProbabilités stationnaires d une chaîne de Markov sur TI-nspire Louis Parent, ing., MBA École de technologie supérieure, Montréal, Québec 1
Introduction Probabilités stationnaires d une chaîne de Markov sur TI-nspire Louis Parent, ing., MBA École de technologie supérieure, Montréal, Québec 1 L auteur remercie Mme Sylvie Gervais, Ph.D., maître
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailLe Data Mining au service du Scoring ou notation statistique des emprunteurs!
France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative
Plus en détailCatalogue des connaissances de base en mathématiques dispensées dans les gymnases, lycées et collèges romands.
Catalogue des connaissances de base en mathématiques dispensées dans les gymnases, lycées et collèges romands. Pourquoi un autre catalogue en Suisse romande Historique En 1990, la CRUS (Conférences des
Plus en détailSujet 4: Programmation stochastique propriétés de fonction de recours
Sujet 4: Programmation stochastique propriétés de fonction de recours MSE3313: Optimisation Stochastiqe Andrew J. Miller Dernière mise au jour: October 19, 2011 Dans ce sujet... 1 Propriétés de la fonction
Plus en détailDunod, Paris, 2014 ISBN 978-2-10-059615-7
Illustration de couverture : Federo-istock.com Dunod, Paris, 2014 ISBN 978-2-10-059615-7 1.1 Symétrie du hasard et probabilité uniforme 3 1.2 Loi de probabilité sur un ensemble fini 6 1.3 Probabilité sur
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailNON-LINEARITE ET RESEAUX NEURONAUX
NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail
Plus en détailIntroduction au datamining
Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des
Plus en détail3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détailProbabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2
Probabilités Table des matières I Petits rappels sur le vocabulaire des ensembles 2 I.1 s................................................... 2 I.2 Propriétés...................................................
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailArbres binaires de décision
1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression
Plus en détaildonnées en connaissance et en actions?
1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)
Plus en détailBases de données documentaires et distribuées Cours NFE04
Bases de données documentaires et distribuées Cours NFE04 Introduction a la recherche d information Auteurs : Raphaël Fournier-S niehotta, Philippe Rigaux, Nicolas Travers prénom.nom@cnam.fr Département
Plus en détailModélisation et simulation
Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.
Plus en détailINTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES
INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine
Plus en détailProbabilités conditionnelles Exercices corrigés
Terminale S Probabilités conditionnelles Exercices corrigés Exercice : (solution Une compagnie d assurance automobile fait un bilan des frais d intervention, parmi ses dossiers d accidents de la circulation.
Plus en détailChapitre 7. Récurrences
Chapitre 7 Récurrences 333 Plan 1. Introduction 2. Applications 3. Classification des récurrences 4. Résolution de récurrences 5. Résumé et comparaisons Lectures conseillées : I MCS, chapitre 20. I Rosen,
Plus en détailEbauche Rapport finale
Ebauche Rapport finale Sommaire : 1 - Introduction au C.D.N. 2 - Définition de la problématique 3 - Etat de l'art : Présentatio de 3 Topologies streaming p2p 1) INTRODUCTION au C.D.N. La croissance rapide
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailIntroduction à l approche bootstrap
Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?
Plus en détailRepérage de l artillerie par le son.
Repérage de l artillerie par le son. Le repérage par le son permet de situer avec précision une batterie ennemie, qu elle soit ou non bien dissimulée. Le son se propage avec une vitesse sensiblement constante,
Plus en détailGestion de données incertaines et de leur provenance
Gestion de données incertaines et de leur provenance Pierre Senellart Séminaire INSERM & Institut TELEOM 7 octobre 2008 P. Senellart (TELEOM ParisTech) Données incertaines et provenance 07/10/2008 1 /
Plus en détailArithmétique binaire. Chapitre. 5.1 Notions. 5.1.1 Bit. 5.1.2 Mot
Chapitre 5 Arithmétique binaire L es codes sont manipulés au quotidien sans qu on s en rende compte, et leur compréhension est quasi instinctive. Le seul fait de lire fait appel au codage alphabétique,
Plus en détailI. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
Plus en détailRelation entre deux variables : estimation de la corrélation linéaire
CHAPITRE 3 Relation entre deux variables : estimation de la corrélation linéaire Parmi les analyses statistiques descriptives, l une d entre elles est particulièrement utilisée pour mettre en évidence
Plus en détailContexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,
Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très
Plus en détailLE PROBLEME DU PLUS COURT CHEMIN
LE PROBLEME DU PLUS COURT CHEMIN Dans cette leçon nous définissons le modèle de plus court chemin, présentons des exemples d'application et proposons un algorithme de résolution dans le cas où les longueurs
Plus en détailContents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes
Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire
Plus en détailLa demande Du consommateur. Contrainte budgétaire Préférences Choix optimal
La demande Du consommateur Contrainte budgétaire Préférences Choix optimal Plan du cours Préambule : Rationalité du consommateur I II III IV V La contrainte budgétaire Les préférences Le choix optimal
Plus en détailIntroduction à la théorie des files d'attente. Claude Chaudet Claude.Chaudet@enst.fr
Introduction à la théorie des files d'attente Claude Chaudet Claude.Chaudet@enst.fr La théorie des files d'attente... Principe: modélisation mathématique de l accès à une ressource partagée Exemples réseaux
Plus en détailL apprentissage automatique
L apprentissage automatique L apprentissage automatique L'apprentissage automatique fait référence au développement, à l analyse et à l implémentation de méthodes qui permettent à une machine d évoluer
Plus en détailOptimisation Discrète
Prof F Eisenbrand EPFL - DISOPT Optimisation Discrète Adrian Bock Semestre de printemps 2011 Série 7 7 avril 2011 Exercice 1 i Considérer le programme linéaire max{c T x : Ax b} avec c R n, A R m n et
Plus en détailTests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA
Plus en détailCours d introduction à l informatique. Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions
Cours d introduction à l informatique Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions Qu est-ce qu un Une recette de cuisine algorithme? Protocole expérimental
Plus en détailCoup de Projecteur sur les Réseaux de Neurones
Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche
Plus en détailIntelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com
Intelligence Artificielle et Systèmes Multi-Agents Badr Benmammar bbm@badr-benmammar.com Plan La première partie : L intelligence artificielle (IA) Définition de l intelligence artificielle (IA) Domaines
Plus en détailProjet SINF2275 «Data mining and decision making» Projet classification et credit scoring
Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring Année académique 2006-2007 Professeurs : Marco Saerens Adresse : Université catholique de Louvain Information Systems
Plus en détailÉquations non linéaires
Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et
Plus en détailChaine de transmission
Chaine de transmission Chaine de transmission 1. analogiques à l origine 2. convertis en signaux binaires Échantillonnage + quantification + codage 3. brassage des signaux binaires Multiplexage 4. séparation
Plus en détailCorrection du baccalauréat ES/L Métropole 20 juin 2014
Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)
Plus en détailChaînes de Markov au lycée
Journées APMEP Metz Atelier P1-32 du dimanche 28 octobre 2012 Louis-Marie BONNEVAL Chaînes de Markov au lycée Andreï Markov (1856-1922) , série S Problème 1 Bonus et malus en assurance automobile Un contrat
Plus en détailAPPROCHE DE MODELISATION DE LA PROPAGATION DE L INCENDIE DANS UN EDIFICE ET SON INTEGRATION DANS UN SYSTEME DECISIONNEL
APPRCHE DE MDELISATIN DE LA PRPAGATIN DE L INCENDIE DANS UN EDIFICE ET SN INTEGRATIN DANS UN SYSTEME DECISINNEL Sanae KHALI ISSA (*), Abdellah AZMANI (*), Karima ZEJLI (**) sanaeissa@gmail.com, abdellah.azmani@gmail.com,
Plus en détailCCP PSI - 2010 Mathématiques 1 : un corrigé
CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P
Plus en détail1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Plus en détailIntégration de la dimension sémantique dans les réseaux sociaux
Intégration de la dimension sémantique dans les réseaux sociaux Application : systèmes de recommandation Maria Malek LARIS-EISTI maria.malek@eisti.fr 1 Contexte : Recommandation dans les réseaux sociaux
Plus en détailCours de méthodes de scoring
UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-
Plus en détail