Raisonnement probabiliste

Dimension: px
Commencer à balayer dès la page:

Download "Raisonnement probabiliste"

Transcription

1 Plan Raisonnement probabiliste IFT Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte Quel type d agent? Jusqu à maintenant, nous avons principalement étudié des techniques pour des environnements déterministes Que faire lorsque l environnement est non percepts Agent déterministe? Capteur Observabilité partielle Inférence Envir ε ment Information bruitée actions Comportement Effecteurs stochastique Environnement complexe 3 Un agent doit pouvoir gérer : L incertitude lié à l environnement probabilité La qualité de ses décisions utilité Agent État Comment le monde évolue? Quel est l impact de mes actions? Utilité Capteurs Comment le monde est maintenant? Comment sera le monde si je fais l action A? À quel point je vais être satisfait dans un tel état? Quelle action dois-je faire maintenant? Effecteurs Envir ε ment 4

2 Agent basé sur l utilité Raisonnement incertain : Réseaux bayésiens Raisonnement incertain (ch.13-14) Dans cette section, nous étudions les réseaux bayésiens Basés sur les probabilités un formalisme éprouvé Permettent de représenter les dépendances entre les variables Donnent une spécification concise des distributions de probabilités conjointes. Théorie de la décision (ch.16-17) Niveau_énergie Armé Attaque Proche Dangereux Visible Audible 5 6 Notions de probabilité Révision des concepts de probabilité au chapitre 13 Règle du produit P ( a, b) = P( a b) P( b) = P( b a) P( a) P Règle de bayes ( ) ( a b) P( a) P a b = P( b) Distributions de probabilités conjointes P(x,y,z) Utile pour faire des inférences Mais peuvent être difficile à calculer en pratique (grande taille) Conditionnement ( ) P( Y z) P( z) P Y = z Indépendance et indépendance conditionnelle Permettent de réduire les calculs reliés à ces distributions. P ( X Y ) = P( X ) P ( X, Y ) = P( X ) P( Y ) 7 Syntaxe F 0.15 F Réseau bayésien MalDeDents SondeAccroche Un graphe orienté acyclique Chaque nœud annoté d une table de probabilités conditionnelles. Plus spécifiquement, il contient: Un ensemble de variables aléatoires Un ensemble de liens orientés connectant deux nœuds. S il y a un lien du nœud X vers Y, on dit que X est le parent de Y. Chaque nœud a une distribution de probabilité conditionnelle P(X i Parents(X i )) qui quantifie l effet du parent sur le nœud. Carie V P(MD) 0.6 P(Carie) 0.02 Carie Carie V P(SA)

3 Syntaxe des réseaux bayésiens : Exemple du dentiste Météo MalDeDents Carie SondeAccroche Indépendance : Météo est indépendante des autres variables Indépendance conditionnelle : MalDeDents et SondeAccroche le sont sachant Carie. Il n y a aucun lien direct entre MalDeDents et SondeAccroche. Syntaxe des réseaux bayésiens : Exemple de l alarme Vous avez un nouveau système d alarme à la maison : Il sonne lorsqu il y a un cambriolage (Burglary) Il sonne parfois lorsqu il y a un tremblement de terre (Earthquake) Vous avez deux voisins qui vous appellent au bureau s ils entendent l alarme. John appelle tout le temps quand il entend l alarme, mais parfois il confond le téléphone avec l alarme (JohnCalls). Mary aime écouter de la musique forte et parfois elle n entend pas l alarme (MaryCalls). Sachant qui a appelé : Quelle est la probabilité qu il y ait un cambriolage? 9 10 Syntaxe des réseaux bayésiens : Exemple de l alarme Syntaxe des réseaux bayésiens : Exemple de l alarme La topologie du réseau reflète un ensemble de relations d indépendances conditionnelles Bulgary et Earthquake affectent directement la probabilité de déclenchement d une alarme Le fait que John ou Mary appelle ne dépend que de l alarme. John et Mary ne perçoivent pas directement le cambriolage Ils ne perçoivent pas les tremblements de terre mineurs Ils ne se consultent pas avant d appeler 11 12

4 Syntaxe des réseaux bayésiens : Exemple de l alarme Syntaxe des réseaux bayésiens : Spécification concise Table de probabilités conditionnelles (TPC) Pour une variable booléenne X i avec k parents booléens Elle contient 2 k rangés. Chaque rangée a une probabilité p pour X i = Vrai La valeur pour X i = Faux est 1 p Si on borne le nombre maximal de parents à k Alors le réseau demande O(n2 k ) nombres. Linéaire en n, au lieu de O(2 n ) pour une table complète Pour notre exemple On a besoin de 10 valeur au lieu de 2 5 = 32 pour la table complète de probabilité conjointe Sémantique Un réseau définit la distribution conjointe complète de probabilités Correspond au produit des distributions conditionnelles locales : Exemple: Construction Il faut une méthode garantissant qu une série d indépendances conditionnelles vérifiées localement induise la sémantique globale requise Choisir un ordre sur les variables X 1,,X n Pour i = 1 à n Faire - Ajouter X i au réseaur - Sélectionner ses parents dans X 1,, X i-1 tels que P(X i Parents(X i )) = P(X i X 1,,X i-1 ) Fin Pour Il est préférable d avoir un modèle causal C est-à-dire qu il est mieux d ajouter la cause «racine» en premier Et ensuite les variables qui sont influencées par la cause 15 16

5 Exemple Supposons que l on choisit l ordre B, E, A, M, J Exemple Supposons que l on choisit le mauvais ordre M, J, A, B, E Bulgary MaryCalls Alarm Earthquake JohnCalls P(J M) = P(J)? Non P(A J,M) = P(A J)? Non P(A J,M) = P(A M)? Non P(B A,J,M) = P(B A)? Oui P(B A,J,M) = P(B)? Non P(E B,A,J,M) = P(E A)? Non P(E B,A,J,M) = P(E A,B)? Oui On obtient un réseaux plus complexe avec des probabilités plus difficiles à déterminer. Bulgary MaryCalls Alarm JohnCalls Earthquake Sémantique Sémantique locale : chaque nœud est conditionnellement indépendant des nœuds qui ne sont pas ses descendants étant donné ses parents. Sémantique Chaque nœud est indépendant des autres sachant sa couverture de Markov (Markov Blanket) Parent + Enfants + Parents des enfants

6 Sommaire Les réseaux bayésiens sont une manière naturelle de représenter les dépendances causales. C est une représentation compact des distributions conjointes de probabilité. Généralement facile à construire. Inférence exacte But : Calculer la distribution de probabilité a posteriori d un ensemble de variables de requête Étant donnée un événement observé, c.-à-d. à des variables d évidence dont les valeurs sont déterminées L ensemble complet de variables X: X : variable de question E: l ensemble des variables d évidence e: un événement particulier Y: l ensemble des variables cachées X = { X } U E U Y Inférence exacte Une question typique: P(X e) Dans l exemple du cambriolage On pourrait observer l événement JohnCalls = vrai et MaryCalls = vari. Par la suite, on pourrait se demander s il y a eu un cambriolage. Inférence exacte : Inférence par énumération Les réseaux bayésiens donnent la représentation complète de la table de distribution conjointe Alors on peut utiliser la formule suivante (voir chapitre 13) Si on reprend l exemple précédent où les variables cachées sont Earthquake et Alarm

7 Inférence exacte : Inférence par énumération Inférence exacte : Inférence par énumération On peut réécrire la formule en utilisant les entrées des tables de probabilités conditionnelles du réseau bayésien. Pour Burglary = vrai, on obtient: B M A E J Arbre de calcul : En simplifiant, on obtient: 25 Répétitions 26 Inférence exacte : Inférence par énumération En effectuant les calculs, on obtient: Inférence exacte : Inférence par énumération Si on fait la même chose pour Burglary = false, on obtient: Même si les deux appellent, il n y a que 28% des chances qu il y ait eu un cambriolage. La complexité en temps de l inférence par énumération est de O(2 n )

8 Inférence exacte : Élimination de variables Améliore l algorithme par énumération en évitant les calculs répétés. La somme est effectuée de la droite vers la gauche. Exemple cambriolage : Inférence exacte : Élimination de variables - Exemple Pour le facteur M, on enregistre les probabilités, étant donné chaque valeur de a, dans un vecteur à deux éléments. Facteurs On fait la même chose pour J. Pour le facteur A, on obtient une matrice de 2 x 2 x 2, f A (A,B,E) Inférence exacte : Élimination de variables - Exemple Inférence exacte : Élimination de variables - Exemple Il faut maintenant faire la somme du produit des trois facteurs La barre sur le A, indique que l on a fait la somme pour A Le facteur et la sommation sur E sont calculés de la même manière. Finalement, on obtient: La multiplication utilisée est un pointwise product 31 32

9 Inférence exacte : Pointwise product Le pointwise product de deux facteurs f 1 et f 2 donne un nouveau facteur f Les variables sont l union des variables de f 1 et f 2. Exemple: Inférence exacte : Variables inutiles Considérons: P(J b) La somme sur M donne 1 Donc M est inutile. Théorème: Y est inutile sauf si Ici: donc, M est inutile Réseaux bayésiens Inférence approximative Les méthodes d inférences exactes que l on vient de voir ne sont pas utilisables pour de grands réseaux. C est pourquoi on considère des approches approximatives. On va voir des algorithmes basés sur l échantillonnage aléatoire (Monte Carlo) dont la précision va dépendre du nombre d échantillons. Méthodes d échantillonnage directe La forme la plus simple d échantillonnage aléatoire est de générer des événements sans variable d évidence La distribution de probabilité à partir de laquelle un échantillon pour une variable est choisi est basée sur les valeurs attribuées aux parents

10 Exemple d échantillonnage directe Exemple d échantillonnage directe Exemple d échantillonnage directe Exemple d échantillonnage directe 39 40

11 Exemple d échantillonnage directe Exemple d échantillonnage directe Exemple d échantillonnage directe Exemple d échantillonnage directe Résultat = [T, F, T, T] On répète plusieurs fois pour obtenir un échantillon! 43 44

12 Échantillonnage directe : Estimer la probabilité d un événement On peut estimer la probabilité d un événement avec la fraction des événements générés aléatoirement qui remplit la condition. Par exemple Si on génère 1000 échantillons Que pour 511 d entre eux Rain = true Donc on peut faire l estimation suivante : Échantillonnage par rejet Utiliser pour déterminer les probabilités conditionnelles. Méthode: Génère des échantillons comme la méthode précédente Enlève tous les échantillons où les variables d évidence n ont pas les bonnes valeurs Estime la probabilité en comptant parmi les échantillons restants Échantillonnage par rejet Échantillonnage par rejet Supposons que l on veut estimer P(Rain Sprinkler = true) en utilisant 100 échantillons. Dans 73 échantillons, Sprinkler = false Ils sont donc rejetés Pour les 27 échantillons où Sprinkler = true 8 ont Rain = true 19 ont Rain = false Donc 47 48

13 Échantillonnage par rejet Problème de cette méthode Elle rejette beaucoup d échantillons Elle génère donc beaucoup d échantillons inutiles. Si un grand nombre de variables d évidence L approche est impraticable pour les problèmes complexes Autre approche Likelihood weighting Évite l inefficacité de l échantillonnage par rejet Génère uniquement des échantillons consistants avec les variables d évidence Idée : Fixer les variables d évidence Échantillonner uniquement sur les autres variables Attribuer un poids aux échantillons selon la probabilité que l événement survienne en accord avec les évidences Réseaux bayésiens Inférence approximative Réseaux bayésiens Inférence approximative, e) w =

14 Réseaux bayésiens Inférence approximative Réseaux bayésiens Inférence approximative w = 1 53 w = 1 54 Réseaux bayésiens Inférence approximative Réseaux bayésiens Inférence approximative w = 1 * w = 1 *

15 Réseaux bayésiens Inférence approximative Réseaux bayésiens Inférence approximative w = 1 * w = 1 * 0.1 * 0.99 = L estimation de la probabilité La somme pondérée des échantillons où ce qui est recherchée est vrai. Plus efficace que l échantillonnage par rejet Mais l efficacité de la méthode se dégrade si le nombre de variables d évidence augmente, parce que: La majorité des échantillons vont avoir des petits poids Seulement une minorité d échantillons vont avoir pratiquement tout le poids total. Inférence par MCMC Algorithme Markov Chain Monte Carlo (MCMC) Génère les événements en faisant un changement aléatoire à l événement précédent. L algorithme maintient donc un état courant où toutes les variables ont une valeurs. Pour générer le prochain état: Choisir une variable qui n est pas une variable d évidence. La distribution de cette variable dépend des valeurs des variables dans son Markov Blanket 59 60

16 Inférence approximative Inférence par MCMC Inférence approximative Inférence par MCMC Exemple: si on génère 100 échantillons et que l on trouve: 31 où Rain = true 69 où Rain = false Donc, l estimation de la distribution est Normalize(31,69) = (0.31,0.69). Avec Sprinkler = true et WetGrass = true, il y a quatre états possibles Conclusion Un réseau bayésien est un graphe dirigé acyclique Les nœuds correspondent à des variables aléatoires Chaque nœud a une distribution conditionnelle Moyen concis de représenter les relations d indépendance conditionnelle Représente une distribution conjointe complète L inférence revient à calculer la distribution de probabilité d un ensemble de variables étant donné un ensemble de variables d observations On peut approximer ce calcul par de l échantillonnage et les techniques MCMC 63

Raisonnement probabiliste. Plan. Réseaux bayésiens. Inférence dans les réseaux bayésiens. Inférence exacte. Inférence approximative

Raisonnement probabiliste. Plan. Réseaux bayésiens. Inférence dans les réseaux bayésiens. Inférence exacte. Inférence approximative Raisonnement probabiliste 1 Plan Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 2 Réseaux bayésiens Au chapitre d intro sur les pbs, on a vu que Les distributions

Plus en détail

Répresenter l uncertain: Réseaux Bayesiens

Répresenter l uncertain: Réseaux Bayesiens Répresenter l uncertain: Réseaux Bayesiens M1 Miage 2015 2016 Intelligence Artificielle Stéphane Airiau LAMSADE M1 Miage 2015 2016 Intelligence Artificielle (Stéphane Airiau) Répresenter l uncertain: Réseaux

Plus en détail

Supplément théorique Inférence dans les réseaux bayésiens. Rappel théorique. Les processus aléatoires. Les réseaux bayésiens

Supplément théorique Inférence dans les réseaux bayésiens. Rappel théorique. Les processus aléatoires. Les réseaux bayésiens DÉPARTEMENT DE GÉNIE LOGICIEL ET DES TI LOG770 - SYSTÈMES INTELLIGENTS ÉTÉ 2011 Supplément théorique Inférence dans les réseaux bayésiens Rappel théorique Les processus aléatoires La plupart des processus

Plus en détail

Les réseaux bayésiens

Les réseaux bayésiens Les réseaux bayésiens Un outil de modélisation des connaissances incertaines par apprentissage à partir des données par modélisation interactive 2/1/23 SAMOS - BAYESIA 1 etit exemple contre-intuitif La

Plus en détail

APPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE

APPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE SûretéGlobale.Org La Guitonnière 49770 La Meignanne Téléphone : +33 241 777 886 Télécopie : +33 241 200 987 Portable : +33 6 83 01 01 80 Adresse de messagerie : c.courtois@sureteglobale.org APPORT DES

Plus en détail

PJE : Analyse de comportements avec Twitter Classification supervisée

PJE : Analyse de comportements avec Twitter Classification supervisée PJE : Analyse de comportements avec Twitter Classification supervisée Arnaud Liefooghe arnaud.liefooghe@univ-lille1.fr Master 1 Informatique PJE2 2015-16 B. Derbel L. Jourdan A. Liefooghe 1 2 Agenda Partie

Plus en détail

Réseaux causaux possibilistes pour le traitement des interventions

Réseaux causaux possibilistes pour le traitement des interventions Les modèles graphiques probabilistes Réseaux causaux possibilistes pour le traitement des interventions Salem ENFERHT CRIL, Lens benferhat@cril.univ-artois.fr Outils importants pour la représentation et

Plus en détail

Réseaux Bayésiens. Bruno Bouzy. 3 février 2014

Réseaux Bayésiens. Bruno Bouzy. 3 février 2014 Réseaux Bayésiens Bruno Bouzy 3 février 2014 Introduction Pour sa plus grande partie, ce chapitre présente les réseaux bayésiens à partir du tutoriel d'andrew Moore [1] (http://www.autonlab.org/tutorials/bayesnet.html).

Plus en détail

Utilisation des réseaux bayésiens et de l approche de Fenton pour l estimation de probabilité d occurrence d événements

Utilisation des réseaux bayésiens et de l approche de Fenton pour l estimation de probabilité d occurrence d événements Utilisation des réseaux bayésiens et de l approche de Fenton pour l estimation de probabilité d occurrence d événements Rapport LAAS-CNRS Numéro N o 13077 Quynh Anh DO HOANG, Jérémie GUIOCHET, Mohamed

Plus en détail

Chapitre 8 : Probabilités-Indépendance

Chapitre 8 : Probabilités-Indépendance Cours de mathématiques Terminale S Chapitre 8 : Probabilités-Indépendance Année scolaire 008-009 mise à jour 6 janvier 009 Fig. Andreï Kolmogorov Un précurseur de la formalisation de la théorie des probabilités

Plus en détail

Cours de spécialité mathématiques en Terminale ES

Cours de spécialité mathématiques en Terminale ES Cours de spécialité mathématiques en Terminale ES O. Lader 2014/2015 Lycée Jean Vilar Spé math terminale ES 2014/2015 1 / 51 Systèmes linéaires Deux exemples de systèmes linéaires à deux équations et deux

Plus en détail

Simulation d un système d assurance automobile

Simulation d un système d assurance automobile Simulation d un système d assurance automobile DESSOUT / PLESEL / DACHI Plan 1 Introduction... 2 Méthodes et outils utilisés... 2.1 Chaines de Markov... 2.2 Méthode de Monte Carlo... 2.3 Méthode de rejet...

Plus en détail

2 Probabilités conditionnelles. Événements indépendants

2 Probabilités conditionnelles. Événements indépendants 2 Probabilités conditionnelles. Événements indépendants 2.1 Probabilité conditionnelle Soient A et B deux événements tels que P(B) > 0. Soit alors P(A B), la probabilité que A se réalise, B étant réalisé.

Plus en détail

Un corrigé de l épreuve de mathématiques du baccalauréat blanc

Un corrigé de l épreuve de mathématiques du baccalauréat blanc Terminale ES Un corrigé de l épreuve de mathématiques du baccalauréat blanc EXERCICE ( points). Commun à tous les candidats On considère une fonction f : définie, continue et doublement dérivable sur l

Plus en détail

Distributions bayésiennes nonparamétriques sur les matrices binaires triangulaires infinies : Applications aux modèles graphiques

Distributions bayésiennes nonparamétriques sur les matrices binaires triangulaires infinies : Applications aux modèles graphiques Distributions bayésiennes nonparamétriques sur les matrices binaires triangulaires infinies : Applications aux modèles graphiques Patrick Dallaire Université Laval Département d informatique et de génie

Plus en détail

Chapitre 10 Algorithmes probabilistes

Chapitre 10 Algorithmes probabilistes Chapitre 10 Algorithmes probabilistes Jouent à pile ou face Se comportent différemment lorsque exécutés deux fois sur un même exemplaire Défient parfois l intuition 1 Première surprise: le hasard peut

Plus en détail

Apprentissage de modèles de comportements pour le contrôle d exécution et la planification robotique

Apprentissage de modèles de comportements pour le contrôle d exécution et la planification robotique Thèse préparée au Laboratoire d Analyse et d Architecture des Systèmes du CNRS en vue de l obtention du Doctorat de l Université Paul Sabatier de Toulouse Soutenue le 5 Octobre 2006 Spécialité : Intelligence

Plus en détail

Probabilités. Chapitre 2 : Le modèle probabiliste - Indépendance d évènements. Julian Tugaut. 15 janvier 2015

Probabilités. Chapitre 2 : Le modèle probabiliste - Indépendance d évènements. Julian Tugaut. 15 janvier 2015 Indépendance de deux évènements Chapitre 2 : Le modèle probabiliste - Indépendance d évènements 15 janvier 2015 Sommaire 1 Indépendance de deux évènements 2 Indépendance de deux évènements Approche intuitive

Plus en détail

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01

Plus en détail

FIMA, 7 juillet 2005

FIMA, 7 juillet 2005 F. Corset 1 S. 2 1 LabSAD Université Pierre Mendes France 2 Département de Mathématiques Université de Franche-Comté FIMA, 7 juillet 2005 Plan de l exposé plus court chemin Origine du problème Modélisation

Plus en détail

Références. Compter les mots. Le langage comme donnée. Communication Langagière Ingénierie des langues et de la parole

Références. Compter les mots. Le langage comme donnée. Communication Langagière Ingénierie des langues et de la parole Communication Langagière Ingénierie des langues et de la parole 1. Introduction générale 2. Ingénierie des langues 2.1 Représentation et codage des textes 2.2 Théorie de l information et probabilités 2.3

Plus en détail

Baccalauréat ES Centres étrangers 12 juin 2014 - Corrigé

Baccalauréat ES Centres étrangers 12 juin 2014 - Corrigé Baccalauréat ES Centres étrangers 1 juin 14 - Corrigé A. P. M. E. P. Exercice 1 5 points Commun à tous les candidats 1. On prend un candidat au hasard et on note : l évènement «le candidat a un dossier

Plus en détail

Jeffrey S. Rosenthal

Jeffrey S. Rosenthal Les marches aléatoires et les algorithmes MCMC Jeffrey S. Rosenthal University of Toronto jeff@math.toronto.edu http ://probability.ca/jeff/ (CRM, Montréal, Jan 12, 2007) Un processus stochastique Qu est-ce

Plus en détail

Examen de 2ème session du module RFIDEC

Examen de 2ème session du module RFIDEC Reconnaissance des formes et introduction à la décision année 2007 2008 Examen de 2ème session du module RFIDEC Exercice 1 (5 points) Massih-Reza Amini / Christophe Gonzales Durée : 2 heures Le propriétaire

Plus en détail

Exercices théoriques

Exercices théoriques École normale supérieure 2008-2009 Département d informatique Algorithmique et Programmation TD n 9 : Programmation Linéaire Avec Solutions Exercices théoriques Rappel : Dual d un programme linéaire cf.

Plus en détail

Problèmes et Algorithmes Fondamentaux III Algorithme distribué probabiliste

Problèmes et Algorithmes Fondamentaux III Algorithme distribué probabiliste Problèmes et Algorithmes Fondamentaux III Algorithme distribué probabiliste Arnaud Labourel Université de Provence 12 avril 2012 Arnaud Labourel (Université de Provence) Problèmes et Algorithmes Fondamentaux

Plus en détail

Arbres. Alphabet Σ = Σ 0 Σ k. Exemples

Arbres. Alphabet Σ = Σ 0 Σ k. Exemples Arbres Alphabet Σ = Σ 0 Σ k Σ i : alphabet fini de symboles de rang i (Σ i Σ j possible). Un arbre t de rang k est défini par un ensemble (fini) dom(t) {1,..., k} clos par préfixe (domaine de t) : si v,

Plus en détail

Chapitre 2 : Méthode de Monte-Carlo avec tirages indépendants, pour le calcul approché d une intégrale.

Chapitre 2 : Méthode de Monte-Carlo avec tirages indépendants, pour le calcul approché d une intégrale. Aix Marseille Université. Algorithmes Stochastiques. M MIS. Fabienne Castell... Chapitre : Méthode de Monte-Carlo avec tirages indépendants, pour le calcul approché d une intégrale. Le but de ce chapitre

Plus en détail

Projet : Recherche de source d onde gravitationnelle (analyse de données Metropolis Hastings Markov Chain) 1

Projet : Recherche de source d onde gravitationnelle (analyse de données Metropolis Hastings Markov Chain) 1 Université Paris Diderot Physique L2 2014-2015 Simulations Numériques SN4 Projet : Recherche de source d onde gravitationnelle (analyse de données Metropolis Hastings Markov Chain) 1 Objectifs : Simuler

Plus en détail

Introduction aux Méthodes de Monte Carlo

Introduction aux Méthodes de Monte Carlo Méthodes de Monte Carlo pour la Modélisation et le Calcul Intensif Applications à la Physique Numérique et à la Biologie Séminaire CIMENT GRID Introduction aux Méthodes de Monte Carlo Olivier François

Plus en détail

Les Réseaux Bayesiens

Les Réseaux Bayesiens Les Réseaux Bayesiens A quoi sert un réseau bayésien? à représenter la connaissance d un système technique Le "système" dont on représente la connaissance au moyen d'un réseau bayésien peut être aussi

Plus en détail

Support du cours de Probabilités IUT d Orléans, Département d informatique

Support du cours de Probabilités IUT d Orléans, Département d informatique Support du cours de Probabilités IUT d Orléans, Département d informatique Pierre Andreoletti IUT d Orléans Laboratoire MAPMO (Bât. de Mathématiques UFR Sciences) - Bureau 126 email: pierre.andreoletti@univ-orleans.fr

Plus en détail

Modélisation prédictive et incertitudes. P. Pernot. Laboratoire de Chimie Physique, CNRS/U-PSUD, Orsay

Modélisation prédictive et incertitudes. P. Pernot. Laboratoire de Chimie Physique, CNRS/U-PSUD, Orsay Modélisation prédictive et incertitudes P. Pernot Laboratoire de Chimie Physique, CNRS/U-PSUD, Orsay Plan 1 Incertitudes des modèles empiriques 2 Identification et caractérisation des paramètres incertains

Plus en détail

5 Méthodes algorithmiques

5 Méthodes algorithmiques Cours 5 5 Méthodes algorithmiques Le calcul effectif des lois a posteriori peut s avérer extrêmement difficile. En particulier, la prédictive nécessite des calculs d intégrales parfois multiples qui peuvent

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

RECHERCHE OPERATIONNELLE

RECHERCHE OPERATIONNELLE RECHERCHE OPERATIONNELLE PROBLEME DE L ARBRE RECOUVRANT MINIMAL I - INTRODUCTION (1) Définitions (2) Propriétés, Conditions d existence II ALGORITHMES (1) Algorithme de KRUSKAL (2) Algorithme de PRIM I

Plus en détail

MCMC et approximations en champ moyen pour les modèles de Markov

MCMC et approximations en champ moyen pour les modèles de Markov MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:

Plus en détail

Arbres binaires. Hélène Milhem. Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012

Arbres binaires. Hélène Milhem. Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 Arbres binaires Hélène Milhem Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 H. Milhem (IMT, INSA Toulouse) Arbres binaires IUP SID 2011-2012 1 / 35 PLAN Introduction Construction

Plus en détail

Heuristique et métaheuristique. 8. Optimisation combinatoire et métaheuristiques. Optimisation combinatoire. Problème du voyageur de commerce

Heuristique et métaheuristique. 8. Optimisation combinatoire et métaheuristiques. Optimisation combinatoire. Problème du voyageur de commerce Heuristique et métaheuristique IFT1575 Modèles de recherche opérationnelle (RO) 8. Optimisation combinatoire et métaheuristiques Un algorithme heuristique permet d identifier au moins une solution réalisable

Plus en détail

Terminale STMG Lycée Jean Vilar 2013/2014. Terminale STMG. O. Lader

Terminale STMG Lycée Jean Vilar 2013/2014. Terminale STMG. O. Lader Terminale STMG O. Lader Table des matières 1 Information chiffrée (4s) 4 1.1 Taux d évolution....................................... 6 1.2 indices............................................. 6 1.3 Racine

Plus en détail

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Baccalauréat ES/L Amérique du Sud 21 novembre 2013 Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée

Plus en détail

MASTER SIS PRO : logique et sécurité DÉTECTION D INTRUSIONS. Odile PAPINI, LSIS. Université de Toulon et du Var. papini@univ-tln.

MASTER SIS PRO : logique et sécurité DÉTECTION D INTRUSIONS. Odile PAPINI, LSIS. Université de Toulon et du Var. papini@univ-tln. MASTER SIS PRO : logique et sécurité DÉTECTION D INTRUSIONS Odile PAPINI, LSIS. Université de Toulon et du Var. papini@univ-tln.fr Plan Introduction Généralités sur les systèmes de détection d intrusion

Plus en détail

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1 Christophe CANDILLIER Cours de DataMining mars 2004 age 1 1. Introduction 2. rocessus du DataMining 3. Analyse des données en DataMining 4. Analyse en Ligne OLA 5. Logiciels 6. Bibliographie Christophe

Plus en détail

Structures de données non linéaires

Structures de données non linéaires Structures de données non linéaires I. Graphes Définition Un graphe (simple) orienté G est un couple (S, A), où : S est un ensemble dont les éléments sont appelés les sommets. A est un ensemble de couples

Plus en détail

CHAPITRE 5. Stratégies Mixtes

CHAPITRE 5. Stratégies Mixtes CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,

Plus en détail

Théorie des graphes. Introduction. Programme de Terminale ES Spécialité. Résolution de problèmes à l aide de graphes. Préparation CAPES UCBL

Théorie des graphes. Introduction. Programme de Terminale ES Spécialité. Résolution de problèmes à l aide de graphes. Préparation CAPES UCBL Introduction Ces quelques pages ont pour objectif de vous initier aux notions de théorie des graphes enseignées en Terminale ES. Le programme de Terminale (voir ci-après) est construit sur la résolution

Plus en détail

Chapitre I. Probabilités. Bcpst 1 2 novembre 2015. I Exemples d expériences aléatoires

Chapitre I. Probabilités. Bcpst 1 2 novembre 2015. I Exemples d expériences aléatoires Chapitre I Probabilités Bcpst 1 2 novembre 2015 I Exemples d expériences aléatoires Une expérience aléatoire est une expérience dont on ne peut pas prédire le résultat avant de l avoir réalisée... ce qui

Plus en détail

Introduction au cours STA 102 Analyse des données : Méthodes explicatives

Introduction au cours STA 102 Analyse des données : Méthodes explicatives Analyse des données - Méthodes explicatives (STA102) Introduction au cours STA 102 Analyse des données : Méthodes explicatives Giorgio Russolillo giorgio.russolillo@cnam.fr Infos et support du cours Slide

Plus en détail

Le test triangulaire

Le test triangulaire Le test triangulaire Objectif : Détecter l absence ou la présence de différences sensorielles entre 2 produits. «les 2 produits sont-ils perçus comme différents?» Contexte : la différence sensorielle entre

Plus en détail

Problème de contrôle optimal pour une chaîne de Markov

Problème de contrôle optimal pour une chaîne de Markov Problème de contrôle optimal pour une chaîne de Markov cours ENSTA MA206 Il s agit de résoudre un problème d arrêt optimal pour une chaîne de Markov à temps discret. Soit X n une chaîne de Markov à valeurs

Plus en détail

Arbres binaires de recherche

Arbres binaires de recherche Chapitre 1 Arbres binaires de recherche 1 Les arbre sont très utilisés en informatique, d une part parce que les informations sont souvent hiérarchisées, et peuvent être représentées naturellement sous

Plus en détail

Ch.12 : Loi binomiale

Ch.12 : Loi binomiale 4 e - programme 2007 - mathématiques ch.12 - cours Page 1 sur 5 1 RÉPÉTITION D'EXPÉRIENCES INDÉPENDANTES Lancer plusieurs fois un dé et noter les résultats successifs. Ch.12 : Loi binomiale Prélever des

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

Algorithmes probabilistes. Références: Fundamentals of Algortihms de Gilles Brassard et Paul Bratley Note de cours de Pierre McKenzie

Algorithmes probabilistes. Références: Fundamentals of Algortihms de Gilles Brassard et Paul Bratley Note de cours de Pierre McKenzie Algorithmes probabilistes Références: Fundamentals of Algortihms de Gilles Brassard et Paul Bratley Note de cours de Pierre McKenzie Mise en contexte: Indices: Vous êtes à la recherche d un trésor légendaire

Plus en détail

Cours IFT6266, Exemple d application: Data-Mining

Cours IFT6266, Exemple d application: Data-Mining Cours IFT6266, Exemple d application: Data-Mining Voici un exemple du processus d application des algorithmes d apprentissage statistique dans un contexte d affaire, qu on appelle aussi data-mining. 1.

Plus en détail

Analyse de survie appliquée à la modélisation de la transmission des maladies infectieuses : mesurer l impact des interventions

Analyse de survie appliquée à la modélisation de la transmission des maladies infectieuses : mesurer l impact des interventions Analyse de survie appliquée à la modélisation de la transmission des maladies infectieuses : mesurer l impact des interventions Génia Babykina 1 & Simon Cauchemez 2 1 Université de Lille, Faculté Ingénierie

Plus en détail

Chapitre 3 : INFERENCE

Chapitre 3 : INFERENCE Chapitre 3 : INFERENCE 3.1 L ÉCHANTILLONNAGE 3.1.1 Introduction 3.1.2 L échantillonnage aléatoire 3.1.3 Estimation ponctuelle 3.1.4 Distributions d échantillonnage 3.1.5 Intervalles de probabilité L échantillonnage

Plus en détail

Modélisation du risque opérationnel dans le secteur de l assurance

Modélisation du risque opérationnel dans le secteur de l assurance Avril 2011 N 14 Modélisation du risque opérationnel dans le secteur de l assurance Par Julie Gamonet Centre d études actuarielles Lauréate du prix du jeune actuaire 2010 Un texte paraissant dans SCOR Papers

Plus en détail

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie... 1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................

Plus en détail

Théorie de l information : historique

Théorie de l information : historique Théorie de l information : historique Développée dans les années quarante par Claude Shannon. Objectif : maximiser la quantité d information pouvant être transmise par un canal de communication imparfait.

Plus en détail

Partie I : Automates et langages

Partie I : Automates et langages 2 Les calculatrices sont interdites. N.B. : Le candidat attachera la plus grande importance à la clarté, à la précision et à la concision de la rédaction. Si un candidat est amené à repérer ce qui peut

Plus en détail

CALCUL SCIENTIFIQUE. 1 Erreur absolue et erreur relative 2. 2 Représentation des nombres sur ordinateur 3

CALCUL SCIENTIFIQUE. 1 Erreur absolue et erreur relative 2. 2 Représentation des nombres sur ordinateur 3 MTH1504 2011-2012 CALCUL SCIENTIFIQUE Table des matières 1 Erreur absolue et erreur relative 2 2 Représentation des nombres sur ordinateur 3 3 Arithmétique flottante 4 3.1 Absorption........................................

Plus en détail

Cours de Data Mining PageRank et HITS

Cours de Data Mining PageRank et HITS Cours de Data Mining PageRank et HITS Andreea Dragut Univ. Aix-Marseille, IUT d Aix-en-Provence Andreea Dragut Cours de Data Mining PageRank et HITS 1 / 48 Plan du cours Présentation Andreea Dragut Cours

Plus en détail

INF6304 Interfaces Intelligentes

INF6304 Interfaces Intelligentes INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie

Plus en détail

Cours 8: Algorithmes online

Cours 8: Algorithmes online Cours 8: Algorithmes online Offline / Online, compétitivité Bin packing, lien avec algo d approx Cache paging, adversaire, borne inférieure Accès de liste, méthode du potentiel Les k serveurs, adversaires

Plus en détail

Terminale S-SI Probabilités conditionnelles

Terminale S-SI Probabilités conditionnelles robabilités conditionnelles Table des matières 1 Introduction 2 2 Définitions 2 3 Formule des probabilités totales 3 4 Indépendance et principe du produit 5 5 Exercices 5 1 1 Introduction Lorsque 7 élèves

Plus en détail

Dans ce chapitre nous allons étudier une méthode pratique d anti-phishing, ce qui consiste à un système de classification automatique.

Dans ce chapitre nous allons étudier une méthode pratique d anti-phishing, ce qui consiste à un système de classification automatique. I INTRODUCTION Les pages de phishing sont l un des problèmes majeurs de sécurité sur internet. La majorité des attaques utilisent des méthodes sophistiquées comme les fausses pages pour tromper les utilisateurs

Plus en détail

IFT6561. Simulation: aspects stochastiques

IFT6561. Simulation: aspects stochastiques IFT 6561 Simulation: aspects stochastiques DIRO Université de Montréal Automne 2013 Détails pratiques Professeur:, bureau 3367, Pav. A.-Aisenstadt. Courriel: bastin@iro.umontreal.ca Page web: http://www.iro.umontreal.ca/~bastin

Plus en détail

I Arbres binaires. Lycée Faidherbe 2014-2015. 1 Rappels 2 1.1 Définition... 2 1.2 Dénombrements... 2 1.3 Parcours... 3

I Arbres binaires. Lycée Faidherbe 2014-2015. 1 Rappels 2 1.1 Définition... 2 1.2 Dénombrements... 2 1.3 Parcours... 3 I Arbres binaires 2014-2015 Table des matières 1 Rappels 2 1.1 Définition................................................ 2 1.2 Dénombrements............................................ 2 1.3 Parcours.................................................

Plus en détail

Projet informatique «Voyageur de commerce» Résolution approchée par algorithme génétique du problème du voyageur de commerce

Projet informatique «Voyageur de commerce» Résolution approchée par algorithme génétique du problème du voyageur de commerce Année 2007-2008 Projet informatique «Voyageur de commerce» Résolution approchée par algorithme génétique du problème du voyageur de commerce B. Monsuez Projet informatique «Voyageur de commerce» Résolution

Plus en détail

I.2 Comment passer d un signal analogique en un signal numérique sans perdre de l information?

I.2 Comment passer d un signal analogique en un signal numérique sans perdre de l information? I- Chaîne d information I.1 Généralités Dans un ballon-sonde, on trouve des capteurs (température, luminosité, pression ) plus ou moins sophistiqués. Nous allons voir que pour un problème technique identique

Plus en détail

Modèle probabiliste: Algorithmes et Complexité

Modèle probabiliste: Algorithmes et Complexité Modèles de calcul, Complexité, Approximation et Heuristiques Modèle probabiliste: Algorithmes et Complexité Jean-Louis Roch Master-2 Mathématique Informatique Grenoble-INP UJF Grenoble University, France

Plus en détail

TS. 2012/2013. Lycée Prévert. Corrigé du contrôle n 3. Durée : 3 heures. Mardi 20/11/12

TS. 2012/2013. Lycée Prévert. Corrigé du contrôle n 3. Durée : 3 heures. Mardi 20/11/12 TS. 01/013. Lycée Prévert. Corrigé du contrôle n 3. Durée : 3 heures. Mardi 0/11/1 Exercice 1 : ( 6,5 pts) Première partie : Démonstration à rédiger { Démontrer que si ( ) et (v n ) sont deux suites telles

Plus en détail

Concours 2015 Épreuve d Informatique Filière : MP Durée de l épreuve : 3 heures. L utilisation d une calculatrice est autorisée.

Concours 2015 Épreuve d Informatique Filière : MP Durée de l épreuve : 3 heures. L utilisation d une calculatrice est autorisée. A 2015 INFO. MP École des Ponts ParisTech, SUPAERO (ISAE), ENSTA ParisTech, Télécom ParisTech, Mines ParisTech, Mines de Saint-étienne, Mines Nancy, Télécom Bretagne, ENSAE ParisTech (filière MP), École

Plus en détail

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry Outils mathématiques pour le datamining http://wwwelsewarefr/univevry Géométrie Distance Distance entre parties Matrice de variance/covariance Inertie Minimisation Probabilités Définition Théorème de Bayes

Plus en détail

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé A. P. M. E. P. Exercice 1 5 points 1. Réponse d. : 1 e Le coefficient directeur de la tangente est négatif et n est manifestement pas 2e

Plus en détail

Thème 11 Réseaux de Petri Places-Transitions

Thème 11 Réseaux de Petri Places-Transitions Thème 11 Réseaux de Petri Places-Transitions Contenu du thème 1. Introduction 2. RdP PT 3. Protocoles de communication Références Diaz, Michel (2001) Les Réseaux de Petri Modèles fondamentaux, Hermes Science

Plus en détail

Table des matières. I Mise à niveau 11. Préface

Table des matières. I Mise à niveau 11. Préface Table des matières Préface v I Mise à niveau 11 1 Bases du calcul commercial 13 1.1 Alphabet grec...................................... 13 1.2 Symboles mathématiques............................... 14 1.3

Plus en détail

Sommaire. Chapitre 1 Variables et vecteurs aléatoires... 5. Chapitre 2 Variables aléatoires à densité... 65

Sommaire. Chapitre 1 Variables et vecteurs aléatoires... 5. Chapitre 2 Variables aléatoires à densité... 65 Sommaire Chapitre 1 Variables et vecteurs aléatoires............... 5 A. Généralités sur les variables aléatoires réelles.................... 6 B. Séries doubles..................................... 9

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Mathématiques : statistiques et simulation

Mathématiques : statistiques et simulation Université de Picardie - LAMFA CNRS UMR 6140 PAF Amiens - Formation Enseignement des Mathématiques - 20 janvier 2012 (Extrait du document ressource pour la classe de seconde) Dans le sens commun des sondages,

Plus en détail

indépendance, indépendance conditionnelle

indépendance, indépendance conditionnelle Plan du cours 1.2 RFIDEC cours 1 : Rappels de probas/stats (2/3) Christophe Gonzales LIP6 Université Paris 6, France 1 probabilités : événements, définition 2 probabilités conditionnelles 3 formule de

Plus en détail

Collecte de données. Laurent Dorey

Collecte de données. Laurent Dorey Laurent Dorey Mercredi 16 Décembre 2014 Programme : Recensement & Echantillonnage Étapes pour sélectionner un échantillon La population observée La base de sondage Les unités d enquête La taille de l échantillon

Plus en détail

Quelques problèmes NP-complets

Quelques problèmes NP-complets Chapitre 12 Quelques problèmes NP-complets Maintenant que nous connaissons la NP-complétude d au moins un problème (SAT), nous allons montrer qu un très grand nombre de problèmes sont NP-complets. Le livre

Plus en détail

Elma m l a ki i Haj a a j r a Alla a Tao a uf u i f q B ur u kkad a i i Sal a ma m n a e n e Be B n e a n b a d b en e b n i b i Il I ham

Elma m l a ki i Haj a a j r a Alla a Tao a uf u i f q B ur u kkad a i i Sal a ma m n a e n e Be B n e a n b a d b en e b n i b i Il I ham Exposé: la technique de simulation MONTE-CARLO Présenté par : Elmalki Hajar Bourkkadi Salmane Alla Taoufiq Benabdenbi Ilham Encadré par : Prof. Mohamed El Merouani Le plan Introduction Définition Approche

Plus en détail

Probabilités conditionnelles Loi binomiale

Probabilités conditionnelles Loi binomiale Exercices 23 juillet 2014 Probabilités conditionnelles Loi binomiale Équiprobabilité et variable aléatoire Exercice 1 Une urne contient 5 boules indiscernables, 3 rouges et 2 vertes. On tire au hasard

Plus en détail

Généralités sur les graphes

Généralités sur les graphes Généralités sur les graphes Christophe ROSSIGNOL Année scolaire 2008/2009 Table des matières 1 Notion de graphe 3 1.1 Un peu de vocabulaire.......................................... 3 1.2 Ordre d un graphe,

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Épreuve de mathématiques Terminale ES 200 minutes

Épreuve de mathématiques Terminale ES 200 minutes Examen 2 Épreuve de mathématiques Terminale ES 200 minutes L usage de la calculatrice programmable est autorisé. La bonne présentation de la copie est de rigueur. Cet examen comporte 7 pages et 5 exercices.

Plus en détail

Proposition d activité utilisant l application. Tripatouille. (http://www.malgouyres.fr/tripatouille/)

Proposition d activité utilisant l application. Tripatouille. (http://www.malgouyres.fr/tripatouille/) IREM Clermont-Ferrand Algorithmique au lycée Malika More malika.more@u-clermont1.fr 28 janvier 2011 Proposition d activité utilisant l application Tripatouille (http://www.malgouyres.fr/tripatouille/)

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Chp. 4. Minimisation d une fonction d une variable

Chp. 4. Minimisation d une fonction d une variable Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie

Plus en détail

Séquence 3. Probabilité : conditionnement. Sommaire

Séquence 3. Probabilité : conditionnement. Sommaire Séquence 3 Probabilité : conditionnement Objectifs de la séquence Dans cette première séquence sur les probabilités, on complète les connaissances des années précédentes en introduisant une notion nouvelle

Plus en détail

Apprentissage par exploration

Apprentissage par exploration Apprentissage par exploration 1/32 Introduction Méthode particulière d acquisition de connaissance : apprentissage artificiel, à partir d induction. obtention des connaissances à partir d exemples. On

Plus en détail

ANALYSE BAYESIENNE : QU EST-IL POSSIBLE DE FAIRE AVEC SAS?

ANALYSE BAYESIENNE : QU EST-IL POSSIBLE DE FAIRE AVEC SAS? ANALYSE BAYESIENNE : QU EST-IL POSSIBLE DE FAIRE AVEC SAS? L analyse bayésienne est une partie de la statistique moderne non paramétrique permettant d utiliser les probabilités conditionnelles et ainsi

Plus en détail

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles Chapitre 3 Événements indépendants et Probabilités conditionnelles Indépendance Indépendance Probabilité conditionnelle Definition Deux événements A et B sont dits indépendants si P(A B) = P(A).P(B) Attention

Plus en détail

Option Informatique Arbres binaires équilibrés

Option Informatique Arbres binaires équilibrés Option Informatique Arbres binaires équilibrés Sujet novembre 2 Partie II : Algorithmique et programmation en CaML Cette partie doit être traitée par les étudiants qui ont utilisé le langage CaML dans

Plus en détail

Algorithmique et Programmation Projets 2012/2013

Algorithmique et Programmation Projets 2012/2013 3 Dames 3. Objectif Il s agit d écrire un programme jouant aux Dames selon les règles. Le programme doit être le meilleur possible. Vous utiliserez pour cela l algorithme α β de recherche du meilleur coup

Plus en détail

Aspects théoriques et algorithmiques du calcul réparti Placement - Compléments

Aspects théoriques et algorithmiques du calcul réparti Placement - Compléments A- 0/0 Aspects théoriques et algorithmiques du calcul réparti Placement - Compléments Patrick CIARLET Enseignant-Chercheur UMA patrick.ciarlet@ensta-paristech.fr Françoise LAMOUR franc.lamour@gmail.com

Plus en détail

UNIVERSITÉ DE CERGY. LICENCE d ÉCONOMIE et FINANCE LICENCE de GESTION. Seconde année - Semestre 3 PROBABILITÉS. Cours de M. J.

UNIVERSITÉ DE CERGY. LICENCE d ÉCONOMIE et FINANCE LICENCE de GESTION. Seconde année - Semestre 3 PROBABILITÉS. Cours de M. J. Année 2013-2014 UNIVERSIÉ DE CERGY LICENCE d ÉCONOMIE et FINANCE LICENCE de GESION Seconde année - Semestre 3 PROBABILIÉS Cours de M. J. Stéphan ravaux Dirigés de Mme M. Barrié, M. J-M. Chauvet et M. J.

Plus en détail