Références. Compter les mots. Le langage comme donnée. Communication Langagière Ingénierie des langues et de la parole
|
|
|
- Jean-Pierre Éthier
- il y a 10 ans
- Total affichages :
Transcription
1 Communication Langagière Ingénierie des langues et de la parole 1. Introduction générale 2. Ingénierie des langues 2.1 Représentation et codage des textes 2.2 Théorie de l information et probabilités 2.3 Quelques applications du traitement automatique du langage naturel Dictionnaires et étiquetage de surface Re-ponctuation et recapitalisation de textes Traduction automatique statistique 3. Ingénierie de la parole 3.1 Rappels de traitement numérique du signal 3.2 Le signal de parole : analyse, unités pertinentes et variabilité 3.3 Codage et compression de la parole 3.4 Reconnaissance automatique de la parole 3.5 Synthèse de la parole Références Manning and Schutze: Foundations of Statistical Language Processing,1999, MIT Press, available online Jurafsky and Martin: Speech and Language Processing, 2000, Prentice Hall. Rajman M. «Speech and language engineering», 2007, EPFL Press. Le langage comme donnée Grandes quantités de textes disponibles sous forme numérique Milliards de documents disponibles sur le Web Dizaine de milliers de phrases annotées (arbres syntaxiques) Centaine de millions de mots traduits entre l anglais et d autres langues Compter les mots Statistiques sur le roman «Tom Sawyer» de M. Twain 1
2 Distributions Loi de Zipf 3993 singletons La plupart des mots apparaissent peu La plus grosse partie du texte correspond à la centaine de mots les plus fréquents Probabilités Nous pouvons estimer une distribution de probabilités à partir des fréquences des mots Cette estimation est appelée par «maximum de vraisemblance» Cette distribution répond à la question : «si je tire un mot au hasard d un texte, quelle est la probabilité que ce mot soit le mot w?» Formalisation Soit une variable aléatoire W Nous définissons la distribution de probabilités p, qui indique avec quelle vraisemblance la variable W prend la valeur w («est le mot w») 2
3 Probabilités conjointes On s intéresse à 2 variables aléatoires en même temps Exemple : les mots w1 et w2 qui apparaissent l un après l autre (un bigramme) ; on modélise cela avec la distribution p(w1,w2) Si l apparition de 2 mots en bigrammes est indépendante, nous pouvons écrire p(w1,w2) = p(w1)p(w2) ; cette hypothèse est probablement fausse! On peut estimer la probabilité conjointe de 2 variables de la même façon que ceci est fait pour une seule variable Probabilités conditionnelles Notée : p(w2 w1) Répond à la question : si la variable aléatoire W1 = w1, avec quelle vraisemblance la variable W2 prend la valeur w2 Mathématiquement, on écrit : Si W1 et W2 sont indépendantes on a alors p(w2 w1) = p(w2) Règle 1 («chain rule») Règle 2 (Règle de Bayes) Règle de Bayes Obtenue à partir de la règle précédente Etc. 3
4 Avec des ensembles P(X) signifie probabilité que X soit vrai P(baby is a boy) 0.5 (% of total that are boys) P(baby is named John) (% of total named John) Avec des ensembles P(X, Y) signifie probabilité que X et Y soient vrais tous les deux e.g. P(brown eyes, boy) Avec des ensembles P(X Y) signifie probabilité que X soit vrai quand on sait déjà que Y est vrai P(baby is named John baby is a boy) P(baby is a boy baby is named John ) 1 Avec des ensembles P(X Y) = P(X, Y) / P(Y) P(baby is named John baby is a boy) = P(baby is named John, baby is a boy) / P(baby is a boy) = / 0.5 =
5 Avec des ensembles Règle de Bayes : P(X Y) = P(Y X) P(X) / P(Y) P(named John boy) = P(boy named John) P(named John) / P(boy) Esperance Esperance d une variable aléatoire X Exemple du dé à 6 faces Variance Variance Variance Ecart type 5
6 Distributions Uniforme Tous les événements sont équiprobables P(x)=p(y) pour tout x,y Ex : dé Binomiale Une série de tirages avec résultat binaire (ex: succès/échec) Probabilité des événements p/1-p ; le probabilité d avoir r succès sur n tirages est Distributions Normale (ou gaussienne) Ex : taille des personnes, QI, hauteur des arbres Étant donné une espérance et un écart type, la distribution gaussienne est Estimation bayésienne Modèle M, données D Quel est le modèle le plus probable étant donné les données? => p(m/d) Entropie Important concept qui mesure le «degré de désordre» p(m) : probabilité a priori du modèle L estimation d un modèle p(w) avec les fréquences des mots correspond à une estimation bayésienne avec une probabilité a priori uniforme (estimation par maximum de vraisemblance) Exemples 1 événement : P(a)=1 => H(X)=-1log1=0 2 évènements équiprobables : p(a)=0/5 ; p(b)=0.5 H(X)=-0.5log log0.5=1 4 évènements équiprobables : H(X)=2 6
7 Entropie 4 évènements dont 1 plus probable que les autres p(a)=0.7 ; p(b)=0.1 ; p(c)=0.1 ; p(d)=0.1 Entropie Intuition : un bon modèle doit avoir une entropie faible Beaucoup de modèles probabilistes en traitement du langage consistent en une réduction d entropie Théorie de l information et entropie Supposons que nous voulons encoder une séquence d événements X Chaque événement est encodé par une séquence de bits Exemples Pièce : pile=0 ; face=1 4 événements équiprobables : a=00 ; b=01 ; c=10 ; d=11 Codage de huffmann (nombre de bits faible si lettre fréquente) Le nombre de bits nécessaires pour coder les événements de X est inférieur ou égal à l entropie de X Vers des modèles de langue Nous avons déjà parlé de la probabilité d un mot p(w) Mais les mots apparaissent en séquences Etant donné une séquence de mots, pouvons nous prévoir le mot suivant? 7
8 Modèles de langue Permettent de répondre à la question Quelle est la probabilité que cette chaîne de mots soit correcte? Le chat est mort =>bon Le chat est bavard =>moins bon Est chat le mort =>mauvais Utilisation Reconnaissance automatique de la parole Traduction automatique Reconnaissance des langues Reconnaissance optique de caractères. Modèles de langue Etant donnée une chaîne de mots W=w1w2w3w4 wn Hypothèse de Markov Seule l historique sur un passé limité compte Seuls les k mots précédents appartiennent à l historique Modèle d ordre k Exemple : modèle d ordre 1 (bigramme) Estimer les probabilités n-grammes Collecter des fréquences de mots et de séquences de mots sur de très grands corpus Plusieurs millions de mots Taille du modèle Pour chaque n-gramme, on doit stocker une probabilité Si on suppose un vocabulaire de mots Les modèles de langage trigrammes sont les plus utilisés 8
9 Exemple pratique A partir d un corpus de 275 millions de mots (journaux écrits en anglais type «Wall Street Journal») Qualité d un modèle de langue Peut être mesuré avec l entropie Ou la perplexité Exemple : unigramme Exemple : bigramme 9
10 Problème des événements inconnus Soit la phrase S2 they buy a new house. Le bigramme «a new» n a jamais été vu P(S2)=0!! Alors que la phrase est correcte Problème des événements inconnus Deux types de «zéros» Mots inconnus Problème traité avec une étiquette «INCONNU» La probabilité p(inconnu) est estimé Tendance à une sur-estimation de cette probabilité» Mécanismes de lissage N-grammes inconnus Lissage en leur donnant une faible probabilité (mais non nulle!) Retour en arrière (backoff) vers un n-gramme d ordre inférieur Donner une probabilité non nulle à des événements non rencontrés => ce n est plus une estimation par maximum de vraisemblance!! 10
Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...
1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................
Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2
Probabilités Table des matières I Petits rappels sur le vocabulaire des ensembles 2 I.1 s................................................... 2 I.2 Propriétés...................................................
Probabilités (méthodes et objectifs)
Probabilités (méthodes et objectifs) G. Petitjean Lycée de Toucy 10 juin 2007 G. Petitjean (Lycée de Toucy) Probabilités (méthodes et objectifs) 10 juin 2007 1 / 19 1 Déterminer la loi de probabilité d
Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes
IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de
Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé
Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01
Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France
Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes
Probabilités conditionnelles Loi binomiale
Exercices 23 juillet 2014 Probabilités conditionnelles Loi binomiale Équiprobabilité et variable aléatoire Exercice 1 Une urne contient 5 boules indiscernables, 3 rouges et 2 vertes. On tire au hasard
Calculs de probabilités conditionelles
Calculs de probabilités conditionelles Mathématiques Générales B Université de Genève Sylvain Sardy 20 mars 2008 1. Indépendance 1 Exemple : On lance deux pièces. Soit A l évènement la première est Pile
Probabilités. C. Charignon. I Cours 3
Probabilités C. Charignon Table des matières I Cours 3 1 Dénombrements 3 1.1 Cardinal.................................................. 3 1.1.1 Définition............................................. 3
Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien
Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien Denis Cousineau Sous la direction de Roberto di Cosmo Juin 2005 1 Table des matières 1 Présentation
Raisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
Probabilités conditionnelles
Probabilités conditionnelles Exercice Dans une usine, on utilise conjointement deux machines M et M 2 pour fabriquer des pièces cylindriques en série. Pour une période donnée, leurs probabilités de tomber
Baccalauréat ES/L Amérique du Sud 21 novembre 2013
Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée
Résumé des communications des Intervenants
Enseignements de la 1ere semaine (du 01 au 07 décembre 2014) I. Titre du cours : Introduction au calcul stochastique pour la finance Intervenante : Prof. M hamed EDDAHBI Dans le calcul différentiel dit
GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau
GEA II Introduction aux probabilités Poly. de révision Lionel Darondeau Table des matières Énoncés 4 Corrigés 10 TD 1. Analyse combinatoire 11 TD 2. Probabilités élémentaires 16 TD 3. Probabilités conditionnelles
TESTS D'HYPOTHESES Etude d'un exemple
TESTS D'HYPOTHESES Etude d'un exemple Un examinateur doit faire passer une épreuve type QCM à des étudiants. Ce QCM est constitué de 20 questions indépendantes. Pour chaque question, il y a trois réponses
Probabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Soutenance de stage Laboratoire des Signaux et Systèmes
Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud
TSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Couples de variables aléatoires discrètes
Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude
Qu est-ce qu une probabilité?
Chapitre 1 Qu est-ce qu une probabilité? 1 Modéliser une expérience dont on ne peut prédire le résultat 1.1 Ensemble fondamental d une expérience aléatoire Une expérience aléatoire est une expérience dont
LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.
LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,
Programmes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
UFR de Sciences Economiques Année 2008-2009 TESTS PARAMÉTRIQUES
Université Paris 13 Cours de Statistiques et Econométrie I UFR de Sciences Economiques Année 2008-2009 Licence de Sciences Economiques L3 Premier semestre TESTS PARAMÉTRIQUES Remarque: les exercices 2,
Calculs de probabilités
Calculs de probabilités Mathématiques Générales B Université de Genève Sylvain Sardy 13 mars 2008 1. Définitions et notations 1 L origine des probabilités est l analyse de jeux de hasard, tels que pile
Exercices sur le chapitre «Probabilités»
Arnaud de Saint Julien - MPSI Lycée La Merci 2014-2015 1 Pour démarrer Exercices sur le chapitre «Probabilités» Exercice 1 (Modélisation d un dé non cubique) On considère un parallélépipède rectangle de
Calcul élémentaire des probabilités
Myriam Maumy-Bertrand 1 et Thomas Delzant 1 1 IRMA, Université Louis Pasteur Strasbourg, France Licence 1ère Année 16-02-2006 Sommaire La loi de Poisson. Définition. Exemple. 1 La loi de Poisson. 2 3 4
Lois de probabilité. Anita Burgun
Lois de probabilité Anita Burgun Problème posé Le problème posé en statistique: On s intéresse à une population On extrait un échantillon On se demande quelle sera la composition de l échantillon (pourcentage
I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
Université Paris 8 Introduction aux probabilités 2014 2015 Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité
Université Paris 8 Introduction aux probabilités 2014 2015 Licence Informatique Exercices Ph. Guillot 1 Ensemble fondamental loi de probabilité Exercice 1. On dispose de deux boîtes. La première contient
P1 : Corrigés des exercices
P1 : Corrigés des exercices I Exercices du I I.2.a. Poker : Ω est ( l ensemble ) des parties à 5 éléments de l ensemble E des 52 cartes. Cardinal : 5 I.2.b. Bridge : Ω est ( l ensemble ) des parties à
Moments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Chapitre 3 : INFERENCE
Chapitre 3 : INFERENCE 3.1 L ÉCHANTILLONNAGE 3.1.1 Introduction 3.1.2 L échantillonnage aléatoire 3.1.3 Estimation ponctuelle 3.1.4 Distributions d échantillonnage 3.1.5 Intervalles de probabilité L échantillonnage
Introduction au datamining
Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques
PROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Travaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Probabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur
Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. [email protected]. http ://freakonometrics.blog.free.
Actuariat I ACT2121 septième séance Arthur Charpentier [email protected] http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement
Dunod, Paris, 2014 ISBN 978-2-10-059615-7
Illustration de couverture : Federo-istock.com Dunod, Paris, 2014 ISBN 978-2-10-059615-7 1.1 Symétrie du hasard et probabilité uniforme 3 1.2 Loi de probabilité sur un ensemble fini 6 1.3 Probabilité sur
t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :
Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant
Probabilités Loi binomiale Exercices corrigés
Probabilités Loi binomiale Exercices corrigés Sont abordés dans cette fiche : (cliquez sur l exercice pour un accès direct) Exercice 1 : épreuve de Bernoulli Exercice 2 : loi de Bernoulli de paramètre
Probabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
ÉPREUVE COMMUNE DE TIPE 2008 - Partie D
ÉPREUVE COMMUNE DE TIPE 2008 - Partie D TITRE : Les Fonctions de Hachage Temps de préparation :.. 2 h 15 minutes Temps de présentation devant le jury :.10 minutes Entretien avec le jury :..10 minutes GUIDE
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Théorie de l estimation et de la décision statistique
Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory
Algorithmes d'apprentissage
Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt
Exploitation et analyse des données appliquées aux techniques d enquête par sondage. Introduction.
Exploitation et analyse des données appliquées aux techniques d enquête par sondage. Introduction. Etudes et traitements statistiques des données : le cas illustratif de la démarche par sondage INTRODUCTION
NOTIONS DE PROBABILITÉS
NOTIONS DE PROBABILITÉS Sommaire 1. Expérience aléatoire... 1 2. Espace échantillonnal... 2 3. Événement... 2 4. Calcul des probabilités... 3 4.1. Ensemble fondamental... 3 4.2. Calcul de la probabilité...
Méthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12
Probabilités. I - Rappel : trois exemples. Exemple 1 : Dans une classe de 25 élèves, il y a 16 filles. Tous les élèves sont blonds ou bruns. Parmi les filles, 6 sont blondes. Parmi les garçons, 3 sont
FICHE UE Licence/Master Sciences, Technologies, Santé Mention Informatique
NOM DE L'UE : Algorithmique et programmation C++ LICENCE INFORMATIQUE Non Alt Alt S1 S2 S3 S4 S5 S6 Parcours : IL (Ingénierie Logicielle) SRI (Systèmes et Réseaux Informatiques) MASTER INFORMATIQUE Non
Introduction au Calcul des Probabilités
Université des Sciences et Technologies de Lille U.F.R. de Mathématiques Pures et Appliquées Bât. M2, F-59655 Villeneuve d Ascq Cedex Introduction au Calcul des Probabilités Probabilités à Bac+2 et plus
M2 IAD UE MODE Notes de cours (3)
M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de
Logiciel Libre Cours 3 Fondements: Génie Logiciel
Logiciel Libre Cours 3 Fondements: Génie Logiciel Stefano Zacchiroli [email protected] Laboratoire PPS, Université Paris Diderot 2013 2014 URL http://upsilon.cc/zack/teaching/1314/freesoftware/
Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette
Compression et Transmission des Signaux Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette 1 De Shannon à Mac Donalds Mac Donalds 1955 Claude Elwood Shannon 1916 2001 Monsieur X 1951 2 Où
Modélisation aléatoire en fiabilité des logiciels
collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.
Apprentissage Automatique
Apprentissage Automatique Introduction-I [email protected] www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
Arbres binaires de décision
1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression
choisir H 1 quand H 0 est vraie - fausse alarme
étection et Estimation GEL-64943 Hiver 5 Tests Neyman-Pearson Règles de Bayes: coûts connus min π R ( ) + ( π ) R ( ) { } Règles Minimax: coûts connus min max R ( ), R ( ) Règles Neyman Pearson: coûts
INF 162 Probabilités pour l informatique
Guy Melançon INF 162 Probabilités pour l informatique Licence Informatique 20 octobre 2010 Département informatique UFR Mathématiques Informatique Université Bordeaux I Année académique 2010-2011 Table
Chapitre IX. L intégration de données. Les entrepôts de données (Data Warehouses) Motivation. Le problème
Chapitre IX L intégration de données Le problème De façon très générale, le problème de l intégration de données (data integration) est de permettre un accès cohérent à des données d origine, de structuration
Probabilités. I - Expérience aléatoire. II - Evénements
Probabilités Voici le premier cours de probabilités de votre vie. N avez-vous jamais eut envie de comprendre les règles des grands joueurs de poker et de les battre en calculant les probabilités d avoir
Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de
Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos [email protected]
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Economie de l Incertain et des Incitations
Economie de l Incertain et des Incitations CHAPITRE 2 Eléments de théorie des jeux en information symétrique et asymétrique Equilibres Bayesiens - Université de Tours - M1 AGE - Arnold Chassagnon - Automne
Exercices supplémentaires sur l introduction générale à la notion de probabilité 2009-2010
Exercices supplémentaires sur l introduction générale à la notion de probabilité 2009-2010 Exercices fortement conseillés : 6, 10 et 14 1) Un groupe d étudiants est formé de 20 étudiants de première année
Filtrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
PROBABILITÉS CONDITIONNELLES
PROBABILITÉS CONDITIONNELLES A.FORMONS DES COUPLES Pour la fête de l école, les élèves de CE 2 ont préparé une danse qui s exécute par couples : un garçon, une fille. La maîtresse doit faire des essais
EI - EXERCICES DE PROBABILITES CORRIGES
EI 1 EI - EXERCICES DE PROBABILITES CORRIGES Notations 1 Les coefficients du binôme sont notés ( n p 2 Un arrangement de n objets pris p à p est noté A p n 3 Si A est un ensemble fini, on notera A ou card
Les probabilités. Guide pédagogique Le présent guide sert de complément à la série d émissions intitulée Les probabilités produite par TFO.
Guide pédagogique Le présent guide sert de complément à la série d émissions intitulée produite par TFO. Le guide Édition 1988 Rédacteur (version anglaise) : Ron Carr Traduction : Translatec Conseil Ltée
Baccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Chaînes de Markov au lycée
Journées APMEP Metz Atelier P1-32 du dimanche 28 octobre 2012 Louis-Marie BONNEVAL Chaînes de Markov au lycée Andreï Markov (1856-1922) , série S Problème 1 Bonus et malus en assurance automobile Un contrat
Data Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.
des des Data Mining Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne 2012-2013 1/65 des des 1 2 des des 3 4 Post-traitement 5 représentation : 6 2/65 des des Définition générale Le
Estimation et tests statistiques, TD 5. Solutions
ISTIL, Tronc commun de première année Introduction aux méthodes probabilistes et statistiques, 2008 2009 Estimation et tests statistiques, TD 5. Solutions Exercice 1 Dans un centre avicole, des études
Les probabilités. Chapitre 18. Tester ses connaissances
Chapitre 18 Les probabilités OBJECTIFS DU CHAPITRE Calculer la probabilité d événements Tester ses connaissances 1. Expériences aléatoires Voici trois expériences : - Expérience (1) : on lance une pièce
(51) Int Cl.: H04L 29/06 (2006.01) G06F 21/55 (2013.01)
(19) TEPZZ 8 8 4_A_T (11) EP 2 838 241 A1 (12) DEMANDE DE BREVET EUROPEEN (43) Date de publication: 18.02.1 Bulletin 1/08 (1) Int Cl.: H04L 29/06 (06.01) G06F 21/ (13.01) (21) Numéro de dépôt: 141781.4
Texte Agrégation limitée par diffusion interne
Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse
CALCUL DES PROBABILITES
CALCUL DES PROBABILITES Exemple On lance une pièce de monnaie une fois. Ensemble des événements élémentaires: E = pile, face. La chance pour obtenir pile vaut 50 %, pour obtenir face vaut aussi 50 %. Les
Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données
Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données Marc Boullé Orange Labs 2 avenue Pierre Marzin 22300 Lannion [email protected],
De la mesure à l analyse des risques
De la mesure à l analyse des risques Séminaire ISFA - B&W Deloitte Jean-Paul LAURENT Professeur à l'isfa, Université Claude Bernard Lyon 1 [email protected] http://laurent.jeanpaul.free.fr/ 0 De
données en connaissance et en actions?
1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)
1.1 Codage de source et test d hypothèse
Théorie de l information et codage 200/20 Cours 8février20 Enseignant: Marc Lelarge Scribe: Marc Lelarge Pour information Page webdu cours http://www.di.ens.fr/~lelarge/info.html Notations Pour des variables
4 Distributions particulières de probabilités
4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli
Chapitre 2. Eléments pour comprendre un énoncé
Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données
I. Cas de l équiprobabilité
I. Cas de l équiprobabilité Enoncé : On lance deux dés. L un est noir et l autre est blanc. Calculer les probabilités suivantes : A «Obtenir exactement un as» «Obtenir au moins un as» C «Obtenir au plus
Exo7. Probabilité conditionnelle. Exercices : Martine Quinio
Exercices : Martine Quinio Exo7 Probabilité conditionnelle Exercice 1 Dans la salle des profs 60% sont des femmes ; une femme sur trois porte des lunettes et un homme sur deux porte des lunettes : quelle
Modélisation et simulation
Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.
Cours d introduction à la théorie de la détection
Olivier J.J. MICHEL Département EEA, UNSA v1.mars 06 [email protected] Laboratoire LUAN UMR6525-CNRS Cours d introduction à la théorie de la détection L ensemble du document s appuie très largement
Loi d une variable discrète
MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une
Probabilités conditionnelles Exercices corrigés
Terminale S Probabilités conditionnelles Exercices corrigés Exercice : (solution Une compagnie d assurance automobile fait un bilan des frais d intervention, parmi ses dossiers d accidents de la circulation.
Modélisation du comportement habituel de la personne en smarthome
Modélisation du comportement habituel de la personne en smarthome Arnaud Paris, Selma Arbaoui, Nathalie Cislo, Adnen El-Amraoui, Nacim Ramdani Université d Orléans, INSA-CVL, Laboratoire PRISME 26 mai
Introduction aux probabilités. et à la statistique. Jean Bérard
Introduction aux probabilités et à la statistique Jean Bérard 2 Avertissement Ces notes sont en cours d élaboration. Il se peut donc qu y subsistent un certain nombre d erreurs, d incohérences, et/ou de
ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #12
ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #12 ARTHUR CHARPENTIER 1 Une compagnie d assurance modélise le montant de la perte lors d un accident par la variable aléatoire continue X uniforme sur l intervalle
N 334 - SIMON Anne-Catherine
N 334 - SIMON Anne-Catherine RÉALISATION D UN CDROM/DVD CONTENANT DES DONNÉES DU LANGAGE ORAL ORGANISÉES EN PARCOURS DIDACTIQUES D INITIATION LINGUISTIQUE A PARTIR DES BASES DE DONNÉES VALIBEL Introduction
Transmission d informations sur le réseau électrique
Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en
Traitement bas-niveau
Plan Introduction L approche contour (frontière) Introduction Objectifs Les traitements ont pour but d extraire l information utile et pertinente contenue dans l image en regard de l application considérée.
Traitement automatique des entités nommées en arabe : détection et traduction
Traitement automatique des entités nommées en arabe : détection et traduction Souhir Gahbiche-Braham Hélène Bonneau-Maynard François Yvon Université Paris Sud & LIMSI-CNRS BP 133-91403 ORSAY Cedex - France
Guidance de Statistique : Epreuve de préparation à l examen
Guidance de Statistique : Epreuve de préparation à l examen Durée totale : 90 min (1h30) 5 questions de pratique (12 pts) 20 décembre 2011 Matériel Feuilles de papier De quoi écrire Calculatrice Latte
