Eléments du Calcul des Probabilités Chapitre 5: Vecteurs et processus aléatoires

Documents pareils
Programmes des classes préparatoires aux Grandes Ecoles

3. Conditionnement P (B)

Calculs de probabilités avec la loi normale

Fonctions de plusieurs variables

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Espérance conditionnelle

Probabilités III Introduction à l évaluation d options

Quantification Scalaire et Prédictive

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Probabilités sur un univers fini

Chapitre 3. Les distributions à deux variables

3 Approximation de solutions d équations

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Moments des variables aléatoires réelles

Simulation de variables aléatoires

4. Martingales à temps discret

Introduction à l étude des Corps Finis

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

1 Complément sur la projection du nuage des individus

Cours d Analyse. Fonctions de plusieurs variables

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Probabilités sur un univers fini

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Programmation linéaire

Le modèle de Black et Scholes

Intégration et probabilités TD1 Espaces mesurés Corrigé

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Sites web éducatifs et ressources en mathématiques

Cours d analyse numérique SMI-S4

Précision d un résultat et calculs d incertitudes

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Chapitre 2. Matrices

PROBABILITES ET STATISTIQUE I&II

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Intégration sur des espaces produits

3. Caractéristiques et fonctions d une v.a.

Incertitudes expérimentales

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Calcul Stochastique pour la finance. Romuald ELIE

Calcul différentiel sur R n Première partie

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

MATHS FINANCIERES. Projet OMEGA

Couples de variables aléatoires discrètes

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Résolution de systèmes linéaires par des méthodes directes

Programmation linéaire

Relation entre deux variables : estimation de la corrélation linéaire

Programmation linéaire et Optimisation. Didier Smets

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

CHAPITRE 5. Stratégies Mixtes

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

MA6.06 : Mesure et Probabilités

Amphi 3: Espaces complets - Applications linéaires continues

Optimisation, traitement d image et éclipse de Soleil

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Cours Fonctions de deux variables

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

4 Distributions particulières de probabilités

INF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies

La classification automatique de données quantitatives

Théorie de la Mesure et Intégration

M2 IAD UE MODE Notes de cours (3)

Correction du Baccalauréat S Amérique du Nord mai 2007

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Modèles et Méthodes de Réservation

OM 1 Outils mathématiques : fonction de plusieurs variables

CAPTEURS - CHAINES DE MESURES

Optimisation des fonctions de plusieurs variables

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Catalogue des connaissances de base en mathématiques dispensées dans les gymnases, lycées et collèges romands.

Probabilités. C. Charignon. I Cours 3

Méthodes de Simulation

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Calcul fonctionnel holomorphe dans les algèbres de Banach

Data Mining. Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.

Sujet 4: Programmation stochastique propriétés de fonction de recours

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Etude de fonctions: procédure et exemple

Intégration et probabilités TD1 Espaces mesurés

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Travaux dirigés d introduction aux Probabilités

Probabilités et statistique. Benjamin JOURDAIN

Que faire lorsqu on considère plusieurs variables en même temps?

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Correction de l examen de la première session

Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions.

RO04/TI07 - Optimisation non-linéaire

Apprentissage Automatique

Transcription:

Eléments du Calcul des Probabilités Chapitre 5: Vecteurs et processus aléatoires Louis Wehenkel Département d Electricité, Electronique et Informatique - Université de Liège B24/II.93 - L.Wehenkel@ulg.ac.be MATH0062-1 : 2BacIng, 2BacInf - 7/5/2013 Find slides: http://montefiore.ulg.ac.be/ lwh/probas/ Louis Wehenkel ECP... (1/34)

Vecteurs aléatoires gaussiens Louis Wehenkel ECP... (2/34)

Motivation Vecteurs aléatoires gaussiens Dans de nombreuses applications on est amené à étudier les relations entre un certain nombre (parfois plusieurs centaines, ou plusieurs milliers) de variables aléatoires à valeurs réelles. Par exemple la surveillance des installations industrielles (réacteurs chimiques, réseaux électriques) passe par l installation de capteurs (pour mesurer des débits, pressions, températures, courants, tensions, puissances,...) à certains endroits accessibles, afin de déterminer des grandeurs internes non observables directement. Dans ce chapitre on va formaliser l étude systématique de plusieurs v.a. réelles au moyen de la notion de vecteur aléatoire. Il s agit surtout de généraliser les notions vues au chapitre 4, et de développer le langage mathématique adéquat pour formuler de façon compacte et facilement exploitable les principales propriétés. Les vecteurs aléatoires gaussiens sont étudiés plus en détails, car ils juissent de propriétés particulièrement intéressantes en pratique. Louis Wehenkel ECP... (3/34)

Définition. Une v.a. vectorielle ou vecteur (colonne) aléatoire X est une application mesurable de (Ω,E,P) dans R p muni de sa σ-algèbre B R p. NB: B R p est la σ-algèbre produit de p σ-algèbres boréliennes B R. Il s agit de l ensemble des parties de R p qui peuvent être obtenues en combinant un nombre au plus dénombrable de sous-ensembles du type [a 1,b 1] [a p,b p] par intersection, union et complémentation. On peut se convaincre que le vecteur X est (E,B R p)-mesurable si et seulement si chacune de ses composantes X i est (E,B R )-mesurable. L étude de vecteurs aléatoires de dimension p est donc essentiellement équivalente à l étude conjointe de p v.a. à valeurs réelles. Louis Wehenkel ECP... (4/34)

Lois, fonctions de répartition, densités La loi de X est définie pour tout E B R p par P X (E) = P({ω Ω : X(ω) E}). (1) La fonction de répartition d un vecteur aléatoire est une fonction de R p dans l intervale [0, 1] définie par F X (x 1,x 2,...,x p) = P(X 1 < x 1,...,X p < x p), (2) où X i désigne la i-ème composante de X. Comme dans le cas scalaire, la fonction de répartition définit la loi de probabilité de X, c est-à-dire qu elle permet de calculer la probabilité de tout évenement du type {ω Ω : X(ω) E} pour tout E B R p. Si la densité existe (on dit alors que le vecteur aléatoire X est continu, ou encore que les X i sont conjointement continues), elle est définie par f X (x 1,x 2,...,x p) = p F X x 1... x p. (3) Louis Wehenkel ECP... (5/34)

Vecteur moyen et matrice de covariance On note par µ (ou µ X, si nécessaire) le vecteur moyen µ = E{X} = E{X 1}. E{X p} On note par Σ (ou Σ X, si nécessaire) la matrice de covariance. (4) Σ = E{(X µ)(x µ) T }, (5) une matrice p p dont l élément i,j vaut E{(X i µ i)(x j µ j)}. L élément i,j de Σ vaut donc Σ i,j = cov{x i,x j}. (6) En particulier, on a Σ i,i = V{X i}, puisque cov{x i,x i} = V{X i}. Dans ce qui suit, nous supposons que toutes les composantes de µ et de Σ sont finies, ce qui revient à supposer que X i L 2 Ω, i = 1,...,p. Louis Wehenkel ECP... (6/34)

Propriétés de base La matrice Σ est par définition symétrique et il est important de noter qu elle est aussi semi-définie positive (s.d.p.). On a en effet y R p que y T Σy = y T E{(X µ)(x µ) T }y (7) = E{y T (X µ)(x µ) T y} (8) = E{ y T (X µ) 2 } (9) 0. (10) Puisque l espérance d une variable positive (équation (9)) est positive. Notons que le passage de (7) à (8) est autorisé, car l espérance d une combinaison linéaire de variables est égale à la combinaison linéaire des espérances de ces variables, dès lors que ces dernières sont finies, ce qui est le cas étant données nos hypothèses. Remarquons aussi que Σ = E{XX T } µµ T. (11) En effet, Σ i,j = cov{x i,x j } = E{(X i µ i )(X j µ j )} et E{(X i µ i )(X j µ j )} = E{X i X j } µ i µ j, puisque E{(X i µ i )µ j )} = 0, que E{µ i (X j µ j )} = 0, et que E{µ i µ j } = µ i µ j. Louis Wehenkel ECP... (7/34)

Transformations linéaires Soit A une matrice r p et X un v.a. de R p. Alors Y = AX est un vecteur aléatoire de R r. On a µ Y = Aµ X et Σ Y = AΣ X A T. Soit b un vecteur de R p et X un v.a. de R p. Alors Z = b +X est un vecteur aléatoire de R p. On a µ Z = b +µ X et Σ Z = Σ X. Théorème de Cramer-Wold. La loi de X est entièrement déterminée par celles de toutes les combinaisons linéaires de ses composantes a T X, a R p. Louis Wehenkel ECP... (8/34)

Définition. X R p est (par définition) un vecteur aléatoire gaussien à p dimensions (on note X N p(µ,σ), où Σ est la matrice de covariance de X, et µ sa moyenne), si a R p, la combinaison linéaire a T X de ses composantes suit une loi de Laplace-Gauss N(a T µ,a T Σa). (Dans cette définition, nous autorisons le cas limite où a T Σa = 0). La propriété d être gaussien est donc invariante vis-à-vis de toute transformation linéaire (rotation, dilatation, translation,...) de l espace R p. Cette propriété implique en particulier que chacune des v.a. X i suit une loi gaussienne N(µ i,σ i,i) (mais la réciproque est fausse). Le théorème de Cramer-Wold implique donc que la loi d un vecteur aléatoire gaussien est entièrement déterminée par son vecteur moyen µ et sa matrice de covariance Σ. Louis Wehenkel ECP... (9/34)

Densité conjointe et indépendance mutuelle Lorsque Σ est régulière, et seulement dans ce cas, la densité existe et vaut ( 1 f X (x) = (2π) p/2 Σ exp 1 ) 2 (x µ)t Σ 1 (x µ), (12) où Σ désigne le déterminant de la matrice Σ. Par conséquent, les composantes de X sont mutuellement indépendantes si, et seulement si, Σ est une matrice diagonale, c est-à-dire si les composantes sont décorrélées deux à deux. En effet, on peut se convaincre que dans ce cas la densité conjointe se factorise en le produit des densités marginales : f X (x) = p 1 f Xi (x i), avec f Xi (x i) = exp 2πσ 2 i i=1 ( 1 ( ) ) 2 xi µ i. 2 Pour rappel: Les termes non-diagonaux Σ i,j correspondent aux covariances cov{x i ;X j }, i j, et les termes diagonaux correspondent aux variances σ 2 i des variables X i. σ i Louis Wehenkel ECP... (10/34)

On souhaite estimer la température à l intérieur d un réacteur, à l aide d une sonde de température, qui peut être placée à une certaine profondeur a dans l enceinte (voir figure). On sait que la température interne est une variable aléatoire X 1 qui suit une loi gaussienne N(µ X1,σ 2 X 1 ), avec σ 2 X 1 > 0. Le modèle physique du système permet d affirmer que la température réelle au niveau de la sonde vaut a b a X1 + T0 ou T0 représente la b b température à l extérieur du réacteur, que nous supposons connue. La valeur mesurée est entachée d une erreur de mesure Z 1 également gaussienne de moyenne µ Z1 = 0 et de variance σ 2 Z 1 > 0. La variable Z 1 est indépendante de la variable X 1. On demande de déterminer une estimation de X 1 en fonction de Y 1 et qui minimise l erreur quadratique. On demande de déterminer a de manière à minimiser l erreur quadratique d estimation, sachant que a peut varier entre 0 et a max, avec a max < b. Louis Wehenkel ECP... (11/34)

Illustration graphique: réacteur et système de mesure T 0 (température à l extérieur) b X 1 température interne a sonde Mesure : Y 1 = a b X 1 + b a b T 0 +Z 1 Louis Wehenkel ECP... (12/34)

Première analyse du problème Y 1 = a b a X1 + T0 +Z1. b b Y 1 est une combinaison linéaire des deux variables aléatoires gaussiennes indépendantes X 1 et Z 1; elle suit donc une loi gaussienne N(µ Y1,σY 2 1 ). On calcule µ Y1 = a b µx 1 + b a T0, et b σ2 Y 1 = a2 σ 2 b 2 X 1 +σz 2 1. On calcule cov{x 1,Y 1} = a b σ2 X 1. Toute combinaison linéaire de X 1 et Y 1 peut s écrire comme une combinaison linéaire de X 1 et Z 1 et est donc gaussienne. En conclusion X 1 et Y 1 sont conjointement gaussiennes. La moyenne et la matrice de covariance du vecteur [X 1,Y 1] T valent [ ] µ = µ X1 a b µx 1 + b a b T0 et Σ = [ σ 2 X1 a b σ2 X 1 a b σ2 a 2 X 1 σ 2 b 2 X 1 +σz 2 1 On a det(σ) = σ 2 X 1 σ 2 Z 1 > 0. Les deux variables possèdent donc une densité conjointe. ]. Louis Wehenkel ECP... (13/34)

Construction du meilleur estimateur linéaire Par application des formules du chapitre 4, on obtient le meilleur estimateur de X 1 sous forme d une fonction affine de Y 1 par ˆX 1 = µ X1 +λ(y 1 µ Y1 ) avec λ = ρ X1 ;Y 1 σ X1 σ Y1 = cov{x 1;Y 1 } σ 2 Y 1 = NB: on a E{ ˆX 1} = µ X1. a b σ2 X 1. a 2 b 2 σ2 +σ X 2 1 Z 1 NB: on peut aussi appliquer cette formule pour calculer l estimateur de Y 1 sous la forme d une fonction affine de X 1. On trouve Ŷ 1 = µ Y1 +ρ X1 ;Y 1 σ Y1 σ X1 (X 1 µ X1 ) avec ρ X1 ;Y 1 σ Y1 σ X1 = cov{x 1;Y 1 } σ 2 X 1 = a b. Autrement dit, Ŷ 1 = a b b a X1 + T0, c est-à-dire Ŷ b 1 = E{Y 1 X 1 }! Nous allons voir que de même ˆX 1 = E{X 1 Y 1}, cette propriété étant une propriété générale des variables conjointement gaussiennes. Louis Wehenkel ECP... (14/34)

Placement optimal de la sonde Calculons l erreur quadratique moyenne E{(X 1 ˆX 1(Y 1)) 2 }. On a E{(X 1 ˆX 1) 2 } = E{((X 1 µ X1 ) λ(y 1 µ Y1 )) 2 } avec = E{(X 1 µ X1 ) 2 }+λ 2 E{(Y 1 µ Y1 ) 2 } 2λcov{X 1;Y 1} ( ) = σx 2 1 1+λ 2σ2 Y 1 2λ cov{x1;y1} σx 2 1 σx 2 1 ( ) = σx 2 1 1 ρ 2 X 1 ;Y 1, ρ X1 ;Y 1 = a b σx 1 a 2 b 2 σ 2 X 1 +σ 2 Z 1. Pour minimiser l erreur d estimation, il faut maximiser ρ X1 ;Y 1, ce qui revient ici à choisir la valeur maximale de a, i.e. a = a max. La sonde doit donc être placée à la profondeur maximale autorisée. Louis Wehenkel ECP... (15/34)

Discussion/élaboration Quid si la température extérieure T 0 n est pas connue? Introduire dans le modèle une nouvelle v.a. X 2 pour modéliser la température extérieure : Y 1 = a b a X1 + X2 +Z1 et refaire les b b calculs... Comment étendre le système capteurs? Comment placer un second capteur pour améliorer la précision de façon optimale? Comment placer d emblée k capteurs de façon optimale? Est-ce que cela revient au même de placer d abord k 1 capteurs de façon optimale, puis d y ajouter un nouveau capteur conditionnellement optimal, étant donné le placement des k 1 précédents? Quid, si on veut utiliser le réseau de capteurs pour estimer plusieurs grandeurs simultanément, p.ex. dans notre exemple à la fois la température dans la cuve et la température externe? Louis Wehenkel ECP... (16/34)

Modèle graphique générique du problème X 1 X 2 Grandeurs à estimer Y 1 Y k Mesures Z k Z k Bruit de mesure f X1,X 2,Y 1,...,Y k (x 1,x 2,y 1,...,y k ) = f X1 (x 1 )f X2 (x 2 )f Y1 X 1,X 2 (y 1 x 1,x 2 ) f Yk X 1,X 2 (y k x 1,x 2 ) Louis Wehenkel ECP... (17/34)

(a) { [ Cas où p = 2: on a f X,Y (x,y) = Aexp 1 a c 2 [ x,ỹ] c b ][ x ỹ ]} avec [ a c c b x = x µ X (13) ỹ = y µ Y (14) ] [ = Σ 1 σ = X 2 ρσ X σ Y ρσ X σ Y σy 2 ] 1. (15) NB: la constante A est telle que f X,Y (x,y)dx dy = 1. On trouve que R 2 1 A = 2π Σ avec Σ = det(σ) = σ2 X σ2 Y (1 ρ2 ). 1 Donc f X,Y (x,y) = exp{ 1 2πσ X σ Y 1 ρ 2 2 (a x2 +2c xỹ +bỹ 2 ) } avec a = 1 σ X 2 (1 ρ2 ),b = 1 σ Y 2 (1 ρ2 ),c = ρ σ X σ Y (1 ρ 2 ). (16) Louis Wehenkel ECP... (18/34)

(b) On peut réécrire l argument de l exponentielle sous la forme 1 2 (a x2 +2c xỹ +bỹ 2 ) = x 2 2σ X 2 (1 ρ2 ) + ρ xỹ σ X σ Y (1 ρ 2 ) + ỹ 2 2σ Y 2 (1 ρ2 ) = ỹ2 2σ Y 2 On en déduit que la densité conjointe f X,Y (x,y) peut s écrire sous la forme f X,Y (x,y) = A 1 exp avec A 1 = ( exp R A 2 = exp R donc A 1 A 2 = A. { { (y µ Y) 2 2σ 2 Y (y µ Y) 2 2σ 2 Y } } A 2 exp dy) 1 = ( x µ X ρ σ X σy (y µ Y ) 2σ 2 X (1 ρ2 ) ) 2 ( x µ X ρ σ X σy (y µ Y ) 1 et 2πσY 1 dx 2σ 2 X (1 ρ2 ) = ( x ρσ X σy ỹ) 2 2σ 2 X (1 ρ2 ). ) 2 1 2πσX 1 ρ 2, et Louis Wehenkel ECP... (19/34)

(c) Puisque { } ( ) f X,Y (x,y) = A 1 exp (y µ Y) 2 x µ X ρ σ 2 X 2σY 2 A 2 exp σy (y µ Y ) 2σX 2 (1 ρ2 ), { } que A 1 exp (y µ Y) 2 2σ Y 2 = f Y (y), et que f X Y (x y) = f X,Y(x,y), on conclut que f Y (y) ( ) x µ X ρ σ 2 X f X Y (x y) = A 2 exp σy (y µ Y ) 2σX 2 (1 ρ2 ). (17) En d autres termes : La densité conditionnelle est gaussiene E{X Y} = µ X +ρ σ X σy (y µ Y ) = µ X +cov{x;y}(v{y}) 1 (y µ Y ) V{X Y} = σ 2 X (1 ρ2 ) = V{X} cov{x;y}(v{y}) 1 cov{x;y}. On vérifiera les théorèmes de l espérance et de la variance totales, en notant que puisque V{X Y} est constante on a V{X Y} = E{V{X Y}}. Louis Wehenkel ECP... (20/34)

Densité conjointe f X,Y (x,y) avec µ = 0 et Σ = I Louis Wehenkel ECP... (21/34)

{ [ Lieux de points tels que x Aexp 1 2 [ x,ỹ]σ 1 ỹ ]} = cste [ Σ = σ 2 X ρσ Xσ Y ρσ Xσ Y σ 2 X ] [ 1 ρ. Supposons que σ X = σ Y = 1, i.e. Σ = ρ 1 ], ρ = 0.9 Louis Wehenkel ECP... (22/34)

{ [ Lieux de points tels que x Aexp 1 2 [ x,ỹ]σ 1 ỹ ]} = cste [ Σ = σ 2 X ρσ Xσ Y ρσ Xσ Y σ 2 X ] [ 1 ρ. Supposons que σ X = σ Y = 1, i.e. Σ = ρ 1 ], ρ = 0.6 Louis Wehenkel ECP... (22/34)

{ [ Lieux de points tels que x Aexp 1 2 [ x,ỹ]σ 1 ỹ ]} = cste [ Σ = σ 2 X ρσ Xσ Y ρσ Xσ Y σ 2 X ] [ 1 ρ. Supposons que σ X = σ Y = 1, i.e. Σ = ρ 1 ], ρ = 0.3 Louis Wehenkel ECP... (22/34)

{ [ Lieux de points tels que x Aexp 1 2 [ x,ỹ]σ 1 ỹ ]} = cste [ Σ = σ 2 X ρσ Xσ Y ρσ Xσ Y σ 2 X ] [ 1 ρ. Supposons que σ X = σ Y = 1, i.e. Σ = ρ 1 ], ρ = 0 Louis Wehenkel ECP... (22/34)

{ [ Lieux de points tels que x Aexp 1 2 [ x,ỹ]σ 1 ỹ ]} = cste [ Σ = σ 2 X ρσ Xσ Y ρσ Xσ Y σ 2 X ] [ 1 ρ. Supposons que σ X = σ Y = 1, i.e. Σ = ρ 1 ], ρ = 0.3 Louis Wehenkel ECP... (22/34)

{ [ Lieux de points tels que x Aexp 1 2 [ x,ỹ]σ 1 ỹ ]} = cste [ Σ = σ 2 X ρσ Xσ Y ρσ Xσ Y σ 2 X ] [ 1 ρ. Supposons que σ X = σ Y = 1, i.e. Σ = ρ 1 ], ρ = 0.6 Louis Wehenkel ECP... (22/34)

{ [ Lieux de points tels que x Aexp 1 2 [ x,ỹ]σ 1 ỹ ]} = cste [ Σ = σ 2 X ρσ Xσ Y ρσ Xσ Y σ 2 X ] [ 1 ρ. Supposons que σ X = σ Y = 1, i.e. Σ = ρ 1 ], ρ = 0.9 Louis Wehenkel ECP... (22/34)

Densité conjointe f X,Y (x,y) pour ρ = 0.99 Louis Wehenkel ECP... (23/34)

Esp. cond. µ X Y (x y): ρ = 0.9,µ X = 10,µ Y = 0 σ 2 X Y = σ2 X (1 ρ2 ) = 0.19 ; µ X Y = µ X +ρ σ X σy (y µ Y ) = 10 0.9y y = 2 µ Y µ X Y = 8.2 µ X Louis Wehenkel ECP... (24/34)

Densités cond. f X Y (x y): ρ = 0.9,µ X = 10,µ Y = 0 En couleurs : f X Y (x 2),f X Y (x 0);f X Y (x 1). En noir : f X (x). y = 2 Louis Wehenkel ECP... (25/34)

Densités cond. f X Y (x y): ρ = 0.9,µ X = 10,µ Y = 0 En couleurs : f X Y (x 2),f X Y (x 0);f X Y (x 1). En noir : f X (x). y = 2, y = 0, y = 1 Louis Wehenkel ECP... (25/34)

Densités cond. f X Y (x y): ρ = 0.9,µ X = 10,µ Y = 0 En couleurs : f X Y (x 2),f X Y (x 0);f X Y (x 1). En noir : f X (x). Louis Wehenkel ECP... (25/34)

(d) Généralisation au cas d un v.a. de R p, p > 2 (nous supposons ici que la densité conjointe existe, c es-à-dire que Σ est non singulière) Si on partitionne X en deux sous-vecteurs X 1 et X 2, respectivement à k et à p k composantes, et respectivement de moyennes µ 1 et µ 2 : [ ] X1 X =, (18) X 2 la moyenne se partitionne selon [ ] µ1 µ =, (19) µ 2 et la matrice de variance-covariance se partitionne selon [ ] Σ1,1 Σ Σ = 1,2, (20) Σ 2,1 Σ 2,2 où Σ 2,1 = Σ T 1,2. NB: Si Σ est s.d.p. et non singulière, alors Σ 1,1 et Σ 2,2 sont aussi s.d.p. et non singulières. Louis Wehenkel ECP... (26/34)

(e) Les densités marginales sont gaussiennes et obtenues comme suit (cf notes): la densité marginale de X 1 est donnée par ( 1 f X1 (x 1 ) = (2π) k/2 Σ 1,1 exp 1 ) 2 (x 1 µ 1 ) T Σ 1 1,1 (x 1 µ 1 ). (21) la densité marginale de X 2 est donnée par ( 1 f X2 (x 2 ) = (2π) (p k)/2 Σ 2,2 exp 1 ) 2 (x 2 µ 2 ) T Σ 1 2,2 (x 2 µ 2 ). (22) Les densités conditionnelles sont aussi gaussiennes. Par exemple, celle de X 1 lorsque X 2 est connu est à k dimensions, et est obtenue comme suit: l espérance conditionnelle: E{X 1 X 2 } = µ 1 +Σ 1,2 Σ 1 2,2 (X 2 µ 2 ), la matrice de covariance conditionnelle: Σ 1,1 2 = Σ 1,1 Σ 1,2 Σ 1 2,2 Σ 2,1, et la densité conditionnelle s écrit donc sous la forme ( 1 f X1 X 2 (x 1 x 2 ) = exp (2π) Σ 1 ) k/2 1,1 2 2 (x 1 µ 1 2 (x 2 )) T Σ 1 1,1 2 (x 1 µ 1 2 (x 2 )), avec µ 1 2 (x 2 ) = µ 1 +Σ 1,2 Σ 1 2,2 (x 2 µ 2 ). Louis Wehenkel ECP... (27/34)

(f) Synthèse Etant donnée la densité conjointe d un vecteur aléatoire gaussien continu, les formules qui précèdent permettent d obtenir la densité marginale de n importe quel sous-ensemble de variables Le vecteur moyen est le sous-vecteur µ correspondant aux indices des variables retenues La matrice de covariance est obtenue en conservant les lignes et les collonnes de Σ correspondant aux indices des variables retenues. Etant donnée la densité conjointe d un vecteur aléatoire gaussien continu, les formules qui précèdent permettent d obtenir la densité conditionnelle de n importe quel sous-ensemble de variables par rapport à n importe quel autre sous-ensemble de variables en formant les vecteurs µ 1,µ 2, et les matrices Σ 1,1,Σ 2,2,Σ 1,2 correspondant aux indices des ces deux sous-ensembles de variables. NB: Les formules peuvent être étendues au cas où les variables ne sont pas conjointement continues, mais le traitement complet de cela sort du cadre de ce cours. Louis Wehenkel ECP... (28/34)

Théorèmes de l espérance et de la covariance totales Théorème de l espérance totale sous forme vectorielle On montre en toute généralité que si µ 1 est fini, alors E{µ 1 2 } = µ 1. (23) Dans le cas gaussien, on peut le vérifier en partant du fait que µ 1 2 = µ 1 +Σ 1,2 Σ 1 2,2 (X 2 µ 2 ). Théorème de la covariance totale On montre aussi en toute généralité que si Σ 1,1 est finie, alors E{Σ 1,1 2 }+Σµ 1 2 = Σ 1,1. (24) Dans le cas gaussien (non singulier) on peut le vérifier en tenant compte 1. du fait que Σ 1,1 2 = Σ 1,1 Σ 1,2 Σ 1 2,2 Σ 2,1 est constante et donc égale à E{Σ 1,1 2 }, et 2. du fait que la matrice de covariance du vecteur µ 1 2 = µ 1 + Σ 1,2 Σ 1 2,2 (X 2 µ 2 ) vaut (Σ 1,2 Σ 1 2,2 )Σ 2,2(Σ 1,2 Σ 1 2,2 )T = Σ 1,2 Σ 1 2,2 ΣT 1,2 = Σ 1,2Σ 1 2,2 Σ 2,1. Louis Wehenkel ECP... (29/34)

Vecteurs aléatoires gaussiens Louis Wehenkel ECP... (30/34)

Preview cours BAC3: notion de fonction aléatoire On définit la notion de fonction aléatoire comme suit : on se donne un ensemble Λ, et un espace de probabilité (Ω,E,P) on associe à chaque élément λ de Λ une v.a. X λ définie sur (Ω,E,P) et à valeurs dans un même ensemble Ω X. Pour une valeur fixée de ω, cette notion définit donc une fonction de Λ dans Ω X, d où le nom de fonction aléatoire. NB: quand Λ = {1,2,...,p} et Ω X = R, cette notion se réduit à la notion de vecteur aléatoire. Dans les applications on considère le cas où Λ désigne l axe du temps, et on utilise alors le nom de processus stochastique (temporel), le cas où Λ désigne (une partie de) l espace physique R 3 et on parle alors de champ aléatoire spatial. Lorsque Λ est le produit cartésien d un axe du temps et d un espace physique on parle de processus spatio-temporel. Louis Wehenkel ECP... (31/34)

Suggestion de la notion de processus stochastique Quelques réalisations possibles a priori Trajectoires possibles étant données les observations aux points + x(t,ω 1),x(t,ω 2),x(t,ω 3)... Louis Wehenkel ECP... (32/34)

Suggestion de la notion de champ aléatoire Louis Wehenkel ECP... (33/34)

Synthèse sur les vecteurs et processus aléatoires Le notions introduites dans ce chapitre sont essentiellement des extensions directes des notions du chapitre 4. La notation vectorielle/matricielle est pratique pour écrire de façon compacte les versions générales des formules les plus importantes. Les vecteurs aléatoires gaussiens sont intimement liés à la structure des espaces euclidiens (linéarité, et orthogonalité). Les modèles gaussiens sont à la base de très nombreuses applications du calcul de probabilités dans le domaine de l ingénieur, en particulier pour aborder des problèmes complexes: Informatique, géologie, électricité, mécanique, chimie, constructions Traitement de données biomédicaux, audio, vidéo etc. Diagnostic, systèmes de capteurs, contrôle optimal Prédiction de séries temporelles Louis Wehenkel ECP... (34/34)