PROBABILITÉS ET MODÉLISATION DES INCERTITUDES

Dimension: px
Commencer à balayer dès la page:

Download "PROBABILITÉS ET MODÉLISATION DES INCERTITUDES"

Transcription

1 PROBABILITÉS ET MODÉLISATION DES INCERTITUDES Eléments de base et concepts fondamentaux Christian SOIZE Professeur des Universités Université de Marne la Vallée Mai 2004 Université de Marne la Vallée

2

3 PROBABILITÉS ET MODÉLISATION DES INCERTITUDES Eléments de base et concepts fondamentaux c Copyright Christian Soize, 2004

4

5 v Table des Matières NOTATIONS vii CHAPITRE I. PROBABILITÉS ET VARIABLES ALÉATOIRES I.1. Introduction, 1 I.2. Principes de probabilité et variables aléatoires, 2 I.2.1. Principes de la théorie des probabilités et espace probabilisé en modélisation stochastique, 2 I.2.2. Probabilité conditionnelle et indépendance de deux événements, 2 I.2.3. Indépendance de plusieurs événements, 3 I.2.4. Ensemble négligeable, propriété vraie presque sûrement, 3 I.2.5. Principe de causalité et variable aléatoire, 3 I.3. Variable aléatoire vectorielle, 4 I.3.1. Loi de probabilité d une variable aléatoire à valeurs dans Ê n, 4 I.3.2. Egalité presque sûre de variables aléatoires à valeurs dans Ê n, 5 I.3.3. Espérance mathématique et intégration des variables aléatoires à valeurs dans Ê n, 6 I.3.4. Fonction caratéristique d une variable aléatoire à valeurs dans Ê n, 6 I.3.5. Moments d une variable aléatoire à valeurs dans Ê n, 7 I.3.6. Inégalité de Markov et inégalité de Tchebychev, 7 I.4. Variable aléatoire vectorielle du second ordre, 7 I.4.1. Espace vectoriel des variables aléatoires du second ordre, 7 I.4.2. Vecteur moyen, 8 I.4.3. Matrice de corrélation, 8 I.4.4. Matrice de covariance, 9 I.4.5. Matrice d intercorrélation, 9 I.4.6. Matrice d intercovariance, 10 I.5. Exemples de lois de probabilité, 10 I.5.1. Lois de probabilité sur Ê de variables aléatoires discrètes, 10 I.5.2. Lois de probabilité sur Ê de variables aléatoires continues, 11 I.5.3. Loi de valeurs extrêmes sur Ê, 17 I.5.4. Loi normale ou loi gaussienne sur Ê n, 19 I.6. Transformations linéaires et non linéaires des variables aléatoires, 20 I.6.1. Méthode de la transformation d une mesure pour une application non linéaire bijective, 20 I.6.2. Méthode de la fonction caractéristique, 21 I.7. Calcul probabiliste du second ordre, 22 I.8. Convergence des suites de variables aléatoires, 22 I.8.1. Différents types de convergence, 22 I.8.2. Théorème central limite, 25 I.8.3. Calcul d intégrales sur Ê n par la méthode de Monte Carlo : exemple d utilisation du théorème central limite, 26

6 vi TABLE DES MATIÈRES I.9. Description des lois de probabilité, 27 I.9.1. Notations en multi-indices, 27 I.9.2. Développement de la fonction caractéristique en série des moments, 28 I.9.3. Développement de la fonction caractéristique en cumulants, 29 I.9.4. Relation entre les moments et les cumulants, 29 I.9.5. Développements des densités de probabilité sur des bases hilbertiennes, 30 I.9.6. Développement d une densité de probabilité sur les polynômes d Hermite, 32 I.10. Représentation des Variables Aléatoires avec des Séries de Polynômes : Représentation sur les Chaos, 34 I Position et données du problème, 34 I Espace de Hilbert complexe Àn,m, 34 I Représentation de la variable aléatoire Y = f(x), 36 I Décomposition sur les chaos gaussiens et exemple d utilisation, 36 I.11. Exercices, 39 Exercice I.1. Moments du second ordre des variables aléatoires vectorielles, 39 Exercice I.2. Moments du second ordre des transformations linéaires de variables aléatoires, 39 Exercice I.3. Vecteur moyen d une transformation non linéaire d une variable aléatoire vectorielle, 40 Exercice I.4. Fonction de répartition et moment du second ordre d une variable aléatoire réelle, 40 Exercice I.5. Loi de probabilité conditionnelle, 40 Exercice I.6. Inégalité de Chebychev, 41 Exercice I.7. Fonction caractéristique d une variable aléatoire vectorielle, 41 CHAPITRE II. MODÉLISATIONS PROBABILISTES ET INCERTITUDES DE MODÉLISATION EN MÉCANIQUE II.1. Introduction, 43 II.2. Problématique lié à la construction des modèles probabilistes des paramètres incertains en mécanique, 44 II.2.1. Définition d un problème simple de mécanique avec paramètre incertain, 44 II.2.2. A propos de la construction du modèle probabiliste du paramètre incertain, 44 II.2.3. Aspects méthodologiques pour la construction du modèle probabiliste des paramètres incertains, 46 II.3. Principe du maximum d entropie et construction des lois de probabilité, 50 II.3.1. Entropie et mesure absolue de l incertitude pour une variable aléatoire discrète, 50 II.3.2. Entropie et mesure relative de l incertitude pour une variable aléatoire continue vectorielle, 51 II.3.3. Principe du maximum d entropie, 54 II.3.4. Construction de la densité de probabilité en utilisant le principe du maximum d entropie, 55 II.4. Exemples de lois de probabilité construites en utilisant le principe du maximum d entropie, 57 II.4.1. Lois de probabilité à support compact pour des variables aléatoires réelles, 57 II.4.2. Lois de probabilité à support ]0, + [ pour des variables aléatoires réelles, 59 II.4.3. Lois de probabilité à support ], + [ pour des variables aléatoires réelles, 61 II.4.4. Lois de probabilité de variables aléatoires vectorielles, 62 II.5. Modélisation paramétrique des incertitudes sur les données pour un problème modèle d élastostatique, 63 II.5.1. Modèle moyen, 63 II.5.2. Modélisation probabiliste paramétrique des incertitudes sur les données, 67 II.5.3. Modéle stochastique induit par la modélisation probabiliste paramétrique des incertitudes sur les données, 70 RÉFÉRENCES

7 vii Notations [ A ] : matrice A [ A ] T : transposée de la matrice [ A ] [ A ] = [ A ] T : matrice adjointe B(a, b) : fonction beta Γ(a) Γ(b)/Γ(a + b) : ensemble des nombres complexes n : espace vectoriel hermitien de dimension n dx : mesure de Lebesgue dx 1...dx n sur Ê n det[ A ] : déterminant de la matrice [ A ] δ jk : = 1 si j = k et = 0 si j k δ y (x) : mesure de Dirac sur Ê au point y de Ê Γ(x) : fonction gamma + t x 1 e t dt définie pour x > 0 0 L 2 (A, Ê n ) : ensemble des variables aléatoires du second ordre définies : sur (A, F, P), à valeurs dans Ê n Ån,m(K) : ensemble des matrices (n, m) sur K = Ê ou Ån(K) : ensemble des matrices carrées (n, n) sur K = Ê ou Å S n(ê) : ensemble des matrices réelles (n, n) symétriques (Ê) : ensemble des matrices réelles (n, n) symétriques définies positives Å + n Å 0+ n (Ê) : ensemble des matrices réelles (n, n) symétriques positives Æ : ensemble des nombres entiers 0, 1, 2,... Ê : ensemble des nombres réels Ê + : = [0, + [ Ê : = ], 0] Ê n : espace vectoriel euclidien de dimension n tr[ A ] : trace de la matrice [A] définie par n j=1 [ A ] jj x : point (x 1,..., x n ) de Ê n z : conjugué du nombre complexe z ½B(x) : fonction indicatrice = 1 si x B et = 0 si x / B <x, y> : produit scalaire euclidien de x et y dans Ê n défini par n j=1 x jy j <x, y> Ê n : produit scalaire euclidien de x et y dans Ê n défini par n j=1 x jy j <x, y> n : produit scalaire hermitien de x et y dans n défini par n j=1 x jy j X, Y : produit scalaire dans L 2 (A, Ê n ) défini par E{<X, Y>}

8 viii PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE - Mai 2003 X, Y n : produit scalaire dans L 2 (A, n ) défini par E{<X, Y> n} x : norme euclidienne de x dans Ê n définie par <x, x> 1/2 x n : norme hermitienne de x dans n définie par <x, x> 1/2 X : norme dans L 2 (A, Ê n ) définie par X, X 1/2 X n : norme dans L 2 (A, n ) définie par X, X 1/2 n

9 1 CHAPITRE I Probabilités et Variables Aléatoires I.1. Introduction Le cours Probabilité et variables aléatoires a pour objectif l introduction des notions fondamentales de la théorie élémentaire des probabilités et des variables aléatoires du second ordre à valeurs vectorielles en dimension finie. Ces bases sont indispensables pour aborder les aspects modernes des modélisations des systèmes mécaniques complexes de l industrie, du génie civil et des technologies avancées, et seront directement utilisées par tous les autres cours du séminaire. Dans le paragraphe I.2, on présente le principe de probabilité et la notion de variable aléatoire. Le paragraphe I.3 est consacré à la description des variables aléatoires vectorielles. On y introduit la loi de probabilité d une variable aléatoire, les notions fondamentales concernant l intégration des variables aléatoires et l espérance mathématique, la notion de fonction caractéristique, les moments et l inégalité de Tchebychev. Le paragraphe I.4 introduit les notions fondamentales relatives aux variables aléatoires vectorielles du second ordre telles que la structure hilbertienne de l espace des variables aléatoires du second ordre, le vecteur moyen, la matrice de corrélation et la matrice de covariance. Dans le paragraphe I.5, on présente à titre d exemple, quelques lois de probabilités classiques, en particulier la loi de Poisson et la loi Gaussienne, mais aussi les lois de valeurs extrêmes. Le paragraphe I.6 est consacré à la présentation d outils généraux pour étudier les transformations linéaires et non linéaires des variables aléatoires vectorielles. Le cas particulier des calculs probabilistes du second ordre est présenté dans le paragraphe I.7. Les principaux résultats sur les types de convergence des suites de variables aléatoires et le théorème central limite sont donnés au paragraphe I.8. Dans le paragraphe I.9, on présente des notions sur la description effective des lois de probabilités telles que les développements sur les moments, les cumulants et sur les bases hilbertiennes, en particulier sur les polynômes d Hermite. Le paragraphe I.10 est consacré à la représentation des variables aléatoires du second ordre sur des bases hilbertiennes, en

10 2 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE particulier la représentation sur les chaos. Enfin, le lecteur trouvera dans le paragraphe I.11 des exercices et au paragrahe I.12 les références. I.2. Principes de Probabilité et Variables Aléatoires I.2.1. Principes de la théorie des probabilités et espace probabilisé en modélisation stochastique Le principe de probabilité pour la construction d une modélisation stochastique d une variable x à valeurs dans Ê n conduit : (1) à introduire un ensemble A dont chaque élément a A appelé événement élémentaire représente une combinaison des causes dont dépend l état de x, (2) à munir A d une tribu 1 F dont les éléments sont appelés événements, (3) à munir l espace probabilisable (A, F) d une mesure de probabilité (ou simplement d une probabilité) P qui est par définition une mesure positive bornée de masse 1, c est-à-dire : (a) pour toute suite {A n } n d événements de F deux à deux disjoints, on a P( + n=1 A n) = + n=1 P(A n). (b) pour tout A dans F, on a P(A) 0. (c) on a P(A) = 1. Le triplet (A, F, P) est appelé espace probabilisé. I.2.2. Probabilité conditionnelle et indépendance de deux événements Soit A 1 F et A 2 F deux événements arbitraires tels que P(A 2 ) > 0. Le nombre P(A 1 A 2 ) tel que P(A 1 A 2 ) = P(A 1 A 2 ) P(A 2 ) soit P(A 1 A 2 ) = P(A 1 A 2 ) P(A 2 ) (I 1) est appelé la probabilité conditionnelle de A 1 sachant A 2 ou encore la probabilité conditionnelle de A 1 par rapport à A 2. Deux événements A 1 F and A 2 F sont stochastiquement indépendants ou simplement indépendants si Donc si P(A 2 ) 0 et si A 1 est indépendant de A 2, alors P(A 1 A 2 ) = P(A 1 ) P(A 2 ). (I 2) P(A 1 A 2 ) = P(A 1 ). (I 3) 1 Définition d une tribu. Une famille F de parties d un ensemble A est une tribu si F a les trois propriétés suivantes : (P1) F contient l ensemble vide et A, (P2) F est stable par passage au complémentaire, c est-à-dire que si A F, alors le complémentaire A c =A\A de A dans A est dans F, (P3) F est stable par réunion dénombrable, c est-à-dire que si A 1,A 2,... est une famille dénombrable quelconque d éléments de F, alors n A n F. Définition d une algèbre de Boole. Une famille F de parties d un ensemble A est une algébre de Boole si F a les deux propriétés (P1) et (P2) et la propriété suivante (P3 ) F est stable par réunion finie, c est-à-dire que si A 1,A 2,...,A N est une famille finie quelconque d éléments de F, alors N n=1 A n F. Il en résulte qu une algèbre de Boole (resp. une tribu) est stable par intersection finie (resp. par intersection dénombrable).

11 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE I.2.3. Indépendance de plusieurs événements Par définition, N tribus d événements F 1,..., F N sont indépendantes si pour tous systèmes d événements A 1,..., A N tels que A n F n pour n = 1,..., N, on a P(A 1 A 2... A N ) = P(A 1 ) P(A 2 )... P(A N ). (I 4) Par définition, N événements A 1,..., A N sont indépendants si les N tribus F 1,..., F N définies par F n = {A n, A c n, A, } sont indépendantes (Ac n = A\A n est le complémentaire de A n et est l ensemble vide). I.2.4. Ensemble négligeable, propriété vraie presque sûrement Relativement à un espace probabilisé (A, F, P), un événement A 0 F est P-négligeable si P(A 0 ) = 0. Soit P(a) une proposition logique pour laquelle l événement élémentaire a A apparaît comme un paramètre. Alors on dit que P est vraie P-presque sûrement (P-p.s.) si l événement A 0 = {a A, P(a) est fause} est P-negligeable, c est-à-dire si P(A 0 ) = 0. Soit A 1 = A\A 0 = {a A, P(a) est vraie} le complément de A 0 dans A. Donc A = A 0 A 1 et A 0 A 1 = et alors P(A 1 ) = 1. C est pour cette raison que la terminologie suivante est utilisée : vraie en probabilité 1. I.2.5. Principe de causalité et variable aléatoire Soit (A, F, P) un espace probabilisé. Il existe une application X de A dans Ê n qui associe, à chaque combinaison a des causes, une combinaison X(a) des conséquences. Le principe de causalité conduit : (1) à équiper Ê n d une tribu 2 B Ê n telle que X soit une application mesurable, c est-à-dire telle que B B Ê n, X 1 (B) F, (I 5) où X 1 (B) désigne la partie {a A : X(a) B} de A qui sera aussi notée {X B} (par abus de notation) ; (2) à équiper l espace probabilisable (Ê n, B Ê n) avec la mesure de probabilité P X = X(P) telle que B B Ê n, P X (B) = P(X 1 (B)), (I 6) qui est aussi notée P X (B) = P {X B}. (I 7) Il est à noter que P X (Ê n ) = 1. L application X est appelée une variable aléatoire (v.a.) définie sur l espace probabilisé (A, F, P), à valeurs dans (Ê n, B Ê n), et la mesure de probabilité P X sur (Ê n, B Ê n) est appelée la loi de probabilité ou la distribution de probabilité de la variable aléatoire X. La variable aléatoire X est une modélisation stochastique de la variable x. Il est à noter que dans la modélisation stochastique de x par la variable aléatoire X, l application a X(a) est parfaitement définie, mais on ne sait pas décrire exactement les événements 2 La tribu B Ê n est appelée la tribu borélienne de Ên.

12 4 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE élémentaires a qui conduisent à la réalisation X(a). C est pour cela que l on introduit une mesure de probabilité P sur (A, F) ou, ce qui revient au même, une mesure de probabilité P X sur (Ê n, B Ê n). I.3. Variable Aléatoire Vectorielle Dans tout ce paragraphe, on considère une variable aléatoire X = (X 1,..., X n ) définie sur (A, F, P) à valeurs dans Ê n, avec n un entier 1, Ê n étant équipé de sa tribu borélienne B Ê n. I.3.1. Loi de probabilité d une variable aléatoire à valeurs dans Ê n A. Loi de probabilité La loi de probabilité (ou distribution de probabilité) de la variable aléatoire X est la mesure de probabilité P X (dx) telle que pour tout B dans B Ê n (voir Eqs. (I-6) et (I-7)) P X (dx) = P X (B) = P {X B}. (I 8) B. Loi de probabilité marginale B La loi de probabilité marginale P Xj de la variable aléatoire X j à valeurs dans Ê est la loi de probabilité P Xj (dx j ) sur Ê telle que pour tout B j dans B Ê : P Xj (B j ) = P {X 1 Ê,..., X j 1 Ê, X j B j, X j+1 Ê,..., X n Ê} = P X (dx), avec B = Ê... Ê B j Ê... Ê. C. Indépendance de variables aléatoires Si les n variables aléatoires X 1,..., X n sont indépendantes dans leur ensemble, alors B (I 9) P X (dx) = P X1 (dx 1 )... P Xn (dx n ). (I 10) D. Fonction de répartition La loi de probabilité P X peut être définie par la fonction de répartition x F X (x) de Ê n dans [0, 1] telle que F X (x) = P {X x} = P X (B x ) = P X (dy), (I 11) y B x avec B x =], x 1 ]... ], x n ] B Ê n et où X x est la partie de A telle que {a A : X 1 (a) x 1,..., X n (a) x n }. En utilisant l Eq. (I-9), on en déduit que la fonction de répartition F Xj (x j ) sur Ê de la variable aléatoire X j est reliée à F X (x) = F X (x 1,..., x j 1, x j, x j+1,..., x n ) par la formule P(X j x j ) = F Xj (x j ) = F X (+,..., +, x j, +,..., + ). (I 12)

13 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE E. Densité de probabilité Si la mesure de probabilité P X (dx) admet une densité par rapport à la mesure de Lebesgue dx = dx 1...dx n, c est-à-dire si P X (dx) = p X (x) dx, (I 13) alors la fonction x p X (x) définie sur Ê n à valeurs dans Ê + = [0, + [ est appelée la fonction de densité de probabilité (f.d.p.) de la loi de probabilité de la variable aléatoire X. On en déduit que p X est une fonction à valeurs positives qui est intégrable sur Ê n car P X (Ê n ) = P X (dx) = p X (x) dx = 1. (I 14) Ê n Ê n Si le support de la mesure de probabilité P X (dx) est la partie compacte K de Ê n, alors la fonction de densité de probabilité p X est à support compact K et dans ce cas, p X (x) = 0 pour tout x / K. En utilisant l Eq. (I-9), on en déduit que la densité de probabilité p Xj (x j ) sur Ê par rapport à dx j de la variable aléatoire X j est reliée à p X (x) = p X (x 1,..., x j 1, x j, x j+1,..., x n ) par la formule p Xj (x j ) = p X (x 1,..., x j 1, x j, x j+1,..., x n ) dx 1...dx j 1 dx j+1...dx n Ê n 1. (I 15) F. Relation entre fonction de répartition et densité de probabilité. Variables aléatoires indépendantes Si la fonction de répartition F X est différentiable sur Ê n, alors la loi de probabilité de la variable aléatoire X admet une fonction de densité de probabilité p X telle que p X (x) = n x 1... x n F X (x). (I 16) Si les n variables aléatoires X 1,..., X n sont indépendantes dans leur ensemble, alors F X (x) = F X1 (x 1 )... F Xn (x n ), (I 17) p X (x) = p X1 (x 1 )... p Xn (x n ). (I 18) I.3.2. Egalité presque sûre de variables aléatoires à valeurs dans Ê n Soit Y une autre variable aléatoire définie sur (A, F, P) à valeurs dans Ê n. Les deux variables aléatoires X et Y sont égales presque sûrement si l événement A 0 = {a A, X(a) Y(a)} est P-négligeable, c est-à-dire si P(A 0 ) = 0. Dans toute la suite, on identifiera toujours deux variables aléatoires presque sûrement égales.

14 6 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE I.3.3 Espérance mathématique et intégration des variables aléatoires à valeurs dans Ê n Soit 1 q < + un entier positif fini. On dit que X est une variable aléatoire d ordre q si E{ X q } = A X(a) q dp(a) = x q P X (dx) < + Ê n. (I 19) E{ X q } est l espérance mathématique de la variable aléatoire X q. L espérance mathématique est un application linéaire. L ensemble de toutes les variables aléatoires, définies sur l espace probabilisé (A, F, P), à valeurs dans Ê n, d ordre q, est l espace vectoriel noté L q (A, Ê n ) (on rappelle que l on identifie les variables aléatoires égales presque sûrement). L espace vectoriel L q (A, Ê n ), équipé de la norme X (E{ X q }) 1/q, est un espace de Banach (espace vectoriel normé complet). On vérifie que si E{ X q } < + alors E{ X q } < + si q < q. I.3.4. Fonction caratéristique d une variable aléatoire à valeurs dans Ê n La fonction caractéristique de la variable aléatoire X est la fonction u Φ X (u) de Ê n dans telle que Φ X (u) = E{exp(i <u, X>)} = e i<u,x> P X (dx). (I 20) Ê n La fonction caractéristique est une fonction continue 3 sur Ê n, de type positif 4, telle que Φ X (0) = 1 et telle que, pour tout u dans Ê n, on a Φ X (u) 1. Si P X (dx) = p X (x) dx, alors l Eq. (I-20) se réécrit Φ X (u) = e i<u,x> p X (x) dx. (I 21) Ê n Comme x p X (x) est une fonction intégrable sur Ê n, le théorème des transformées de Fourier des fonctions intégrables montre que, dans ce cas, la fonction continue u Φ X (u) de Ê n dans, tend vers 0 quand u. Si de plus la fonction u Φ X (u) est intégrable sur Ê n, alors par inversion de la transformée de Fourier, on a, pour presque tout x dans Ê n, p X (x) = 1 (2π) n e i<u,x> Φ X (u) du. (I 22) Ê n Si la fonction de densité de probabilité, qui est intégrable sur Ê n, est aussi de carré intégrable sur Ê n, alors la fonction caractéristique qui est une fonction continue qui tend vers 0 à l infini, est aussi de carré intégrable sur Ê n. Dans ce cas l Eq. (I-22) tient au sens de l inversion de la transformée de Fourier dans L 2. 3 La fonction ΦX (u) est continue car elle est la transformée de Fourier d une mesure bornée. 4 La fonction ΦX (u) est de type positif ce qui signifie que, pour toute famille finie u 1,...,u m de points de Ê n, et pour toute famille z 1,...,z n de nombre complexes, on a n j,k=1 Φ X(u k u j ) z k z j 0. Cette propriété résulte du fait que la mesure de probabilité est une mesure positive.

15 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE I.3.5. Moments d une variable aléatoire à valeurs dans Ê n Soit = (α 1,..., α n ) Æ n le multi-indice d ordre n avec α k un entier positif ou nul pour k {1,..., n}. Le moment d ordre de la variable aléatoire X, noté m, est défini par m = E{X α X α n n } = x α xα n n P X(dx). (I 23) Ê n Si X est une variable aléatoire d ordre q, alors on a m < + pour tout multi-indice tel que = α α n q. Dans ce cas, en utilisant l Eq. (I-20), on obtient la relation { α 1 u α α n } u α Φ n X (u) = m i. (I 24) n u=0 I.3.6. Inégalité de Markov et inégalité de Tchebychev A. Inégalité de Markov Soit X une variable aléatoire réelle positive de moyenne m X = E{X} > 0 finie. Alors, pour tout réel positif λ > 0, on a P {X λ m X } 1 λ. (I 25) B. Inégalité de Tchebychev Soit Y une variable aléatoire définie sur (A, F, P) à valeurs dans Ê et soit y f(y) une fonction définie sur Ê +, monotone et non décroissante. Alors, pour tout ε > 0, on a P { Y ε} E{f( Y )} f(ε). (I 26) Par exemple, si Y = X m X avec X une variable aléatoire à valeurs dans Ê, m X = E{X}, f(y) = y 2, ε = kσ X avec k > 0 et σ 2 X = E{(X m X) 2 }, alors l Eq. (I-26) donne P { X m X kσ X } 1 k 2. (I 27) I.4. Variable Aléatoire Vectorielle du Second Ordre I.4.1. Espace vectoriel des variables aléatoires du second ordre Une variable aléatoire X définie sur (A, F, P), à valeurs dans Ê n est une variable aléatoire du second ordre si X est d ordre q = 2, c est-à-dire si X L 2 (A, Ê n ), c est-à-dire si E{ X 2 } < +. (I 28) On note X la norme de X L 2 (A, Ê n ) qui est telle que X = ( E{ X 2 } ) 1/2. (I 29)

16 8 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE En identifiant deux variables aléatoires égales presque sûrement, la forme bilinéaire sur L 2 (A, Ê n ) L 2 (A, Ê n ), définie par (X, Y) X, Y = E{<X, Y>} = <x, y> P XY (dx, dy) (I 30) Ê n Ê n est un produit scalaire sur L 2 (A, Ê n ), où P XY (dx, dy) est la loi de probabilité conjointe des variables aléatoires X and Y. La norme associée est X X = X, X 1/2. L espace L 2 (A, Ê n ) est équipé du produit scalaire défini par l Eq. (I-30) et donc, L 2 (A, Ê n ) est un espace de Hilbert. En appliquant l inégalité de Cauchy-Schwarz au produit scalaire.,., on obtient l inégalité classique pour toutes variables aléatoires X et Y du second ordre, I.4.2. Vecteur moyen X, Y X Y. (I 31) Le vecteur moyen (ou moyenne) de la variable aléatoire X est le vecteur m X Ê n défini par m X = E{X}, (I 32) tel que pour tout j {1,..., n}, ses composantes s écrivent {m X } j = E{X j } = m Xj = x j P X (dx) = x j P Xj (dx j ). (I 33) Ê n Ê Si la variable aléatoire X n est pas centrée, c est-à-dire si m X 0, alors est une variable aléatoire centrée car m Y = 0. I.4.3. Matrice de corrélation Y = X m X (I 34) La matrice de corrélation [R X ] Ån(Ê) de la variable aléatoire X est définie par et est telle que pour tout j et k dans {1,..., n} : [R X ] = E{XX T }, (I 35) [R X ] jk = E{X j X k } = X j, X k = R Xj X k = x j x k P X (dx) = x j x k P Xj X k (dx j, dx k ), (I 36) Ê n Ê Ê où P Xj X k (dx j, dx k ) est la loi de probabilité conjointe des deux variables aléatoires X j et X k. La matrice [R X ] est symétrique définie positive (c est-à-dire appartient à Å + n (Ê)) ou est symétrique positive (c est-à-dire appartient à Å 0+ n (Ê)). Dans ce dernier cas, la variable aléatoire est dégénérée. La trace de la matrice de corrélation est finie : tr[r X ] = E{<X, X>} = X 2 < +. (I 37) Comme R Xj X k = X j, X k, si R Xj X k = 0 pour j k, alors les variables aléatoires réelles X j et X k sont dites orthogonales. Il est à noter que si X j est indépendante de X k, alors on a R Xj X k = m Xj m Xk, et dans ce cas, X j et X k ne seront orthogonales que si X j ou X k est centrée. Enfin, l inégalité de Cauchy-Schwarz appliquée à X j, X k = R Xj X k donne R Xj X k 2 R Xj X j R Xk X k. (I 38)

17 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE I.4.4. Matrice de covariance La matrice de covariance [C X ] Ån(Ê) de la variable aléatoire X est définie comme la matrice de corrélation de la variable aléatoire centrée Y = X m X. On a donc [C X ] = E{(X m X )(X m X ) T } = [R X ] m X m T X, (I 39) et [C X ] est telle que pour tout j et k dans {1,..., n}, [C X ] jk = E{(X j m Xj )(X k m Xk )} = C Xj X k = R Xj X k m Xj m Xk. (I 40) La matrice [C X ] est symétrique définie positive (c est-à-dire appartient à Å + n (Ê)) ou est symétrique positive (c est-à-dire appartient à Å 0+ n (Ê)). Dans ce dernier cas, la variable aléatoire est dégénérée. La trace de la matrice de covariance est finie, (i) Si j = k, alors 0 < tr[c X ] = X 2 m X 2 < +. (I 41) σ 2 X j = C Xj X j = E{(X j m Xj ) 2 } = R Xj X j m 2 X j (I 42) est la variance de la variable aléatoire réelle X j, σ Xj est son écart type et R Xj X j = E{X 2 j } est son moment d ordre deux. (ii) Si j k, alors r Xj X k = C X j X k σ Xj σ Xk (I 43) est le coefficient de corrélation des variables aléatoires réelles X j et X k, et est tel que 0 r Xj X k 1. (I 44) Si pour j k, r Xj X k = 0, alors les variables aléatoires réelles X j et X k sont dites non corrélées. Si [C X ] est une matrice diagonale, alors les variables aléatoires réelles X 1,..., X n sont non corrélées dans leur ensemble. I.4.5. Matrice d intercorrélation Soient X et Y deux variables aléatoires du second ordre à valeurs dans Ê n et Ê m respectivement. Alors la matrice d intercorrélation [R XY ] Ån,m(Ê) des variables aléatoires X and Y est définie par [R XY ] = E{XY T }. (I 45) Lorsque n = m, on a tr[r XY ] = X, Y, (I 46) et les variables aléatoires du second ordre X et Y à valeurs dans Ê n sont orthogonales si X, Y = 0, c est-à-dire si tr[r XY ] = 0.

18 10 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE I.4.6. Matrice d intercovariance Soient X et Y deux variables aléatoires du second ordre à valeurs dans Ê n et Ê m respectivement. Alors la matrice d intercovariance [C XY ] Ån,m(Ê) des variables aléatoires X et Y est définie par [C XY ] = E{(X m X )(Y m Y ) T } = [R XY ] m X m T Y. (I 47) Lorsque n = m, on a tr[c XY ] = X, Y <m X, m Y >, (I 47 ) et les variables aléatoires du second ordre X et Y à valeurs dans Ê n sont non corrélées si tr[c XY ] = 0. I.5. Exemples de Lois de Probabilité Nous donnons dans ce paragraphe des exemples de lois de probabilité d usage courant pour des variables aléatoires, discrètes, continues, scalaires et vectorielles. I.5.1. Lois de probabilité sur Ê de variables aléatoires discrètes A. Loi uniforme d une variable aléatoire discrète sur Ê La loi uniforme de la variable aléatoire discrète X à valeurs dans Ê, qui ne peut prendre avec une probabilité non nulle que les valeurs entières 1, 2,..., n, s écrit P X (dx) = 1 n δ 1(x) + 1 n δ 2(x) n δ n(x), (I 48) où δ y (x) est la mesure de Dirac sur Ê au point y. Sa fonction caractéristique s écrit, pour tout u dans Ê, Φ X (u) = 1 n (eiu + e 2iu e niu ), (I 49) On en déduit les expressions de la moyenne, du moment d ordre deux et de la variance, m X = n + 1 2, E{X 2 } = 1 n n(n + 1)(2n + 1) 6 B. Loi de Pascal d une variable aléatoire discrète sur Ê, σ 2 X = n2 1 12, (I 50) Soit p un paramètre réel tel que 0 < p < 1 et q = 1 p. La loi de Pascal, de paramètre p, de la variable aléatoire discrète X à valeurs dans Ê, qui ne peut prendre avec une probabilité non nulle que les valeurs entières 0 et 1, s écrit La fonction caractéristique s écrit, pour tout u dans Ê, P X (dx) = q δ 0 (x) + p δ 1 (x). (I 51) Φ X (u) = p e iu + q. (I 52) On en déduit les expressions de la moyenne, du moment d ordre deux et de la variance, m X = p, E{X 2 } = p, σ 2 X = pq. (I 53)

19 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE C. Loi de Bernoulli ou loi binomiale sur Ê Soient n un entier plus grand que 1 et p un réel tel que 0 < p < 1. La loi de Bernoulli de paramètres n et p, de la variable aléatoire discrète X à valeurs dans Ê, qui ne peut prendre avec une probabilité non nulle que les valeurs 0, 1, 2,..., n est la loi P X (dx) de la variable aléatoire discrète X = X 1 + X X n, où les variables aléatoires X 1,..., X n sont indépendantes dans leur ensemble, chaque variable aléatoire X j ayant la même loi de Pascal de paramètre p. Ainsi, en posant q = 1 p, on a, n P X (dx) = Ck n pk q n k δ k (x). (I 54) avec C n k k=0 = n!/(k! (n k)!). La fonction caractéristique s écrit pour tout u dans Ê On en déduit les expressions de la moyenne et de la variance, Φ X (u) = (p e iu + q) n. (I 55) m X = np, σ 2 X = npq. (I 56) D. Loi de Poisson sur Ê La loi de Poisson, de paramètre λ Ê +, de la variable aléatoire discrète X à valeurs dans Ê, qui ne peut prendre avec une probabilité non nulle que les valeurs entières de Æ = 0, 1, 2,..., s écrit P X (dx) = + k=0 La fonction caractéristique de X s écrit, pour tout u dans Ê, (k!) 1 λ k e λ δ k (x). (I 57) Φ X (u) = exp{λ(e iu 1)}. (I 58) On en déduit les expressions de la moyenne, du moment d ordre deux et de la variance, m X = λ, E{X 2 } = λ(λ + 1), σ 2 X = λ. (I 59) I.5.2. Lois de probabilité sur Ê de variables aléatoires continues Lorsque les lois de probabilité de la variable aléatoire X, à valeurs Ê, présentées dans ce paragraphe, sont normalisées, on peut construire les familles correspondantes en introduisant la variable aléatoire Y à valeurs dans Ê telle que Y = X +, X = 1 (Y ), (I 60) avec > 0 le paramètre de mise à l échelle et Ê le paramètre de localisation. Alors, la densité de probabilité p Y (y) par rapport à dy, définie pour tout y dans Ê, de la variable aléatoire Y et sa fonction caractéristique Φ Y (u), définie pour tout u dans Ê, s écrivent p Y (y) = 1 ( ) y p X, Φ Y (u) = e iu Φ X ( u), (I 61) avec p X (x) la densité de probabilité par rapport à dx de la variable aléatoire X et Φ X (u) sa fonction caractéristique.

20 12 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE A. Loi uniforme sur [a, b] Ê La loi de probabilité uniforme sur [a, b] Ê de la variable aléatoire X à valeurs dans Ê, est définie par la densité de probabilité p X (x) par rapport à dx, qui s écrit p X (x) = ½ [a,b] (x) 1 b a Pour tout u dans Ê, la fonction caractéristique s écrit, Φ X (u) =. (I 62) 1 iu(b a) (eiub e iua ). (I 63) La moyenne, le moment d ordre deux et la variance de la variable aléatoire X s écrivent m X = a + b 2, E{X 2 } = (b a) (a + b)2 4, σ 2 X = (b a)2 12. (I 64) B. Loi exponentielle sur Ê + de paramètre λ La loi de probabilité exponentielle sur Ê +, de paramètre λ > 0, de la variable aléatoire X à valeurs dans Ê, est définie par la densité de probabilité p X (x) par rapport à dx, qui s écrit p X (x) = ½ Ê +(x) λ e λx. (I 65) La variable aléatoire X prend donc ses valeurs dans Ê + presque sûrement. Pour tout u dans Ê, la fonction caractéristique s écrit, Φ X (u) = λ λ iu. (I 66) La moyenne, le moment d ordre deux et la variance de la variable aléatoire X s écrivent m X = 1 λ, E{X2 } = 2 λ 2, σ 2 X = 1 λ 2. (I 67) C. Loi gamma sur Ê + de paramètre α La loi de probabilité gamma sur Ê +, de paramètre α > 0, de la variable aléatoire X à valeurs dans Ê, est définie par la densité de probabilité p X (x) par rapport à dx, qui s écrit p X (x) = ½ Ê +(x) 1 Γ(α) xα 1 e x. (I 68) La variable aléatoire X prend donc ses valeurs dans Ê + presque sûrement. Pour tout u dans Ê, la fonction caractéristique s écrit Φ X (u) = 1 (1 iu) α. (I 69) La moyenne, le moment d ordre deux et la variance de la variable aléatoire X s écrivent m X = α, E{X 2 } = α(α + 1), σx 2 = α. (I 70)

21 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE D. Loi beta de type I sur [0, 1] de paramètres a et b La loi de probabilité beta de type I sur [0, 1], de paramètres 1 a < + et 1 b < +, de la variable aléatoire X à valeurs dans Ê, est définie par la densité de probabilité p X (x) par rapport à dx et s écrit p X (x) = ½ [0,1] (x) où B(a, b) est la fonction beta qui est définie par 1 B(a, b) xa 1 (1 x) b 1, (I 71) B(a, b) = Γ(a) Γ(b) Γ(a + b). (I 72) La variable aléatoire X prend donc ses valeurs dans [0, 1] presque sûrement. La moyenne, le moment d ordre deux et la variance de la variable aléatoire X s écrivent m X = a a + b, E{X 2 } = a2 (a + b + 1) + ab (a + b) 2 (a + b + 1), σ 2 X = ab (a + b) 2 (a + b + 1). (I 73) E. Loi beta de type II sur Ê + de paramètres a et b La loi de probabilité beta de type II sur Ê +, de paramètres 1 a < + et 1 b < +, de la variable aléatoire X à valeurs dans Ê, est définie par la densité de probabilité p X (x) par rapport à dx et s écrit p X (x) = ½ Ê +(x) 1 B(a, b) x a 1 (1 + x) a+b, (I 74) où B(a, b) est définie par l Eq. (I-72). La variable aléatoire X prend donc ses valeurs dans Ê + presque sûrement. Elle s écrit X = W, (I 75) 1 W où W est une variable aléatoire qui suit la loi beta de type I définie par l Eq. (I-71). Le moment d ordre q de la variable aléatoire X n existe que si q b 1 et s écrit alors E{X q } = Γ(a + q) Γ(b q) Γ(a) Γ(b). (I 76) On en déduit les expressions de la moyenne, du moment d ordre deux et de la variance de la variable aléatoire X, m X = a b 1, E{X 2 } = a(a + 1) (b 2)(b 1) Le moment d ordre deux et la variance existent lorsque b 3., σ 2 X = a(a + 1)(b 1) a2 (b 2) (b 2)(b 1) 2. (I 77)

22 14 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE F. Loi normale ou loi gaussienne sur Ê Soit m X Ê et soit σ X > 0. Alors la fonction Φ X, définie sur Ê à valeurs dans, telle que Φ X (u) = exp {im X u 1 } 2 σ2 X u2, (I 78) est la fonction caractéristique d une variable aléatoire du second ordre X à valeurs dans Ê, dont la loi de probabilité P X (dx) est appelée loi normale ou loi gaussienne. On vérifie facilement que les deux paramètres m X et σx 2 de cette loi sont respectivement la moyenne et la variance de la variable aléatoire X. Par transformée de Fourier inverse, on montre que la loi de probabilité P X (dx) de la variable aléatoire X s écrit P X (dx) = p X (x) dx où p X (x) est la densité de probabilité gaussienne qui s écrit, pour tout x dans Ê, p X (x) = 1 { exp 1 } 2π σx 2σX 2 (x m X ) 2. (I 79) La variable aléatoire X prend donc ses valeurs dans Ê presque sûrement. On introduit la variable aléatoire gaussienne normalisée G à valeurs Ê telle que G = X m X σ X, (I 80) qui est donc telle que m G = 0, σ G = 1. (I 81) Alors la loi de probabilité P G (dg) de la variable aléatoire G s écrit P G (dg) = p G (g) dg où p G (g) est la densité de probabilité normale canonique qui s écrit, pour tout g dans Ê, p G (g) = 1 2π exp { g2 2 }. (I 82) On en déduit que Ê exp { g2 2 } dg = 2π. (I 83) Comme la fonction g p G (g) est une fonction paire sur Ê, tous les moments d ordre impair de la variable aléatoire G sont nuls et donc, E{G 2q+1 } = 0, q = 0, 1, 2, 3,.... (I 84) Les moments d ordre pair de la variable aléatoire G s écrivent E{G 2q } = (2q 1) = (2q)! 2 q q!, q = 1, 2, 3,.... (I 85)

23 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE G. Loi du χ 2 n sur Ê+ La loi du χ 2 n sur Ê +, à n degrés de liberté, est la loi de la variable aléatoire χ 2 n à valeurs dans Ê, définie par χ 2 n = G G 2 n, (I 86) où G 1,..., G n sont des variables aléatoires gaussiennes normalisées (voir Eq. (I-82)), indépendantes dans leur ensemble. La densité de probabilité p χ 2 n (x) par rapport à dx, s écrit donc 1 p χ 2 n (x) = ½ Ê +(x) 2 n/2 Γ(n/2) x n 2 1 e x/2. (I 87) La variable aléatoire χ 2 n prend donc ses valeurs dans Ê+ presque sûrement. La fonction caractéristique s écrit, pour tout u dans Ê, Φ χ 2 n (u) = (1 2iu) n/2. (I 88) Alors la moyenne, le moment d ordre deux et la variance de la variable aléatoire χ 2 n s écrivent m χ 2 n = n, E{(χ 2 n) 2 } = n(n + 2), σ 2 χ 2 n = 2n. (I 89) H. Loi log-normale sur Ê + de paramètres m et σ La loi log-normale sur Ê + à deux paramètres m Ê et σ > 0, est la loi de la variable aléatoire X à valeurs dans Ê, définie par X = exp{w }, (I 90) où W est une variable aléatoire gaussienne sur Ê, de moyenne m et d écart type σ (voir Eq. (I-79)). La densité de probabilité p X (x) par rapport à dx, s écrit donc p X (x) = ½ Ê +(x) 1 { x σ 2π exp 1 } 2σ 2(lnx m)2. (I 91) La variable aléatoire X prend donc ses valeurs dans Ê + presque sûrement. La moyenne et la variance de la variable aléatoire X s écrivent } m X = exp {m + σ2, σx 2 2 = ( exp { 2m + σ 2}) ( exp { σ 2} 1 ). (I 92) I. Loi de Cauchy sur Ê La loi de probabilité de Cauchy sur Ê, de la variable aléatoire X à valeurs dans Ê, est définie par la densité de probabilité p X (x) par rapport à dx et s écrit p X (x) = 1 π(1 + x 2 ). (I 93) La variable aléatoire X prend donc ses valeurs dans Ê presque sûrement. Aucun moment de cette variable aléatoire n est fini. Pour tout entier q = 1, 2, 3,..., on a E{ X q } = +.

24 16 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE J. Loi de Weibull sur Ê + de paramètre α La loi de probabilité de Weibull sur Ê +, de paramètre α > 0, de la variable aléatoire X à valeurs dans Ê, est définie par la densité de probabilité p X (x) par rapport à dx et s écrit p X (x) = ½ Ê +(x) αx α 1 e xα. (I 94) La variable aléatoire X prend donc ses valeurs dans Ê + presque sûrement. La fonction de répartition de la variable aléatoire X s écrit, F X (x) = 0 si x 0 et F X (x) = 1 e xα si x > 0. (I 95) La variable aléatoire X peut s écrire X = W 1/α avec W la variable aléatoire qui suit la loi exponentielle de paramètre λ = 1, définie par l Eq. (I-65). Pour tout entier q 1, le moment d ordre q de la variable aléatoire X s écrit ( E{X q } = Γ 1 + q ). (I 96) α On en déduit les expressions de la moyenne, du moment d ordre deux et de la variance de la variable aléatoire X qui s écrivent ( m X = Γ ) α K. Loi de Student T n sur Ê (, E{X 2 } = Γ ) α (, σx 2 = Γ ) ( ( Γ α α)) (I 97) Soit G une variable aléatoire gaussienne normalisée sur Ê (voir paragraphe 5.2.F) et soit χ 2 n la variable aléatoire du χ 2 n à n degrés de liberté sur Ê+ (voir paragraphe 5.2.G). On suppose que les variables aléatoires G et χ 2 n sont indépendantes. La variable aléatoire de Student T n à n degrés de liberté est la variable aléatoire à valeurs dans Ê définie par T n = G χ 2 n /n. (I 98) La densité de probabilité p T (t) par rapport à dt, s écrit n ( ) (n+1)/2 p (t) = 1 T 1 + t2, (I 99) n nb(1/2, n/2) n avec B(a, b) la fonction beta définie par l Eq. (I-72). La variable aléatoire T n prend donc ses valeurs dans Ê presque sûrement. La variable aléatoire T n est du second ordre pour n 3. Alors, la moyenne, le moment d ordre deux et la variance de la variable aléatoire T n s écrivent m Tn = 0, E{T 2 n } = n n 2, σ 2 T n = n n 2. (I 100) Il est à noter que pour n = 1, la variable aléatoire T 1 suit la loi de Cauchy (voir paragraphe 5.2.I).

25 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE I.5.3. Loi de valeurs extrêmes sur Ê On considère n variables aléatoires X 1,..., X n du second ordre à valeurs dans Ê, indépendantes dans leur ensemble, ayant la même loi de probabilité représentée par la fonction de répartition F(x) sur Ê. On a donc F X1 (x) =... = F Xn (x) = F(x), et la fonction de répartition F X (x) du vecteur aléatoire X = (X 1,..., X n ) s écrit donc F X (x) = F(x 1 )... F(x n ) avec x = (x 1,..., x n ). Soit Y n la variable aléatoire définie par Y n = max{x 1,..., X n }, (I 101) représentant les valeurs extrêmes de X 1,..., X n. L équation (101) signifie que si x 1,..., x n est une réalisation de X 1,..., X n, alors la réalisation correspondante y de Y n est telle que y = max{x 1,..., x n }. On en déduit que On a alors le théorème important suivant. P {Y n y} = P {X 1 y,..., X n y} = P {X 1 y}... P {X n y} = {F(y)} n. (I 102) Théorème. Si il existe une suite réelle positive {a n } n (avec a n > 0) et une suite réelle {b n } n telles que { } Yn b n P y F (y) si n +, (I 103) a n avec F (y) une fonction de répartition non dégénérée, alors F (y) ne peut être que la fonction de répartition d une loi de valeurs extrêmes de type I (voir paragraphe 5.3.A), de type II (voir paragraphe 5.3.B) ou de type III (voir paragraphe 5.3.C). Il est à noter que l application de ce théorème requiert la construction d une normalisation de Y n, c est-à-dire, la construction de la suite {a n } n de mise à l échelle et de la suite {b n } n de localisation. A. Loi de valeurs extrêmes de type I sur Ê ou loi de Gumbel La loi de valeurs extrêmes de type I, ou loi de probabilité de Weibull sur Ê, de la variable aléatoire X à valeurs dans Ê, est définie par la densité de probabilité p X (x) par rapport à dx et s écrit p X (x) = exp{ x e x }. (I 104) La variable aléatoire X prend donc ses valeurs dans Ê presque sûrement. La fonction de répartition de la variable aléatoire X s écrit, Pour tout u dans Ê, la fonction caractéristique s écrit F X (x) = exp{ e x }. (I 105) Φ X (u) = Γ(1 iu). (I 106)

26 18 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE La moyenne, le moment d ordre deux et la variance de la variable aléatoire X s écrivent m X = γ, E{X 2 } = π2 6 + γ2, σx 2 = π2 6, (I 107) où γ = est la constante d Euler. La variable aléatoire X peut s écrire X = lnw avec W la variable aléatoire qui suit la loi exponentielle de paramètre λ = 1, définie par l Eq. (I-65). B. Loi de valeurs extrêmes de type II sur Ê + de paramètre α ou loi de Fréchet La loi de valeurs extrêmes de type II, ou loi de probabilité de Fréchet sur Ê +, de paramètre α > 0, de la variable aléatoire X à valeurs dans Ê, est définie par la densité de probabilité p X (x) par rapport à dx, qui s écrit p X (x) = ½ Ê +(x) αx α 1 e x α. (I 108) La variable aléatoire X prend donc ses valeurs dans Ê + presque sûrement. La fonction de répartition de la variable aléatoire X s écrit, F X (x) = 0 si x 0 et F X (x) = e x α si x > 0. (I 109) Pour tout entier q < α, le moment d ordre q de la variable aléatoire X est fini et s écrit ( E{X q } = Γ 1 q ). (I 110) α On en déduit les expressions de la moyenne, du moment d ordre deux et de la variance de la variable aléatoire X qui s écrivent ( m X = Γ 1 1 ) (, E{X 2 } = Γ 1 2 ) (, σx 2 = Γ 1 2 ) ( ( Γ (I 111) α α α α)) C. Loi de valeurs extrêmes de type III sur Ê de paramètre α, liée à la loi de Weibull La loi de valeurs extrêmes de type III sur Ê, de paramètre α > 0, est la loi de la variable aléatoire X à valeurs dans Ê, qui s écrit X = W avec W une variable aléatoire qui suit la loi de Weibull de paramètre α définie au paragraphe 5.2.J. Elle est donc définie par la densité de probabilité p X (x) suivante (par rapport à dx), p X (x) = ½ Ê (x) α( x) α 1 e ( x)α. (I 112) La variable aléatoire X prend donc ses valeurs dans Ê presque sûrement. La fonction de répartition de la variable aléatoire X s écrit, F X (x) = 1 si x 0 et F X (x) = e ( x)α si x < 0. (I 113) La moyenne, le moment d ordre deux et la variance de la variable aléatoire X s écrivent ( m X = Γ ) (, E{X 2 } = Γ ) (, σx 2 = Γ ) ( ( Γ (I 114) α α α α))

27 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE I.5.4. Loi normale ou loi gaussienne sur Ê n A. Mesure gaussienne sur Ê n On généralise dans ce paragraphe la loi normale ou loi gaussienne sur Ê présentée au paragraphe 5.2.F. Soit m X Ê n et soit [C X ] Å 0+ n (Ê) (matrice réelle symétrique positive, donc non inversible). Alors la fonction Φ X définie sur Ê n à valeurs dans, telle que { Φ X (u) = exp i <m X, u> 1 } 2 <[C X]u, u>, (I 115) est la fonction caractéristique d une variable aléatoire du second ordre X à valeurs dans Ê n, dont la loi de probabilité P X (dx) qui est appelée loi normale ou loi gaussienne. On vérifie facilement que les deux paramètres m X et [C X ] de cette loi sont respectivement la moyenne et la matrice de covariance de la variable aléatoire X. Si [C X ] Å + n (Ê) (matrice réelle symétrique définie positive, donc inversible), alors on montre que P X (dx) = p X (x) dx est définie par la densité de probabilité p X (x) qui s écrit, pour tout x Ê n, p X (x) = 1 { (2π)n det[c X ] exp 1 } 2 <[C X] 1 (x m X ),(x m X )>. (I 116) La figure 1 montre le graphe de la densité de probabilité p X pour le cas n = 2, m X = (2, 2) et [C X ] = [ I ] où [ I ] est la matrice unité. 0.2 p ( x 1,x ) X x 0 1 x Fig. 1. Densité de probabilité de la loi gaussienne sur Ê 2 B. Relations entre les moments d une variable aléatoire gaussienne vectorielle centrée Les Eqs. (I-23) et (I-24) permettent de calculer facilement les relations entre les moments d une variable aléatoire gaussienne vectorielle. Supposons que X = (X 1,..., X n ) soit centrée (m X = 0). Soient i, j, k, l, m,... des entiers dans {1,..., n} avec possibilités d égalités. Alors en utilisant les Eqs. (I-23), (I-24) et (I-115) on vérifie facilement que tous les moments d ordre impair sont nuls (par exemple E{X i X j X k } = 0) et que le moment pair d ordre 2N s écrit E{X i X j X k X l...} = (2N)! N! 2 N {E{X ix j }E{X k X l }E{X m X n }} sym, (I 117)

28 20 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE où { } sym désigne l opération de symétrisation par rapport à tous les arguments. Par exemple, pour N = 2, on a {E{X 1 X 2 }E{X 3 X 4 }} sym = 1 3 (E{X 1X 2 }E{X 3 X 4 } + E{X 4 X 1 }E{X 2 X 3 } + E{X 1 X 3 }E{X 2 X 4 }) (I 118) et par conséquent, on obtient E{X 1 X 2 X 3 X 4 } = E{X 1 X 2 }E{X 3 X 4 } + E{X 4 X 1 }E{X 2 X 3 } + E{X 1 X 3 }E{X 2 X 4 }, (I 119) ce qui donne E{X 4 1 } = 3 E{X2 1 }. C. Mesure normale canonique sur Ê n Si m X = 0 et [C X ] = [ I ], alors la densité de la mesure P X (dx) est notée ν n (x), c est-à-dire P X (dx) = ν n (x) dx avec ν n (x) = (2π) n/2 exp { 1 } 2 x 2. (I 120) La densité de probabilité ν n (x) est appelée la densité normale canonique. On en déduit que exp { 1 } Ê 2 x 2 dx = (2π) n/2. (I 121) n I.6. Transformations Linéaires et Non Linéaires des Variables Aléatoires I.6.1. Méthode de la transformation d une mesure pour une application non linéaire bijective Soient Ω n et Ω n deux parties ouvertes de Ên. Soit x y = f(x) = (f 1 (x),..., f n (x)) une application bijective de Ω n dans Ω n. On suppose que l application inverse y x = f 1 (y) est continûment différentiable de Ω n dans Ω n et que pour tout y Ω n, la matrice jacobienne [J(y)] Ån(Ê) de f 1 (y), définie par [J(y)] jk = y k f 1 j (y), (I 122) est inversible. Si X = (X 1,..., X n ) est une variable aléatoire à valeurs dans Ê n dont la loi de probabilité P X (dx) = p X (x) dx est définie par la densité p X (x) continue sur Ω n, alors la loi de probabilité P Y (dy) = p Y (y) dy sur Ω n de la variable aléatoire Y = f(x) est définie par la densité continue p Y (y) sur Ω n qui s écrit p Y (y) = p X (f 1 (y)) det[j(y)]. (I 123)

29 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE A. Application au cas d une transformation orthogonale Soit [F] Ån(Ê) la matrice telle que [F][F] T = [F] T [F] = [I ] et soit y = f(x) = [F]x. Alors, en utilisant l Eq. (I-123), on en déduit que p Y (y) = p X ([F] T y). (I 124) B. Application à la somme de deux variables aléatoires Soit X = (X 1, X 2 ) la variable aléatoire à valeurs dans Ê 2 dont la loi de probabilité est définie par une densité, P X (dx) = p X1 X 2 (x 1, x 2 ) dx 1 dx 2. On cherche la loi de probabilité P Y1 (dy 1 ) = p Y1 (y 1 ) dy 1 de la variable aléatoire Y 1 = X 1 + X 2 à valeurs dans Ê. En posant Y 2 = X 2 et en utilisant l Eq. (I-123), on en déduit que p Y1 (y 1 ) = En particulier, si X 1 et X 2 sont indépendantes, alors p Y1 (y 1 ) = (p X1 p X2 )(y 1 ) = car dans ce cas p X1 X 2 (x 1, x 2 ) = p X1 (x 1 ) p X2 (x 2 ). I.6.2. Méthode de la fonction caractéristique Ê p X1 X 2 (y 1 y 2, y 2 ) dy 2. (I 125) Ê p X1 (y 1 y 2 ) p X2 (y 2 ) dy 2, (I 126) Soit f : x y = f(x) = (f 1 (x),..., f m (x)) une application mesurable de Ê n dans Ê m. Soit X = (X 1,..., X n ) une variable aléatoire à valeurs dans Ê n dont la fonction caractéristique est la fonction u Φ X (u) continue de Ê n dans. Alors la variable aléatoire Y = f(x) à valeurs dans Ê m a pour fonction caractéristique la fonction v Φ Y (v) continue de Ê m dans telle que, pour tout v Ê m, Φ Y (v) = E{exp(i <v, f(x)>)} = e i<v,f(x)> P X (dx). Ê n (I 127) A. Application aux transformations affines de Ê n dans Ê m Soit f l application affine de Ê n dans Ê m définie par x y = f(x) = [A ] x + b, (I 128) avec b Ê m et [A ] Åm,n(Ê). La fonction caractéristique Φ Y Y = [A ] X + b est donnée par l Eq. (I-127) et s écrit de la variable aléatoire Φ Y (v) = e i<v,b> Φ X ([A ] T v), v Ê m. (I 129)

30 22 CHAPITRE I - PROBABILITES ET MODELISATION DES INCERTITUDES - C. SOIZE B. Application aux transformations affines d une variable aléatoire gaussienne sur Ê n On considère l application affine définie par l Eq. (I-128) et on suppose que la variable aléatoire X à valeurs dans Ê n est gaussienne dont le vecteur moyen est m X Ê n et la matrice de covariance [C X ] est dans Å 0+ n (Ê) ou dans Å + n (Ê). Alors la fonction caractéristique Φ Y de la variable aléatoire Y = [A ] X+b est donnée par l Eq. (I-129) avec Φ X donnée par l Eq. (I-115), ce qui, pour tout v Ê m, donne { Φ Y (v) = exp i <m Y, v> 1 } 2 <[C Y]v, v>, (I 130) avec m Y Ê m et [C Y ] dans Å 0+ m (Ê) ou dans Å+ m (Ê), tels que m Y = [A ] m X + b, [C Y ] = [A ][C X ][A ] T. (I 131) En utilisant les résultats du paragraphe 5.4, on en déduit que Y est une variable aléatoire à valeurs dans Ê m, du second ordre, gaussienne, dont le vecteur moyen m Y et la matrice de covariance [C Y ] sont donnés par l Eq. (I-131). Nous avons donc prouvé le théorème important suivant. Théorème. Toute transformation affine (et en particulier linéaire) d une variable aléatoire vectorielle gaussienne, est une variable aléatoire vectorielle gaussienne. I.7. Calcul Probabiliste du Second Ordre Soit X = (X 1,..., X n ) une variable aléatoire à valeurs dans Ê n, du second ordre, de vecteur moyen m X, de matrice de corrélation [R X ] et de matrice de covariance [C X ]. Soit f l application affine de Ê n dans Ê m définie par l Eq. (I-128). Comme l espérance mathématique est une application linéaire, on en déduit que Y = [A ]X + b est une variable aléatoire à valeurs dans Ê m, du second ordre, telle que m Y = E{Y} = [A ] m X + b, (I 132) [R Y ] = E{YY T } = [A ][R X ][A ] T + [A ] m X b T + b m X T [A ] T + b b T, (I 133) [C Y ] = [R Y ] m Y m Y T = [A ][C X ][A ] T. (I 134) Pour ce type de transformation, les grandeurs du second ordre de la variable aléatoire transformée peuvent être calculées directement indépendamment des lois de probabilité des variables aléatoires. Cette affirmation n est vraie que pour des applications linéaires ou affines et est évidemment fausse dans le cas des transformations non linéaires. I.8. Convergence des Suites de Variables Aléatoires I.8.1. Différents types de convergence Comme une suite de variables aléatoires {X ν } ν définies sur un espace probabilisé (A, F, P), à valeurs dans Ê n, constitue une suite de fonctions a X ν (a) de A dans Ê n, la convergence peut être définie de plusieurs manières.

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin. Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).

Plus en détail

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples 45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Capes 2002 - Première épreuve

Capes 2002 - Première épreuve Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série

Plus en détail

Cours d analyse numérique SMI-S4

Cours d analyse numérique SMI-S4 ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

Mesures gaussiennes et espaces de Fock

Mesures gaussiennes et espaces de Fock Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Cours d Analyse 3 Fonctions de plusieurs variables

Cours d Analyse 3 Fonctions de plusieurs variables Université Claude Bernard, Lyon I Licence Sciences, Technologies & Santé 43, boulevard 11 novembre 1918 Spécialité Mathématiques 69622 Villeurbanne cedex, France L. Pujo-Menjouet pujo@math.univ-lyon1.fr

Plus en détail

Approximations variationelles des EDP Notes du Cours de M2

Approximations variationelles des EDP Notes du Cours de M2 Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation

Plus en détail

Commun à tous les candidats

Commun à tous les candidats EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Continuité d une fonction de plusieurs variables

Continuité d une fonction de plusieurs variables Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Introduction à l étude des Corps Finis

Introduction à l étude des Corps Finis Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours MSUR T INTÉGRATION N UN DIMNSION Notes de cours André Giroux Département de Mathématiques et Statistique Université de Montréal Mai 2004 Table des matières 1 INTRODUCTION 2 1.1 xercices.............................

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Ecole Nationale de la Statistique et de l Administration Economique Théorie de la Mesure et Intégration Xavier MARY 2 Table des matières I Théorie de la mesure 11 1 Algèbres et tribus de parties d un ensemble

Plus en détail

Probabilités avancées. Florin Avram

Probabilités avancées. Florin Avram Probabilités avancées Florin Avram 24 janvier 2014 Table des matières 1 Mise en scène discrète 3 1.1 Espace des épreuves/résultats possibles, événements, espace probabilisé, mesure de probabilités, variables

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers

Plus en détail

Angles orientés et trigonométrie

Angles orientés et trigonométrie Chapitre Angles orientés et trigonométrie Ce que dit le programme : CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES Trigonométrie Cercle trigonométrique. Radian. Mesure d un angle orienté, mesure principale.

Plus en détail

Chapitre 2. Matrices

Chapitre 2. Matrices Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce

Plus en détail

Précision d un résultat et calculs d incertitudes

Précision d un résultat et calculs d incertitudes Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

Carl-Louis-Ferdinand von Lindemann (1852-1939)

Carl-Louis-Ferdinand von Lindemann (1852-1939) Par Boris Gourévitch "L'univers de Pi" http://go.to/pi314 sai1042@ensai.fr Alors ça, c'est fort... Tranches de vie Autour de Carl-Louis-Ferdinand von Lindemann (1852-1939) est transcendant!!! Carl Louis

Plus en détail

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos olivier.bos@u-paris2.fr

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Cours Fonctions de deux variables

Cours Fonctions de deux variables Cours Fonctions de deux variables par Pierre Veuillez 1 Support théorique 1.1 Représentation Plan et espace : Grâce à un repère cartésien ( ) O, i, j du plan, les couples (x, y) de R 2 peuvent être représenté

Plus en détail

Intégration sur des espaces produits

Intégration sur des espaces produits Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Intégration et probabilités TD1 Espaces mesurés

Intégration et probabilités TD1 Espaces mesurés Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?

Plus en détail

OM 1 Outils mathématiques : fonction de plusieurs variables

OM 1 Outils mathématiques : fonction de plusieurs variables Outils mathématiques : fonction de plusieurs variables PCSI 2013 2014 Certaines partie de ce chapitre ne seront utiles qu à partir de l année prochaine, mais une grande partie nous servira dès cette année.

Plus en détail

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v 1 1 2 t

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v 1 1 2 t 3.La méthode de Dirichlet 99 11 Le théorème de Dirichlet 3.La méthode de Dirichlet Lorsque Dirichlet, au début des années 180, découvre les travaux de Fourier, il cherche à les justifier par des méthodes

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Licence STS mention Mathématiques Parcours Ingénieur Télécom Bretagne (ITB)

Licence STS mention Mathématiques Parcours Ingénieur Télécom Bretagne (ITB) Licence STS mention Mathématiques Parcours Ingénieur Télécom Bretagne (ITB) FICHE D IDENTITE DE LA FORMATION Domaine de formation : Sciences, Technologies, Santé Intitulé : Licence Sciences, Technologies,

Plus en détail

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre : Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant

Plus en détail

Loi binomiale Lois normales

Loi binomiale Lois normales Loi binomiale Lois normales Christophe ROSSIGNOL Année scolaire 204/205 Table des matières Rappels sur la loi binomiale 2. Loi de Bernoulli............................................ 2.2 Schéma de Bernoulli

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

Cours de mathématiques

Cours de mathématiques DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................

Plus en détail

CCP PSI - 2010 Mathématiques 1 : un corrigé

CCP PSI - 2010 Mathématiques 1 : un corrigé CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P

Plus en détail

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300 I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,

Plus en détail

Extrait du poly de Stage de Grésillon 1, août 2010

Extrait du poly de Stage de Grésillon 1, août 2010 MINI-COURS SUR LES POLYNÔMES À UNE VARIABLE Extrait du poly de Stage de Grésillon 1, août 2010 Table des matières I Opérations sur les polynômes 3 II Division euclidienne et racines 5 1 Division euclidienne

Plus en détail

Fonctions de plusieurs variables et changements de variables

Fonctions de plusieurs variables et changements de variables Notes du cours d'équations aux Dérivées Partielles de l'isima, première année http://wwwisimafr/leborgne Fonctions de plusieurs variables et changements de variables Gilles Leborgne juin 006 Table des

Plus en détail

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Dualité dans les espaces de Lebesgue et mesures de Radon finies Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention

Plus en détail

THÉORIE DE LA MESURE ET DE L INTÉGRATION.

THÉORIE DE LA MESURE ET DE L INTÉGRATION. THÉORIE DE LA MESURE ET DE L INTÉGRATION. THIERRY GALLAY Transcrit par Tancrède LEPOINT 29 UNIVERSITÉ JOSEPH FOURIER, GRENOBLE TABLE DES MATIÈRES Avant-propos Biographie sommaire...........................................

Plus en détail

4 Distributions particulières de probabilités

4 Distributions particulières de probabilités 4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli

Plus en détail

Théorie des probabilités

Théorie des probabilités Théorie des probabilités LAVOISIER, 2008 LAVOISIER 11, rue Lavoisier 75008 Paris www.hermes-science.com www.lavoisier.fr ISBN 978-2-7462-1720-1 ISSN 1952 2401 Le Code de la propriété intellectuelle n'autorisant,

Plus en détail

Loi d une variable discrète

Loi d une variable discrète MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une

Plus en détail

Structures algébriques

Structures algébriques Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Chapitre VI Fonctions de plusieurs variables

Chapitre VI Fonctions de plusieurs variables Chapitre VI Fonctions de plusieurs variables 6. 1 Fonctions différentiables de R 2 dans R. 6. 1. 1 Définition de la différentiabilité Nous introduisons la différentiabilité sous l angle des développements

Plus en détail

Continuité et dérivabilité d une fonction

Continuité et dérivabilité d une fonction DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

Fonctions de plusieurs variables et applications pour l ingénieur

Fonctions de plusieurs variables et applications pour l ingénieur Service Commun de Formation Continue Année Universitaire 2006-2007 Fonctions de plusieurs variables et applications pour l ingénieur Polycopié de cours Rédigé par Yannick Privat Bureau 321 - Institut Élie

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les

Plus en détail

Dérivées d ordres supérieurs. Application à l étude d extrema.

Dérivées d ordres supérieurs. Application à l étude d extrema. Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une

Plus en détail

Processus aléatoires avec application en finance

Processus aléatoires avec application en finance Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et

Plus en détail

Construction de l'intégrale de Lebesgue

Construction de l'intégrale de Lebesgue Université d'artois Faculté des ciences Jean Perrin Mesure et Intégration (Licence 3 Mathématiques-Informatique) Daniel Li Construction de l'intégrale de Lebesgue 10 février 2011 La construction de l'intégrale

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Université Pierre & Marie Curie (Paris 6) Licence de Mathématiques L3 UE LM364 Intégration 1 & UE LM365 Intégration 2 Année 2010 11 Théorie de la Mesure et Intégration Responsable des cours : Amaury LAMBERT

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES. CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

Corrigé du baccalauréat S Pondichéry 12 avril 2007

Corrigé du baccalauréat S Pondichéry 12 avril 2007 Corrigé du baccalauréat S Pondichéry 1 avril 7 EXERCICE 1 Commun à tous les candidats 4 points 1 a Les vecteurs AB et AC ont pour coordonnées AB ; ; ) et AC 1 ; 4 ; 1) Ils ne sont manifestement pas colinéaires

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail