CHAÎNES DE MARKOV. Master MIMSE Bordeaux

Dimension: px
Commencer à balayer dès la page:

Download "CHAÎNES DE MARKOV. Master MIMSE Bordeaux"

Transcription

1 CHAÎNES DE MARKOV MICHEL BONNEFONT Master MIMSE Bordeaux Dans tout ce cours on se placera sur un espace d états E fini ou dénombrable. Dans ce chapitre, on va s intéresser à l étude de phénomènes aléatoires dépendant du temps. Dans l étude d un tel processus aléatoire, ce qui nous intéresse particulièrement c est de connaître la loi de ce qui va passer dans le futur en tenant compte de toutes les informations obtenues dans le passé. Dans de nombreuses situations, on peut faire l hypothèse simplificatrice suivante : A un instant t donné, le futur du processus ne dépend pas de tout le passé (c est-à-dire de toute la trajectoire jusqu à l instant t) mais juste de la position actuelle à l instant t. Le processus est alors appelé processus de Markov et dans le cas où le temps est discret : chaîne de Markov. Exemples : (1) Gestion de stock : Dans de nombreuses situations, on peut considérer que le stock à l instant n + 1 : S n+1 s écrit S n+1 S n + R n+1 où R n+1 est une variable aléatoire qui ne dépend que de la valeur du stock à l instant n : S n. (2) Prix d une action : Dans de nombreuses situations, on peut considérer que prix d une action à l instant n + 1 : A n+1 peut s écrire : A n+1 A n (1 + r n+1 ) où r n+1 est une variable aléatoire qui ne dépend que de la valeur du prix de l action à l instant n : A n. 1. Définitions et premières propriétés Définition 1.1. Soit (Ω, F, P) un espace probabilisé et (X n ) n N une suite variables aléatoires définie sur (Ω, F, P) à valeurs dans E. On dit que (X n ) n N est une chaîne de Markov si, pour tout (n + 1)-uplet (x 0, x 1,..., x n ) de points de E tel que P( {X j x j }) > 0 on a 0 j n 1 (1.1) P(X n x n X n 1 x n 1, X n 2 x n 2,..., X 0 x 0 ) P(X n x n X n 1 x n 1 ). La matrice Q n (Q n (x, y)) x,y E défine par Q n (x, y) P(X n y X n 1 x) est appelée matrice de transition de la chaîne de Markov (au temps n). Q n (x, y) désigne donc la probabilité de passer de l état x E à l état y E au temps n. On dit que la chaîne de Markov est homogène si la matrice de transition ne dépend pas de n. On note alors Q la matrice de transition. Dans toute la suite, nous ne considérerons que des chaînes de Markov homogènes. La loi de X 0 est appelée loi initiale de la chaîne de Markov. 1

2 2 MICHEL BONNEFONT La propriété (??) s appelle la propriété de Markov. Elle équivaut à dire que la loi de X n conditionnellement à (X 0, X 1,..., X n 1 ) est en fait la loi de X n conditionnellement à X n 1. La propriété de Markov signifie bien que le futur (immédiat) ne dépend du passé (toute la trajectoire) qu à travers le présent (le point actuel). Exercice 1.2. Un premier exemple : Marche aléatoire sur Z. Soit (Z n ) n N une suite de v.a. indépendantes et identiquement distribuées (i.i.d.) de loi de Rademacher R(p), 0 p 1 ; c est-à-dire, P(Z n +1) p et P(Z n 1) 1 p. On définit alors X n Z Z n, n 0 et X 0 0. Montrer que (X n ) est bien une chaîne de Markov homogène. Si p 1/2 on parle de marche aléatoire symétrique. Bien sûr, on peut faire la même chose en dimension d. La marche aléatoire symétrique est alors obtenue en prenant P(Z i e 1 ) P(Z i e 1 )... P(Z i e d ) P(Z i e d ) 1 2d, i 1, où (e 1, e 2,..., e d ) est la base usuelle de Z d. 2. Matrices stochastiques Définition 2.1. Une matrice P (P i,j ) i,j E est une matrice stochastique si elle vérifie : (1) i, j E, P i,j 0 (2) i E, j E P i,j 1 Exemple /2 1/2 0 (1) 1/3 0 2/3 est une matrice stochastique (2) La matrice P (P i,j ) i,j N donnée pour tout i N par et P 0,0 P 0,1 1/2 est stochastique. { P i,i+1 P i,i 1 1/4 P i,i 1/2 Proposition 2.3. Si Q est une matrice de transition d une chaîne de Markov, alors Q est une matrice stochastique. Preuve. Exercice. Proposition 2.4. Soient P et Q deux matrices stochastiques de même taille alors le produit P Q est aussi une matrice stochastique. Démonstration. Soient P et Q deux matrices stochastiques alors

3 CHAÎNES DE MARKOV 3 P Q est bien définie, en effet la série à termes positifs (P Q) i,j l E P i,l Q l,j converge : P et Q sont stochastiques donc, pour tout l E, Q l,j P i,l 1. P i,l 1, donc P i,l Q l,j l E l E l E Montrons que P Q est stochastique : Q) i,j j E(P P i,l Q l,j j E l E l E j E P i,l Q l,j P i,l 1. l E j E l E P i,l Q l,j par Fubini-Tonelli, 1 et Corollaire 2.5. Soit Q une matrice stochastique, alors pour tout n N, Q n est aussi une matrice stochastique. (Pour n 0, par convention, on pose Q 0 : Id). Démonstration. Récurrence immédiate (à faire soi-même). Interprétation et représentation : Il est facile d associer à une matrice stochastique un graphe orienté, pondéré. L ensemble des sommets du graphe sera l espace d états E et les arêtes orientées (pondérées) représenteront les valeurs non nulles de la matrice stochastique. Dans le cas d une matrice de transition Q d une chaîne de Markov homogène, la pondération sur l arête orientée (x, y) correspond à la probabilité de la chaîne de passer de l état x à l état y. Exercice 2.6. Faire les graphes associés aux deux exemples de l Exemple??. 3. Loi au temps n de la chaîne de Markov Pour le résultat suivant, on considère (exceptionnellement) que la chaîne de Markov n est pas nécessairement homogène. Proposition 3.1. Soit (X n ) n N une chaîne de Markov définie sur (Ω, F, P) à valeurs dans E. Pour tout n N, pour tous x, y E, on définit Q n (x, y) P(X n x X n 1 x n 1 ). Alors on a : n N, x 0, x 1,..., x n E, P(X 0 x 0, X 1 x 1,..., X n x n ) P(X 0 x 0 )Q 1 (x 0, x 1 )... Q n (x n 1, x n ). Démonstration. Montrons ce résultat par récurrence sur n. C est trivial pour n0. Supposons le résultat vrai pour n 0 alors P(X n+1 x n+1,...,x 0 x 0 ) P(X n+1 x n+1 X n x n,..., X 0 x 0 )P(X n x n,..., X 0 x 0 ), P(X n x n,..., X 0 x 0 )P(X n+1 x n+1 X n x n ), P(X n x n,..., X 0 x 0 )Q n+1 (x n, x n+1 ), P(X 0 x 0 )Q 1 (x 0, x 1 )... Q n (x n 1, x n )Q n+1 (x n, x n+1 )

4 4 MICHEL BONNEFONT On a bien démontré le résultat souhaité. Remarque 3.2. La réciproque est vraie : s il existe une suite de matrices ((Q n (x, y)) x,y E ) n N telle que n N, x 0, x 1,..., x n E, P(X 0 x 0, X 1 x 1,..., X n x n ) P(X 0 x 0 )Q 1 (x 0, x 1 )... Q n (x n 1, x n ) alors (X n ) n N est une chaîne de Markov. Exercice 3.3. Le prouver. Corollaire 3.4. Sous les mêmes hypothèses : (X n ) n 0 une chaîne de Markov non nécessairement homogène et de loi initiale L(X 0 ) : µ. La loi de X n au temps n est donnée par la formule : pour x E (3.1) P(X n x) µ(z 0 )Q 1 (z 0, z 1 )... Q n (z n 1, x). z 0,z 1,...,z n 1 E Ici, nous revenons au cas d une chaîne de Markov homogène. Dans ce cas, nous obtenons le corollaire important suivant Corollaire 3.5. Soit (X n ) n 0 une chaîne de Markov homogène de matrice de transition Q et de loi initiale L(X 0 ) : µ. On note Q n la puissance n-ième de la matrice Q, alors : (1) La loi de X n au temps n est donnée par la formule : P(X n x) µ(z 0 )Q(z 0, z 1 )... Q(z n 1, x) z 0,z 1,...,z n 1 E y E µ(y)q n (y, x) (2) Pour x, y E, le terme Q n (x, y) correspond à la probabilité de passer de l état x à l état y en exactement n étapes. Remarque 3.6. Il est bien pratique d écrire les mesures comme des vecteurs lignes et les fonctions comme des vecteurs colonnes. Avec cette convention, la loi de la chaine de Markov au temps n de loi initiale µ s écrit simplement : L(X n ) µp n c est-à-dire P(X n x) (µp n )(x). Avec cette convention, pour calculer l espérance E[f(Z)] où Z est de loi ν sur E et f est une fonction (bornée) sur E, on a E[f(Z)] z E ν(z)f(z) νf.

5 En particulier, l espérance E[f(X n )] se calcule comme CHAÎNES DE MARKOV 5 E[f(X n )] z E(µP n )(z)f(z) µp n f. Démonstration. La probabilité de passer de x à y en 2 étapes est égale à P (X 2 y X 0 x) z E P (X 1 z, X 2 y X 0 x) z E Q(x, z)q(z, y). Ce dernier terme n est rien d autre que le terme (x, y) de la matrice Q 2. Plus généralement, pour n 2, la probabilité de passer de x à y en n étapes est égale à P (X n y X 0 x) P (X 1 z 1,..., X n 1 z n 1, X n y X 0 x 0 ) z 1,...,z n 1 E z 1,...,z n 1 E Q(x, z 1 )Q(z 1, z 2 )... Q(z n 1, y). Ce dernier terme n est rien d autre que le terme (x, y) de la matrice Q n. Pour obtenir la loi de X n, il nous suffit de déterminer P(X n x) pour tout x E. On a P(X n x) z 0 E P(X 0 z 0, X n x) z 0 E P(X 0 z 0 )P(X n x X 0 z 0 ) z 0 E µ(z 0 )Q n (z 0, x). Remarque 3.7. Dans le cas d une chaîne de Markov non nécessairement homogène de loi initiale, la loi de X n s écrit L(X n ) µq 1 Q 2... Q n. Exercice 3.8. Calculer P 2 pour les deux matrices de l exemple??. Tracer les graphes de P et P 2 dans chacun des cas. Exercice 3.9. On note a, b et c les états de la chaîne 1 de l exemple?? et f la fonction définie par f(a) 1, f(b) 2, f(c) 3. On note µ 0 la mesure de probabilité uniforme sur {a, b, c}. Calculer la loi de la chaîne au temps 1 et au temps 2. Calculer également : E[f(X 1 )] et E[f(X 2 )]. Même question pour la marche aléatoire symétrique sur Z de loi initiale δ 0 et pour la fonction f définie par f(x) x 2, x Z.

6 6 MICHEL BONNEFONT Corollaire En reprenant les hypothèses de la proposition?? (chaîne non nécessairement homogène), on a également, pour n N, 0 k n, x k, x k+1,..., x n E, P(X n x n,..., X k x k ) P(X k x k )Q k (x k, x k+1 )... Q n (x n 1, x n ). Démonstration. P(X n x n,..., X k x k ) P(X n x n,..., X k x k, X k 1 x k 1,..., X 0 x 0 ), x 0,x 1,...,x k 1 E x 0,x 1,...,x k 1 E x 0,x 1,...,x k 1 E P(X 0 x 0 )Q 1 (x 0, x 1 )... Q k (x k 1, x k )Q k+1 (x k, x k+1 )... Q n (x n 1, x n ), P(X k x k, X k 1 x k 1,..., X 0 x 0 )Q k+1 (x k, x k+1 )... Q n (x n 1, x n ), P(X k x k )Q k+1 (x k, x k+1 )... Q n (x n 1, x n ). 4. Une caractérisation des chaînes de Markov Proposition 4.1. Soit E et F deux ensembles dénombrables, et pour tout n 1, soit f n une application de E F dans E. Soit X 0 et (Y n ) n 1 des v.a. mutuellement indépendantes, X 0 à valeurs dans E, Y n à valeurs dans F pour tout n 1. Soit enfin (X n ) n 1 à valeurs dans E définies par X n+1 f n (X n, Y n+1 ), n N. Alors (X n ) n N est une chaîne de Markov. Démonstration. On remarque que P(X n+1 x n+1,..., X 0 x 0 ) P(f n (x n, Y n+1 ) x n+1, X n x n,..., X 0 x 0 ), P(Y n+1 z, X n x n,..., X 0 x 0 ), z,f n(x n,z)x n+1 P(Y n+1 z)p(x n x n,..., X 0 x 0 ). z,f n(x n,z)x n+1 Donc on a P(X n+1 x n+1 X n x n,..., X 0 x 0 ) z,f n(x n,z)x n+1 P(Y n+1 z). De la même façon on peut facilement montrer que P(X n+1 x n+1 X n x n ) P(Y n+1 z) z,f n(x n,z)x n+1 ce qui montre bien que (X n ) n N est une chaîne de Markov. Remarque 4.2. Si de plus, f n f et les (Y n ) n N sont dentiquement distribués et que X n+1 f(x n, Y n+1 ), alors (X n ) n N est une chaîne de Markov homogène.

7 CHAÎNES DE MARKOV 7 Remarque 4.3. La réciproque est vraie. Si (X n ) est une chaîne de Markov sur E, alors on peut représenter X n+1 f n (X n, Y n+1 ) pour une certaine fonction f : (N, E, F ) E et des variables aléatoires indépendantes Y n et indépendante de X Propriétés de Markov faible et forte 5.1. Propriété de Markov faible. Notation 5.1. Dans toute la suite on notera F n la tribu engendrée par les v.a. X 0,..., X n, autrement dit F n σ(x 0,..., X n ). On notera également P x la probabilité conditionnelle sachant {X 0 x}, x E. Théorème 5.2. Propriété de Markov faible Soit (X n ) n N une chaîne de Markov. Alors pour tous n N, x E et conditionnellement à {X n x}, (X n+p ) p N est une chaîne de Markov de loi initiale δ x. Deplus elle est indépendante de F n ; c est-à-dire, pour tout A F n, pour tous m > 0, x 0, x 1,..., x m E P(A {X n+1 x 1,..., X n+m x m } X n x) P(X n+1 x 1,..., X n+m x m X n x) P(A X n x) P x (X 1 x 1,..., X m x m ) P(A X n x). Avant de faire la démonstration, nous allons établir 2 lemmes. Lemme 5.3. Soit (Ω, F, P) un espace probabilisé et soient A, B, C F tels que P(B C) > 0. Alors P(A B C) P(A B C). Démonstration. Soit Q( ) : P( C). Q est une probabilité. Par définition de la probabilité conditionnelle, on a P(A B C) Q(A B) Q(A B) P(A B C) Q(B) P(B C) P(A B C) P(A B C). P(B C) Lemme 5.4. Soit (X n ) n 0 une chaîne de Markov. Soit 0 et x 0, x n, x n+1 E tels que P({X n x n } {X 0 x 0 }) > 0. Alors P (X n+1 x n+1 X n x n, X 0 x 0 ) P (X n+1 x n+1 X n x n ). Démonstration. En sommant sur toutes les trajectoires possibles et en utilisant la définition d une chaîne de Markov, on trouve :

8 8 MICHEL BONNEFONT P (X n+1 x n+1, X n x n, X 0 x 0 ) P (X n+1 x n+1 X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) z 1,z 2,z n 1 E z 1,z 2,z n 1 E P (X n+1 x n+1 X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) P (X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) P (X n+1 x n+1 X n x n ) P (X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) z 1,z 2,z n 1 E P (X n+1 x n+1 X n x n ) P (X n x n, X 0 x 0 ) D où : P(X n+1 x n+1 X n x n, X 0 x 0 ) P (X n+1 x n+1 X n x n ). Revenons à la démonstration de la propriété de Markov faible. Démonstration. Montrons d abord que (X n+p ) p N est une chaîne de Markov. Soit, m 1 et x 1,..., x m E, on a en utilisant le lemme ci-dessus : P x (X m+n x m X n+m 1 x m 1,..., X n+1 x 1 ) P(X m+n x m X n+m 1 x m 1,..., X n+1 x 1, X n x) P(X m+n x m X n+m 1 x m 1 ) P(X m+n x m X n+m 1 x m 1, X n x) P x (X m+n x m X n+m 1 x m 1 ). Montrons maintenant l indépendance conditionnelle. Il suffit de la montrer pour A {X 0 y 0,..., X n y n }. En effet par σ-additivité de P, on peut l obtenir pour tout A F n. Il suffit de plus de regarder le cas y n x (sinon les deux membres sont nuls). On a P(A {X n+1 x 1,..., X n+m x m } X n x) P(X 0 y 0,..., X n x, X n+1 x 1,..., X n+m x m X n x), P(X 0 y 0,..., X n x, X n+1 x 1,..., X n+m x m ), P(X n x) P(X 0 y 0,..., X n x) Q n+1 (x, x 1 )Q n+2 (x 1, x 2 )... Q n+m (x m 1, x m ), P(X n x) P(A) P(X n x) P(X n+1 x 1,..., X n+m x m X n x) P(A X n x)p(x n+1 x 1,..., X n+m x m X n x).

9 5.2. Propriété de Markov forte. CHAÎNES DE MARKOV 9 Définitions 5.5. Une filtration est une suite croissante de tribus, c est à dire une suite de tribus (G n ) n N vérifiant G 0 G 1... G n... (σ(x 0,..., X n )) n N (F n ) n N est appelée filtration engendrée par (X n ) n N. Définition 5.6. Soit (X n ) n N une suite de v.a. définies sur (Ω, F, P). Soit τ une v.a. définies sur le même espace probabilisé. On dit que τ est un temps d arrêt adapté à la suite (X n ) n N (ou temps d arrêt adapté à la filtration (F n ) n N ) si : a) τ prend ses valeurs dans N { }, b) n 0, on a {τ n} F n. Remarque 5.7. On peut remplacer la condition b) par la condition b ) n 0, on a {τ n} F n. Exercice 5.8. Le prouver! Exercice 5.9. Soit (X n ) n N une suite de v.a. à valeurs dans E. Montrer que les v.a. suivantes sont des temps d arrêt adaptés à la suite X n : les v.a. constantes p.s., le temps d entrée dans l ensemble A, noté T A, donné par T A inf{n N, X n A}, le temps de retour en A, noté S A, donné par S A inf{n N, X n A}, T S, T S et T + S où T et S sont des temps d arrêt. Proposition-Définition Soit τ un temps d arrêt adapté à la filtration (F n ) n. On pose F σ(f n, n 0). On définit F τ F par F τ {A F, n 0, A {τ n} F n }. F τ est une tribu appelée tribu des événements antérieurs à τ. Démonstration. n 0, Ω {τ n} {τ n} F n donc Ω F τ. Soit (A k ) k N F τ, montrons que k N A k F τ. On a ( ) A k {τ n} (A k {τ n}) F n. k N k N Donc k N A k F τ. Soit A F τ, montrons que A F τ. Soit B A {τ n}, on a A {τ n} (A {τ n}) {τ n} (A {τ n}) {τ n} F n, car A {τ n} et {τ n} sont dans F n. Donc A F τ. Exercice On reprend l exemple de la marche aléatoire sur Z. On pose τ : inf{n, X n 10}. On note B : { n N, n τ, X n 10}. Montrer que B appartient à F τ.

10 10 MICHEL BONNEFONT Exercice Soit τ un temps d arrêt. On note σ(τ) la tribu engendrée par τ. Montrer que l on a l inclusion : σ(t ) F τ. A-t-on égalité? Théorème Propriété de Markov forte Soit (X n ) n N une chaîne de Markov homogène de paramètres (µ, P ) et τ un temps d arrêt adapté à (X n ) n N. Pour tout x E et conditionnellement à {τ <, X τ x}, la suite (X τ+n ) n N est une chaîne de Markov de paramètres (δ x, P ). De plus elle est indépendante de F τ ; c est-à-dire, pour tout A F τ, x 1,..., x m E P ({X τ+n x n,..., X τ x 0 } A {τ < + } X τ x 0 ) P x0 ({X n x n,..., X 1 x}) P (A {τ < + } X τ x 0 ). Remarque En prenant τ k on retrouve la propriété de Markov faible. Remarque En particulier, on a aussi que P ({X τ+n x n,..., X τ x 0 } {τ < + } X τ x 0 ) P x0 ({X n x n,..., X 1 x}). Démonstration. Soit A F τ, en écrivant A {τ < } comme l union disjointe A {τ < } m 0 A {τ m} on a P ({X τ+n x n,..., X τ x 0 } A {τ < + }) m 0 P ({X τ+n x n,..., X τ x 0 } A {τ m} {X τ x 0 }) m 0 P ({X m+n x n,..., X m x 0 } A {τ m} {X m x}) m 0 P ({X m+n x n,..., X m x 0 } X m x) P (A {τ m} {X m x}) P ({X m x 0 }) P x0 ({X n x n,..., X 1 x}) m 0 P (A {τ m} {X m x 0 }) P x0 ({X n x n,..., X 1 x}) P (A {τ < + } {X τ x 0 }) ; où on a utilisé la propriété de Markov faible à la troisième égalité en remarquant que A {τ m} F m. Donc, pour A F τ, en divisant par P ({τ < + } X τ x 0 ), on obtient P ({X τ+n x n,..., X τ x 0 } A {τ < + } {X τ x 0 }) P x0 ({X n x n,..., X 1 x}) P (A {τ < + } X τ x 0 ). En particulier, on remarque que P ({X τ+n x n,..., X τ x 0 } {τ < + } X τ x 0 ) P x0 ({X n x n,..., X 1 x}).

11 et donc en particulier, on remarque que CHAÎNES DE MARKOV 11 P {τ<+ Xτ x 0 } (X τ+n+1 x n+1 X τ+n x n..., X τ x 0 ) P x0 (X n+1 x n+1 X n x n..., X 0 x 0..., X 1 x) P x0 (X n+1 x n+1 X n x n ) P {τ<+ Xτ x 0 } (X τ+n+1 x n+1 X τ+n x n ). Cette dernière égalité traduit exactement la propriété de Markov de la suite (X τ+n ) n N conditionnellement à l évènement {τ <, X τ x}. Exemple d application : Soit (X n ) n 0 une marche aléatoire sur Z partant de 0. Soit τ le temps d atteinte de 10 : τ : inf{k 0, X k 10}. Alors conditionnellement à {τ < + }, (X τ+n ) n 0 est aussi une marche aléatoire partant de 10. De plus elle est indépendante de F τ, c est-à-dire elle est indépendante des trajectoires avant τ.

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Ecole Nationale de la Statistique et de l Administration Economique Théorie de la Mesure et Intégration Xavier MARY 2 Table des matières I Théorie de la mesure 11 1 Algèbres et tribus de parties d un ensemble

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

Estimation: intervalle de fluctuation et de confiance. Mars 2012. IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Estimation: intervalle de fluctuation et de confiance. Mars 2012. IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison Estimation: intervalle de fluctuation et de confiance Mars 2012 IREM: groupe Proba-Stat Estimation Term.1 Intervalle de fluctuation connu : probabilité p, taille de l échantillon n but : estimer une fréquence

Plus en détail

Intégration et probabilités TD1 Espaces mesurés

Intégration et probabilités TD1 Espaces mesurés Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au

Plus en détail

Chapitre 2. Eléments pour comprendre un énoncé

Chapitre 2. Eléments pour comprendre un énoncé Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

Calcul intégral élémentaire en plusieurs variables

Calcul intégral élémentaire en plusieurs variables Calcul intégral élémentaire en plusieurs variables PC*2 2 septembre 2009 Avant-propos À part le théorème de Fubini qui sera démontré dans le cours sur les intégrales à paramètres et qui ne semble pas explicitement

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Continuité en un point

Continuité en un point DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à

Plus en détail

Logique. Plan du chapitre

Logique. Plan du chapitre Logique Ce chapitre est assez abstrait en première lecture, mais est (avec le chapitre suivant «Ensembles») probablement le plus important de l année car il est à la base de tous les raisonnements usuels

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,

Plus en détail

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option

Plus en détail

Calcul Stochastique pour la finance. Romuald ELIE

Calcul Stochastique pour la finance. Romuald ELIE Calcul Stochastique pour la finance Romuald ELIE 2 Nota : Ces notes de cours sont librement inspirées de différentes manuels, polycopiés, notes de cours ou ouvrages. Citons en particulier ceux de Francis

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin. Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).

Plus en détail

Intégration sur des espaces produits

Intégration sur des espaces produits Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure

Plus en détail

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas

Plus en détail

Probabilités et statistique. Benjamin JOURDAIN

Probabilités et statistique. Benjamin JOURDAIN Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Dérivées d ordres supérieurs. Application à l étude d extrema.

Dérivées d ordres supérieurs. Application à l étude d extrema. Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

Exercices sur le chapitre «Probabilités»

Exercices sur le chapitre «Probabilités» Arnaud de Saint Julien - MPSI Lycée La Merci 2014-2015 1 Pour démarrer Exercices sur le chapitre «Probabilités» Exercice 1 (Modélisation d un dé non cubique) On considère un parallélépipède rectangle de

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Couples de variables aléatoires discrètes

Couples de variables aléatoires discrètes Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,

Plus en détail

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Raisonnement probabiliste

Raisonnement probabiliste Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet

Plus en détail

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement

Plus en détail

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs Eo7 Limites de fonctions Théorie Eercice Montrer que toute fonction périodique et non constante n admet pas de ite en + Montrer que toute fonction croissante et majorée admet une ite finie en + Indication

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

EI - EXERCICES DE PROBABILITES CORRIGES

EI - EXERCICES DE PROBABILITES CORRIGES EI 1 EI - EXERCICES DE PROBABILITES CORRIGES Notations 1 Les coefficients du binôme sont notés ( n p 2 Un arrangement de n objets pris p à p est noté A p n 3 Si A est un ensemble fini, on notera A ou card

Plus en détail

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre : Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant

Plus en détail

1.1 Codage de source et test d hypothèse

1.1 Codage de source et test d hypothèse Théorie de l information et codage 200/20 Cours 8février20 Enseignant: Marc Lelarge Scribe: Marc Lelarge Pour information Page webdu cours http://www.di.ens.fr/~lelarge/info.html Notations Pour des variables

Plus en détail

ILT. Interfacultair Instituut voor Levende Talen. T@@lvaardig. Actes de communication. Serge Verlinde Evelyn Goris. Katholieke Universiteit Leuven

ILT. Interfacultair Instituut voor Levende Talen. T@@lvaardig. Actes de communication. Serge Verlinde Evelyn Goris. Katholieke Universiteit Leuven IL If I L S V Ey G Khk U L 13/02/02 pé? xp qé xp pz à pz p héhq pé p à q z p à p héhq fé à p à q pz xp q 'p (è) f, '-à- p. x. ' é ff. N xp à py qq' q z b ( f) P xp pô pp L p - pé pz ': z qq', q -? Bj,

Plus en détail

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous

Plus en détail

Bien lire l énoncé 2 fois avant de continuer - Méthodes et/ou Explications Réponses. Antécédents d un nombre par une fonction

Bien lire l énoncé 2 fois avant de continuer - Méthodes et/ou Explications Réponses. Antécédents d un nombre par une fonction Antécédents d un nombre par une fonction 1) Par lecture graphique Méthode / Explications : Pour déterminer le ou les antécédents d un nombre a donné, on trace la droite (d) d équation. On lit les abscisses

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

Polynômes à plusieurs variables. Résultant

Polynômes à plusieurs variables. Résultant Polynômes à plusieurs variables. Résultant Christophe Ritzenthaler 1 Relations coefficients-racines. Polynômes symétriques Issu de [MS] et de [Goz]. Soit A un anneau intègre. Définition 1.1. Soit a A \

Plus en détail

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction Chapitre 3 Algorithmes stochastiques 3.1 Introduction Les algorithmes stochastiques sont des techniques de simulation numériques de chaînes de Markov, visant à résoudre des problèmes d optimisation ou

Plus en détail

Problème 1 : applications du plan affine

Problème 1 : applications du plan affine Problème 1 : applications du plan affine Notations On désigne par GL 2 (R) l ensemble des matrices 2 2 inversibles à coefficients réels. Soit un plan affine P muni d un repère (O, I, J). Les coordonnées

Plus en détail

Continuité d une fonction de plusieurs variables

Continuité d une fonction de plusieurs variables Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs

Plus en détail

Calculs de probabilités

Calculs de probabilités Calculs de probabilités Mathématiques Générales B Université de Genève Sylvain Sardy 13 mars 2008 1. Définitions et notations 1 L origine des probabilités est l analyse de jeux de hasard, tels que pile

Plus en détail

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2 Probabilités Table des matières I Petits rappels sur le vocabulaire des ensembles 2 I.1 s................................................... 2 I.2 Propriétés...................................................

Plus en détail

Probabilités et Statistique

Probabilités et Statistique Probabilités et Statistique Y. Velenik Version du 24 mai 2012 Dernière version téléchargeable à l adresse http://www.unige.ch/math/folks/velenik/cours.html 2011-2012 2 Table des matières Table des matières

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques

Plus en détail

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie... 1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................

Plus en détail

Structures algébriques

Structures algébriques Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

Continuité et dérivabilité d une fonction

Continuité et dérivabilité d une fonction DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Probabilités. C. Charignon. I Cours 3

Probabilités. C. Charignon. I Cours 3 Probabilités C. Charignon Table des matières I Cours 3 1 Dénombrements 3 1.1 Cardinal.................................................. 3 1.1.1 Définition............................................. 3

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

Processus aléatoires avec application en finance

Processus aléatoires avec application en finance Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et

Plus en détail

Condition de stabilité d'un réseau de les d'attente à deux stations et N classes de clients 1

Condition de stabilité d'un réseau de les d'attente à deux stations et N classes de clients 1 General Mathematics Vol. 18, No. 4 (2010), 85108 Condition de stabilité d'un réseau de les d'attente à deux stations et N classes de clients 1 Faiza Belarbi, Amina Angelika Bouchentouf Résumé Nous étudions

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Une forme générale de la conjecture abc

Une forme générale de la conjecture abc Une forme générale de la conjecture abc Nicolas Billerey avec l aide de Manuel Pégourié-Gonnard 6 août 2009 Dans [Lan99a], M Langevin montre que la conjecture abc est équivalente à la conjecture suivante

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

Chapitre 2. Matrices

Chapitre 2. Matrices Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

Loi d une variable discrète

Loi d une variable discrète MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une

Plus en détail

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300 I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,

Plus en détail

Programmation Linéaire - Cours 1

Programmation Linéaire - Cours 1 Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.

Plus en détail

SEANCE 4 : MECANIQUE THEOREMES FONDAMENTAUX

SEANCE 4 : MECANIQUE THEOREMES FONDAMENTAUX SEANCE 4 : MECANIQUE THEOREMES FONDAMENTAUX 1. EXPERIENCE 1 : APPLICATION DE LA LOI FONDAMENTALE DE LA DYNAMIQUE a) On incline d un angle α la table à digitaliser (deuxième ou troisième cran de la table).

Plus en détail