CHAÎNES DE MARKOV. Master MIMSE Bordeaux
|
|
- Louise Dumas
- il y a 7 ans
- Total affichages :
Transcription
1 CHAÎNES DE MARKOV MICHEL BONNEFONT Master MIMSE Bordeaux Dans tout ce cours on se placera sur un espace d états E fini ou dénombrable. Dans ce chapitre, on va s intéresser à l étude de phénomènes aléatoires dépendant du temps. Dans l étude d un tel processus aléatoire, ce qui nous intéresse particulièrement c est de connaître la loi de ce qui va passer dans le futur en tenant compte de toutes les informations obtenues dans le passé. Dans de nombreuses situations, on peut faire l hypothèse simplificatrice suivante : A un instant t donné, le futur du processus ne dépend pas de tout le passé (c est-à-dire de toute la trajectoire jusqu à l instant t) mais juste de la position actuelle à l instant t. Le processus est alors appelé processus de Markov et dans le cas où le temps est discret : chaîne de Markov. Exemples : (1) Gestion de stock : Dans de nombreuses situations, on peut considérer que le stock à l instant n + 1 : S n+1 s écrit S n+1 S n + R n+1 où R n+1 est une variable aléatoire qui ne dépend que de la valeur du stock à l instant n : S n. (2) Prix d une action : Dans de nombreuses situations, on peut considérer que prix d une action à l instant n + 1 : A n+1 peut s écrire : A n+1 A n (1 + r n+1 ) où r n+1 est une variable aléatoire qui ne dépend que de la valeur du prix de l action à l instant n : A n. 1. Définitions et premières propriétés Définition 1.1. Soit (Ω, F, P) un espace probabilisé et (X n ) n N une suite variables aléatoires définie sur (Ω, F, P) à valeurs dans E. On dit que (X n ) n N est une chaîne de Markov si, pour tout (n + 1)-uplet (x 0, x 1,..., x n ) de points de E tel que P( {X j x j }) > 0 on a 0 j n 1 (1.1) P(X n x n X n 1 x n 1, X n 2 x n 2,..., X 0 x 0 ) P(X n x n X n 1 x n 1 ). La matrice Q n (Q n (x, y)) x,y E défine par Q n (x, y) P(X n y X n 1 x) est appelée matrice de transition de la chaîne de Markov (au temps n). Q n (x, y) désigne donc la probabilité de passer de l état x E à l état y E au temps n. On dit que la chaîne de Markov est homogène si la matrice de transition ne dépend pas de n. On note alors Q la matrice de transition. Dans toute la suite, nous ne considérerons que des chaînes de Markov homogènes. La loi de X 0 est appelée loi initiale de la chaîne de Markov. 1
2 2 MICHEL BONNEFONT La propriété (??) s appelle la propriété de Markov. Elle équivaut à dire que la loi de X n conditionnellement à (X 0, X 1,..., X n 1 ) est en fait la loi de X n conditionnellement à X n 1. La propriété de Markov signifie bien que le futur (immédiat) ne dépend du passé (toute la trajectoire) qu à travers le présent (le point actuel). Exercice 1.2. Un premier exemple : Marche aléatoire sur Z. Soit (Z n ) n N une suite de v.a. indépendantes et identiquement distribuées (i.i.d.) de loi de Rademacher R(p), 0 p 1 ; c est-à-dire, P(Z n +1) p et P(Z n 1) 1 p. On définit alors X n Z Z n, n 0 et X 0 0. Montrer que (X n ) est bien une chaîne de Markov homogène. Si p 1/2 on parle de marche aléatoire symétrique. Bien sûr, on peut faire la même chose en dimension d. La marche aléatoire symétrique est alors obtenue en prenant P(Z i e 1 ) P(Z i e 1 )... P(Z i e d ) P(Z i e d ) 1 2d, i 1, où (e 1, e 2,..., e d ) est la base usuelle de Z d. 2. Matrices stochastiques Définition 2.1. Une matrice P (P i,j ) i,j E est une matrice stochastique si elle vérifie : (1) i, j E, P i,j 0 (2) i E, j E P i,j 1 Exemple /2 1/2 0 (1) 1/3 0 2/3 est une matrice stochastique (2) La matrice P (P i,j ) i,j N donnée pour tout i N par et P 0,0 P 0,1 1/2 est stochastique. { P i,i+1 P i,i 1 1/4 P i,i 1/2 Proposition 2.3. Si Q est une matrice de transition d une chaîne de Markov, alors Q est une matrice stochastique. Preuve. Exercice. Proposition 2.4. Soient P et Q deux matrices stochastiques de même taille alors le produit P Q est aussi une matrice stochastique. Démonstration. Soient P et Q deux matrices stochastiques alors
3 CHAÎNES DE MARKOV 3 P Q est bien définie, en effet la série à termes positifs (P Q) i,j l E P i,l Q l,j converge : P et Q sont stochastiques donc, pour tout l E, Q l,j P i,l 1. P i,l 1, donc P i,l Q l,j l E l E l E Montrons que P Q est stochastique : Q) i,j j E(P P i,l Q l,j j E l E l E j E P i,l Q l,j P i,l 1. l E j E l E P i,l Q l,j par Fubini-Tonelli, 1 et Corollaire 2.5. Soit Q une matrice stochastique, alors pour tout n N, Q n est aussi une matrice stochastique. (Pour n 0, par convention, on pose Q 0 : Id). Démonstration. Récurrence immédiate (à faire soi-même). Interprétation et représentation : Il est facile d associer à une matrice stochastique un graphe orienté, pondéré. L ensemble des sommets du graphe sera l espace d états E et les arêtes orientées (pondérées) représenteront les valeurs non nulles de la matrice stochastique. Dans le cas d une matrice de transition Q d une chaîne de Markov homogène, la pondération sur l arête orientée (x, y) correspond à la probabilité de la chaîne de passer de l état x à l état y. Exercice 2.6. Faire les graphes associés aux deux exemples de l Exemple??. 3. Loi au temps n de la chaîne de Markov Pour le résultat suivant, on considère (exceptionnellement) que la chaîne de Markov n est pas nécessairement homogène. Proposition 3.1. Soit (X n ) n N une chaîne de Markov définie sur (Ω, F, P) à valeurs dans E. Pour tout n N, pour tous x, y E, on définit Q n (x, y) P(X n x X n 1 x n 1 ). Alors on a : n N, x 0, x 1,..., x n E, P(X 0 x 0, X 1 x 1,..., X n x n ) P(X 0 x 0 )Q 1 (x 0, x 1 )... Q n (x n 1, x n ). Démonstration. Montrons ce résultat par récurrence sur n. C est trivial pour n0. Supposons le résultat vrai pour n 0 alors P(X n+1 x n+1,...,x 0 x 0 ) P(X n+1 x n+1 X n x n,..., X 0 x 0 )P(X n x n,..., X 0 x 0 ), P(X n x n,..., X 0 x 0 )P(X n+1 x n+1 X n x n ), P(X n x n,..., X 0 x 0 )Q n+1 (x n, x n+1 ), P(X 0 x 0 )Q 1 (x 0, x 1 )... Q n (x n 1, x n )Q n+1 (x n, x n+1 )
4 4 MICHEL BONNEFONT On a bien démontré le résultat souhaité. Remarque 3.2. La réciproque est vraie : s il existe une suite de matrices ((Q n (x, y)) x,y E ) n N telle que n N, x 0, x 1,..., x n E, P(X 0 x 0, X 1 x 1,..., X n x n ) P(X 0 x 0 )Q 1 (x 0, x 1 )... Q n (x n 1, x n ) alors (X n ) n N est une chaîne de Markov. Exercice 3.3. Le prouver. Corollaire 3.4. Sous les mêmes hypothèses : (X n ) n 0 une chaîne de Markov non nécessairement homogène et de loi initiale L(X 0 ) : µ. La loi de X n au temps n est donnée par la formule : pour x E (3.1) P(X n x) µ(z 0 )Q 1 (z 0, z 1 )... Q n (z n 1, x). z 0,z 1,...,z n 1 E Ici, nous revenons au cas d une chaîne de Markov homogène. Dans ce cas, nous obtenons le corollaire important suivant Corollaire 3.5. Soit (X n ) n 0 une chaîne de Markov homogène de matrice de transition Q et de loi initiale L(X 0 ) : µ. On note Q n la puissance n-ième de la matrice Q, alors : (1) La loi de X n au temps n est donnée par la formule : P(X n x) µ(z 0 )Q(z 0, z 1 )... Q(z n 1, x) z 0,z 1,...,z n 1 E y E µ(y)q n (y, x) (2) Pour x, y E, le terme Q n (x, y) correspond à la probabilité de passer de l état x à l état y en exactement n étapes. Remarque 3.6. Il est bien pratique d écrire les mesures comme des vecteurs lignes et les fonctions comme des vecteurs colonnes. Avec cette convention, la loi de la chaine de Markov au temps n de loi initiale µ s écrit simplement : L(X n ) µp n c est-à-dire P(X n x) (µp n )(x). Avec cette convention, pour calculer l espérance E[f(Z)] où Z est de loi ν sur E et f est une fonction (bornée) sur E, on a E[f(Z)] z E ν(z)f(z) νf.
5 En particulier, l espérance E[f(X n )] se calcule comme CHAÎNES DE MARKOV 5 E[f(X n )] z E(µP n )(z)f(z) µp n f. Démonstration. La probabilité de passer de x à y en 2 étapes est égale à P (X 2 y X 0 x) z E P (X 1 z, X 2 y X 0 x) z E Q(x, z)q(z, y). Ce dernier terme n est rien d autre que le terme (x, y) de la matrice Q 2. Plus généralement, pour n 2, la probabilité de passer de x à y en n étapes est égale à P (X n y X 0 x) P (X 1 z 1,..., X n 1 z n 1, X n y X 0 x 0 ) z 1,...,z n 1 E z 1,...,z n 1 E Q(x, z 1 )Q(z 1, z 2 )... Q(z n 1, y). Ce dernier terme n est rien d autre que le terme (x, y) de la matrice Q n. Pour obtenir la loi de X n, il nous suffit de déterminer P(X n x) pour tout x E. On a P(X n x) z 0 E P(X 0 z 0, X n x) z 0 E P(X 0 z 0 )P(X n x X 0 z 0 ) z 0 E µ(z 0 )Q n (z 0, x). Remarque 3.7. Dans le cas d une chaîne de Markov non nécessairement homogène de loi initiale, la loi de X n s écrit L(X n ) µq 1 Q 2... Q n. Exercice 3.8. Calculer P 2 pour les deux matrices de l exemple??. Tracer les graphes de P et P 2 dans chacun des cas. Exercice 3.9. On note a, b et c les états de la chaîne 1 de l exemple?? et f la fonction définie par f(a) 1, f(b) 2, f(c) 3. On note µ 0 la mesure de probabilité uniforme sur {a, b, c}. Calculer la loi de la chaîne au temps 1 et au temps 2. Calculer également : E[f(X 1 )] et E[f(X 2 )]. Même question pour la marche aléatoire symétrique sur Z de loi initiale δ 0 et pour la fonction f définie par f(x) x 2, x Z.
6 6 MICHEL BONNEFONT Corollaire En reprenant les hypothèses de la proposition?? (chaîne non nécessairement homogène), on a également, pour n N, 0 k n, x k, x k+1,..., x n E, P(X n x n,..., X k x k ) P(X k x k )Q k (x k, x k+1 )... Q n (x n 1, x n ). Démonstration. P(X n x n,..., X k x k ) P(X n x n,..., X k x k, X k 1 x k 1,..., X 0 x 0 ), x 0,x 1,...,x k 1 E x 0,x 1,...,x k 1 E x 0,x 1,...,x k 1 E P(X 0 x 0 )Q 1 (x 0, x 1 )... Q k (x k 1, x k )Q k+1 (x k, x k+1 )... Q n (x n 1, x n ), P(X k x k, X k 1 x k 1,..., X 0 x 0 )Q k+1 (x k, x k+1 )... Q n (x n 1, x n ), P(X k x k )Q k+1 (x k, x k+1 )... Q n (x n 1, x n ). 4. Une caractérisation des chaînes de Markov Proposition 4.1. Soit E et F deux ensembles dénombrables, et pour tout n 1, soit f n une application de E F dans E. Soit X 0 et (Y n ) n 1 des v.a. mutuellement indépendantes, X 0 à valeurs dans E, Y n à valeurs dans F pour tout n 1. Soit enfin (X n ) n 1 à valeurs dans E définies par X n+1 f n (X n, Y n+1 ), n N. Alors (X n ) n N est une chaîne de Markov. Démonstration. On remarque que P(X n+1 x n+1,..., X 0 x 0 ) P(f n (x n, Y n+1 ) x n+1, X n x n,..., X 0 x 0 ), P(Y n+1 z, X n x n,..., X 0 x 0 ), z,f n(x n,z)x n+1 P(Y n+1 z)p(x n x n,..., X 0 x 0 ). z,f n(x n,z)x n+1 Donc on a P(X n+1 x n+1 X n x n,..., X 0 x 0 ) z,f n(x n,z)x n+1 P(Y n+1 z). De la même façon on peut facilement montrer que P(X n+1 x n+1 X n x n ) P(Y n+1 z) z,f n(x n,z)x n+1 ce qui montre bien que (X n ) n N est une chaîne de Markov. Remarque 4.2. Si de plus, f n f et les (Y n ) n N sont dentiquement distribués et que X n+1 f(x n, Y n+1 ), alors (X n ) n N est une chaîne de Markov homogène.
7 CHAÎNES DE MARKOV 7 Remarque 4.3. La réciproque est vraie. Si (X n ) est une chaîne de Markov sur E, alors on peut représenter X n+1 f n (X n, Y n+1 ) pour une certaine fonction f : (N, E, F ) E et des variables aléatoires indépendantes Y n et indépendante de X Propriétés de Markov faible et forte 5.1. Propriété de Markov faible. Notation 5.1. Dans toute la suite on notera F n la tribu engendrée par les v.a. X 0,..., X n, autrement dit F n σ(x 0,..., X n ). On notera également P x la probabilité conditionnelle sachant {X 0 x}, x E. Théorème 5.2. Propriété de Markov faible Soit (X n ) n N une chaîne de Markov. Alors pour tous n N, x E et conditionnellement à {X n x}, (X n+p ) p N est une chaîne de Markov de loi initiale δ x. Deplus elle est indépendante de F n ; c est-à-dire, pour tout A F n, pour tous m > 0, x 0, x 1,..., x m E P(A {X n+1 x 1,..., X n+m x m } X n x) P(X n+1 x 1,..., X n+m x m X n x) P(A X n x) P x (X 1 x 1,..., X m x m ) P(A X n x). Avant de faire la démonstration, nous allons établir 2 lemmes. Lemme 5.3. Soit (Ω, F, P) un espace probabilisé et soient A, B, C F tels que P(B C) > 0. Alors P(A B C) P(A B C). Démonstration. Soit Q( ) : P( C). Q est une probabilité. Par définition de la probabilité conditionnelle, on a P(A B C) Q(A B) Q(A B) P(A B C) Q(B) P(B C) P(A B C) P(A B C). P(B C) Lemme 5.4. Soit (X n ) n 0 une chaîne de Markov. Soit 0 et x 0, x n, x n+1 E tels que P({X n x n } {X 0 x 0 }) > 0. Alors P (X n+1 x n+1 X n x n, X 0 x 0 ) P (X n+1 x n+1 X n x n ). Démonstration. En sommant sur toutes les trajectoires possibles et en utilisant la définition d une chaîne de Markov, on trouve :
8 8 MICHEL BONNEFONT P (X n+1 x n+1, X n x n, X 0 x 0 ) P (X n+1 x n+1 X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) z 1,z 2,z n 1 E z 1,z 2,z n 1 E P (X n+1 x n+1 X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) P (X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) P (X n+1 x n+1 X n x n ) P (X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) z 1,z 2,z n 1 E P (X n+1 x n+1 X n x n ) P (X n x n, X 0 x 0 ) D où : P(X n+1 x n+1 X n x n, X 0 x 0 ) P (X n+1 x n+1 X n x n ). Revenons à la démonstration de la propriété de Markov faible. Démonstration. Montrons d abord que (X n+p ) p N est une chaîne de Markov. Soit, m 1 et x 1,..., x m E, on a en utilisant le lemme ci-dessus : P x (X m+n x m X n+m 1 x m 1,..., X n+1 x 1 ) P(X m+n x m X n+m 1 x m 1,..., X n+1 x 1, X n x) P(X m+n x m X n+m 1 x m 1 ) P(X m+n x m X n+m 1 x m 1, X n x) P x (X m+n x m X n+m 1 x m 1 ). Montrons maintenant l indépendance conditionnelle. Il suffit de la montrer pour A {X 0 y 0,..., X n y n }. En effet par σ-additivité de P, on peut l obtenir pour tout A F n. Il suffit de plus de regarder le cas y n x (sinon les deux membres sont nuls). On a P(A {X n+1 x 1,..., X n+m x m } X n x) P(X 0 y 0,..., X n x, X n+1 x 1,..., X n+m x m X n x), P(X 0 y 0,..., X n x, X n+1 x 1,..., X n+m x m ), P(X n x) P(X 0 y 0,..., X n x) Q n+1 (x, x 1 )Q n+2 (x 1, x 2 )... Q n+m (x m 1, x m ), P(X n x) P(A) P(X n x) P(X n+1 x 1,..., X n+m x m X n x) P(A X n x)p(x n+1 x 1,..., X n+m x m X n x).
9 5.2. Propriété de Markov forte. CHAÎNES DE MARKOV 9 Définitions 5.5. Une filtration est une suite croissante de tribus, c est à dire une suite de tribus (G n ) n N vérifiant G 0 G 1... G n... (σ(x 0,..., X n )) n N (F n ) n N est appelée filtration engendrée par (X n ) n N. Définition 5.6. Soit (X n ) n N une suite de v.a. définies sur (Ω, F, P). Soit τ une v.a. définies sur le même espace probabilisé. On dit que τ est un temps d arrêt adapté à la suite (X n ) n N (ou temps d arrêt adapté à la filtration (F n ) n N ) si : a) τ prend ses valeurs dans N { }, b) n 0, on a {τ n} F n. Remarque 5.7. On peut remplacer la condition b) par la condition b ) n 0, on a {τ n} F n. Exercice 5.8. Le prouver! Exercice 5.9. Soit (X n ) n N une suite de v.a. à valeurs dans E. Montrer que les v.a. suivantes sont des temps d arrêt adaptés à la suite X n : les v.a. constantes p.s., le temps d entrée dans l ensemble A, noté T A, donné par T A inf{n N, X n A}, le temps de retour en A, noté S A, donné par S A inf{n N, X n A}, T S, T S et T + S où T et S sont des temps d arrêt. Proposition-Définition Soit τ un temps d arrêt adapté à la filtration (F n ) n. On pose F σ(f n, n 0). On définit F τ F par F τ {A F, n 0, A {τ n} F n }. F τ est une tribu appelée tribu des événements antérieurs à τ. Démonstration. n 0, Ω {τ n} {τ n} F n donc Ω F τ. Soit (A k ) k N F τ, montrons que k N A k F τ. On a ( ) A k {τ n} (A k {τ n}) F n. k N k N Donc k N A k F τ. Soit A F τ, montrons que A F τ. Soit B A {τ n}, on a A {τ n} (A {τ n}) {τ n} (A {τ n}) {τ n} F n, car A {τ n} et {τ n} sont dans F n. Donc A F τ. Exercice On reprend l exemple de la marche aléatoire sur Z. On pose τ : inf{n, X n 10}. On note B : { n N, n τ, X n 10}. Montrer que B appartient à F τ.
10 10 MICHEL BONNEFONT Exercice Soit τ un temps d arrêt. On note σ(τ) la tribu engendrée par τ. Montrer que l on a l inclusion : σ(t ) F τ. A-t-on égalité? Théorème Propriété de Markov forte Soit (X n ) n N une chaîne de Markov homogène de paramètres (µ, P ) et τ un temps d arrêt adapté à (X n ) n N. Pour tout x E et conditionnellement à {τ <, X τ x}, la suite (X τ+n ) n N est une chaîne de Markov de paramètres (δ x, P ). De plus elle est indépendante de F τ ; c est-à-dire, pour tout A F τ, x 1,..., x m E P ({X τ+n x n,..., X τ x 0 } A {τ < + } X τ x 0 ) P x0 ({X n x n,..., X 1 x}) P (A {τ < + } X τ x 0 ). Remarque En prenant τ k on retrouve la propriété de Markov faible. Remarque En particulier, on a aussi que P ({X τ+n x n,..., X τ x 0 } {τ < + } X τ x 0 ) P x0 ({X n x n,..., X 1 x}). Démonstration. Soit A F τ, en écrivant A {τ < } comme l union disjointe A {τ < } m 0 A {τ m} on a P ({X τ+n x n,..., X τ x 0 } A {τ < + }) m 0 P ({X τ+n x n,..., X τ x 0 } A {τ m} {X τ x 0 }) m 0 P ({X m+n x n,..., X m x 0 } A {τ m} {X m x}) m 0 P ({X m+n x n,..., X m x 0 } X m x) P (A {τ m} {X m x}) P ({X m x 0 }) P x0 ({X n x n,..., X 1 x}) m 0 P (A {τ m} {X m x 0 }) P x0 ({X n x n,..., X 1 x}) P (A {τ < + } {X τ x 0 }) ; où on a utilisé la propriété de Markov faible à la troisième égalité en remarquant que A {τ m} F m. Donc, pour A F τ, en divisant par P ({τ < + } X τ x 0 ), on obtient P ({X τ+n x n,..., X τ x 0 } A {τ < + } {X τ x 0 }) P x0 ({X n x n,..., X 1 x}) P (A {τ < + } X τ x 0 ). En particulier, on remarque que P ({X τ+n x n,..., X τ x 0 } {τ < + } X τ x 0 ) P x0 ({X n x n,..., X 1 x}).
11 et donc en particulier, on remarque que CHAÎNES DE MARKOV 11 P {τ<+ Xτ x 0 } (X τ+n+1 x n+1 X τ+n x n..., X τ x 0 ) P x0 (X n+1 x n+1 X n x n..., X 0 x 0..., X 1 x) P x0 (X n+1 x n+1 X n x n ) P {τ<+ Xτ x 0 } (X τ+n+1 x n+1 X τ+n x n ). Cette dernière égalité traduit exactement la propriété de Markov de la suite (X τ+n ) n N conditionnellement à l évènement {τ <, X τ x}. Exemple d application : Soit (X n ) n 0 une marche aléatoire sur Z partant de 0. Soit τ le temps d atteinte de 10 : τ : inf{k 0, X k 10}. Alors conditionnellement à {τ < + }, (X τ+n ) n 0 est aussi une marche aléatoire partant de 10. De plus elle est indépendante de F τ, c est-à-dire elle est indépendante des trajectoires avant τ.
4. Martingales à temps discret
Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailIntégration et probabilités TD1 Espaces mesurés Corrigé
Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.
Plus en détailLe théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines
Plus en détail3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailChapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Plus en détailModèles à Événements Discrets. Réseaux de Petri Stochastiques
Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailCalcul fonctionnel holomorphe dans les algèbres de Banach
Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte
Plus en détail* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours
Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****
Plus en détailThéorie de la Mesure et Intégration
Ecole Nationale de la Statistique et de l Administration Economique Théorie de la Mesure et Intégration Xavier MARY 2 Table des matières I Théorie de la mesure 11 1 Algèbres et tribus de parties d un ensemble
Plus en détailProbabilités et Statistiques. Feuille 2 : variables aléatoires discrètes
IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de
Plus en détailEstimation: intervalle de fluctuation et de confiance. Mars 2012. IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison
Estimation: intervalle de fluctuation et de confiance Mars 2012 IREM: groupe Proba-Stat Estimation Term.1 Intervalle de fluctuation connu : probabilité p, taille de l échantillon n but : estimer une fréquence
Plus en détailIntégration et probabilités TD1 Espaces mesurés
Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?
Plus en détailChapitre 3. Mesures stationnaires. et théorèmes de convergence
Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailThéorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Plus en détailExercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.
14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,
Plus en détailUniversité Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications
Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au
Plus en détailChapitre 2. Eléments pour comprendre un énoncé
Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données
Plus en détailCalcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.
1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le
Plus en détailTP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options
Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce
Plus en détailAmphi 3: Espaces complets - Applications linéaires continues
Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite
Plus en détailCalcul intégral élémentaire en plusieurs variables
Calcul intégral élémentaire en plusieurs variables PC*2 2 septembre 2009 Avant-propos À part le théorème de Fubini qui sera démontré dans le cours sur les intégrales à paramètres et qui ne semble pas explicitement
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailContinuité en un point
DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à
Plus en détailLogique. Plan du chapitre
Logique Ce chapitre est assez abstrait en première lecture, mais est (avec le chapitre suivant «Ensembles») probablement le plus important de l année car il est à la base de tous les raisonnements usuels
Plus en détailLimites finies en un point
8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,
Plus en détailExercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT
Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,
Plus en détailMATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA
MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option
Plus en détailCalcul Stochastique pour la finance. Romuald ELIE
Calcul Stochastique pour la finance Romuald ELIE 2 Nota : Ces notes de cours sont librement inspirées de différentes manuels, polycopiés, notes de cours ou ouvrages. Citons en particulier ceux de Francis
Plus en détailI. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
Plus en détailExo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.
Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).
Plus en détailIntégration sur des espaces produits
Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure
Plus en détailPROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390
PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas
Plus en détailProbabilités et statistique. Benjamin JOURDAIN
Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailDérivées d ordres supérieurs. Application à l étude d extrema.
Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une
Plus en détailMA6.06 : Mesure et Probabilités
Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................
Plus en détailExercices sur le chapitre «Probabilités»
Arnaud de Saint Julien - MPSI Lycée La Merci 2014-2015 1 Pour démarrer Exercices sur le chapitre «Probabilités» Exercice 1 (Modélisation d un dé non cubique) On considère un parallélépipède rectangle de
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailCouples de variables aléatoires discrètes
Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude
Plus en détailImage d un intervalle par une fonction continue
DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction
Plus en détailCalcul différentiel sur R n Première partie
Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité
Plus en détailLEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.
LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,
Plus en détailBaccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé
Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01
Plus en détailTexte Agrégation limitée par diffusion interne
Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse
Plus en détailRaisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
Plus en détailExercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Plus en détailChapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme
Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet
Plus en détailENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N
ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement
Plus en détailExo7. Limites de fonctions. 1 Théorie. 2 Calculs
Eo7 Limites de fonctions Théorie Eercice Montrer que toute fonction périodique et non constante n admet pas de ite en + Montrer que toute fonction croissante et majorée admet une ite finie en + Indication
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailEI - EXERCICES DE PROBABILITES CORRIGES
EI 1 EI - EXERCICES DE PROBABILITES CORRIGES Notations 1 Les coefficients du binôme sont notés ( n p 2 Un arrangement de n objets pris p à p est noté A p n 3 Si A est un ensemble fini, on notera A ou card
Plus en détailt 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :
Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant
Plus en détail1.1 Codage de source et test d hypothèse
Théorie de l information et codage 200/20 Cours 8février20 Enseignant: Marc Lelarge Scribe: Marc Lelarge Pour information Page webdu cours http://www.di.ens.fr/~lelarge/info.html Notations Pour des variables
Plus en détailILT. Interfacultair Instituut voor Levende Talen. T@@lvaardig. Actes de communication. Serge Verlinde Evelyn Goris. Katholieke Universiteit Leuven
IL If I L S V Ey G Khk U L 13/02/02 pé? xp qé xp pz à pz p héhq pé p à q z p à p héhq fé à p à q pz xp q 'p (è) f, '-à- p. x. ' é ff. N xp à py qq' q z b ( f) P xp pô pp L p - pé pz ': z qq', q -? Bj,
Plus en détailI - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et
Plus en détailM2 IAD UE MODE Notes de cours (3)
M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de
Plus en détailTests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision
Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous
Plus en détailBien lire l énoncé 2 fois avant de continuer - Méthodes et/ou Explications Réponses. Antécédents d un nombre par une fonction
Antécédents d un nombre par une fonction 1) Par lecture graphique Méthode / Explications : Pour déterminer le ou les antécédents d un nombre a donné, on trace la droite (d) d équation. On lit les abscisses
Plus en détailPremière partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Plus en détailPolynômes à plusieurs variables. Résultant
Polynômes à plusieurs variables. Résultant Christophe Ritzenthaler 1 Relations coefficients-racines. Polynômes symétriques Issu de [MS] et de [Goz]. Soit A un anneau intègre. Définition 1.1. Soit a A \
Plus en détailChapitre 3. Algorithmes stochastiques. 3.1 Introduction
Chapitre 3 Algorithmes stochastiques 3.1 Introduction Les algorithmes stochastiques sont des techniques de simulation numériques de chaînes de Markov, visant à résoudre des problèmes d optimisation ou
Plus en détailProblème 1 : applications du plan affine
Problème 1 : applications du plan affine Notations On désigne par GL 2 (R) l ensemble des matrices 2 2 inversibles à coefficients réels. Soit un plan affine P muni d un repère (O, I, J). Les coordonnées
Plus en détailContinuité d une fonction de plusieurs variables
Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs
Plus en détailCalculs de probabilités
Calculs de probabilités Mathématiques Générales B Université de Genève Sylvain Sardy 13 mars 2008 1. Définitions et notations 1 L origine des probabilités est l analyse de jeux de hasard, tels que pile
Plus en détailProbabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2
Probabilités Table des matières I Petits rappels sur le vocabulaire des ensembles 2 I.1 s................................................... 2 I.2 Propriétés...................................................
Plus en détailProbabilités et Statistique
Probabilités et Statistique Y. Velenik Version du 24 mai 2012 Dernière version téléchargeable à l adresse http://www.unige.ch/math/folks/velenik/cours.html 2011-2012 2 Table des matières Table des matières
Plus en détailDe même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que
Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détailAnalyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques
Plus en détailÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE
ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Plus en détailProbabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...
1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................
Plus en détailStructures algébriques
Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe
Plus en détailLe modèle de Black et Scholes
Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un
Plus en détailContinuité et dérivabilité d une fonction
DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailBaccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailProbabilités. C. Charignon. I Cours 3
Probabilités C. Charignon Table des matières I Cours 3 1 Dénombrements 3 1.1 Cardinal.................................................. 3 1.1.1 Définition............................................. 3
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailProcessus aléatoires avec application en finance
Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et
Plus en détailCondition de stabilité d'un réseau de les d'attente à deux stations et N classes de clients 1
General Mathematics Vol. 18, No. 4 (2010), 85108 Condition de stabilité d'un réseau de les d'attente à deux stations et N classes de clients 1 Faiza Belarbi, Amina Angelika Bouchentouf Résumé Nous étudions
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailUne forme générale de la conjecture abc
Une forme générale de la conjecture abc Nicolas Billerey avec l aide de Manuel Pégourié-Gonnard 6 août 2009 Dans [Lan99a], M Langevin montre que la conjecture abc est équivalente à la conjecture suivante
Plus en détailDifférentiabilité ; Fonctions de plusieurs variables réelles
Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2
Plus en détailChapitre 2. Matrices
Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce
Plus en détailCorrection du baccalauréat ES/L Métropole 20 juin 2014
Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)
Plus en détailCalcul différentiel. Chapitre 1. 1.1 Différentiabilité
Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace
Plus en détailLoi d une variable discrète
MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une
Plus en détailI3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300
I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,
Plus en détailProgrammation Linéaire - Cours 1
Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.
Plus en détailSEANCE 4 : MECANIQUE THEOREMES FONDAMENTAUX
SEANCE 4 : MECANIQUE THEOREMES FONDAMENTAUX 1. EXPERIENCE 1 : APPLICATION DE LA LOI FONDAMENTALE DE LA DYNAMIQUE a) On incline d un angle α la table à digitaliser (deuxième ou troisième cran de la table).
Plus en détail