Les Probabilités du Bonheur, et les Aplications des Processus de Markov et de Levy dans les Mathématiques financières, Files d attente et Fiabilité

Dimension: px
Commencer à balayer dès la page:

Download "Les Probabilités du Bonheur, et les Aplications des Processus de Markov et de Levy dans les Mathématiques financières, Files d attente et Fiabilité"

Transcription

1 Les Probabilités du Bonheur, et les Aplications des Processus de Markov et de Levy dans les Mathématiques financières, Files d attente et Fiabilité Master Mathématiques, Modélisation et Simulation Florin Avram, Université de Pau

2 Table des matières Processus et champs aléatoires 5. Les processus de Markov Chaînes de Markov 7 2. L évolution de la loi de probabilité d une chaîne Probabilités de transition en n étapes Quelques exemples de modélisation par les chaînes de Markov Classification des états Le comportement limite des chaînes de Markov Lois invariantes et lois asymptotiques L ergodicité Le théorème ergodique Marches aléatoires et relations de récurrence Marches aléatoires sur R d Moments et cumulants des marches aléatoires La méthode du conditionnement sur le premier pas La ruine du joueur pour la marche aléatoire simple Probabilités du bonheur/fonctions harmoniques Marches aléatoires sur les graphes : distributions stationnaires Les espérances des temps d atteinte, et les problèmes de Dirichlet nonhomogènes Temps esperés de retour Méthode des fonctions génératrices Problèmes de premier passage sur un intervalle semi-infini Les fonctions harmoniques des marches aléatoires de réseau (*) Exercices Ou on voit que les probabilités de premier passage interviennent dans le comportement limite des chaînes Le cas purement absorbant : les probabilités d absorbtion La distribution limite dans le cas faiblement ergodique Echauffement pour le cas general Le comportement limite des chaînes, par la decomposition spectrale La structure probabiliste de la matrice de distributions a la longue Le calcul de la distribution limite dans le cas général La périodicité Le théorème de Perron-Frobenius Exercices

3 2.8 Exercices de révision Contrôle continu Contrôle continu Programmation Scilab et Logiciels symboliques (SAGE et maxima) Projets Sage Algèbre et Analyse de base Pourquoi utiliser des logiciels symboliques Algèbre linéaire Le processus de Poisson La distribution de Poisson et exponentielle Le processus de Poisson multidimensionel Processus de comptage et renouvellement en temps continu Le processus de Poisson unidimensionel Le processus de Poisson comme limite des processus de Bernoulli Le processus de Poisson composé La propriété de Markov du processus de Poisson composé Exercices Les processus markoviens de saut, en temps continu La proprietè de Markov Les semigroupes de Markov homogènes ; calcul de l exponentielle des operateurs Premier exemple : le processus de Poisson Processus de naissance et de mort, marches aléatoires et files d attente Les files d attente Distribution stationnaire et comportement asymptotique Ou sautera la sauterelle? Distributions de type phase/matrice exponentielle Les distributions de type phase discrètes Problèmes de Dirichlet/première passage Chaînes et processus a espace d états infini Récurrence des chaînes à espace d états denombrable Fiabilité pour les processus semi-markoviens de sauts Réseaux de Jackson Conclusions Exercices Résolution des èquations de Chapman-Kolmogorov (*) 8 6. Le processus de Poisson ; le calcul de l exponentielle des matrices triangulaires Résolution des èquations Chapman-Kolmogorov pour le processus de Markov à deux états Résolution des èquations de Chapman-Kolmogorov par la méthode de différences finies de Newton (Putzer) Les probabilités transitoires des processus de naissance et mort

4 7 Processus de Levy : marches aléatoires en temps continu Définition et propriétés de linéarité de processus de Levy Exemples de processus de Levy Marche aléatoire infinitesimale, mouvement Brownien et mathématiques financières Le mouvement Brownien standard Problèmes de premier passage de Dirichlet et Poisson La formule de Black-Scholes pour les options d achat Laplace, Thiele, Levy et Bachelier 33 0 Qu est ce qu il y aura dans l examen? Examen d entraînement Examen d entrainement

5 Chapitre Processus et champs aléatoires Beaucoup de problèmes en physique, biologie, etc, ramène à l étude des champs aléatoires, qui sont des collections des variables aléatoires X t, t I, où l ensemble des indices I peut-être N d, Z d, R d, un ensemble fini, etc. Pour le cas des indices unidimmensionels I = N(Z) et I = R on utilise aussi le nom processus stochastiques (à temps discret, respectivement continu). Définition.0. Soit I un ensemble quelconque. On appelle processus aléatoire X indexé par I toute famille (X t ) t I, de vecteurs aléatoires définis sur un même espace de probabilité (Ω, A, P ) et à valeurs dans d états E. Celui la peu-être E = R p, C p, ou même un espace des fonctions comme E = C [0, ), C (p) [0, ), etc. Note : Lorsque E = R p et p =, une seule valeur est observée à chaque instant t, alors que lorsque p >, plusieurs variables sont observées et on parle de processus multidimensionnels ou multivariés. L espace I est souvent le temps, ainsi : I = N : instants successifs à partir d un instant initial t 0. I = Z : instants successifs avant et après un instant t 0. I = R ou R + : idem mais processus à temps continu. I = Z 2 : images. I = Z 3 : modèle de la matière. Nous allons considèrer ici seulement des processus à indices unidimmensionels N, Z, R (les premièrs deux cas étant appellés aussi séries chronologiques en statistique). L étude est facilité alors par l existence d un ordre complet entre les indices. Dans le cas des espaces d états E finis ou dénombrables, les variables X i, i I sont appellées discrètes ; pour E = R d, on parle des variables continues. Le cas discret est le cas plus simple, car il permet d éviter plusieurs details téchniques (par exemple, dans ce cas, l ensemble des evenements mesurables pour une variable X i0 est simplement l ensemble de toutes les parties de E). Pour modéliser un champs/processus il est necessaire de spécifier de manière consistente l ensemble de toutes ses distributions jointes d ordre fini. Définition.0.2 Soit X. = X t, t I un champs aléatoire et soit J I un sous ensemble fini. On dénotera par X J la distribution jointe des variables X t, t J. L ensemble X J : J I, J < sera appellé la famille des distributions jointes d ordre fini de X. En pratique, des proprietés supplementaires sont necessaires pour reduire la complexité inherente dans le modèle ci dessu. 5

6 Les processus à variables X t indépendants sont simples à utiliser, mais peut-être trop simples pour modéliser des phénomènes intéressants. dans ce cas, les distributions jointes sont simplement des produits. Le prochaîne degré de complexité est donné par les processus Markoviens. Ils incluent les marches aléatoires S n = n i= Z i, Z i i.i.d., mais cette famille est aussi une trasformation simple des processus à variables indépendants, et ça simplifie son étude (par exemple la démonstration du CLT). La classe des processus Markoviens est extremement riche, avec une complexité qui depend des ensembles E, I.. Les processus de Markov Définition.. -Proprietè de Markov Un processus X = (X t ) t 0, avec t unidimmensionel a la proprietè de Markov si, et seulement si ses probabilités conditionelles ne depend pas du passé que par le passé imediat, i.e. 0 t0 < t < < t k < t, t i R, et e i0, e i,..., e ik, e i E P ([X t A] [X t0 = e i0,..., X tk = e ik ]) = P ([X t A] [X tk = e ik ]) Interprétation de la propriété de Markov : si on considère que le processus est indicé par le temps, cette propriété traduit le fait que le présent ne dépend du passé qu à travers le passé immédiat. Un processus ayant la proprietè de Markov s apelle processus de Markov. Exemples : 2.3 et 2. de Ruegg, et les exemples de Belisle. Définition..2 Matrice des transitions Pour tous 0 s t, pour tous i, j dans I, et pour chaque processus de Markov, on définit les probabilités de transition par : p ij (s, t) = P ([X t = e j ] [X s = e i ]). Définition..3 Homogeneité des transitions Un processus est dit homogène si, et seulement si : i, j I, 0 s t, p ij (s, t) = p ij (0, t s). On note alors p ij (s, t)= p ij (t s), et la matrice p ij (t) est appellée matrice de transition après temps t. Hypothèse de travail : (H) On ne considérera ici que des processus homogènes. L exemple le plus simple des processus de Markov homogènes est fourni par les chaînes de Markov en temps discret et à espace d états fini ou dénombrable. 6

7 Chapitre 2 Chaînes de Markov On considére maintenant le cas des processus X n observés en temps discret : n = 0,, 2,... La propriété de Markov a lieu quand la loi conditionnelle de X n sachant (X 0, X,..., X n ) est la même loi que la loi conditionnelle de X n sachant X n. Ces processus sont entièrement characterisés par leur matrice de transition p i,j () = P ([X n = e j ] [X n = e i ]) après temps, qu on denotera par p i,j. Définition Une chaîne de Markov (X n ) n N est dite homogène si : e i, e j E, P ([X n = e j ] [X n = e i ]) ne dépend pas de n. La matrice P = (p ij ) i,j I, appellée matrice de transition, est la plus importante characteristique d une chaîne. Cette matrice P est une matrice stochastique, c est-à-dire une matrice telle que :. i, j I, p ij 0 et 2. i I, j I p ij = ; la somme des termes de chaque ligne égale à. En notation vectorielle, on a P =, ou denote un vecteur avec tous les composantes. Rémarque : Même qu on utilise parfois le terme matrice si E est infini, la theorie dans ce cas est un peu differente. 2. L évolution de la loi de probabilité d une chaîne Définition 2.. Pour tout n de N et tout i de I, on note µ i (n) = P [X n = e i ] et µ (n) = (µ i (n)) i I. Le vecteur µ (n) définit une probabilité sur (E, P (E)) appelée loi à l instant n. On appelle loi initiale de la chaîne (X n ) n N le vecteur µ (0). Exemple 2.. Calculer les distributions µ (), µ (2) pour une marche sur le graphe papillon, en sachant que : a) le départ est surement à 0 b) le départ est avec probabilités egales en 0 ou en U, i.e. µ (0) = (/2, 0, 0, 0, /2). En conditionnant sur la position k un pas en avant, on verifie que µ () = µ (0) P, et µ (n + ) = µ (n) P (2.) 7

8 O U B A Figure 2. Marche aléatoire simple sur le graphe papillon C et alors par induction on trouve µ (n) = µ (0) P n (2.2) Exemple 2..2 Soit (X n ) n N une chaîne de Markov homogène sur ( l ensemble {, ) 2}, de distribution initiale µ(0) = (µ, µ 2 ) et de matrice de transition P = a a b b Calculez P{X 0 = 2, X = 2}, c 2 () = P{X = 2}, P{X 0 = 2 X = 2}, P{X 0 = 2, X = 2, X 2 = }, c 2 (2) et P{X 0 = 2, X 2 = }. Ce dernier exercice nous sugère la necessité d étudier la probabilité de transition après n étapes. 2.2 Probabilités de transition en n étapes Définition 2.2. Pour tout n de N, on définit la matrice des probabilités de transition en n étapes, ( ) elle est notée P (n) = p (n) ij où p (n) ij = P ([X n = e j ] [X 0 = e i ]). i,j I Note : La distribution de X en partant de X 0 = i, est donné par la ligne i de la matrice P, et la distribution de X n en partant de X n = i est donné par la ligne i de la matrice P n. Théorème 2.2. Les matrices de transition en n étapes ont une structure de semi-group, i.e. P (m+n) = P (m) P (n) (2.3) Ce resultat très important s appelle l equation de Chapman-Kolmogorov. Démonstration: Soit (X n ) n N une chaîne de Markov homogène de matrice de transition P et de loi initiale µ (0), à valeurs dans (E = {e i ; i I}, P (E)). En conditionnant sur la position k après m pas, on a : i, j I, m, n N, p (m+n) ij = k I p (m) ik p(n) kj 8 QED

9 Corollaire 2.2. P (n) = P n, i.e. le semi-groupe des matrices de transition est generé par la matrice P de transition après temps. Demonstration : on montre ça par récurrence sur n, en partant de P () = P, et en tenant compte que P (n+) = P (n) P (par l equation de Chapman-Kolmogorov (2.3)). Rémarque Comme illustré dans les exemple ci-dessus, en utilisant la distribution initale µ (0) et la matrice de transition P on peut calculer la distribution µ (n) a n importe quel temps, par exemple µ (), µ (2)... et aussi les distributions jointes pour n importe quel ensemble fini des temps (en utilisant la loi de multiplication des probabilités conditionnelles). En effet, on peut donner une formule explicite pour les distributions jointes d ordre fini d une chaîne, en fonction de la matrice de transition P et la distribution initiale µ(0). Théorème Pour une chaîne de Markov, les distribution jointes sont données pour : t 0 < t < < t k, t i R, et e i0, e i,..., e ik E explicitement par P [X t0 = e i0,..., X tk = e ik ] = µ i0 (t 0 )P t t 0 i 0,i...P t k t k i k,i k (2.4) Remarque 2.2. Il est convenable d identifier une chaîne de Markov avec sa matrice de transition P, qui est l element principal du duo (P, µ(0)). Définition La chaîne de Markov associé à une matrice stochastique P est la famille des mesures P µ(0) définies par (2.4), avec operateurs d esperance associés E µ(0) (donc pour obtenir une seule mesure, il faut encore specifiér la mesure initiale µ(0)). 2.3 Quelques exemples de modélisation par les chaînes de Markov Pour modéliser une situation par une chaîne de Markov, on a besoin d abord de choisir un espace d états convenable tel que la proprieté de Markov est satisfaite, et ensuite de déterminer la matrice de transitions. Exemple 2.3. Un processus qui n est pas une chaîne de Markov a priori, mais qu on peut rendre Markov par un bon choix de l espace d états. Soit (X n ) n N un processus à deux états, notés e et e 2. On suppose que les transitions entre les étapes n et n + s effectuent selon le procédé suivant : { Si Xn = X n alors P ([X n+ = e ] [X n = e i ]) = 3 4 Si X n X n alors P ([X n+ = e ] [X n = e i ]) = 2 a) Montrer que (X n ) n N n est pas une chaîne de Markov. b) Construire un espace d états permettant de modéliser ce processus par une chaîne de Markov et donner alors son graphe. Solution : b) On construit l espace d états suivant : {e e, e e 2, e 2 e, e 2 e 2 }. Sur cet espace, le processus devient Markovien, et la matrice de transition s écrit : P =

10 Exemple Une companie d assurance voiture a un système de bonus avec niveau : 0% réduction niveau 2 : 25%réduction cinq niveaux pour les assurés sans sinistres déclarés : niveau 3 : 40% réduction niveau 4 : 50% réduction niveau 5 : 60% réduction Pour un assuré, la probabilité de ne pas avoir de sinistre dans un an est de 0.8. Les regles selon on passe d un niveau (état)à l autre sont : Apr`s une année sans sinistre on passe au niveau supérieur suivant ou on reste au niveau 5 Apr`s une année avec un ou plusieurs sinistres on diminue d un niveau si l année précedente, il n y a pas eu de déclaration de sinistre. on diminue de deux niveaux si l année précedente il y a eu au moins une déclaration de sinistre.. Notons par X(t) le niveau,soit, 2, 3, 4 ou 5, de l assuré pour l année t. Expliquez pourquoi {X(t)} t= n est pas une chaîne de Markov. 2. En augmentant le nombre de niveaux, définissez un nouveau processus stochastique {Y (t)} t= qui soit Markov et de telle manière que Y (t) représente le niveau de réduction pour l assuré dans l année t. 3. Déduire la matrice de transition pour la chaîne de Markov {Y (t)} t=. Solution :. {X(t)} n est pas Markov parce que, par exemple, P[X t+ = 3 X t = 4, X t = 3,...] ne peut pas se réduire à P[X t+ = 3 X t = 4]. 2. Définition des nouveaux niveaux : 3=40% réduction cette année, apr`s 25% l année dernière 4=50% réduction cette année, apr`s 40% l année dernière 3a=40% réduction cette année, apr`s 50% l année dernière 4a=50% réduction cette année, apr`s 60% l ann ee dernière 3. La matrice de transition est alors a 4a a a Exemple Supposons que une pluie eventuelle demain depend de la situation du temps dans les trois jours précédents, ainsi : a) S il y a eu de la pluie dans les deux jours précédents, alors il va pleuvoir avec probabilité.8. b) S il y a pas eu de la pluie dans aucun des trois jours précédents, alors il va pleuvoir avec probabilité.2. c) Autrement, la situation va etre la meme comme dans le jour precedent avec probabilité.6. Modéliser cette situation par une chaîne de Markov, en donnant l espace des états et la matrice de transition. 2.4 Classification des états Définition 2.4. Soient e i et e j deux éléments de E. On dit que e i conduit à e j (on note e i e j ) ssi il existe n > 0 tel que p (n) ij > 0 et on dit que e i et e j communiquent (et on note e i e j ) si e i conduit à e j et e j conduit à e i. 0

11 Rémarque : la relation est clairement symétrique, reflexive et transitive. alors, elle partage l espace d états dans des classe d équivalence. Définition On appelle classes de la chaîne : les classes d équivalence induites par la relation sur E. Définition Une classe d equivalence dans une chaîne de Markov finie qui n a pas de transitions vers l exterieur est dite récurente ; les autres classes s appellent transitoires. Rémarque : La distinction entre elements transients et recurents a une grande portée sur la valeur des limites lim n P n (i, j). On verra que pour j transient, elle est toujours 0. Définition Le graphe de communication d une chaîne est un graphe sur les états (indiqués par des points du plan), avec des cotés représentant les transitions possibles (indiqués par des flèches, avec la valeur de la probabilité de transition notée au dessus). 2.5 Le comportement limite des chaînes de Markov 2.5. Lois invariantes et lois asymptotiques Une question très importante pour les chaînes de Markov est de déterminer les distributions asymptotiques/a la longue/limites d une chaîne specifié par µ(0) et P : π( ) µ(0) = π( ) = lim n µ (n) = lim n µ(0)p n (2.5) A priori, il pourrait y exister une limite asymptotiques différente (2.5) pour chaque distribution de départ µ(0). Plus précisement, on pourrait avoir des distributions limite différentes π( ) i pour chaque point de départ sur µ(0) = δ i. Remarque 2.5. Comme δ i P n est précisement la ligne i de la matrice P n, on trouve par (2.5) que les limites asymptotiques π( ) i pour chaque point de départ nonaléatoire possible i =,..., I sont précisement les lignes de la matrice P = lim P n n. On appelera cette matrice la matrice de transition asymptotique. En plus, ces vecteurs de probabilité sont les points extremaux de l ensemble des toutes les distributions asymptotiques possibles. Alors, la question de l ergodicité = existence + unicité de la distribution asymptotiques est equivalente à la question : Question (ERG) : Est-ce-que la limite matrice P = lim n P n existe et estce-que elle a des lignes identiques, i.e. est-ce-que on a P = π? (ici denote un vecteur colonne et π un vecteur ligne). Les reponses aux questions (E),(U) et (ERG) peuvent-être abordées par la structure spectrale (valeurs propres, vecteurs propres) speciale de la matrice P, en utilisant le théorème de Perron-Frobenius pour les espace d états finies. et encore des autres limites données par l ensemble convexe engendré par π( ) i, i E. Définition 2.5. L ensemble des distributions limite π( ) µ(0) d une chaine P, obtenues en variant la distribution initiale µ(0), sera appellé l ensemble des distributions asymptotiques.

12 Req Équations d équilibre/stationnarité/invariance Remarque En supposant que la limite (2.5) existe (ce qu il n y est pas toujours le cas), on voit par µ(n + ) = µ(n)p que chacune de cettes distributions a la longue doit satisfaire les équations π( ) = π( )P Définition Les équations π = πp (2.6) sont appelées équations d équilibre/stationnarité/invariance, et un vecteur des probabilités qui les satisfait est appelé distribution stationnaire ou invariante. Autrement dit : une distribution stationnaire π est un vecteur de probabilités qui est aussi vecteur propre a gauche de P associé à la valeur propre. Remarque Le nom stationnaire vient du fait que si µ(0) = π, alors on a µ(n) = π pour chaque n. Par la rémarque (2.5.2), il suit que : inc0 Corollaire 2.5. Les distributions asymptotiques d une chaîne de Markov homogène se trouvent parmi les distributions stationnaires. Le système d équilibre (2.6) est donc la clé du calcul des distributions asymptotiques. Deux questions fondamentales ici sont celles de l existence d au moins une solution, et de l unicité. Questions (E-U) : ) Est-ce que c est possible qu il n existent pas des vecteurs des probabilités qui satisfont le système d équilibre (2.6) (i.e. est-ce que c est possible qu il n y ait pas des vecteurs propres pour la valeur propre qui ont toutes les composants nonnégatives)? 2) Est-ce que c est possible qu il existent plusieurs vecteurs des probabilités qui satisfont le système d équilibre (2.6)? Une autre question fondamentale est si dans la presence d une solution unique du système d équilibre (2.6), elle sera forcement attractive, donc il y aura de la convergence lim n µ(0)p n = π pour n importe quel µ(0). Dans la términologie des systêmes dynamiques, cette situation correspond au cas quand l équation d évolution µ(n + ) = µ(n)p admet un seul point invariant stable, le basin d attraction du quel est tout l éspace (donc toutes les orbites qui partent de n importe quel µ(0) convergent vers π). Mais, il y a aussi des situations plus compliquées : Exemple 2.5. L inexistence de la limite P = lim n P n pour les chaînes cycliques. La limite P n existe pas toujours, comme on voit immediatement en examinant une chaîne de Markov qui bouge cycliquement sur les noeuds d un graphe. Par exemple, pour n = 3, avec ( la matrice ) de transition ( ) P = 0 0, on a : P 3n = I 3, P 3n+ = P et P 3n+2 = P 2 = On voit immediatement que la suite P, P 2, P 3 = I, P 4 = P,... est cyclique et donc sans limite. Ici, la distribution stationnaire π = (/3, /3, /3) est unique, mais instable, et tout l espace se decompose dans des cycles invariants instables d ordre 3. 2

13 Les équations d équilibre local Exemple Pour une marche aléatoire X t, t = 0,, 2,... sur un graphe formé de deux tetrahèdres superposés, calculer :. L ésperance en partant de U du nombre de pas T O jusq au coin opposé O.Indication : Utiliser la symmetrie. 2. L ésperance en sortant de O du nombre de pas T O jusq au premier retour à O. 3. La probabilité p A = P A {X T = U}, ou T = min[t U, T O ]. 4. La probabilité p k en partant de O que la marche visite U exactement k fois (k = 0,, 2,...) avant le premier retour à O. Vérifier la somme k=0 p k. 5. Les probabilités stationnaires du chaque noeud. Indication : Devinez la rèponse et montrez qu elle satisfait le systême des équations d équilibre L ergodicité Un cas trés fréquent dans les applications et quand il n y a qu une distribution stationnaire π, qui coincide aussi avec la distribution limite pour toutes les points de départ initials possibles. Alors, par le corrollaire (2.5.), la distribution limite est independante de la distribution de départ, est egale à π. Nous allons appeler ça le cas ergodique. Définition On appelle une chaîne à matrice de transition P ergodique lorce que la distribution limite π( ) = π( )(µ(0)) = lim n µ (n) existe et est unique, independement de la distribution de départ. Note : Dans le cas des espace d états dénombrable, il est important de distinguer les deux cas quand la distribution limite satisfait π i > 0, i et le cas quand elle satisfait π i = 0, i. Nous appelerons ces deux cas ergodique positive et ergodique nul (ce dernier cas étant impossible pour des espace d états finies). Dans la literature, le terme ergodique signifie d habitude ce que nous appelons ici ergodique positive. inc Remarque Une chaîne ayant des distributions limite en partant de chaque point i, et ayant une distribution stationnaire unique π est ergodique (i.e. toutes les distribution asymptotiques doivent coincider avec π). L abondance du cas ergodique est expliquée par la décomposition spectrale : Lemme 2.5. Une matrice A de dimension n ayant un ensemble de n vecteurs propres à droite independants d i, et donc aussi un ensemble de n vecteurs propres à gauche independants l i, calculés en prenant les lignes de la matrice D, où D = (d d 2... d n ) peut-être decomposé : A = i λ i d i l i où λ i sont les valeurs propres. Ce cas a lieu par exemple quand tous les valeurs propres de P sont distincts ( le cas générique ). Si en plus la seul valeur propre de module est, et avec multiplicité ( le cas générique ), il suit immediatement que lim P n = π n Nous examinons maintenant pour ergodicité un exemple ou P n et π se calculent explicitement : 3

14 Exemple Chaîne a deux ètats. Soient a, b [0, ] et la matrice de transition : P = ( a a b b ) a) Montrer en calculant les valeurs et vecteurs propres que P n = a + b ( b a b a ) + ( a b)n a + b ( a a b b b) Montrez que avec a, b (0, ), la limite P = lim n P n = calculez cette limite dans tous les cas possibles. ) ( b a+b b a+b a a+b a a+b ). En suite, En conclusion, on voit que avec a, b (0, ), la limite matrice P = lim n P n existe et qu elle a des lignes identiques, donc la chaîne est ergodique : la distribution limite b π = ( a + b, a ) est unique. Elle est aussi l unique distribution stationnaire. a + b Le théorème ergodique Le cas ergodique est le plus important dans les applications, a cause du : moy Théorème 2.5. Soit X(n) une chaîne de Markov ergodique à distribution asymptotiques π, et soit une fonction coût f tel que la moyenne spatiale Eπf(X. ) = j E π jf j est bien definie. Alors, la moyenne temporelle des coûts converge presque partout vers la moyenne spatiale, for any initial distribution : lim n n n f(x n ) = π j f j j E i= Nous examinons maintenant un exemple ou P n n est pas disponible explicitement ; quand même, la distribution stationnaire π est unique et donc la limite des coûts moyenne temporelles se calculent facilement : Exercice 2.5. Montrez que la marche aléatoire sur le graph papillon a une distribution stationnaire unique π. Calculez l esperance du coût moyenne de cette marche, si f(a) = 0, f(b) = et les autres coûts sont Marches aléatoires et relations de récurrence Motivation : Les marches aléatoires sont parmi les modèles probabilistes les plus utiles (par exemple en physique, mathématiques financières, files d attente, statistique, etc...). Ils sont aussi parmi les modèles les meilleurs compris, car ils permettent souvent des solutions analytiques. 4

15 2.6. Marches aléatoires sur R d Définition 2.6. Marches aléatoires sur R d. Soit (Z n ) n N une suite de variables aléatoires réelles i.i.d (i.e. indépendantes et de même loi), à valeurs en R d. Le processus X n R d, n = 0,,... donné par la somme de ces variables X n = X 0 + Z + Z Z n, n N (2.7) s appelle marche aléatoire. Comme alternative, la marche aléatoire peut-être definie récursivement par la récurrence X n = X n + Z n (2.8) Exemple 2.6. Marches aléatoires sur Z d Typiquement, on s interesse au cas où l espace d états est un maillage régulier comme Z d, i.e. X 0, Z n Z d ont une distribution discrète p = (p i, i Z d ). Dans ce cas, nous avons à faire à une chaîne à espace d états dénombrable. Exemple Si en plus Z n =, i.e. p i 0 ssi i est un voisin de l origine, le processus (2.7) est appelé une marche aléatoire simple. Exemple Marches aléatoires sur Z Pour les marches sur Z, la matrice de transition P = (pij = P{X n = j/x n = i} = P{Z n = j i}) i,j N a aussi la propriété que P i,j = p i j, où p k = P{Z n = k} ; les matrices de cette forme, i.e. à diagonales constantes, s appellent matrices Toeplitz. Exemple Pour une marche aléatoire simple en dimension d =, la distribution de Z n est de la forme pδ + ( p) δ, i.e. P [Z n = ] = p et P [Z n = ] = p avec 0 < p <. Si p = q =.5 on parle d une marche aléatoire symmetrique, et avec p q on parle d une marche aléatoire biaisée. Extension : Si on remplace les probabilités p j par des probabilités p i,j := P Xn =i[x n X n = j] on arrive à une chaine de Markov. Théorème 2.6. Les marches aléatoires sur R d ont la propriété de Markov. Démonstration: Ce résultat est assez facile à démontrer en général, en partant de (2.8), mais nous allons considérer seulement les marches aléatoires sur Z d, pour rester dans le cadre des processus à espace d états dénombrable. Dans ce cas, il est suffisant d exhiber la matrice de transition. Notes : ) On a à faire ici à des sommes des v.a. i.i.d.. Donc, P n (0, :) la distribution de la somme n i= Z i, est donnée par la n-ième convolution de la distribution p de Z i (et la fonction génératrice des moments est la puissance n de la fonction génératrice des moments de p). Le comportement des puissances P n pour n est lié au théorème de la limite centrale. 5

16 2.6.2 Moments et cumulants des marches aléatoires Exercice 2.6. Les moments et cumulants de la marche simple. Soit X 0 = 0 N le capital initial d un joueur. Au temps n =, 2,..., le joueur gagnera Z n = avec probabilité p et perdera Z n = avec probabilité p, où 0 < p <. Soit X n = X 0 + Z + Z Z n son capital au temps n. Calculez :. L esperance du son gain e n = EX n. 2. La variance du son gain v n = Var X n. 3. La fonction génératrice des moments M(u, n) = Ee ux n. 4. La cumulant generating function κ(u, n) = log(ee ux n ). Notes : ) Il est clair que ces propriétés de linéarité (de l espérance, de la variance, et de la cumulant generating function ), sont vraies pour chaque marche aléatoire. 2) La connaissance de la distribution ou de la fonction génératrice des moments d une variable X sont typiquement equivalents. Mais, pour une somme n i= Z i des v.a. i.i.d., pendant que la comme distribution est la n-ième convolution p,n de la p distribution de Z i, la fonction génératrice des moments Ee θ n i= Z i est beaucoup plus simple à obtenir (ètant la n-i `me puissance de la fonction génératrice des moments Ee θz ). Exercice Soit m n = m n (X), n = 0,, 2,... les moments d une va X, soit κ X (u) = log M X (u) = log( u n n m n! n) = u n n c n! n(x) la fonction génératrice des cumulants, où c n = c n (X) = n κ(u) sont les cumulants. ( u) n u=0 a) Montrez (en utilisant eventuellement un logiciel symbolique) que X, c 0 = 0, c = m, c 2 = Var (X) = m 2 m 2, c 3 = m 3 3m m 3 + 2m 3, etc. b) Montrez (en utilisant eventuellement un logiciel symbolique) que X, m 2 = c 2 + c 2, m 3 = c 3 + 3c c 2 + c 3. Nt : ) Le cumulant d un ordre donné est un polynome dans les moments d ordre plus petit ou égal, et reciproquement. 2) Les coefficients de l expansion des moments en fonction des cumulants sont donné par des nombres des partitions. 3) Les cumulants d une variable centré (m = 0) coincide avec les moments jusqu au troisième ordre. C est le quatrième cumulant, la kurtosis, donné dans le cas centré par c 4 = m 4 3m 2 2, qui joue un role important dans certaines tests statistiques (comme de nonnormalité, par exemple). Exercice Pour la marche simple, calculez. Le premier, deuxième et troisième cumulants κ i (n), i =, 2, 3 de X n, i.e. les premiers trois coefficients dans l expansion κ(u, n) = i κ i(n)u i en puissances de u. 2. Le deuxième moment de X n. Quelle est la particularité du cas p = /2? 3. Le troisième moment de X n. 6

17 2.6.3 La méthode du conditionnement sur le premier pas Exercice La marche aléatoire symetrique. On cherche a trouver la probabilité d un joueur qui s engage dans une série de parties (indépendantes) à un jeu où à l issue de chaque partie il gagne F avec une probabilité /2 et perd F avec une probabilité /2, et qui décide de s arrêter de jouer dès qu il aura B francs en poche, ou dès qu il n a plus d argent. Pour tout n N, on note X n la fortune du joueur au bout de n parties, et X 0 = i sa fortune à l entrée dans le Casino. Ca revient a étudier la marche aléatoire symetrique X n = X 0 + Z + Z Z n, X n Z avec P [Z n = ] = P [Z n = ] = /2, jusqu au temps d arrêt/sortie T = min[t 0, T B ] quand le process sort de l interval [0, B] (en prenant 0 et B comme états absorbants). On dénotera par E i l esperance en commençant de i (conditionnant sur X 0 = i), et on designe par E l événement que le joueur gagne, i.e. E = {x T = B} = [ n N tel que X n = B, X k > 0, k =,..., n ]. Pour tout i de {0,..., B}, on pose : (la probabilité du bonheur ). b i = P (E [X 0 = i]). En supposant B = 3, enumerer et esquisser l espace de tous les chemins du bonheur/ruine qui commencent avec X 0 =, en developpant l arbre de toutes les possibilités. Calculer la probabilité du chaque chemin, et verifier que leur somme vaut. 2. Expliquer graphiquement sur l arbre de toutes les possibilités les équations b = /2b 2, b 2 = /2b + /2, en assoc. Déduiser b 0, b 3, et en suite b, b En supposant B = 4, calculer b, b 2 et b Calculer b i, i = 0,..., B pour B quelconque. 5. Calculez l espérance du nombre des pas du jeux, pour B quelconque. R : On pourrait essayer de calculer b i en ajoutant les probabilités de tous les chemins du bonheur qui commencent avec X 0 = (en regardant l arbre de toutes les possibilités). Mais comme cet arbe est (typiquement) infini et très compliqué, cette analyse n est pas facile. Par contre, une approche diviser por conquérir de décomposition de l arbre dans ses branches obtenues en conditionnent sur le premier pas ramm ene à des équations linéaires faciles à résoudre. Cet exercice illustre trois idées :. La puissance de la méthode du conditionnement sur le premier pas. 2. Le calcul des esperances pour les chaînes de Markov comporte des systèmes linéaires avec une inconnue pour chaque état initial possible. 3. Les systèmes associés avec un processus fixe implique toujours la même partie homogène appellée operateur. Dans le cas des chaînes de Markov en temps discret et à espace d états fini ou dénombrable, l operateur est simplement P I, où P est la matrice de transition P. Ces idées seront aprofondies dans les chapitres suivants, où nous regarderons quelques autres problèmes résolubles par le conditionnement sur le(s) premier(s) pas. 7

18 2.6.4 La ruine du joueur pour la marche aléatoire simple Nous généraliserons maintenant les resultats pour la marche unidimensionelle symetrique au cas des marches simples asymetriques. En même temps, nous étudiérons d autres problèmes concernant l absorbtion dans un ensemble d arrêt pour la marche aléatoire simple unidimensionnelle (les équations obtenues sont valables dans toute dimension,mais les solutions sont disponibles explicitement seulement dans le cas unidimensionnel). Exemple La ruine du joueur et autres problèmes de Dirichlet pour la marche aléatoire simple. Considérons la marche aléatoire simple X n = X 0 + Z + Z Z n, X n Z avec (Z n ) une suite de variables aléatoires réelles indépendantes de même loi P [Z n = ±] = p, q. Nous étudierons la marche jusqu au temps d arrêt/sortie T = min[t 0, T B ] quand le process sort de l interval [0, B] pour B donné, i.e. on prend 0 et B comme états absorbants. On appelle ce problème la ruine du joueur, a cause de l interpretation d un joueur qui s engage dans une série de parties (indépendantes) à un jeu où à l issue de chaque partie il gagne F avec une probabilité p et perd F avec une probabilité q = p, et qui décide de s arrêter de jouer dès qu il aura B francs en poche, ou dès qu il n a plus d argent. Pour tout n N, on note X n la fortune du joueur au bout de n parties, et X 0 = i représente sa fortune à l entrée dans le Casino. On dénotera par E i l esperance en commençant de i (conditionnant sur X 0 = i), et on designe par E l événement que le joueur gagne, i.e. E = {x T = B} = [ n N tel que X n = B, X i > 0, i =,..., n ]. Pour tout i de {0,..., B}, on pose :. Quelles sont les valeurs de b 0 et b B? 2. Montrer que : b i = P (E [X 0 = i]). i {,..., B }, b i = p b i+ + q b i (on rappelle que q = p). 3. Obtener une expression explicite de b i pour tout i de {,..., B}. Indication : Remarquez que la solution satisfaisant b 0 = 0 est de la forme : { k ( ( q b i = k i p )i ) quand p q quand p = q et déterminer k tq la condition frontière de b B soit satisfaite. 4. Pour tout i de {0,..., B}, on pose a i = P (F [X 0 = i]) où F est l événement le joueur repart ruiné. En procédant comme auparavant, montrer que : a i = ( q p) i ( q p) B ( q p) B si p 2 B i B si p = 2 Pour tout i de {0,..., B}, calculer a i + b i. Que peut-on en déduire? Calculez les probabilités de ruine quand B, pour p > q et pour p q. Expliquez la rélation avec le comportement de X t, t. 8

19 5. Obtenez un système d équations pour l espérance du gain final f i = E i X T. Calculez cette fonction pour p = q. 6. Obtenez un système d équations pour l espérance du temps de jeu : t i = E i T. Calculez cette fonction, pour p = q, et pour p < q, quand B. 7. Obtenez un système d équations pour l espérance du coût cumulé d inventoire c i = E i T t=0 X t. Calculez cette fonction, pour p = q, et pour p < q, quand B. 8. Obtenez un système d équations pour w i = E i a T = k=0 P i[t = k]a k (qui est la fonction génératrice des probabilités P i [T = k]). Calculez cette fonction, pour p q. 9. Obtenez les équations de récurrence et les conditions frontière satisfaites par u x = E x a T g(x T ), a (0, ) et par v x = E x [a T g(x T ) + T t=0 h(x t)], a (0, ). Résolvons cet exercice en utilisant la méthode du conditionnement sur le premier pas Z, l idée de quelle est d obtenir des relations de récurrence qui lient les valeurs de l espérance conditionnée à partir de tous les points de départ possibles. Nous verrons, en examinant les questions 2)-8) de cet exercice, qu ils utilisent toutes le même opérateur (Gf) n := (P I)(f) n = p f n+ + q f n f n (2.9) op la seule difference étant dans les conditions frontière et dans la partie nonhomogène. En plus, ils se regrouperont en deux types de questions :. Gain final esperé, satisfaisant : f n = E n [g(x T )] = pf n+ + qf n (Gf) n = 0, F (0) = g(0), F (B) = g(b) 2. Coût total accumulé esperé T f n = E n [ h(x i )] = h(n) + pf n+ + qf n (Gf) n = 0, f(0) = 0, f(b) = 0 Solution :. b 0 = 0, b B = 0 2. Gain final esperé, g(x) = x=b. En conditionnant, on trouve : b n = P n [X(T ) = B] = p P n [X(T ) = B/X() = n + ] + q P n [X(T ) = B/X() = n ] = p b n+ + q n n B car P n [X(T ) = B/X() = n ± ] = P[X(T ) = B/X(0) = n, X() = n ± ] = P[X(T ) = B/X() = n ± ] = P[X(T ) = B/X(0) = n ± ] = b n± en utilisant la proprieté de Markov et l homogeneité. 9

20 3. Quand p = q = /2, b x = P x [X(T ) = B] satisfait : b n = b n+ 2 + b n 2 b B = b 0 = 0 for any n B La méthode de résolution des équations de récurrence homogènes à coefficients constants commence en cherchant des solutions de la forme b n = r n. Si les racines de l équation auxiliaire sont distinctes, la solution générale est : b n = k r n + k 2 r n 2 où k, k 2 sont déterminés en utilisant les conditions frontière. Ici, cherchant des solutions puissances r x ramène à l équation r 2 2r + = 0 à deux racines identiques r,2 =. La solution générale est b x = A + Bx. Les conditions frontière donnent b x = x B. Solution finale si p q : b n = (q/p)n. (q/p) B 4. a i +b i =, et donc la marche sera eventuellement absorbé dans une des deux frontiéres (elle ne peut pas rester à l intérieur indéfinimment). Pour p = q, lim B a n = lim B B n B =. Autrement, lim a (q/p) n (q/p) B n = lim = B B (q/p) B { (q/p) n,, q > p. q < p 5. f x = E x [X(T )] (valeur finale ésperée) satisfait Gf(x) = 0, f(0) = 0, f(b) = B. Pour p = q, la solution f x = x est obtenue comme ci-dessus : f x = f x+ 2 f B = B f 0 = 0 + f x 2 for any x B (C est aussi une fonction harmonique, mais avec conditions frontière différentes.) 6. t x = E x [T ] (temps de sortie ésperé) est un coût total accumulé esperé (obtenu en prenant h(x) = ), qui satisfait le système inhomogène Gt(x) + = 0, t(0) = 0, t(b) = 0. Pour p = q t x = t x+ 2 + t x 2 t B = 0 t 0 = 0 + for any x B La solution d une équation nonhomogène est donnée par 20 t x = t p (x) + h(x)

21 où t p (x) est une solution particulière et h(x) est la solution générale de l équation homogène. Commençons par l équation homogène. La solution générale homogène ( fonction harmonique ) h(x) = A + Bx pour cet opérateur a été déjà obtenue ci-dessus. Nous aimerions maintenant trouver une solution particulière t p (x) de l équation Gt p (x) = de la même forme que la partie nonhomogène de l équation, donc t p (x) = C; mais, comme les constantes, et puis aussi les fonctions linéaires vérifient l équation homogène Gt p (x) = 0, nous devrons modifier deux fois cette forme en multipliant par x, en arrivant donc à t ( x) = Cx 2. Comme Gx 2 = 2x(p q) + =, on trouve C = et finalement la solution particulière t p (x) = x 2. La solution générale est donc t(x) = x 2 + A + Bx et les conditions frontière ramènent à t x = x(b x). Pour p q t x = pt x+ + qt x + for any x B t B = 0 t 0 = 0 La solution generale homogène avec p q est h(x) = k (q/p) n + k 2 et le terme nonhomogène sugere une solution particulière constante k, mais comme ça satisfait l équation homogène, on modifie à kn. Finalement, k =. q p La solution particulière est t p (x) = x ; elle satisfait deja t q p p(0) = 0. La partie homogène h(x) = t x t p (x) devra aussi satisfaire h(0) = 0 et donc elle sera de la forme h(x) = A h(x) où h(x) = ((q/p) x ). En demandant que t n = n + q p A(q/p)n ) satisfait la condition frontière t B = 0 on trouve : t n = t p (n) t p (B) h(n) h(b) = n q p B (q/p) n q p (q/p) B. { si p > q La limite quand B est t n = ; on peut aussi obtenir ce t p (n) = n si p < q q p resultat en utilisant l approximation détérmiste X n X 0 ne(z ), appellée aussi limite fluide. 7. c x = E x [ T 0 X(t)] (coût total d inventaire ésperé) satisfait le système inhomogène Gc(x) + x = 0, c(0) = 0, c(b) = 0. Pour p = q : c x = c x+ 2 + c x + x for any x B 2 c B = 0 c 0 = 0 Une solution particulière est c p (x) = x3. Finalement, on arrive à c(x) = x(b2 x 2 ). 3 3 Pour p q, une solution particulière est c p (x) = x2 (elle satisfait deja c 2(q p) p(0) = 0). La partie homogène satisfaisant h(0) = 0 sera toujours h(x) = A h(x) où h(x) = ((q/p) x ). 2

22 En demandant que c n = c p (n) + A(q/p) n ) satisfait la condition frontière c B = 0 on trouve : c n = c p (n) c p (B) h(n) h(b) La limite quand B est c n = { si p > q c p (n) si p < q. 8. On arrive a w(x) = A z x + A 2 z2 x, où z i sont les racines de pz 2 a z + q = 0, et A i satisfont A z B + A 2 z2 B =, A + A 2 = et w(x) = zx zx 2 +zx zx 2 (zb x z B x 2 ) z Z zb 2 9. On a u x = g(x), pour x {0, B}, et le conditionnement donne la relation : u x = E x [a T g(x τ )] = a(pu x+ + qu x ). v x = g(x), pour x {0, B}, et le conditionnement donne la relation : v x = a(pv x+ + qv x ) + h(x). Conclusion : Nous avons vue dans ces exercices une des idées les plus importantes de la modélisation Markovienne : les ésperances, vues comme fonctions de l état initial, satisfont certaines équations qui font toujours intervenir un opérateur associé fixe, appelé générateur du processus, même que les conditions frontière, termes non-homogènes, et d autre details (comme la presence/absence d une multiple de l operateur identité) peuvent varier. Les equations s obtient facilement par la methode de conditionnement sur le premier pas, en utilisant la propriété de l oubli du passé des processus de Markov ; mais, il y a des parties specifiques a chaque probléme, qui ne sont pas oubliées! Il s avère que les mêmes èquations décrivent la solution des problèmes analogues pour toutes les chaîne de Markov à espace d états comptable, et avec des états absorbants voir la prochaîne section. Par exemple, pour les chaînes de Markov, l operateur associé est G = P I, où P est la matrice de transition, et pour le cas particulier d une marche aléatoire X t = t i= Z i avec p k = P [Z i = k], k [ c, d] on a encore G = P I, où P = k p kf k et F est l operateur de translation (F f) k = f k+, k Z. Alors, nous obtendrons des èquations similaires pour les problèmes respectives, juste en remplaçant l ancien operateur par le nouveau. On rencontre la même situation pour toute la classe des processus de Markov, X t, différents qu elles soient, vivant sur des espaces S considerablement plus compliqués, la seule difference étant que l operateur G X : F (S) > F (S) associé a ces processus sera plus compliqué! Par exemple, les problèmes de cette section ont aussi des versions à espace d états continu, obtenu en considérant des marches avec incréments infinitésimaux ϵ, et en prenant la limite E 0. La marche aléatoire devient ainsi un processus avec chemins continus, appelé mouvement Brownien. Les équations resterons les mêmes, seul l operateur G changera (dans un operateur differentiel). En conclusions, il existe une correspondance un á un entre les processus de Markov et une certaine classe des operateurs deterministes associés ; nous l appellerons Le Dictionnaire. 22

23 2.6.5 Probabilités du bonheur/fonctions harmoniques Nous considerons ici plus en detail les probabilités du bonheur, et devoilons leur nom scientifique. Une fonction sur Z d /R d est appellée harmonique si la valeur en chaque point x est egale à la moyenne arithméthique des valeurs des voisins. En R d, par voisins on entend une sphère arbitraire avec centre x. Ces fonctions aparaissent beaucoup en physique. En probabilités, les moyennes arithméthiques deviennent des moyennes ponderés. Définition Une fonction/vecteur f : E > R s apelle harmonique pour une chaîne de Markov à matrice de transition P s il s agit d un vecteur propre à droite de P, i.e f(x) = P (x, y)f(y), x E Autrement dit, chaque point x verifie les valeurs f(y) de ses voisins (definis par P (x, y) > 0, et choisi pour valeur une moyenne ponderée de valeurs voisines. Rq : Le fait que chaque valeur est une moyenne ponderée des valeurs voisines suggère un algorithm de calcul interessant. Il est facile de montrer que : Lemme 2.6. a) Pour une chaîne avec une seule classe de communication (recurrente), les seuls fonctions harmoniques sont les constantes f(x) = a. b) Pour une chaîne avec K classes de communication recurrentes C,...C K, et sans états transients (donc forcement reductible si K > ), les fonctions harmoniques sont les fonctions escalier K k= a k Ck (x). Ind : a) Une fonction non constante prend des valeurs dans un interval [m, M], où M > m. Mais, l equation d equilibre pour un point x M tq f(x M ) = M implique que... m = M! La situation devient beaucoup plus interessante dans la presence des états transients ( subordonnés ) et de plusieures classes de communication ( leaders ). Exercice Etant donnée une chaîne finie avec deux états absorbants 0, B et le reste des états transients, obtenez un système et une formule explicite pour le vecteur des probabilités du bonheur b = (b i = P i [X T = B], i T ). Sol : Soit 0 0 P = q 0 Q q B 0 0 où q 0, q B sont les vecteur des probabilités d absorbtion directe en 0 et B (i.e. après un pas). Soit n le nb des états transitoires (la taille de Q). On trouve que b = (b i ) i T satisfait b = P 0 b où P est la matrice P avec les lignes des états absorbants effacés. En developpant, on trouve : Rémarques : b = Qb + q B b = (I Q) q B. (2.0) 23

24 . Le vecteur etendu b 0 = b est une fonction harmonique/vecteur propre à droite de P. Comme le système etendu P b = b contient deux équations triviales, notre intérêt est surtout en le vecteur correspondant aux états transitoires b, donné explicitement en (2.0). 2. Rémarquez l apparition en (2.0) de la matrice fondamentale G := (I Q). 3. Une généralisation des probabilités du bonheur sont les prix finaux esperés : f g (x) := Eg(X T ), f g : V > R où g y, y est un prix ou condition frontière donné. On vérifie par CPP (conditionnement sur le premier pas) qu elles satisfont : f(x) = g(x), x, (Gf) x = 0 f x = (P f) x, x T := V et sont donc aussi des fonctions harmoniques. Ces fonctions harmoniques à conditions frontière données sont en corréspondance biunivoques avec les conditions de frontière g : > R possibles. Cela rend les fonctions harmoniques sur Z d ou R d beaucoup plus simple quand d = et la frontière contient que deux points! Pour la marche symmetrique par exemple, il s agit des fonctions lineaires! Par exemple, avec p = q = /2, g(0) = 3 et g(0) = 53, le pris final esperé est f(x) = 5x Marches aléatoires sur les graphes : distributions stationnaires L étude des chaînes de Markov sur un espace d états fini nous rammène toujours à un système linéaire impliquant la matrice P. Il se trouve quand même que des formules/approches algorithmyques plus simples sont disponible pour certains cas particuliers, comme celui des marches aléatoires sur les graphes non dirigés. Définition a) La matrices d adjacence d un graphe est la matrice définie par { si j D(x, y) = 0 sinon b) La marche aléatoire simple sur un graphe est la marche avec probabilités de transition P (x, y) = D(x,y) d x où d x = y D(x, y) est le degré du sommet x. L inspiration de la generalisation qui suit nous vient d electricité, du problème de calculer les voltages sur un réseau des resisteurs. Considerons un réseau des resisteurs R(x, y), modélisé par un quatruple G = (V, E, C(.,.), ) representant un graph avec sommets V, arrêtes E,, des poids C(x, y) =, (les conductances electrique ) associés aux arrêtes, et un sous-ensemble des sommets distingués, où R(x,y) des voltages ou des courants electriques sont imposés. Les lois bienconnues des courants electriques de Kirkhoff sont l expression macroscopique de la marche aléatoire sur le réseau d un electron, avec des poids C(x, y) associé à chaque arrête. 24

Markov processes and applications to queueing/risk/storage theory and mathematical biology

Markov processes and applications to queueing/risk/storage theory and mathematical biology Markov processes and applications to queueing/risk/storage theory and mathematical biology Florin Avram Contents 1 Introduction aux processus stochastiques/aléatoires 3 2 Marches aléatoires et récurrences

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

aux différences est appelé équation aux différences d ordre n en forme normale.

aux différences est appelé équation aux différences d ordre n en forme normale. MODÉLISATION ET SIMULATION EQUATIONS AUX DIFFÉRENCES (I/II) 1. Rappels théoriques : résolution d équations aux différences 1.1. Équations aux différences. Définition. Soit x k = x(k) X l état scalaire

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

Module 7: Chaînes de Markov à temps continu

Module 7: Chaînes de Markov à temps continu Module 7: Chaînes de Markov à temps continu Patrick Thiran 1 Introduction aux chaînes de Markov à temps continu 1.1 (Première) définition Ce module est consacré aux processus à temps continu {X(t), t R

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au

Plus en détail

La fonction exponentielle

La fonction exponentielle DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction

Plus en détail

Introduction à l étude des Corps Finis

Introduction à l étude des Corps Finis Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Processus aléatoires avec application en finance

Processus aléatoires avec application en finance Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Chaînes de Markov au lycée

Chaînes de Markov au lycée Journées APMEP Metz Atelier P1-32 du dimanche 28 octobre 2012 Louis-Marie BONNEVAL Chaînes de Markov au lycée Andreï Markov (1856-1922) , série S Problème 1 Bonus et malus en assurance automobile Un contrat

Plus en détail

Lagrange, où λ 1 est pour la contrainte sur µ p ).

Lagrange, où λ 1 est pour la contrainte sur µ p ). Chapitre 1 Exercice 1 : Portefeuilles financiers Considérons trois types d actions qui sont négociées à la bourse et dont les rentabilités r 1, r 2 et r 3 sont des variables aléatoires d espérances µ i

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Continuité en un point

Continuité en un point DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Équations non linéaires

Équations non linéaires Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

CHAPITRE 5. Stratégies Mixtes

CHAPITRE 5. Stratégies Mixtes CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

PRIME D UNE OPTION D ACHAT OU DE VENTE

PRIME D UNE OPTION D ACHAT OU DE VENTE Université Paris VII - Agrégation de Mathématiques François Delarue) PRIME D UNE OPTION D ACHAT OU DE VENTE Ce texte vise à modéliser de façon simple l évolution d un actif financier à risque, et à introduire,

Plus en détail

Développement décimal d un réel

Développement décimal d un réel 4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Introduction à la théorie des files d'attente. Claude Chaudet Claude.Chaudet@enst.fr

Introduction à la théorie des files d'attente. Claude Chaudet Claude.Chaudet@enst.fr Introduction à la théorie des files d'attente Claude Chaudet Claude.Chaudet@enst.fr La théorie des files d'attente... Principe: modélisation mathématique de l accès à une ressource partagée Exemples réseaux

Plus en détail

Sur certaines séries entières particulières

Sur certaines séries entières particulières ACTA ARITHMETICA XCII. 2) Sur certaines séries entières particulières par Hubert Delange Orsay). Introduction. Dans un exposé à la Conférence Internationale de Théorie des Nombres organisée à Zakopane

Plus en détail

Chapitre 7. Récurrences

Chapitre 7. Récurrences Chapitre 7 Récurrences 333 Plan 1. Introduction 2. Applications 3. Classification des récurrences 4. Résolution de récurrences 5. Résumé et comparaisons Lectures conseillées : I MCS, chapitre 20. I Rosen,

Plus en détail

Résolution de systèmes linéaires par des méthodes directes

Résolution de systèmes linéaires par des méthodes directes Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

www.h-k.fr/publications/objectif-agregation

www.h-k.fr/publications/objectif-agregation «Sur C, tout est connexe!» www.h-k.fr/publications/objectif-agregation L idée de cette note est de montrer que, contrairement à ce qui se passe sur R, «sur C, tout est connexe». Cet abus de langage se

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Chapitre VI - Méthodes de factorisation

Chapitre VI - Méthodes de factorisation Université Pierre et Marie Curie Cours de cryptographie MM067-2012/13 Alain Kraus Chapitre VI - Méthodes de factorisation Le problème de la factorisation des grands entiers est a priori très difficile.

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin. Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Équation de Langevin avec petites perturbations browniennes ou

Équation de Langevin avec petites perturbations browniennes ou Équation de Langevin avec petites perturbations browniennes ou alpha-stables Richard Eon sous la direction de Mihai Gradinaru Institut de Recherche Mathématique de Rennes Journées de probabilités 215,

Plus en détail

Chapitre 2. Matrices

Chapitre 2. Matrices Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce

Plus en détail

Intégration et probabilités TD1 Espaces mesurés

Intégration et probabilités TD1 Espaces mesurés Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous

Plus en détail

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé Baccalauréat S/L Métropole La Réunion 13 septembre 2013 Corrigé A. P. M.. P. XRCIC 1 Commun à tous les candidats Partie A 1. L arbre de probabilité correspondant aux données du problème est : 0,3 0,6 H

Plus en détail

Projet de Traitement du Signal Segmentation d images SAR

Projet de Traitement du Signal Segmentation d images SAR Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,

Plus en détail

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES. CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires

Plus en détail

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Baccalauréat ES/L Amérique du Sud 21 novembre 2013 Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée

Plus en détail

Polynômes à plusieurs variables. Résultant

Polynômes à plusieurs variables. Résultant Polynômes à plusieurs variables. Résultant Christophe Ritzenthaler 1 Relations coefficients-racines. Polynômes symétriques Issu de [MS] et de [Goz]. Soit A un anneau intègre. Définition 1.1. Soit a A \

Plus en détail

1 Définition et premières propriétés des congruences

1 Définition et premières propriétés des congruences Université Paris 13, Institut Galilée Département de Mathématiques Licence 2ème année Informatique 2013-2014 Cours de Mathématiques pour l Informatique Des nombres aux structures Sylviane R. Schwer Leçon

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2. Eo7 Calculs de déterminants Fiche corrigée par Arnaud Bodin Eercice Calculer les déterminants des matrices suivantes : Correction Vidéo ( ) 0 6 7 3 4 5 8 4 5 6 0 3 4 5 5 6 7 0 3 5 4 3 0 3 0 0 3 0 0 0 3

Plus en détail

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1 Master IMEA Calcul Stochastique et Finance Feuille de T.D. n o Corrigé exercices8et9 8. On considère un modèle Cox-Ross-Rubinstein de marché (B,S) à trois étapes. On suppose que S = C et que les facteurs

Plus en détail

L E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun

L E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun 9 L E Ç O N Marches aléatoires Niveau : Terminale S Prérequis : aucun 1 Chaînes de Markov Définition 9.1 Chaîne de Markov I Une chaîne de Markov est une suite de variables aléatoires (X n, n N) qui permet

Plus en détail

FIMA, 7 juillet 2005

FIMA, 7 juillet 2005 F. Corset 1 S. 2 1 LabSAD Université Pierre Mendes France 2 Département de Mathématiques Université de Franche-Comté FIMA, 7 juillet 2005 Plan de l exposé plus court chemin Origine du problème Modélisation

Plus en détail

Optimisation des fonctions de plusieurs variables

Optimisation des fonctions de plusieurs variables Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables

Plus en détail

Circuits RL et RC. Chapitre 5. 5.1 Inductance

Circuits RL et RC. Chapitre 5. 5.1 Inductance Chapitre 5 Circuits RL et RC Ce chapitre présente les deux autres éléments linéaires des circuits électriques : l inductance et la capacitance. On verra le comportement de ces deux éléments, et ensuite

Plus en détail

Chp. 4. Minimisation d une fonction d une variable

Chp. 4. Minimisation d une fonction d une variable Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

Modèles et Méthodes de Réservation

Modèles et Méthodes de Réservation Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Table des matières. I Mise à niveau 11. Préface

Table des matières. I Mise à niveau 11. Préface Table des matières Préface v I Mise à niveau 11 1 Bases du calcul commercial 13 1.1 Alphabet grec...................................... 13 1.2 Symboles mathématiques............................... 14 1.3

Plus en détail

Eteindre. les. lumières MATH EN JEAN 2013-2014. Mme BACHOC. Elèves de seconde, première et terminale scientifiques :

Eteindre. les. lumières MATH EN JEAN 2013-2014. Mme BACHOC. Elèves de seconde, première et terminale scientifiques : MTH EN JEN 2013-2014 Elèves de seconde, première et terminale scientifiques : Lycée Michel Montaigne : HERITEL ôme T S POLLOZE Hélène 1 S SOK Sophie 1 S Eteindre Lycée Sud Médoc : ROSIO Gauthier 2 nd PELGE

Plus en détail

Le produit semi-direct

Le produit semi-direct Le produit semi-direct Préparation à l agrégation de mathématiques Université de Nice - Sophia Antipolis Antoine Ducros Octobre 2007 Ce texte est consacré, comme son titre l indique, au produit semi-direct.

Plus en détail

IV- Equations, inéquations dans R, Systèmes d équations

IV- Equations, inéquations dans R, Systèmes d équations IV- Equations, inéquations dans R, Systèmes d équations 1- Equation à une inconnue Une équation est une égalité contenant un nombre inconnu noté en général x et qui est appelé l inconnue. Résoudre l équation

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Cours d analyse numérique SMI-S4

Cours d analyse numérique SMI-S4 ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,

Plus en détail

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université

Plus en détail