Introduction aux equations différentielles stochastiques

Documents pareils
Texte Ruine d une compagnie d assurance

2. Quelle est la valeur de la prime de l option américaine correspondante? Utilisez pour cela la technique dite de remontée de l arbre.

Exemples de résolutions d équations différentielles

CHAPITRE I : Cinématique du point matériel

Calcul Stochastique 2 Annie Millet

Les circuits électriques en régime transitoire

TD/TP : Taux d un emprunt (méthode de Newton)

VA(1+r) = C 1. VA = C 1 v 1

Finance 1 Université d Evry Val d Essonne. Séance 2. Philippe PRIAULET

Caractéristiques des signaux électriques

Mathématiques financières. Peter Tankov

Intégration de Net2 avec un système d alarme intrusion

MATHEMATIQUES FINANCIERES

Rappels théoriques. -TP- Modulations digitales ASK - FSK. Première partie 1 INTRODUCTION

Fonction dont la variable est borne d intégration

F 2 = - T p K F T = - T p K 0 - K 0

CHAPITRE 13. EXERCICES a) 20,32 ± 0,055 b) 97,75 ± 0,4535 c) 1953,125 ± 23, ±0,36π cm 3

Intégration et probabilités TD1 Espaces mesurés Corrigé

Le mode de fonctionnement des régimes en annuités. Secrétariat général du Conseil d orientation des retraites

Cours d électrocinétique :

Recueil d'exercices de logique séquentielle

Filtrage optimal. par Mohamed NAJIM Professeur à l École nationale supérieure d électronique et de radioélectricité de Bordeaux (ENSERB)

3. Conditionnement P (B)

Relation entre la Volatilité Implicite et la Volatilité Réalisée.

Estimation des matrices de trafics

Le mécanisme du multiplicateur (dit "multiplicateur keynésien") revisité

Documentation Technique de Référence Chapitre 8 Trames types Article

EFFICIENCE INFORMATIONNELLE DES UNE VERIFICATION ECONOMETRIQUE MARCHES DE L OR A PARIS ET A LONDRES, DE LA FORME FAIBLE

Les solutions solides et les diagrammes d équilibre binaires. sssp1. sssp1 ssss1 ssss2 ssss3 sssp2

Sciences Industrielles pour l Ingénieur

THÈSE. Pour l obtention du grade de Docteur de l Université de Paris I Panthéon-Sorbonne Discipline : Sciences Économiques

Moments des variables aléatoires réelles

Intégration et probabilités TD1 Espaces mesurés

Files d attente (1) F. Sur - ENSMN. Introduction. 1 Introduction. Vocabulaire Caractéristiques Notations de Kendall Loi de Little.

La rentabilité des investissements

CARACTERISTIQUES STATIQUES D'UN SYSTEME

TB 352 TB 352. Entrée 1. Entrée 2

Evaluation des Options avec Prime de Risque Variable

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Surface de Volatilité et Introduction au Risque de Crédit

Oscillations forcées en régime sinusoïdal.

Un modèle de projection pour des contrats de retraite dans le cadre de l ORSA

DE L'ÉVALUATION DU RISQUE DE CRÉDIT

Risque associé au contrat d assurance-vie pour la compagnie d assurance. par Christophe BERTHELOT, Mireille BOSSY et Nathalie PISTRE

Ned s Expat L assurance des Néerlandais en France

Filtrage stochastique non linéaire par la théorie de représentation des martingales

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

Ecole des HEC Université de Lausanne FINANCE EMPIRIQUE. Eric Jondeau

Copules et dépendances : application pratique à la détermination du besoin en fonds propres d un assureur non vie

MODÈLE BAYÉSIEN DE TARIFICATION DE L ASSURANCE DES FLOTTES DE VÉHICULES

Amphi 3: Espaces complets - Applications linéaires continues

Résolution d équations non linéaires

CAHIER ANALYSE DES CHOCS D'OFFRE ET DE DEMANDE DANS LA ZONE CFA : UNE MÉTHODE STRUCTURELLE D'AUTORÉGRESSION VECTORIELLE

SURVOL DE LA LITTÉRATURE SUR LES MODÈLES DE TAUX DE CHANGE D ÉQUILIBRE: ASPECTS THÉORIQUES ET DISCUSSIONS COMPARATIVES

Impact du vieillissement démographique sur l impôt prélevé sur les retraits des régimes privés de retraite

SYSTÈME HYBRIDE SOLAIRE THERMODYNAMIQUE POUR L EAU CHAUDE SANITAIRE

Impact des futures normes IFRS sur la tarification et le provisionnement des contrats d assurance vie : mise en oeuvre de méthodes par simulation

Thème : Electricité Fiche 5 : Dipôle RC et dipôle RL

DESSd ingéniérie mathématique Université d Evry Val d Essone Evaluations des produits nanciers

4. Martingales à temps discret

Chapitre 2 L investissement. . Les principales caractéristiques de l investissement

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

AMPLIFICATEUR OPERATIONNEL EN REGIME NON LINEAIRE

Pouvoir de marché et transmission asymétrique des prix sur les marchés de produits vivriers au Bénin

Suites numériques 3. 1 Convergence et limite d une suite

Non-résonance entre les deux premières valeurs propres d un problème quasi-linéaire

3 Approximation de solutions d équations

Espérance conditionnelle

MIDI F-35. Canal MIDI 1 Mélodie Canal MIDI 2 Basse Canal MIDI 10 Batterie MIDI IN. Réception du canal MIDI = 1 Reproduit la mélodie.

Image d un intervalle par une fonction continue

Chapitre 7 : Intégration sur un intervalle quelconque

Continuité en un point

Construction de l'intégrale de Lebesgue

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

3 POLITIQUE D'ÉPARGNE

Limites finies en un point

Théorie de la Mesure et Intégration

COURS GESTION FINANCIERE A COURT TERME SEANCE 3 PLANS DE TRESORERIE. François LONGIN

Mémoire présenté et soutenu en vue de l obtention

Intégrale de Lebesgue

Mesures gaussiennes et espaces de Fock

Théorème du point fixe - Théorème de l inversion locale

CHELEM Commerce International

TRAVAUX PRATIQUES N 5 INSTALLATION ELECTRIQUE DE LA CAGE D'ESCALIER DU BATIMENT A

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Annuités. I Définition : II Capitalisation : ( Valeur acquise par une suite d annuités constantes ) V n = a t

Séquence 2. Pourcentages. Sommaire

Simulation de variables aléatoires

Capes Première épreuve

Article. «Les effets à long terme des fonds de pension» Pascal Belan, Philippe Michel et Bertrand Wigniolle

Exercices de révision

Programmes des classes préparatoires aux Grandes Ecoles

Calcul fonctionnel holomorphe dans les algèbres de Banach

Sélection de portefeuilles et prédictibilité des rendements via la durée de l avantage concurrentiel 1

PARTIAL DIFFERENTIAL EQUATIONS. On global discontinuous solutions of Hamilton-Jacobi equations.

CHAPITRE 4 RÉPONSES AUX CHOCS D INFLATION : LES PAYS DU G7 DIFFÈRENT-ILS LES UNS DES AUTRES?

Probabilités sur un univers fini

N d ordre Année 2008 THESE. présentée. devant l UNIVERSITE CLAUDE BERNARD - LYON 1. pour l obtention. du DIPLOME DE DOCTORAT. (arrêté du 7 août 2006)

Transcription:

Inroducion aux equaions différenielles sochasiques Nils Berglund Janvier 25 1 Le mouvemen Brownien Les équaions différenielles sochasiques serven de modèle mahémaique à des sysèmes faisan inervenir deux ypes de forces, l une déerminise e l aure aléaoire. Par exemple, le mouvemen d une paricule mésoscopique dans un fluide ou un gaz peu êre décri par une équaion de la forme mẍ = F ex + F soch. (1.1) Ici F ex décri une force exérieure déerminise, par exemple la gravié ou une force élecromagnéique. F soch décri l effe des collisions erraiques des molécules du fluide avec la paricule mésoscopique. Le mouvemen des molécules n éan pas connu en déail, nous voulons modéliser le second erme par une force aléaoire, ou un brui. La manière de modéliser le brui dépend évidemmen de la naure du fluide e des échelles de emps e de longueur en jeu. La siuaion la plus simple apparaî lorsque le emps de décorrélaion des molécules es négligeable par rappor à l échelle de emps caracérisique de la paricule, on parle alors de brui blanc. Celui-ci es modélisé mahémaiquemen par le mouvemen Brownien, ou processus de Wiener, qui peu lui-même êre vu comme la limie du coninu d une marche aléaoire. 1.1 La marche aléaoire unidimensionnelle symérique Soien X i i 1 des variables aléaoires indépendanes, ideniquemen disribuées (i.i.d.) elles que PX i = 1 = PX i = 1 = 1 2. (1.2) La marche aléaoire unidimensionnelle symérique es le processus sochasique à emps discre S n n donné par S =, S n = n X i, n 1. (1.3) i=1 Rappelons ici quelques noions de héorie des probabiliés. Nore processus sochasique vi dans un espace probabilisé (Ω, F, P). L univers Ω peu êre idenifié à 1, 1 N, avec, pour une réalisaion ω Ω, S n (ω) = n ω i, n. (1.4) i=1 1

La σ-algèbre F décri l ensemble des événemens, e conien en pariculier les événemens A x1,x 2,...,x n = ω Ω: ω 1 = x 1,..., ω n = x n, (x 1,..., x n ) 1, +1 n, (1.5) qui on probabilié 2 n. La filraion canonique de F es la suie croissane de σ-algèbres F F 1 F 2 F = F n, (1.6) n avec F = Ω, F 1 = Ω,, A 1, A 1 F 2 = Ω,, A 1, A 1, A 1,1, A 1, 1, A 1,1, A 1, 1... F n = Ω, n A x : x 1, +1 m, m=1... (1.7) où A es la plus peie ribu conenan l ensemble A. C es-à-dire que F n conien ous les événemens qui ne dépenden que de l hisoire du processus jusqu au emps n. Noons quelques propriéés élémenaires de la marche aléaoire. Tou d abord, les X i éan i.i.d., nous avons S n S m D = Sn m, n > m (1.8) où le symbole D = désigne l égalié en disribuion. Ensuie, comme l espérance e la variance des X i valen respecivemen EX i = e VarX i = EX 2 i EX i 2 = 1, nous avons ES n = VarS n = n EX i = (1.9) i=1 n VarX i = n, (1.1) i=1 la deuxième relaion éan une conséquence de l indépendance des X i. Enfin, il es facile d éablir que la loi de S n es binômiale: 1 n! PS n = k = 2 n ( n+k ) ( 2! n k ) si k n, n + 2,..., n, 2! (1.11) sinon. Précisons ouefois que loi (1.11) ne conien pas à elle seule oue l informaion sur le processus sochasique. En effe, si pour ou n fixé l applicaion ω S n (ω) (1.12) es une variable aléaoire enièremen décrie par la loi (1.11), on peu égalemen s inéresser aux propriéés des rajecoires (sample pahs) n S n (ω). (1.13) 2

Un exemple d événemen dépendan de oue la rajecoire es S i L, (1.14) sup i n c es-à-dire que la marche aléaoire a aein le niveau L au moins une fois pendan les n premiers pas. L analogue en emps coninu de ce événemen jouera un rôle imporan dans la suie. 1.2 Consrucion du processus de Wiener Considérons la suie de processus B (n) = 1 S n n = 1 n X i,. (1.15) n Définissons d abord formellemen le processus B en prenan la limie au sens des disribuions finies de B (n) lorsque n. Auremen di, B es défini par le fai que pour oue pariion 1 < 2 < < k e ou (x 1, x 2,..., x k ) R k, i=1 lim P B (n) n i x i, i = 1,..., k = P B i x i, i = 1,..., k. (1.16) Noons ou d abord que ( 1 ) 2 n lim n VarB(n) = lim n =. (1.17) n De plus, nous pouvons écrire B (n) = S n n n n. (1.18) Le héorème de la limie cenrale (ou un calcul direc à parir de (1.11)) monre que la loi de S n / n converge, lorsque n, vers la loi normale sandard N (, 1) (i.e. de moyenne nulle e variance 1). Il sui que x = P N (, 1) x lim P B (n) n = 1 x/ 2π = 1 2π x e y2 /2 dy e z2 /2 dz = P N (, ) x. (1.19) Pour ou fixé, la loi de B (n) end donc vers la loi normale N (, ). De plus, si > s >, B s (n) es indépendan de B u (n) pour ous les u s e nous avons par (1.8) B (n) B (n) B (n) s = 1 n ( S n S ns ) D= 1 n S n ns, (1.2) don la loi end vers N (, s). Toues les disribuions finies de B son ainsi définies à parir de P B 1 x 1, B i B i 1 x i, i = 2,..., k = P k B 1 x 1 P B i B i 1 x i. (1.21) i=2 3

Remarque 1.1. Les propriéés (1.17), (1.19) e (1.2) resen vraies pour des X i i.i.d. quelconques, pourvu qu ils aien espérance e variance 1. Définiion 1.2. Le mouvemen Brownien sandard ou processus de Wiener sandard es le processus sochasique B saisfaisan: 1. B = ; 2. Incrémens indépendans: pour ou > s, B B s es indépendan de B u u s ; 3. La loi de B B s es la loi normale N (, s). Cerains aueurs ajouen la condiion que les rajecoires B soien coninues, mais on peu en fai monrer que ou processus saisfaisan la définiion 1.2 a une version coninue, c es-à-dire que ses rajecoires son coninues avec probabilié 1. Nous allons mainenan prouver qu un processus à rajecoires coninues, saisfaisan la définiion 1.2, exise bel en bien, en le consruisan à parir d une collecion dénombrable de variables aléaoires Gaussiennes indépendanes. Le lemme de Borel Canelli joue un rôle imporan dans cee démonsraion e dans la suie. Lemme 1.3 (Borel Canelli). Pour une suie d événemens A n n (pas nécessairemen disjoins), PA n < P 1 An = =, (1.22) n c es-à-dire que la probabilié qu une infinié des événemens A n n soien réalisés à la fois es nulle. Théorème 1.4. Il exise un processus sochasique B saisfaisan la définiion 1.2, e don les rajecoires B (ω) son coninues. Preuve: 1. Nous allons d abord consruire B 1 à parir d une collecion de variables aléaoires gaussiennes indépendanes V 1, V 1/2, V 1/4, V 3/4, V 1/8,..., oues d espérance nulle, e avec V 1 e V 1/2 de variance 1 e V k2 n de variance 2 (n 1) (k < 2 n impair). Monrons d abord que si X s e X son deux variables aléaoires elles que X X s soi Gaussienne cenrée de variance s, alors il exise une variable aléaoire X (+s)/2 elle que les variables X X (+s)/2 e X (+s)/2 X s soien i.i.d. de loi N (, ( s)/2). Si U = X X s e V es indépendane de U, de même disribuion, il suffi de définir X (+s)/2 par n X X (+s)/2 = U + V 2 X (+s)/2 X s = U V. (1.23) 2 En effe, il es aisé de vérifier que ces variables on la disribuion souhaiée, e qu elles son indépendanes, puisque E(U + V )(U V ) = EU 2 EV 2 =. Posons alors X =, X 1 = V 1, e consruisons X 1/2 à l aide de la procédure ci-dessus, avec V = V 1/2. Puis nous consruisons X 1/4 à l aide de X, X 1/2 e V 1/4, e ainsi de suie, pour obenir une familles de variables X =k2 n,n 1,k<2n elles que pour > s, X X s soi indépendane de X s e de loi N (, s). 4

2. Pour n, soi B (n) 1 le processus sochasique à rajecoires linéaires par morceaux sur les inervalles [k2 n, (k + 1)2 n ], k < 2 n, e el que B (n) = X k2 n k2 n. Nous voulons monrer que la suie des B (n) (ω) converge uniformémen sur [, 1] pour oue réalisaion ω des V i. Il nous fau donc esimer (n) (ω) = sup 1 (n+1) B (ω) B (n) (ω) = max max B (n+1) k 2 n 1 k2 n (k+1)2 n (ω) B (n) (ω) X(2k+1)2 = max (n+1)(ω) 1 ( Xk2 n(ω) + X k 2 n 1 2 (k+1)2 n(ω) ). (1.24) Le erme en valeur absolue vau V (2k+1)2 (n+1) par consrucion, c.f. (1.23), qui es gaussienne de variance 2 n. Il sui que P (n) > n2 n = P max 2 n2 n e donc k 2 n 1 V(2k+1)2 (n+1) 2 2 n dx 2 e x2 /2 2 n n2 n 2π2 n = 2 2 n e y2 /2 dx cons 2 n e 2n, (1.25) 2π 2 n n P (n) > n2 n cons n (2 e 2 ) n <. (1.26) Le lemme de Borel Canelli nous perme de conclure qu avec probabilié 1, il n exise qu un nombre fini de n pour lesquels (n) > n2 n. Par conséquen, P (n) < = 1. (1.27) n La suie des B (n) 1 es donc une suie de Cauchy pour la norme sup avec probabilié 1, e alors elle converge uniformémen. Nous posons pour [, 1] B lim n B (n) si la suie converge uniformémen = (1.28) sinon (avec probabilié ). Il es facile de vérifier que B saisfai les rois propriéés de la définiion. 3. Pour éendre le processus à des emps quelconques, nous fabriquons des copies indépendanes B i i e posons B < 1 B1 B = + B1 1 1 < 2 B1 + B1 1 + (1.29) B2 2 2 < 3... Ceci conclu la démonsraion. Remarquons, sans démonsraion, que si les rajecoires du processus de Wiener son coninues, elles son différeniables avec probabilié zéro. 5

1.3 Propriéés élémenaires du processus de Wiener Les propriéés suivanes son des conséquences direces de la définiion 1.2 e nous les donnons sans démonsraion déaillée. 1. Propriéé de Markov: Pour ou ensemble de Borel A R, P B +s A B = x = p(y, + s x, ) dy, (1.3) indépendammen de B u u<, avec des probabiliés de ransiion gaussiennes A p(y, + s x, ) = e (y x)2 /2s 2πs. (1.31) La preuve sui direcemen du fai que l on peu décomposer B +s = B + (B +s B ), le deuxième erme éan indépendan du premier e de loi N (, s). On vérifiera en pariculer l équaion de Chapman Kolmogorov: Pour > u > s, p(y, x, s) = p(y, z, u)p(z, u x, s) du. (1.32) R 2. Propriéé différenielle: Pour ou, B +s B s es un mouvemen Brownien sandard, indépendan de B u u<. 3. Propriéé d échelle: Pour ou c >, cb /c 2 s es un mouvemen Brownien sandard. 4. Symérie: B es un mouvemen Brownien sandard. 5. Processus Gaussien: Le processus de Wiener es Gaussien de moyenne nulle (c esà-dire que ses disribuions joines finies son normales cenrées), e il es caracérisé par sa covariance CovB, B s EB B s = s (1.33) (s désigne le minimum de s e ). Preuve: Pour s <, nous avons EB B s = EB s (B s + B B s ) = EB 2 s + EB s (B B s ) = s, (1.34) puisque le deuxième erme es nul par la propriéé d incrémens indépendans. En fai, un processus Gaussien cenré, don la covariance saisfai (1.33) es un processus de Wiener sandard. 6. Renversemen du emps: Le processus X défini par si = X = (1.35) B 1/ si > es un processus de Wiener sandard. Preuve: X es un processus Gaussien de moyenne nulle, e un calcul simple monre que sa covariance es bien CovX, X s = s. Le seul poin non rivial es de monrer la coninuié en zéro de X. Celle-ci es équivalene à la loi fore des grands nombres. 6

1.4 Temps d arrê e principe de réflexion La propriéé différenielle du processus de Wiener rese vraie si le emps déerminise es remplacé par un cerain ype de emps aléaoire, appelé un emps d arrê. Définiion 1.5. Soi F la plus peie σ-algèbre engendrée par les événemens du ype a B s < b s,a<b (on di que F es la filraion engendrée par le processus de Wiener). La variable aléaoire τ [, ] es un emps d arrê si l événemen τ < apparien à F pour ou. Inuiivemen, F conien ous les événemens ne dépendan que de l hisoire du processus jusqu au emps. τ es un emps d arrê si la connaissance de l hisoire jusqu au emps suffi à déerminer si τ <. Ainsi, par exemple, un emps de premier passage es un emps d arrê, alors qu un emps de dernier passage n en es pas un. τ = infs : B s = 1 (1.36) τ = sups 1: B s = 1 (1.37) Théorème 1.6. Si τ es un emps d arrê el que Pτ < = 1, alors B τ+ B τ es un mouvemen Brownien, indépendan de s>τ F s. Preuve: Voir par exemple [McK69], p. 1. Le résula suivan, rès uile pour des esimaions de emps de premier passage, sui immédiaemen du héorème ci-dessus, de la propriéé des incrémens indépendans e de la propriéé de symérie. Corollaire 1.7 (Principe de réflexion). Pour L > e τ = inf : B = L, le processus B B si τ = (1.38) 2L B si > τ es un mouvemen Brownien. Nous donnerons une applicaion classique du principe de réflexion. Corollaire 1.8. Pour ou L, P sup s B s L = 2PB L. (1.39) Preuve: Si τ = inf : B = L, alors sup s B s L = τ. Les rajecoires du mouvemen Brownien éan coninues, B L implique τ. Ainsi, PB L = PB L, τ = P2L B L, τ = PB L, τ = PB L, τ. (1.4) Le résula sui de la décomposiion Pτ = PB L, τ + PB > L, τ. 7

1.5 Maringales e inégalié de Doob L inégalié de Doob perme d obenir d aures esimaions sur le maximum de cerains processus sochasiques, qui seron uiles dans la discussion des inégrales sochasiques. Dans ce qui sui, F s s désignera oujours la filraion engendrée par un processus de Wiener. Définiion 1.9. Supposons que F s F, e soi X une variable aléaoire inégrable, mesurable par rappor à F (c es-à-dire que la préimage de ou ensemble mesurable dans l image de X apparien à F ). On appelle espérance condiionnelle EX F s la variable aléaoire mesurable par rappor à F s saisfaisan pour ou Y borné, mesurable par rappor à F s. EXY = EEX F s Y (1.41) On noera en pariculier que si X es mesurable par rappor à F s, alors EX F s = X. Définiion 1.1. Un processus M es une maringale (respecivemen une sousmaringale) si pour ou 1. M es mesurable par rappor à F ; 2. E M < ; 3. EM F s = M s pour ou s < (respecivemen EM F s M s ). En pariculier, on a EM = EM si M es une maringale, e EM EM s pour > s si M es une sous-maringale. Le processus de Wiener es une maringale puisque pour ou Y mesurable par rappor à F s, EB Y = EB s Y + E(B B s )Y = EB s Y. (1.42) Proposiion 1.11 (Inégalié de sous-maringale de Doob). Soi M une sousmaringale à rajecoires coninues. Alors pour ou L >, P sup M s L 1 s L EM. (1.43) Preuve: Soi = < 1 < < n = une pariion de l inervalle [, ] e soi τ = inf k > : M k L. Le processus M + = M éan aussi une sous-maringale, on a EM + E 1 τ M + n = E 1 τ=k M + = = L n E 1 τ=k EM + F k n E 1 τ=k M + k n Pτ = k. (1.44) 8

Comme par ailleurs il sui que P sup k M k L = Pτ = P sup k n Pτ = k, (1.45) M k L 1 L EM + (1.46) En prenan des pariions plus fines, le membre de gauche croî, alors que le membre de droie ne change pas. Le résula s obien en faisan endre la pariion vers un sousensemble dense de [, ]. Proposiion 1.12. Pour ou γ >, M = exp γb γ 2 2 (1.47) es une maringale. Preuve: Noons ou d abord que EM = e γx γ2 /2 e x2 /2 2π dx = 1. (1.48) Nous pouvons décomposer M = RM s, où R = e γ(b Bs) γ2 ( s)/2 es indépendan de M s e saisfai ER = EM s = 1. Par conséquen, pour ou Y mesurable par rappor à F s, EM Y = ERM s Y = EREM s Y = EM s Y, (1.49) ce qui confirme que EM F s = M s. Une applicaion de l inégalié de Doob nous donne immédiaemen Corollaire 1.13. Pour ou γ, L >, [ P B s γ s ] 2 sup s > L e γl. (1.5) Cee inégalié nous sera uile pour démonrer la coninuié des inégrales sochasiques dans la secion suivane. Ici nous nous conenerons de menionner, sans démonsraion, deux conséquences de (1.5): La loi du logarihme iéré B P lim sup = 1 = 1, (1.51) 2 log log e le module de Lévy B +δ B P lim sup = 1 = 1. (1.52) δ 2δ log δ 9

2 Inégrales sochasiques Le bu de l inégrale sochasique es de donner un sens à des équaions de la forme dx d = f(x) + g(x)db d. (2.1) Par exemple, si f e g 1, on devrai rerouver X = X +B, décrivan le mouvemen suramori d une paricule Brownienne. Le problème es que, comme nous l avons menionné, les rajecoires du processus de Wiener ne son pas différeniables, ni même à variaions bornées. Comme dans le cas des équaions différenielles ordinaires, on inerprêe une soluion de l équaion différenielle (2.1) comme une soluion de l équaion inégrale X = X + f(x s ) ds + g(x s ) db s. (2.2) C es à la deuxième inégrale qu il s agi de donner un sens mahémaique. Si s g(x s ) éai différeniable, on pourrai le faire à l aide d une inégraion par paries, mais ce n es en général pas le cas. Iô a donné une aure définiion de l inégrale sochasique, qui s applique à une classe beaucoup plus vase d inégrans (e donne le même résula que l inégraion par paries dans le cas différeniable). 2.1 Définiion de l inégrale d Iô Nore bu es de définir l inégrale sochasique X s db s (2.3) simulanémen pour ous les [, T ], où X es lui-même un processus sochasique. Plus précisémen, nous supposerons que X es une foncionnelle Brownienne non-anicipaive, c es-à-dire (F désignan la filraion canonique engendrée par B ) 1. X es mesurable par rappor à F; 2. X es mesurable par rappor à F pour ou [, T ]. Ceci revien à exiger que X ne dépende que de l hisoire du processus de Wiener jusqu au emps, ce qui es raisonnable au vu de (2.2). En oure, nous allons supposer que T P X 2 d < = 1. (2.4) Remarque 2.1. On peu admere que X dépende de variables aléaoires supplémenaires, indépendanes de B ; par exemple, la condiion iniiale peu êre aléaoire. Il convien alors d éendre les σ-algèbres F e F dans la définiion ci-dessus à des algèbres plus grandes A e A, où A ne doi pas dépendre de l algèbre engendrée par B +s B s. Dans un premier emps, nous allons définir l inégrale sochasique pour un inégran simple. Définiion 2.2. Une foncionnelle Brownienne non-anicipaive e [,T ] es die simple ou élémenaire s il exise une pariion = < 1 < < N = T de [, T ] elle que e = N e k 1 [k 1, k )(). (2.5) 1

Pour une elle foncionnelle, nous définissons l inégrale sochasique par e s db s = m [ ] [ ] e k 1 Bk B k 1 + em B B m, (2.6) où m es el que [ m, m+1 ). Il es aisé de vérifier les propriéés suivanes: 1. Pour deux foncionnelles simples e (1) e e (2), 2. Pour oue consane c, ( e (1) s + e (2) ) s dbs = 3. L inégrale (2.6) es une foncion coninue de. 4. Si Ee2 s ds <, on a l isomérie d Iô Preuve: Posons m+1 =. On a e (1) s db s + e (2) s db s. (2.7) ( ) ces dbs = c e s db s. (2.8) ( ) 2 E e s db s = Ee 2 s ds. (2.9) ( ) 2 m+1 ( )( ) E e s db s = E e k 1 e l 1 Bk B k 1 Bl B l 1 k,l=1 = = m+1 E e 2 k 1 E ( Bk B k 1 ) 2 k k 1 Ee 2 s ds. (2.1) Nous avons uilisé la propriéé des incrémens indépendans afin d éliminer les ermes k l de la double somme, e le fai que e s es nonanicipaive. L idée d Iô pour définir l inégrale sochasique d une foncionnelle non-anicipaive générale X es de rouver une suie de foncionnelles simples e (n) approchan X dans L 2 (P), c es-à-dire T lim n E ( X s e (n) ) 2 s ds =. (2.11) L isomérie (2.9) nous perme alors d affirmer que la limie suivane exise dans L 2 (P): lim n e (n) s db s =: X s db s. (2.12) C es par définiion l inégrale d Iô de X s. Nous allons mainenan prouver que cee consrucion es bien possible, indépendane de la suie des e (n), e que l inégrale résulane es une foncion coninue de. Nous commençons par énoncer deux lemmes préparaoires. 11

Lemme 2.3. Pour oue foncionnelle non-anicipaive X saisfaisan (2.4), il exise une suie e (n) n 1 de foncionnelles simples elles que T ( P X e (n) ) 2 d 2 n, n = 1. (2.13) Preuve: Considérons les foncionnelles simples e (m,k) = 2 k 2 m 2m (2 m 2 m 2 k ) X s ds. (2.14) Faisan endre d abord m, puis k vers l infini, on s aperçoi que T (X e (m,k) ) 2 d. On peu donc rouver des suies m n e k n elles que e (n) = e (mn,kn) saisfasse T P (X e (n) ) 2 d > 2 n 2 n. (2.15) La relaion (2.13) sui alors du lemme de Borel Canelli. Lemme 2.4. Pour une suie f (n) n 1 de foncionnelles nonanicipaives simples saisfaisan P T (n) (f ) 2 d 2 n, n = 1 e ou θ > 1, P sup log n f s (n) db s < θ 2 n 1, n = 1. (2.16) T Preuve: Le processus sochasique M (n) = exp f s (n) db s 1 2 (f (n) s ) 2 ds (2.17) es une maringale par rappor à B. En effe, nous avons démonré cee propriéé pour f (n) 1 dans la proposiion 1.12. La même démonsraion monre que si f (n) c où c es une variable aléaoire mesurable par rappor à F s, alors EM F s = M s. Le cas d un f (n) simple arbiraire es alors raié par récurrence. L inégalié de Doob implique P sup T ( f (n) s db s γ 2 (f (n) s ) ) 2 ds > L e γl. (2.18) Posons alors γ = 2 n+1 log n e L = θ 2 (n+1) log n. Uilisan l hypohèse sur les f (n), nous obenons ( ) P f s (n) db s > (1 + θ) 2 (n+1) log n e θ log n = n θ. (2.19) sup T Le lemme de Borel Canelli nous perme alors de conclure. Théorème 2.5. La limie (2.12) exise, es indépendane de la suie des e (n) n 1 convergean vers X, e es une foncion coninue de. 12

Preuve: Quie à passer à une sous-suie, nous pouvons choisir les e (n) de manière à saisfaire (2.13). Mais ceci implique aussi que T ( (n) P e Le lemme 2.4 monre alors que P sup T Ainsi la suie des uniformémen. e(n) s ( e (n) s e (n 1) ) 2 d cons 2 n, n = 1. (2.2) e (n 1) ) log n s dbs < cons θ 2 n 1, n = 1. (2.21) db s es de Cauchy presque sûremen, e dans ce cas elle converge 2.2 Propriéés élémenaires de l inégrale d Iô Les propriéés suivanes son prouvées aisémen pour des processus X e Y nonanicipaifs saisfaisan la condiion d inégrabilié (2.4). 1. Linéarié: (X s + Y s ) db s = e 2. Addiivié: Pour s < u < T, 3. Pour un emps d arrê τ, s X v db v = τ T (cx s ) db s = c u s X db = X s db s + X v db v + T 4. Si T EX2 d <, alors pour ou T, e Y s db s (2.22) X s db s. (2.23) u X v db v. (2.24) 1 τ X db. (2.25) E X s db s = (2.26) ( ) 2 E X s db s = De plus, le processus X s db s es une maringale. s 5. Le processus M = exp X s db s 1 Xs 2 ds 2 EX 2 s ds. (2.27) (2.28) es une supermaringale, c es-à-dire que M es une sous-maringale e EM 1. 13

2.3 Un exemple Nous donnons ici un exemple de calcul explicie d une inégrale sochasique par la méhode d Iô: B s db s = 1 2 B2 2. (2.29) Le résula, quelque peu surprenan au premier abord, prendra ou son sens lorsque nous aurons vu la formule d Iô. Considérons la suie de foncionnelles simples définies par e (n) = B 2 n 2 n. Il suffi alors de vérifier que lim n e (n) s db s = 1 2 B2 2. (2.3) Noons k = k2 n pour k m = 2 n e m+1 =. Il sui de la définiion (2.6) que 2 Considérons la maringale M (n) = m+1 e (n) ( ) s db s = 2 B k 1 Bk B k 1 m+1 = [B 2 k B 2 k 1 ( ) ] 2 B k B k 1 m+1 = B 2 ( ) 2. Bk B k 1 (2.31) m+1 m+1 ( ) 2 [( ) 2 ( )] Bk B k 1 = Bk B k 1 k k 1. (2.32) Les ermes de la somme son indépendans e d espérance nulle. Nous avons donc E ( M (n) m+1 ) 2 = E [( ) 2 ( )] 2 B k B k 1 k k 1 (m + 1)E [( ) 2 ( )] 2 B 1 B 1 cons 2 n E [( ) 2 B 2 n 2 n ] 2 = cons 2 n E [( ) 2 ] 2 B 1 1 cons 2 n, (2.33) à cause de la propriéé d échelle. ( M (n) ) 2 éan une sous-maringale, l inégalié de Doob nous donne ( ) P sup M (n) 2 s > n 2 2 n 2 n n 2 E ( M (n) ) 2 cons n 2. (2.34) s Le lemme de Borel Canelli nous perme alors de conclure que P M (n) < n2 n/2, n = 1, (2.35) ce qui prouve (2.3). sup s s 14

2.4 La formule d Iô Considérons une inégrale sochasique de la forme X = X + f s ds + g s db s, [, T ] (2.36) où X es indépendane du mouvemen Brownien, e f s e g s son des foncionnelles nonanicipaives saisfaisan T P f s ds < = 1 T P Le processus (2.36) s écri égalemen sous forme différenielle Par exemple, la relaion (2.29) es équivalene à gs 2 ds < = 1. (2.37) dx = f d + g db. (2.38) d(b 2 ) = d + 2B db. (2.39) La formule d Iô perme de déerminer de manière générale l effe d un changemen de variables sur une différenielle sochasique. Lemme 2.6 (Formule d Iô). Soi u : [, ) R R, (, x) u(, x) une foncion coninûmen différeniable par rappor à e deux fois coninûmen différeniable par rappor à x. Alors le processus sochasique Y = u(, X ) saisfai l équaion Remarque 2.7. dy = u (, X ) d + u x (, X ) [ ] 1 f d + g db + 2 2 u x 2 (, X )g 2 d. (2.4) 1. Un moyen mnémoechnique pour rerouver la formule es de l écrire sous la forme dy = u u d + x dx + 1 2 2 u x 2 dx2, (2.41) où dx 2 se calcule en uilisan les règles 2. La formule se généralise à des foncions u(, X (1) définis par dx (i) où dx (i) dx (j) = f (i) dy = u d + i = g (i) g (j) d 2 = d db =, db 2 = d. (2.42) d + g (i) db, en d. u dx (i) + 1 x i 2 i,j,..., X (n) ), dépendan de n processus 2 u dx (i) x i x j dx (j), (2.43) 15

Exemple 2.8. 1. Si X = B e u(x) = x 2, on rerouve la relaion (2.39). 2. Si dx = g db 1 2 g2 d e u(x) = e x, on obien d(e X ) = g e X db. (2.44) Ainsi la maringale M = exp γb γ 2 2 de la proposiion 1.12 es la soluion de l équaion dm = γm db. Preuve du Lemme 2.6. Il suffi de prouver le résula pour des foncionnelles simples, e par l addiivié des inégrales, on peu se ramener au cas de foncionnelles consanes. Mais alors X = f + g B e Y = u(, f + g B ) peu s exprimer comme une foncion de (, B ). Il suffi en définiive de considérer le cas X = B. Or pour une pariion = < 1 < < n =, on a u(, B ) u(, ) = = n [ u(k, B k ) u( k 1, B k ) ] + [ u( k 1, B k ) u( k 1, B k 1 ) ] n u ( k 1, B k )( k k 1 ) + u x ( k 1, B k 1 )(B k B k 1 ) + 1 2 u 2 x 2 ( k 1, B k 1 )(B k B k 1 ) 2 + O( k k 1 ) + O((B k B k 1 ) 2 ) u = (s, B u s) ds + x (s, B s) db s + 1 2 u 2 x 2 (s, B s) ds n 1 2 u + 2 x 2 ( k 1, B k 1 ) [ (B k B k 1 ) 2 ( k k 1 ) ] + O(1). (2.45) Or la somme se raie comme M (n) dans la secion 2.3 lorsque k k 1, c.f. (2.32). 3 Equaions différenielles sochasiques 3.1 Soluions fores Nous avons mainenan ous les élémens en main pour définir la noion de soluion d une équaion différenielle sochasique (EDS), de la forme dx = f(x, ) d + g(x, ) db, (3.1) où f, g : R [, T ] R son des foncions déerminises mesurables. Définiion 3.1. Un processus sochasique x [,T ] es appelé une soluion fore de l EDS (3.1) avec condiion iniiale x si x es F -mesurable pour ou [, T ]; on a les condiions de régularié T T P f(x s, s) ds < = P g(x s, s) 2 ds < = 1; (3.2) 16

pour ou [, T ], on a avec probabilié 1. x = x + f(x s, s) ds + le processus iden- Une soluion fore se consrui par iéraions de Picard. Soi x () iquemen égal à x. On défini par récurence x (n+1) = x + f(x (n) s, s) ds + g(x s, s) db s (3.3) g(x (n) s, s) db s, (3.4) e l on examine sous quelles condiions cee suie converge presque sûremen vers un processus coninu. Remarquons que par consrucion, x (n) es auomaiquemen F -mesurable pour ou e ou n. Le résula es praiquemen le même que pour les équaions différenielles ordinaires: Théorème 3.2. Supposons que les foncions f e g saisfon les deux condiions suivanes: 1. Condiion de Lipschiz locale: Pour ou compac K R, il exise une consane K = K(K) elle que f(x, ) f(y, ) + g(x, ) g(y, ) K x y (3.5) pour x, y K e [, T ]. 2. Condiion de croissance: Il exise une consane L elle que pour ous x,. xf(x, ) + g(x, ) 2 L 2 (1 + x 2 ) (3.6) Alors l EDS (3.1) adme, pour oue condiion iniiale, une soluion fore x [,T ], presque sûremen coninue. Cee soluion es unique dans le sens que si x [,T ] e y [,T ] son deux soluions presque sûremen coninues, alors P sup x y > T =. (3.7) Le processus x [,T ] es appelé un processus de diffusion, ou simplemen une diffusion. On a couume de dénoer par P x la loi du processus avec condiion iniiale x, e par E x les espérances par rappor à P x. Plus généralemen, P,x désigne la loi d un processus de condiion iniiale x = x. La condiion de croissance (3.6) auorise une croissance linéaire, par exemple f(x, ) = x. Elle auorise égalemen une croissance surlinéaire du bon signe, comme f(x, ) = x 3. Par conre, f(x, ) = x 2 ne saisfai pas cee condiion. Dans ce cas, même en l absence de brui, les soluions peuven diverger après un emps fini. Exemple 3.3. L EDS linéaire dx = γx d + db (3.8) adme une soluion fore. La formule d Iô monre que cee soluion peu s écrire sous forme inégrale comme x = x e γ + e γ( s) db s. (3.9) Ce processus es connu sous le nom de processus d Ornsein Uhlenbeck. 17

Remarque 3.4. On défini de manière similaire la soluion fore d une EDS mulidimensionnelle, c es-à-dire qu on peu supposer que x R n, f(x, ) prend des valeurs dans R n, e, si B es un mouvemen Brownien de dimension k, g(x, ) prend des valeurs dans les marices n k. 3.2 Semi-groupes e généraeurs Considérons l EDS auonome dx = f(x ) d + g(x ) db, (3.1) admean une soluion fore x pour oue condiion iniiale x R. On peu lui associer une famille à un paramère T d opéraeurs linéaires, agissan sur les foncions mesurables bornées ϕ : R R, comme T ϕ(x) = E x ϕ(x ). (3.11) L homogénéié du emps e la propriéé de Markov impliquen T s ( T ϕ ) (x) = E x E xs ϕ(x ) = E x E s,xs ϕ(x +s ) = E x ϕ(x +s ) = T +s (x). (3.12) Par conséquen, T T s = T +s, donc les opéraeurs T formen un semi-groupe. Les propriéés suivanes son aisémen vérifiées: 1. T préserve la foncion consane 1(x) 1: 2. T préserve l ensemble des foncions non-négaives: T 1(x) = E x 1(x ) = 1 x. (3.13) ϕ(x) x T ϕ(x) x. (3.14) 3. T es une conracion par rappor à la norme sup: sup T ϕ(x) = sup E x ϕ(x ) sup ϕ(y) sup E x 1(x ) = sup ϕ(y) (3.15) x R x R y R x R y R De plus, les T jouissen de la propriéé faible de Feller, c es-à-dire qu ils préserven l ensemble des foncions bornées coninues. Sous des condiions addiionnelles, ils jouissen de la propriéé fore de Feller, en ransforman les foncions mesurables bornées en foncions coninues bornées. Le généraeur du semi-groupe es l opéraeur linéraire défini par la limie T ϕ(x) ϕ(x) Lϕ(x) = lim. (3.16) Son domaine es par définiion l ensemble des foncions ϕ : R R pour lesquelles cee limie exise en ou poin x. Proposiion 3.5. Le généraeur du semi-groupe es l opéraeur différeniel L = f(x) d dx + 1 d2 g(x)2 2 dx 2. (3.17) 18

Preuve: Par la formule d Iô, appliquée à u(, x) = ϕ(x), T ϕ(x) ϕ(x) = E x ϕ(x ) ϕ(x) ( = E x f(x s )ϕ (x s ) + 1 ) 2 g(x s) 2 ϕ (x s ) ds + g(x s )ϕ (x s ) db s = E x Lϕ(x s ) ds, (3.18) puisque l espérance de l inégrale sochasique es nulle. La dérivée en = de cee expression se rédui à E x Lϕ(x ) = Lϕ(x). Remarque 3.6. Dans le cas d une EDS mulidimensionnelle, le généraeur es donné par l opéraeur différeniel L = n i=1 f i (x) x i + 1 2 n 2 d ij (x), (3.19) x i x j i,j=1 où les d ij (x) son les élémens de marice de g(x)g(x) T. Remarquons qu il sui de la définiion du généraeur que la foncion u(x, ) = T ϕ(x) saisfai l équaion aux dérivées parielles u(x, ) = Lu(x, ), (3.2) appelée équaion de Kolmogorov rérograde. Sous des hypohèses de régularié appropriées, cee équaion adme, pour oue condiion iniiale u(x, ) = δ(x y), une soluion pariculière que nous noerons p(y, x, ) = T δ(x y). Par linéarié, nous avons alors, pour ou Borélien A R, P x x A = E x 1 x A = T 1 A (x) = T 1 A (y)δ(y x) dy R = 1 A (y)p(y, x, ) dy R = p(y, x, ) dy, (3.21) A ce qui veu dire que p(y, x, ) es la densié de la probabilié de ransiion du processus de Markov x x. Le semi-groupe T adme un semi-groupe dual S, agissan sur les mesures σ-finies par S µ(a) = P x x A µ(dx), (3.22) R cee dernière quanié éan souven dénoée P µ x A. Son généraeur es l adjoin formel de L, défini par Lu(x)µ(dx) = u(x)l µ(dx). (3.23) R R 19

Ceci découle des égaliés formelles d d S µ(a) = d P x x A µ(dx) d R = d p(y, x, ) dy µ(dx) d R A = Lp(y, x, ) dy µ(dx) R A = p(y, x, ) dy L µ(dx) R A = P x x A L µ(dx) R = S (L µ)(a). (3.24) Si la mesure µ adme une densié ρ, c es-à-dire µ(dx) = ρ(x) dx, deux inégraions par parie monren que L es l opéraeur différeniel L ρ(x) = d ( ) 1 d 2 ( f(x)ρ(x) + g(x) 2 dx 2 dx 2 ρ(x) ). (3.25) La densié au emps, ρ(y, ) = S ρ(y) = R p(y, x, )ρ(x) dx, saisfai l équaion de Kolmogorov progressive ou équaion de Fokker Planck ρ(y, ) = L ρ(y, ), (3.26) e il en es de même des densiés de ransiion (y, ) p(y, x, ). Si le processus adme une densié invariane ρ, elle doi êre soluion de l équaion L ρ =. 3.3 Exemples Exemple 3.7. Le généraeur du mouvemen Brownien B es l opéraeur auo-adjoin L = 1 2 d2 /dx 2. Ses densiés de ransiion p(y, x, ) son les densiés Gaussiennes p(y, x, ) = e (y x)2 /2 2π. (3.27) Il n y a pas de densié invariane. Le généraeur du mouvemen Brownien mulidimensionnel es L = 1 2. Exemple 3.8. Le processus d Ornsein-Uhlenbeck de l exemple 3.3 adme, pour γ = 1, les généraeurs L = x d dx + 1 d 2 ( 2 dx 2 e L = 1 + x d ) + 1 d 2 dx 2 dx 2. (3.28) Sa densié invariane es gaussienne, de la forme ρ (x) = cons e x2. (3.29) Par ailleurs, la subsiuion ρ(x) = ψ(x) e x2 /2 donne L ρ(x) = 1 [ (1 x 2 ) + ψ (x) ] ρ(x). (3.3) 2 ψ(x) 2

Par conséquen, l équaion aux valeurs propres L ρ(x) = λρ(x) es saisfaie si e seulemen si ψ es soluion de l équaion 1 2 ψ (x) + x2 2 ψ(x) = ( 1 2 λ ) ψ(x), (3.31) qui es l équaion de Schrödinger saionnaire de l oscillaeur harmonique quanique. On sai que ses valeurs propres son les demi-eniers posiifs, ce qui perme de conclure que les valeurs propres de L son les eniers non-posiifs. Par conséquen, si ρ(x, ) = k c k ρ k (x) (3.32) es la décomposiion de la densié iniiale sur la base des foncions propres de L (c es-àdire L ρ k (x) = kρ k (x)), on a ρ(x, ) = k c k e k ρ k (x) (3.33) Ceci implique la convergence exponeniellemen rapide de oue densié iniiale vers la densié invariane. Exemple 3.9. Plus généralemen, un sysème gradien de la forme dx = U(x ) d + σ db (3.34) adme une densié invariane proporionnelle à e 2U(x)/σ2, pourvu que U(x) croisse suffisammen vie à l infini. Si σ es pei, cee densié es foremen concenrée auour des minima du poeniel U(x). Considérons le cas du poeniel à double puis associé à l EDS U(x) = 1 4 x4 1 2 x2, (3.35) dx = ( x x 3 ) d + σ db. (3.36) La densié invariane ρ (x) es maximale au fond des puis, en x = ±1, e correspond à la valeur propre du généraeur. On peu monrer que le specre es puremen poncuel, e consise en une valeur propre λ 1 rès proche de, d ordre e 2(U(1) U())/σ2, e une infinié de valeurs propres oues plus peies qu une consane négaive a indépendane de σ. La foncion propre associée à λ 1 es impaire, avec des exrêma en ±1, e elle que ρ (x) ρ 1 (x). La densié du processus évolue selon ρ(x, ) = k c k e λ k ρ k (x) = c ρ (x) + c 1 e λ 1 ρ 1 (x) + O(e a ). (3.37) Si la condiion iniiale es concenrée dans le puis de gauche, on aura c c 1, e la densié rese concenrée dans ce puis pendan un emps rès long, d ordre 1/λ 1, avan d approcher ρ. C es ce qu on appelle un phénomène de méasabilié. La héorie des grandes déviaions perme de préciser ces résulas, en caracérisan noammen l espérance du emps nécessaire à aller d un puis à l aure, qui es aussi d ordre 1/λ 1. 21

Bibliographie [Fri75] [GS72] Avner Friedman, Sochasic differenial equaions and applicaions. Vol. 1, Academic Press [Harcour Brace Jovanovich Publishers], New York, 1975, Probabiliy and Mahemaical Saisics, Vol. 28. Ĭ. Ī. Gīhman and A. V. Skorohod, Sochasic differenial equaions, Springer-Verlag, New York, 1972, Translaed from he Russian by Kenneh Wickwire, Ergebnisse der Mahemaik und ihrer Grenzgebiee, Band 72. [McK69] H. P. McKean, Jr., Sochasic inegrals, Probabiliy and Mahemaical Saisics, No. 5, Academic Press, New York, 1969. [Øks95] [Res92] Bern Øksendal, Sochasic differenial equaions, fourh ed., Universiex, Springer- Verlag, Berlin, 1995, An inroducion wih applicaions. Sidney Resnick, Advenures in sochasic processes, Birkhäuser Boson Inc., Boson, MA, 1992. Nils Berglund FRUMAM, CPT CNRS Luminy Case 97, 13288 Marseille Cedex 9, France e PHYMAT, Universié de Toulon E-mail address: berglund@cp.univ-mrs.fr 22