NOUVELLES MESURES DE DÉPENDANCE POUR

Dimension: px
Commencer à balayer dès la page:

Download "NOUVELLES MESURES DE DÉPENDANCE POUR"

Transcription

1 NOUVELLES MESURES DE DÉPENDANCE POUR UNE MODÉLISATION ALPHA-STABLE. Bernard GAREL & Bernédy KODIA Institut de Mathématiques de Toulouse et INPT-ENSEEIHT Xèmmes Journées de Méthodologie Statistique de l Insee Paris, 24 mars 2009

2 Plan de la présentation 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

3 Plan de la présentation 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

4 Plan de la présentation 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

5 Plan 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

6 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

7 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

8 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

9 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

10 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

11 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

12 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

13 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

14 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

15 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

16 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

17 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

18 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

19 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

20 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

21 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

22 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

23 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

24 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

25 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

26 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

27 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

28 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...

29 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...

30 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...

31 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...

32 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...

33 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.

34 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.

35 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.

36 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.

37 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.

38 Plan 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

39 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2

40 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2

41 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2

42 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2

43 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

44 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

45 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

46 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

47 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

48 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

49 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

50 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

51 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

52 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

53 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

54 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

55 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

56 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

57 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

58 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

59 Plan 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

60 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

61 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

62 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

63 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

64 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

65 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

66 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

67 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.

68 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.

69 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.

70 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.

71 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.

72 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.

73 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.

74 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.

75 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.

76 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.

77 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.

78 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.

79 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.

80 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.

81 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.

82 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.

83 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.

84 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.

85 Résultats de simulation : cas sous-gaussien Données α = 1.5, n=100, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR Données α = 1.5, n=500, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR

86 Résultats de simulation : cas sous-gaussien Données α = 1.5, n=100, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR Données α = 1.5, n=500, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR

87 Résultats de simulation : combinaisons linéaires Données α = 1.7, n=100, γ = 10 a a a a scov ŝcov ŝcov SR Données α = 1.7, n=500, γ = 10 scov ŝcov ŝcov SR

88 Résultats de simulation : combinaisons linéaires Données α = 1.7, n=100, γ = 10 a a a a scov ŝcov ŝcov SR Données α = 1.7, n=500, γ = 10 scov ŝcov ŝcov SR

89 MERCI POUR VOTRE ATTENTION

90 Nous avons : et { tan πα w(θ, α) = 2 si α 1, ln θ si α = 1, 2 π 1 si θ > 0, sign(θ) = 0 si θ = 0, 1 si θ < 0. Retour

91 Intérêt du coefficient de covariation Soit X 1 et X 2 conjointement SαS avec 1 < α < 2, alors E(X 1 X 2 ) = λ X1,X 2 X 2 p. s. Retour

92 Suite de la définition Soit X une variable aléatoire SαS avec α > 1. La norme de covariation de X est définie par X 1 α = ([X 1, X 1 ] α ) 1/α et κ (X1,X 2 ) indique le signe de la dépendance avec : sign([x 1, X 2 ] α ) κ (X1,X 2 ) = sign([x 2, X 1 ] α ) si si [X 1,X 2 ] α X 2 α [X 1,X 2 ] α X 2 α < [X 2,X 1 ] α X 1 α [X 2,X 1 ] α X 1 α,. Retour

93 Suite de la définition Soit X une variable aléatoire SαS avec α > 1. La norme de covariation de X est définie par X 1 α = ([X 1, X 1 ] α ) 1/α et κ (X1,X 2 ) indique le signe de la dépendance avec : sign([x 1, X 2 ] α ) κ (X1,X 2 ) = sign([x 2, X 1 ] α ) si si [X 1,X 2 ] α X 2 α [X 1,X 2 ] α X 2 α < [X 2,X 1 ] α X 1 α [X 2,X 1 ] α X 1 α,. Retour

94 Suite de la définition Soit X une variable aléatoire SαS avec α > 1. La norme de covariation de X est définie par X 1 α = ([X 1, X 1 ] α ) 1/α et κ (X1,X 2 ) indique le signe de la dépendance avec : sign([x 1, X 2 ] α ) κ (X1,X 2 ) = sign([x 2, X 1 ] α ) si si [X 1,X 2 ] α X 2 α [X 1,X 2 ] α X 2 α < [X 2,X 1 ] α X 1 α [X 2,X 1 ] α X 1 α,. Retour

95 Vecteurs aléatoires sous-gaussiens La fonction caractéristique de X est donnée par : { E exp i 2 k=1 } { θ k X k = exp θ i θ j R ij α/2}, (1) i=1 j=1 où les R ij = EG i G j, i, j = 1, 2 sont les covariances du vecteur gaussien sous-jacent G. Retour

96 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour

97 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour

98 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour

99 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour

Exercice : la frontière des portefeuilles optimaux sans actif certain

Exercice : la frontière des portefeuilles optimaux sans actif certain Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué

Plus en détail

Modélisation de séries financières par un modèle multifractal. Céline Azizieh

Modélisation de séries financières par un modèle multifractal. Céline Azizieh Modélisation de séries financières par un modèle multifractal Céline Azizieh Mémoire présenté à l Université Libre de Bruxelles en vue d obtenir le diplôme d actuaire Supervision: W. Breymann (RiskLab,

Plus en détail

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

1 Complément sur la projection du nuage des individus

1 Complément sur la projection du nuage des individus TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

TABLE DES MATIERES. C Exercices complémentaires 42

TABLE DES MATIERES. C Exercices complémentaires 42 TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Analyse en Composantes Principales

Analyse en Composantes Principales Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Introduction à l approche bootstrap

Introduction à l approche bootstrap Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire

Plus en détail

Capes 2002 - Première épreuve

Capes 2002 - Première épreuve Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série

Plus en détail

STATISTIQUES. UE Modélisation pour la biologie

STATISTIQUES. UE Modélisation pour la biologie STATISTIQUES UE Modélisation pour la biologie 2011 Cadre Général n individus: 1, 2,..., n Y variable à expliquer : Y = (y 1, y 2,..., y n ), y i R Modèle: Y = Xθ + ε X matrice du plan d expériences θ paramètres

Plus en détail

Cours d analyse numérique SMI-S4

Cours d analyse numérique SMI-S4 ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Structures algébriques

Structures algébriques Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe

Plus en détail

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage Journées de Méthodologie Statistique Eric Lesage Crest-Ensai 25 janvier 2012 Introduction et contexte 2/27 1 Introduction

Plus en détail

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux hétérogènes Laurent Déjean Thales Airborne Systems/ENST-Bretagne Le 20 novembre 2006 Laurent Déjean Détection en

Plus en détail

Évaluation de la régression bornée

Évaluation de la régression bornée Thierry Foucart UMR 6086, Université de Poitiers, S P 2 M I, bd 3 téléport 2 BP 179, 86960 Futuroscope, Cedex FRANCE Résumé. le modèle linéaire est très fréquemment utilisé en statistique et particulièrement

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Équation de Langevin avec petites perturbations browniennes ou

Équation de Langevin avec petites perturbations browniennes ou Équation de Langevin avec petites perturbations browniennes ou alpha-stables Richard Eon sous la direction de Mihai Gradinaru Institut de Recherche Mathématique de Rennes Journées de probabilités 215,

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d Laboratoire de Mécanique et Ingénieriesnieries EA 3867 - FR TIMS / CNRS 2856 ER MPS Modélisation stochastique d un d chargement d amplitude variable à partir de mesures Application à l approche fiabiliste

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

Température corporelle d un castor (une petite introduction aux séries temporelles)

Température corporelle d un castor (une petite introduction aux séries temporelles) Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

de calibration Master 2: Calibration de modèles: présentation et simulation d

de calibration Master 2: Calibration de modèles: présentation et simulation d Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe

Plus en détail

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous

Plus en détail

Rupture et plasticité

Rupture et plasticité Rupture et plasticité Département de Mécanique, Ecole Polytechnique, 2009 2010 Département de Mécanique, Ecole Polytechnique, 2009 2010 25 novembre 2009 1 / 44 Rupture et plasticité : plan du cours Comportements

Plus en détail

Chapitre 3. Les distributions à deux variables

Chapitre 3. Les distributions à deux variables Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

aux différences est appelé équation aux différences d ordre n en forme normale.

aux différences est appelé équation aux différences d ordre n en forme normale. MODÉLISATION ET SIMULATION EQUATIONS AUX DIFFÉRENCES (I/II) 1. Rappels théoriques : résolution d équations aux différences 1.1. Équations aux différences. Définition. Soit x k = x(k) X l état scalaire

Plus en détail

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE LA PHYSIQUE DES MATERIAUX Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE Pr. A. Belayachi Université Mohammed V Agdal Faculté des Sciences Rabat Département de Physique - L.P.M belayach@fsr.ac.ma 1 1.Le réseau

Plus en détail

CCP PSI - 2010 Mathématiques 1 : un corrigé

CCP PSI - 2010 Mathématiques 1 : un corrigé CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor Paramètre de longue mémoire d une série temporelle : le cas non linéaire Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor Notion de longue mémoire Les valeurs d une série temporelle X = (X l )

Plus en détail

BACCALAURÉAT GÉNÉRAL SESSION 2012 OBLIGATOIRE MATHÉMATIQUES. Série S. Durée de l épreuve : 4 heures Coefficient : 7 ENSEIGNEMENT OBLIGATOIRE

BACCALAURÉAT GÉNÉRAL SESSION 2012 OBLIGATOIRE MATHÉMATIQUES. Série S. Durée de l épreuve : 4 heures Coefficient : 7 ENSEIGNEMENT OBLIGATOIRE BACCALAURÉAT GÉNÉRAL SESSION 2012 MATHÉMATIQUES Série S Durée de l épreuve : 4 heures Coefficient : 7 ENSEIGNEMENT OBLIGATOIRE Les calculatrices électroniques de poche sont autorisées, conformément à la

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Algorithmes pour la planification de mouvements en robotique non-holonome

Algorithmes pour la planification de mouvements en robotique non-holonome Algorithmes pour la planification de mouvements en robotique non-holonome Frédéric Jean Unité de Mathématiques Appliquées ENSTA Le 02 février 2006 Outline 1 2 3 Modélisation Géométrique d un Robot Robot

Plus en détail

Statistiques d ordre supérieur pour le traitement du signal

Statistiques d ordre supérieur pour le traitement du signal Statistiques d ordre supérieur pour le traitement du signal Jean-Louis Lacoume, Pierre-Olivier Amblard, Pierre Comon To cite this version: Jean-Louis Lacoume, Pierre-Olivier Amblard, Pierre Comon. Statistiques

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

Chapitre 2. Matrices

Chapitre 2. Matrices Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce

Plus en détail

Plan du cours : électricité 1

Plan du cours : électricité 1 Semestre : S2 Module Physique II 1 Electricité 1 2 Optique géométrique Plan du cours : électricité 1 Partie A : Electrostatique (discipline de l étude des phénomènes liés aux distributions de charges stationnaires)

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

TD1 Signaux, énergie et puissance, signaux aléatoires

TD1 Signaux, énergie et puissance, signaux aléatoires TD1 Signaux, énergie et puissance, signaux aléatoires I ) Ecrire l'expression analytique des signaux représentés sur les figures suivantes à l'aide de signaux particuliers. Dans le cas du signal y(t) trouver

Plus en détail

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2 33 Corrigé Corrigé Problème Théorème de Motzkin-Taussky Partie I I-A : Le sens direct et le cas n= 2 1-a Stabilité des sous-espaces propres Soit λ une valeur propre de v et E λ (v) le sous-espace propre

Plus en détail

Exercice 1 Trouver l équation du plan tangent pour chaque surface ci-dessous, au point (x 0,y 0,z 0 ) donné :

Exercice 1 Trouver l équation du plan tangent pour chaque surface ci-dessous, au point (x 0,y 0,z 0 ) donné : Enoncés : Stephan de Bièvre Corrections : Johannes Huebschmann Exo7 Plans tangents à un graphe, différentiabilité Exercice 1 Trouver l équation du plan tangent pour chaque surface ci-dessous, au point

Plus en détail

Une application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies

Une application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies Une application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies Ariane Lançon (Observatoire de Strasbourg) en collaboration avec: Jean-Luc Vergely,

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Cours de Mécanique du point matériel

Cours de Mécanique du point matériel Cours de Mécanique du point matériel SMPC1 Module 1 : Mécanique 1 Session : Automne 2014 Prof. M. EL BAZ Cours de Mécanique du Point matériel Chapitre 1 : Complément Mathématique SMPC1 Chapitre 1: Rappels

Plus en détail

Exercices Corrigés Premières notions sur les espaces vectoriels

Exercices Corrigés Premières notions sur les espaces vectoriels Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3

Plus en détail

Annexe 1 Programmes des classes préparatoires aux Grandes Ecoles

Annexe 1 Programmes des classes préparatoires aux Grandes Ecoles Annexe 1 Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Physique, chimie et sciences de l ingénieur (PCSI) Discipline : Mathématiques Première année Classe préparatoire

Plus en détail

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université

Plus en détail

NON-LINEARITE ET RESEAUX NEURONAUX

NON-LINEARITE ET RESEAUX NEURONAUX NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Introduction. Mathématiques Quantiques Discrètes

Introduction. Mathématiques Quantiques Discrètes Mathématiques Quantiques Discrètes Didier Robert Facultés des Sciences et Techniques Laboratoire de Mathématiques Jean Leray, Université de Nantes email: v-nantes.fr Commençons par expliquer le titre.

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

LE PRODUIT SCALAIRE ( En première S )

LE PRODUIT SCALAIRE ( En première S ) LE PRODUIT SCALAIRE ( En première S ) Dernière mise à jour : Jeudi 4 Janvier 007 Vincent OBATON, Enseignant au lycée Stendhal de Grenoble ( Année 006-007 ) 1 Table des matières 1 Grille d autoévaluation

Plus en détail

Fonctions de deux variables. Mai 2011

Fonctions de deux variables. Mai 2011 Fonctions de deux variables Dédou Mai 2011 D une à deux variables Les fonctions modèlisent de l information dépendant d un paramètre. On a aussi besoin de modéliser de l information dépendant de plusieurs

Plus en détail

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION Bruno Saussereau Laboratoire de Mathématiques de Besançon Université de Franche-Comté Travail en commun

Plus en détail

Direction des Études et Synthèses Économiques Département des Comptes Nationaux Division des Comptes Trimestriels

Direction des Études et Synthèses Économiques Département des Comptes Nationaux Division des Comptes Trimestriels Etab=MK3, Timbre=G430, TimbreDansAdresse=Vrai, Version=W2000/Charte7, VersionTravail=W2000/Charte7 Direction des Études et Synthèses Économiques Département des Comptes Nationaux Division des Comptes Trimestriels

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Théories de champ moyen et convection à grande échelle

Théories de champ moyen et convection à grande échelle Chapitre Théories de champ moyen et convection à grande échelle 51 Introduction Au cours de ce travail, nous avons à plusieurs reprises été confrontés au problème de la compréhension et de la modélisation

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

Dérivées d ordres supérieurs. Application à l étude d extrema.

Dérivées d ordres supérieurs. Application à l étude d extrema. Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une

Plus en détail

ESSEC Cours Wealth management

ESSEC Cours Wealth management ESSEC Cours Wealth management Séance 9 Gestion de patrimoine : théories économiques et études empiriques François Longin 1 www.longin.fr Plan de la séance 9 Epargne et patrimoine des ménages Analyse macroéconomique

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Théorie des Jeux Et ses Applications

Théorie des Jeux Et ses Applications Théorie des Jeux Et ses Applications De la Guerre Froide au Poker Clément Sire Laboratoire de Physique Théorique CNRS & Université Paul Sabatier www.lpt.ups-tlse.fr Quelques Définitions de la Théorie des

Plus en détail

Modèles et Méthodes de Réservation

Modèles et Méthodes de Réservation Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E

Plus en détail

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine

Plus en détail

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007 Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................

Plus en détail

(51) Int Cl.: H04L 29/06 (2006.01) G06F 21/55 (2013.01)

(51) Int Cl.: H04L 29/06 (2006.01) G06F 21/55 (2013.01) (19) TEPZZ 8 8 4_A_T (11) EP 2 838 241 A1 (12) DEMANDE DE BREVET EUROPEEN (43) Date de publication: 18.02.1 Bulletin 1/08 (1) Int Cl.: H04L 29/06 (06.01) G06F 21/ (13.01) (21) Numéro de dépôt: 141781.4

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R. Angles orientés Trigonométrie I. Préliminaires. Le radian Définition B R AB =R C O radian R A Soit C un cercle de centre O. Dire que l angle géométrique AOB a pour mesure radian signifie que la longueur

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Relation entre deux variables : estimation de la corrélation linéaire

Relation entre deux variables : estimation de la corrélation linéaire CHAPITRE 3 Relation entre deux variables : estimation de la corrélation linéaire Parmi les analyses statistiques descriptives, l une d entre elles est particulièrement utilisée pour mettre en évidence

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Cours de mathématiques

Cours de mathématiques DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................

Plus en détail

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites La problématique des tests Cours V 7 mars 8 Test d hypothèses [Section 6.1] Soit un modèle statistique P θ ; θ Θ} et des hypothèses H : θ Θ H 1 : θ Θ 1 = Θ \ Θ Un test (pur) est une statistique à valeur

Plus en détail

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E Exo7 Espaces vectoriels Vidéo partie 1. Espace vectoriel (début Vidéo partie 2. Espace vectoriel (fin Vidéo partie 3. Sous-espace vectoriel (début Vidéo partie 4. Sous-espace vectoriel (milieu Vidéo partie

Plus en détail

Fonctions de plusieurs variables et applications pour l ingénieur

Fonctions de plusieurs variables et applications pour l ingénieur Service Commun de Formation Continue Année Universitaire 2006-2007 Fonctions de plusieurs variables et applications pour l ingénieur Polycopié de cours Rédigé par Yannick Privat Bureau 321 - Institut Élie

Plus en détail

NOTICE DOUBLE DIPLÔME

NOTICE DOUBLE DIPLÔME NOTICE DOUBLE DIPLÔME MINES ParisTech / HEC MINES ParisTech/ AgroParisTech Diplômes obtenus : Diplôme d ingénieur de l Ecole des Mines de Paris Diplôme de HEC Paris Ou Diplôme d ingénieur de l Ecole des

Plus en détail

Corrigé des TD 1 à 5

Corrigé des TD 1 à 5 Corrigé des TD 1 à 5 1 Premier Contact 1.1 Somme des n premiers entiers 1 (* Somme des n premiers entiers *) 2 program somme_entiers; n, i, somme: integer; 8 (* saisie du nombre n *) write( Saisissez un

Plus en détail

Le théorème des deux fonds et la gestion indicielle

Le théorème des deux fonds et la gestion indicielle Le théorème des deux fonds et la gestion indicielle Philippe Bernard Ingénierie Economique& Financière Université Paris-Dauphine mars 2013 Les premiers fonds indiciels futent lancés aux Etats-Unis par

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les

Plus en détail

Notes de cours Statistique avec le logiciel R

Notes de cours Statistique avec le logiciel R Notes de cours Statistique avec le logiciel R Shuyan LIU Shuyan.Liu@univ-paris1.fr http ://samm.univ-paris1.fr/shuyan-liu-enseignement Année 2013-2014 Chapitre 1 Introduction L objectif de ce cours est

Plus en détail

Introduction. Préambule. Le contexte

Introduction. Préambule. Le contexte Préambule... INTRODUCTION... BREF HISTORIQUE DE L ACP... 4 DOMAINE D'APPLICATION... 5 INTERPRETATIONS GEOMETRIQUES... 6 a - Pour les n individus... 6 b - Pour les p variables... 7 c - Notion d éléments

Plus en détail