NOUVELLES MESURES DE DÉPENDANCE POUR

Dimension: px
Commencer à balayer dès la page:

Download "NOUVELLES MESURES DE DÉPENDANCE POUR"

Transcription

1 NOUVELLES MESURES DE DÉPENDANCE POUR UNE MODÉLISATION ALPHA-STABLE. Bernard GAREL & Bernédy KODIA Institut de Mathématiques de Toulouse et INPT-ENSEEIHT Xèmmes Journées de Méthodologie Statistique de l Insee Paris, 24 mars 2009

2 Plan de la présentation 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

3 Plan de la présentation 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

4 Plan de la présentation 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

5 Plan 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

6 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

7 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

8 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

9 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

10 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

11 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

12 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

13 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

14 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

15 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

16 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

17 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

18 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

19 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)

20 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

21 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

22 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

23 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

24 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

25 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

26 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

27 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2

28 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...

29 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...

30 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...

31 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...

32 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...

33 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.

34 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.

35 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.

36 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.

37 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.

38 Plan 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

39 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2

40 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2

41 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2

42 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2

43 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

44 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

45 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

46 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

47 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

48 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

49 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

50 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2

51 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

52 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

53 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

54 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

55 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

56 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

57 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

58 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.

59 Plan 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient

60 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

61 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

62 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

63 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

64 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

65 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

66 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition

67 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.

68 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.

69 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.

70 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.

71 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.

72 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.

73 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.

74 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.

75 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.

76 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.

77 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.

78 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.

79 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.

80 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.

81 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.

82 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.

83 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.

84 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.

85 Résultats de simulation : cas sous-gaussien Données α = 1.5, n=100, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR Données α = 1.5, n=500, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR

86 Résultats de simulation : cas sous-gaussien Données α = 1.5, n=100, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR Données α = 1.5, n=500, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR

87 Résultats de simulation : combinaisons linéaires Données α = 1.7, n=100, γ = 10 a a a a scov ŝcov ŝcov SR Données α = 1.7, n=500, γ = 10 scov ŝcov ŝcov SR

88 Résultats de simulation : combinaisons linéaires Données α = 1.7, n=100, γ = 10 a a a a scov ŝcov ŝcov SR Données α = 1.7, n=500, γ = 10 scov ŝcov ŝcov SR

89 MERCI POUR VOTRE ATTENTION

90 Nous avons : et { tan πα w(θ, α) = 2 si α 1, ln θ si α = 1, 2 π 1 si θ > 0, sign(θ) = 0 si θ = 0, 1 si θ < 0. Retour

91 Intérêt du coefficient de covariation Soit X 1 et X 2 conjointement SαS avec 1 < α < 2, alors E(X 1 X 2 ) = λ X1,X 2 X 2 p. s. Retour

92 Suite de la définition Soit X une variable aléatoire SαS avec α > 1. La norme de covariation de X est définie par X 1 α = ([X 1, X 1 ] α ) 1/α et κ (X1,X 2 ) indique le signe de la dépendance avec : sign([x 1, X 2 ] α ) κ (X1,X 2 ) = sign([x 2, X 1 ] α ) si si [X 1,X 2 ] α X 2 α [X 1,X 2 ] α X 2 α < [X 2,X 1 ] α X 1 α [X 2,X 1 ] α X 1 α,. Retour

93 Suite de la définition Soit X une variable aléatoire SαS avec α > 1. La norme de covariation de X est définie par X 1 α = ([X 1, X 1 ] α ) 1/α et κ (X1,X 2 ) indique le signe de la dépendance avec : sign([x 1, X 2 ] α ) κ (X1,X 2 ) = sign([x 2, X 1 ] α ) si si [X 1,X 2 ] α X 2 α [X 1,X 2 ] α X 2 α < [X 2,X 1 ] α X 1 α [X 2,X 1 ] α X 1 α,. Retour

94 Suite de la définition Soit X une variable aléatoire SαS avec α > 1. La norme de covariation de X est définie par X 1 α = ([X 1, X 1 ] α ) 1/α et κ (X1,X 2 ) indique le signe de la dépendance avec : sign([x 1, X 2 ] α ) κ (X1,X 2 ) = sign([x 2, X 1 ] α ) si si [X 1,X 2 ] α X 2 α [X 1,X 2 ] α X 2 α < [X 2,X 1 ] α X 1 α [X 2,X 1 ] α X 1 α,. Retour

95 Vecteurs aléatoires sous-gaussiens La fonction caractéristique de X est donnée par : { E exp i 2 k=1 } { θ k X k = exp θ i θ j R ij α/2}, (1) i=1 j=1 où les R ij = EG i G j, i, j = 1, 2 sont les covariances du vecteur gaussien sous-jacent G. Retour

96 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour

97 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour

98 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour

99 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour

Sommaire. Chapitre 1 Variables et vecteurs aléatoires... 5. Chapitre 2 Variables aléatoires à densité... 65

Sommaire. Chapitre 1 Variables et vecteurs aléatoires... 5. Chapitre 2 Variables aléatoires à densité... 65 Sommaire Chapitre 1 Variables et vecteurs aléatoires............... 5 A. Généralités sur les variables aléatoires réelles.................... 6 B. Séries doubles..................................... 9

Plus en détail

1.1 Définitions... 2 1.2 Opérations élémentaires... 2 1.3 Systèmes échelonnés et triangulaires... 3

1.1 Définitions... 2 1.2 Opérations élémentaires... 2 1.3 Systèmes échelonnés et triangulaires... 3 Chapitre 5 Systèmes linéaires 1 Généralités sur les systèmes linéaires 2 11 Définitions 2 12 Opérations élémentaires 2 13 Systèmes échelonnés et triangulaires 3 2 Résolution des systèmes linéaires 3 21

Plus en détail

Probabilités. I- Expérience aléatoire, espace probabilisé : ShotGun. 1- Définitions :

Probabilités. I- Expérience aléatoire, espace probabilisé : ShotGun. 1- Définitions : Probabilités I- Expérience aléatoire, espace probabilisé : 1- Définitions : Ω : Ensemble dont les points w sont les résultats possibles de l expérience Des évènements A parties de Ω appartiennent à A une

Plus en détail

DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES

DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES Université Paris1, Licence 00-003, Mme Pradel : Principales lois de Probabilité 1 DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES Notations Si la variable aléatoire X suit la loi L, onnoterax

Plus en détail

Théorie du chaos multiplicatif et application à l étude de la mesure MRM lognormale. 15 novembre 2010

Théorie du chaos multiplicatif et application à l étude de la mesure MRM lognormale. 15 novembre 2010 Théorie du chaos multiplicatif et application à l étude de la mesure MRM lognormale 15 novembre 2010 Table des matières 1 Rappel sur les Processus Gaussiens 2 Théorie du chaos multiplicatif gaussien de

Plus en détail

Cours de Statistiques

Cours de Statistiques Cours de Statistiques Romain Raveaux 1 1 Laboratoire L3I Université de La Rochelle romain.raveaux01 at univ-lr.fr Octobre 24-11, 2008 1 / 35 Sommaire 1 Quelques Rappels 2 numériques Relations entre deux

Plus en détail

Cahier de textes Page 1 sur 9. Cahier de textes

Cahier de textes Page 1 sur 9. Cahier de textes Cahier de textes Page 1 sur 9 Cahier de textes Jeudi 04/09/2014 9h-12h et 13h30-16h30 : Cours sur la logique : - Conjonction, disjonction, implication, équivalence - Quelques formules. - Quantificateurs

Plus en détail

La méthode Monte-Carlo. DeriveXperts. 19 mai 2011

La méthode Monte-Carlo. DeriveXperts. 19 mai 2011 19 mai 2011 Outline 1 Introduction Définition Générale Génération de nombre aléatoires Domaines d application 2 Cadre d application Méthodologie générale Remarques Utilisation pratique Introduction Outline

Plus en détail

HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES

HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES 105 HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES 1. Introduction En statistiques il arrive fréquemment que les individus soient décrits par un grand nombre de caractères. : voitures décrites par leur

Plus en détail

1 Sujets donnés en option scientifique

1 Sujets donnés en option scientifique Les sujets suivants, posés aux candidats des options scientifique, économique, technologique et littéraire BL constituent la première version d un échantillon des sujets proposés lors des épreuves orales

Plus en détail

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry Outils mathématiques pour le datamining http://wwwelsewarefr/univevry Géométrie Distance Distance entre parties Matrice de variance/covariance Inertie Minimisation Probabilités Définition Théorème de Bayes

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Feuille n 2 : Contrôle du flux de commandes

Feuille n 2 : Contrôle du flux de commandes Logiciels Scientifiques (Statistiques) Licence 2 Mathématiques Générales Feuille n 2 : Contrôle du flux de commandes Exercice 1. Vente de voiture Mathieu décide de s acheter une voiture neuve qui coûte

Plus en détail

Chapitre IV : Couples de variables aléatoires discrètes

Chapitre IV : Couples de variables aléatoires discrètes UNIVERSITÉ DE CERG Année 0-03 UFR Économie & Gestion Licence d Économie et Gestion MATH0 : Probabilités Chapitre IV : Couples de variables aléatoires discrètes Généralités Définition Soit (Ω, P(Ω), P)

Plus en détail

Exercice : la frontière des portefeuilles optimaux sans actif certain

Exercice : la frontière des portefeuilles optimaux sans actif certain Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué

Plus en détail

Marketing quantitatif M2-MASS

Marketing quantitatif M2-MASS Marketing quantitatif M2-MASS Francois.Kauffmann@unicaen.fr UCBN 2 décembre 2012 Francois.Kauffmann@unicaen.fr UCBN Marketing quantitatif M2-MASS 2 décembre 2012 1 / 61 Première partie I Analyse Analyse

Plus en détail

Statistiques des lois à queue régulière avec l application sur les perturbations des comètes

Statistiques des lois à queue régulière avec l application sur les perturbations des comètes Statistiques des lois à queue régulière avec l application sur les perturbations des comètes Shuyan LIU Université Paris - SAMM Youri DAVYDOV et Radu STOICA Université Lille - Laboratoire Paul Painlevé

Plus en détail

Analyse de données longitudinales continues avec applications

Analyse de données longitudinales continues avec applications Université de Liège Département de Mathématique 29 Octobre 2002 Analyse de données longitudinales continues avec applications David MAGIS 1 Programme 1. Introduction 2. Exemples 3. Méthodes simples 4.

Plus en détail

Couple de variables aléatoires - Notion d indépendance.

Couple de variables aléatoires - Notion d indépendance. Couple de variables aléatoires - Notion d indépendance. Préparation au Capes - Université Rennes 1 On considère deux variables aléatoires X et Y. On aimerait connaitre s il y a influence entre ces deux

Plus en détail

Master Modélisation Statistique M2 Finance - chapitre 4 Mouvement Brownien et modèle de Black-Scholes

Master Modélisation Statistique M2 Finance - chapitre 4 Mouvement Brownien et modèle de Black-Scholes Master Modélisation Statistique M2 Finance - chapitre 4 Mouvement Brownien et modèle de Black-Scholes Clément Dombry, Laboratoire de Mathématiques de Besançon, Université de Franche-Comté. C.Dombry (Université

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Support du cours de Probabilités IUT d Orléans, Département d informatique

Support du cours de Probabilités IUT d Orléans, Département d informatique Support du cours de Probabilités IUT d Orléans, Département d informatique Pierre Andreoletti IUT d Orléans Laboratoire MAPMO (Bât. de Mathématiques UFR Sciences) - Bureau 126 email: pierre.andreoletti@univ-orleans.fr

Plus en détail

INTRODUCTION : EDP ET FINANCE.

INTRODUCTION : EDP ET FINANCE. INTRODUCTION : EDP ET FINANCE. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) EDP et finance. 1 / 16 PLAN DU COURS 1 MODÈLE ET ÉQUATION DE BLACK SCHOLES 2 QUELQUES EXTENSIONS A. Popier

Plus en détail

EXERCICES SANS PRÉPARATION HEC 2005. Question 11 D après HEC 2005-11 F 2 EXERCICES SANS PRÉPARATION 2008. Question 7 HEC 2006-7 F 1 élève

EXERCICES SANS PRÉPARATION HEC 2005. Question 11 D après HEC 2005-11 F 2 EXERCICES SANS PRÉPARATION 2008. Question 7 HEC 2006-7 F 1 élève 30-1- 2013 J.F.C. p. 1 F 1 F 2 F 3 Assez simple ou proche du cours. Demande du travail. Délicat. EXERCICES SANS PRÉPARATION HEC 2005 Question 11 D après HEC 2005-11 F 2 X est une variable aléatoire de

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Résolution de systèmes linéaires : Méthodes directes. Polytech Paris-UPMC. - p. 1/51

Résolution de systèmes linéaires : Méthodes directes. Polytech Paris-UPMC. - p. 1/51 Résolution de systèmes linéaires : Méthodes directes Polytech Paris-UPMC - p. /5 Rappels mathématiques s Propriétés - p. 2/5 Rappels mathématiques Soit à résoudre le système linéaire Ax = b. Rappels mathématiques

Plus en détail

UNIVERSITÉ DE CERGY Année 2012-2013 U.F.R. Économie & Gestion Licence d Économie et Mathématiques MATH104 : Mathématiques

UNIVERSITÉ DE CERGY Année 2012-2013 U.F.R. Économie & Gestion Licence d Économie et Mathématiques MATH104 : Mathématiques 1 UNIVERSITÉ DE CERGY Année 2012-201 U.F.R. Économie & Gestion Licence d Économie et Mathématiques MATH104 : Mathématiques Chapitre III : Polynômes 1 Fonctions polynômes & polynômes Définition 1. Soit

Plus en détail

Température corporelle d un castor (une petite introduction aux séries temporelles)

Température corporelle d un castor (une petite introduction aux séries temporelles) Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature

Plus en détail

Introduction à l approche bootstrap

Introduction à l approche bootstrap Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?

Plus en détail

Optimisation linéaire

Optimisation linéaire Optimisation linéaire Recherche opérationnelle GC-SIE Algorithme du simplexe Phase I 1 Introduction Algorithme du simplexe : Soit x 0 une solution de base admissible Comment déterminer x 0? Comment déterminer

Plus en détail

1.1 Prime d une option d achat dans le modèle de Cox, Ross et Rubinstein

1.1 Prime d une option d achat dans le modèle de Cox, Ross et Rubinstein 1 Examen 1.1 Prime d une option d achat dans le modèle de Cox, Ross et Rubinstein On considère une option à 90 jours sur un actif ne distribuant pas de dividende de nominal 100 francs, et dont le prix

Plus en détail

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et

Plus en détail

TABLE DES MATIERES. C Exercices complémentaires 42

TABLE DES MATIERES. C Exercices complémentaires 42 TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence

Plus en détail

Analyse en Composantes Principales

Analyse en Composantes Principales Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées

Plus en détail

Regime Switching Model : une approche «pseudo» multivarie e

Regime Switching Model : une approche «pseudo» multivarie e Regime Switching Model : une approche «pseudo» multivarie e A. Zerrad 1, R&D, Nexialog Consulting, Juin 2015 azerrad@nexialog.com Les crises financières survenues dans les trente dernières années et les

Plus en détail

Espaces vectoriels. par Pierre Veuillez

Espaces vectoriels. par Pierre Veuillez Espaces vectoriels par Pierre Veuillez 1 Objectifs : Disposer d un lieu où les opérations + et se comportent bien. Déterminer des bases (utilisation de la dimension) Représenter les vecteurs grace à leurs

Plus en détail

Cours 1: lois discrétes classiques en probabilités

Cours 1: lois discrétes classiques en probabilités Cours 1: lois discrétes classiques en probabilités Laboratoire de Mathématiques de Toulouse Université Paul Sabatier-IUT GEA Ponsan Module: Stat inférentielles Définition Quelques exemples loi d une v.a

Plus en détail

1 Complément sur la projection du nuage des individus

1 Complément sur la projection du nuage des individus TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent

Plus en détail

PAD - Notes de cours. S. Rigal, D. Ruiz, et J. C. Satgé

PAD - Notes de cours. S. Rigal, D. Ruiz, et J. C. Satgé ALGÈBRE PAD - Notes de cours S. Rigal, D. Ruiz, et J. C. Satgé November 23, 2006 Table des Matières Espaces vectoriels Applications linéaires - Espaces vectoriels............................... 3 -. Approche

Plus en détail

COURS DE LICENCE 2 SCIENCES ECONOMIQUES COURS D ANNIE CLARET

COURS DE LICENCE 2 SCIENCES ECONOMIQUES COURS D ANNIE CLARET COURS DE LICENCE 2 SCIENCES ECONOMIQUES COURS D ANNIE CLARET MATHEMATIQUES 3 PRISE DE NOTE PAR : PLASMAN SYLVAIN SERIE 7 ANNEE 2010-2011 1 Sommaire et accès aux chapitres/sous-chapitres Cliquez sur le

Plus en détail

1 Introduction 1 1.1 Contexte de l étude... 1 1.2 Contributions de ce travail... 3

1 Introduction 1 1.1 Contexte de l étude... 1 1.2 Contributions de ce travail... 3 Table des matières Introduction. Contexte de l étude....................................2 Contributions de ce travail............................... 3 2 Signaux aléatoires à densité de probabilité à queue

Plus en détail

aux différences est appelé équation aux différences d ordre n en forme normale.

aux différences est appelé équation aux différences d ordre n en forme normale. MODÉLISATION ET SIMULATION EQUATIONS AUX DIFFÉRENCES (I/II) 1. Rappels théoriques : résolution d équations aux différences 1.1. Équations aux différences. Définition. Soit x k = x(k) X l état scalaire

Plus en détail

Espérance, variance, quantiles

Espérance, variance, quantiles Espérance, variance, quantiles Mathématiques Générales B Université de Genève Sylvain Sardy 22 mai 2008 0. Motivation Mesures de centralité (ex. espérance) et de dispersion (ex. variance) 1 f(x) 0.0 0.1

Plus en détail

Analyse discriminante

Analyse discriminante Analyse discriminante Christine Decaestecker & Marco Saerens ULB & UCL LINF2275 1 Analyse Discriminante Particularités: 2 formes/utilisations complémentaires: méthode factorielle: description "géométrique"

Plus en détail

Outils d analyse fonctionnelle Cours 5 Théorie spectrale

Outils d analyse fonctionnelle Cours 5 Théorie spectrale Outils d analyse fonctionnelle Cours 5 Théorie spectrale 22 septembre 2015 Généralités Dans tout ce qui suit V désigne un espace de Hilbert réel muni d un produit scalaire x, y. Définition Soit A une application

Plus en détail

AK-MCS : une méthode d apprentissage alliant krigeage et simulation Monte Carlo pour évaluer efficacement P f

AK-MCS : une méthode d apprentissage alliant krigeage et simulation Monte Carlo pour évaluer efficacement P f JFMS Toulouse 24, 25, 26 mars 2010 AK-MCS : une méthode d apprentissage alliant krigeage et simulation Monte Carlo pour évaluer efficacement P f Benjamin Echard Nicolas Gayton Maurice Lemaire LaMI Laboratoire

Plus en détail

Calcul Matriciel. Chapitre 10. 10.1 Qu est-ce qu une matrice? 10.2 Indexation des coefficients. 10.3 Exemples de matrices carrées.

Calcul Matriciel. Chapitre 10. 10.1 Qu est-ce qu une matrice? 10.2 Indexation des coefficients. 10.3 Exemples de matrices carrées. Chapitre 10 Calcul Matriciel 101 Qu est-ce qu une matrice? Définition : Soit K un ensemble de nombres exemples, K = N, Z, Q, R, C, n, p N On appelle matrice à n lignes et p colonnes la données de np nombres

Plus en détail

Introduction au modèle linéaire général

Introduction au modèle linéaire général Résumé Introductions au modèle linéaire général Retour au plan du cours Travaux pratiques 1 Introduction L objet de ce chapitre est d introduire le cadre théorique global permettant de regrouper tous les

Plus en détail

Cours de mathématiques - Alternance Gea

Cours de mathématiques - Alternance Gea Cours de mathématiques - Alternance Gea Anne Fredet 11 décembre 005 1 Calcul matriciel Une matrice n m est un tableau de nombres à n lignes( et m colonnes. 1 0 Par exemple, avec n = et m =, on peut considérer

Plus en détail

2. MATRICES ET APPLICATIONS LINÉAIRES

2. MATRICES ET APPLICATIONS LINÉAIRES 2. MATRICES ET APPLICATIONS LINÉAIRES 2.1 Définition Une matrice n m est un tableau rectangulaire de nombres (réels en général) à n lignes et m colonnes ; n et m sont les dimensions de la matrice. Notation.

Plus en détail

Asymétrie des rendements et volatilité multifractale

Asymétrie des rendements et volatilité multifractale Asymétrie des rendements et volatilité multifractale Emmanuel Bacry 1, Laurent Duvernet 2, Jean-François Muzy 3 Séminaire du Labex MME-DII 26 février 2013 1. CNRS École Polytechnique 2. Univ. Paris-Ouest

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Simulation de variables aléatoires S. Robin INA PG, Biométrie Décembre 1997 Table des matières 1 Introduction Variables aléatoires discrètes 3.1 Pile ou face................................... 3. Loi de

Plus en détail

Compléments sur les couples aléatoires

Compléments sur les couples aléatoires Licence Math et MASS, MATH54 : probabilités et statistiques Compléments sur les couples aléatoires 1 Couple image ans ce paragraphe, on va s intéresser à la loi d un vecteur aléatoire S, T qui s obtient

Plus en détail

Recherche Opérationnelle 1A Programmation Linéaire Résolution d un Programme Linéaire Introduction

Recherche Opérationnelle 1A Programmation Linéaire Résolution d un Programme Linéaire Introduction Recherche Opérationnelle 1A Programmation Linéaire Résolution d un Programme Linéaire Introduction Zoltán Szigeti Ensimag April 4, 2015 Z. Szigeti (Ensimag) RO 1A April 4, 2015 1 / 16 Forme Générale Définition

Plus en détail

MATHÉMATIQUES ET SCIENCES HUMAINES

MATHÉMATIQUES ET SCIENCES HUMAINES MATHÉMATIQUES ET SCIENCES HUMAINES B. MARCHADIER Dépendance et indépendance de deux aléas numériques images Mathématiques et sciences humaines, tome 25 (1969), p. 2534.

Plus en détail

Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6

Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6 Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6 Ludovic Denoyer 21 septembre 2015 Ludovic Denoyer () FDMS 21 septembre 2015 1 / 1 Contexte Observation La plupart des bonnes

Plus en détail

Cours de spécialité mathématiques en Terminale ES

Cours de spécialité mathématiques en Terminale ES Cours de spécialité mathématiques en Terminale ES O. Lader 2014/2015 Lycée Jean Vilar Spé math terminale ES 2014/2015 1 / 51 Systèmes linéaires Deux exemples de systèmes linéaires à deux équations et deux

Plus en détail

Cours Diagonalisation

Cours Diagonalisation Cours Diagonalisation par Pierre Veuillez 1 Objectif Pour une matrice A donnée, déterminer une matrice D diagonale et une matrice P inversible telle que A = P D P 1. Interprètation : Quelle relation reconnaît-on?

Plus en détail

Formulaire de maths Algèbre linéaire et multilinéaire

Formulaire de maths Algèbre linéaire et multilinéaire Formulaire de maths Algèbre linéaire et multilinéaire Nom Formule Espaces vectoriels Famille libre On dit que la famille est libre si Famille liée On dit que la famille est liée si Théorème de la base

Plus en détail

Econométrie Appliquée Séries Temporelles

Econométrie Appliquée Séries Temporelles Chapitre 1. UFR Economie Appliquée. Cours de C. Hurlin 1 U.F.R. Economie Appliquée Maîtrise d Economie Appliquée Cours de Tronc Commun Econométrie Appliquée Séries Temporelles Christophe HURLIN Chapitre

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : économique et commerciale Option : Scientifique (ECS) Discipline : Mathématiques- Informatique Seconde année Ministère de l enseignement

Plus en détail

Cours 3: Inversion des matrices dans la pratique...

Cours 3: Inversion des matrices dans la pratique... Cours 3: Inversion des matrices dans la pratique... Laboratoire de Mathématiques de Toulouse Université Paul Sabatier-IUT GEA Ponsan Module complémentaire de maths, année 2012 1 Rappel de l épisode précédent

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires CHAPITRE I. SIMULATION DE VARIABLES ALÉATOIRES 25 Chapitre I Simulation de variables aléatoires La simulation informatique de variables aléatoires, aussi complexes soient elles, repose sur la simulation

Plus en détail

INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV

INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV Séminaire MTDE 22 mai 23 INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV Vincent Mazet CRAN CNRS UMR 739, Université Henri Poincaré, 5456 Vandœuvre-lès-Nancy Cedex 1 juillet 23 Sommaire

Plus en détail

Analyse de données et méthodes numériques

Analyse de données et méthodes numériques Analyse de données et méthodes numériques Analyse de données: Que faire avec un résultat? Comment le décrire? Comment l analyser? Quels sont les «modèles» mathématiques associés? Analyse de données et

Plus en détail

HENRI ROUDIER ALGEBRE LINEAIRE COURS & EXERCICES CAPES &AGRÉGATION INTERNES & EXTERNES DEUXIÈME ÉDITION REVUE &.AUGMENTÉE VUIBERT

HENRI ROUDIER ALGEBRE LINEAIRE COURS & EXERCICES CAPES &AGRÉGATION INTERNES & EXTERNES DEUXIÈME ÉDITION REVUE &.AUGMENTÉE VUIBERT HENRI ROUDIER ALGEBRE LINEAIRE COURS & EXERCICES CAPES &AGRÉGATION INTERNES & EXTERNES DEUXIÈME ÉDITION REVUE &.AUGMENTÉE VUIBERT Table analytique des matières 1. La structure d'espace vectoriel 1. Espaces

Plus en détail

Algèbre linéaire. 1 Espaces vectoriels R n. Jean-Paul Davalan. 1.1 Les ensembles R n. 1.2 Addition dans R n. (R n, +) désigne R n muni de l addition.

Algèbre linéaire. 1 Espaces vectoriels R n. Jean-Paul Davalan. 1.1 Les ensembles R n. 1.2 Addition dans R n. (R n, +) désigne R n muni de l addition. Algèbre linéaire. Jean-Paul Davalan 2001 1 Espaces vectoriels R n. 1.1 Les ensembles R n. Définition 1.1 R 2 est l ensemble des couples (x, y) de deux nombres réels x et y. D une manière générale, un entier

Plus en détail

Équation de Langevin avec petites perturbations browniennes ou

Équation de Langevin avec petites perturbations browniennes ou Équation de Langevin avec petites perturbations browniennes ou alpha-stables Richard Eon sous la direction de Mihai Gradinaru Institut de Recherche Mathématique de Rennes Journées de probabilités 215,

Plus en détail

Méthodes de Monte-Carlo Simulation de grandeurs aléatoires

Méthodes de Monte-Carlo Simulation de grandeurs aléatoires Méthodes de Monte-Carlo Simulation de grandeurs aléatoires Master Modélisation et Simulation / ENSTA TD 1 2012-2013 Les méthodes dites de Monte-Carlo consistent en des simulations expérimentales de problèmes

Plus en détail

Mth2302B - Intra Été 2011

Mth2302B - Intra Été 2011 École Polytechnique de Montréal page 1 Contrôle périodique Été 2011--------------------------------Corrigé--------------------------------------T.Hammouche Question 1 (12 points) Mth2302B - Intra Été 2011

Plus en détail

Applications linéaires

Applications linéaires Bibliothèque d exercices Énoncés L1 Feuille n 18 Applications linéaires 1 Définition Exercice 1 Déterminer si les applications f i suivantes (de E i dans F i ) sont linéaires : f 1 : (x, y) R (x + y, x

Plus en détail

Loi normale ou loi de Laplace-Gauss

Loi normale ou loi de Laplace-Gauss LivreSansTitre1.book Page 44 Mardi, 22. juin 2010 10:40 10 Loi normale ou loi de Laplace-Gauss I. Définition de la loi normale II. Tables de la loi normale centrée réduite S il y avait une seule loi de

Plus en détail

Introduction à la simulation de Monte Carlo

Introduction à la simulation de Monte Carlo Introduction à la simulation de 6-601-09 Simulation Geneviève Gauthier HEC Montréal e 1 d une I Soit X 1, X,..., X n des variables aléatoires indépendantes et identiquement distribuées. Elles sont obtenues

Plus en détail

TD1 Signaux, énergie et puissance, signaux aléatoires

TD1 Signaux, énergie et puissance, signaux aléatoires TD1 Signaux, énergie et puissance, signaux aléatoires I ) Ecrire l'expression analytique des signaux représentés sur les figures suivantes à l'aide de signaux particuliers. Dans le cas du signal y(t) trouver

Plus en détail

Rappels d Algèbre Linéaire de P.C.S.I

Rappels d Algèbre Linéaire de P.C.S.I Rappels d Algèbre Linéaire de PCSI Table des matières 1 Structure d espace vectoriel sur IK 3 11 Définition et règles de calcul 3 12 Exemples de référence 3 13 Espace vectoriel produit 4 14 Sous-espaces

Plus en détail

Examen de l UE LM125 Janvier 2007 Corrigé

Examen de l UE LM125 Janvier 2007 Corrigé Université Pierre et Marie Curie Licence Sciences et Technologies MIME L énoncé est repris sur fond mauve. En prune : des commentaires. Examen de l UE LM15 Janvier 007 Corrigé Commentaires généraux barème

Plus en détail

Modélisation coalescente pour la détection précoce d un cancer

Modélisation coalescente pour la détection précoce d un cancer Modélisation coalescente pour la détection précoce d un cancer Mathieu Emily 27 Novembre 2007 Bioinformatics Research Center - Université d Aarhus Danemark Mathieu Emily Coalescence et cancer 1 Introduction

Plus en détail

Master Modélisation Statistique M2 Finance - chapitre 1. Gestion optimale de portefeuille, l approche de Markowitz

Master Modélisation Statistique M2 Finance - chapitre 1. Gestion optimale de portefeuille, l approche de Markowitz Master Modélisation Statistique M2 Finance - chapitre 1 Gestion optimale de portefeuille, l approche de Markowitz Clément Dombry, Laboratoire de Mathématiques de Besançon, Université de Franche-Comté.

Plus en détail

Modèlisation statistique d un championnat de football. Extension au tournoi de fighting

Modèlisation statistique d un championnat de football. Extension au tournoi de fighting Modèlisation statistique d un championnat de football. Extension au tournoi de fighting Eric Parent, Edouard Kolf le 20 décembre 2012, AppliBUGS, Paris Contents 1 Exemple du championnat de football 2 3

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Correction du TP5. ECE 2 - Informatique Mme Marcelin - Lycée Clémenceau- 2015\2016 Correction du TP 2. Exercice 1.

Correction du TP5. ECE 2 - Informatique Mme Marcelin - Lycée Clémenceau- 2015\2016 Correction du TP 2. Exercice 1. Correction du TP5 Exercice 1. 1. A priori le poids dépend de la taille donc la variable explicative est X et la variable à expliquer est Y. 2. -->// série statistique des tailles: -->x=[161 170 152 181

Plus en détail

Probabilités 5. Simulation de variables aléatoires

Probabilités 5. Simulation de variables aléatoires Probabilités 5. Simulation de variables aléatoires Céline Lacaux École des Mines de Nancy IECL 27 avril 2015 1 / 25 Plan 1 Méthodes de Monte-Carlo 2 3 4 2 / 25 Estimation d intégrales Fiabilité d un système

Plus en détail

COUPLES DE VARIABLES ALÉATOIRES

COUPLES DE VARIABLES ALÉATOIRES CHAPITRE 13 COUPLES DE VARIABLES ALÉATOIRES Dans tout le chapitre, (Ω, P) désignera un espace probabilisé fini. 1 Couple de variables aléatoires Définition 13.1 On appelle couple de variables aléatoires

Plus en détail

Introduction à l analyse des données. Analyse des Données (1) Exemple, ville et (in)sécurité. Exemple, ville et (in)sécurité

Introduction à l analyse des données. Analyse des Données (1) Exemple, ville et (in)sécurité. Exemple, ville et (in)sécurité Introduction à l analyse des données Analyse des Données () Le but de l analyse de données est de synthétiser, structurer l information contenue dans des données multidimensionnelles Deux groupes de méthodes

Plus en détail

Problèmes de fiabilité dépendant du temps

Problèmes de fiabilité dépendant du temps Problèmes de fiabilité dépendant du temps Bruno Sudret Dépt. Matériaux et Mécanique des Composants Pourquoi la dimension temporelle? Rappel Résistance g( RS, ) = R S Sollicitation g( Rt (), St (),) t =

Plus en détail

STATISTIQUES. UE Modélisation pour la biologie

STATISTIQUES. UE Modélisation pour la biologie STATISTIQUES UE Modélisation pour la biologie 2011 Cadre Général n individus: 1, 2,..., n Y variable à expliquer : Y = (y 1, y 2,..., y n ), y i R Modèle: Y = Xθ + ε X matrice du plan d expériences θ paramètres

Plus en détail

Introduction aux modèles financiers

Introduction aux modèles financiers Notes pour le module spécifique Introduction aux modèles financiers Ecole Centrale de Lyon Option Mathématiques 1 2 Introduction Quelques références Pour comprendre les marchés financiers, avoir un apreçu

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Université René Descartes Faculté de Pharmacie - Master Professionnel Dimension Économique des Produits de Santé 14 décembre 2005

Université René Descartes Faculté de Pharmacie - Master Professionnel Dimension Économique des Produits de Santé 14 décembre 2005 Université René Descartes Faculté de Pharmacie - Master Professionnel Dimension Économique des Produits de Santé 14 décembre 2005 Prise en Compte de l Incertitude dans l Évaluation des Technologies de

Plus en détail

UNIVERSITÉ DE POITIERS

UNIVERSITÉ DE POITIERS UNIVERSITÉ DE POITIERS Faculté des Sciences Fondamentales et Appliquées Mathématiques PREMIÈRE ANNEE DE LA LICENCE DE SCIENCES ET TECHNOLOGIES UE L «algèbre linéaire» Plan du cours Exercices Enoncés des

Plus en détail

Queue de la solution stationnaire d un modèle auto-régressif d ordre 1 à coefficients markoviens.

Queue de la solution stationnaire d un modèle auto-régressif d ordre 1 à coefficients markoviens. . Queue de la solution stationnaire d un modèle auto-régressif d ordre 1 à coefficients markoviens. Benoîte de Saporta Université de Nantes Université de Nantes - 9 juin 2005 p. 1/37 Plan de l exposé 1.

Plus en détail

MPSI 3 - Cahier de vacances... MPSI 3-2004/2005

MPSI 3 - Cahier de vacances... MPSI 3-2004/2005 MPSI 3 - Cahier de vacances... MPSI 3-2004/2005 Voici une fiche contenant 100 exercices de difficulté raisonable, plutôt techniques, qui recouvrent l ensemble du programme étudié cette année. A raison

Plus en détail

Restauration d images

Restauration d images Restauration d images Plan Présentation du problème. Premières solutions naïves (moindre carrés, inverse généralisée). Méthodes de régularisation. Panorama des méthodes récentes. Problème général Un système

Plus en détail

Séance de soutien PCSI2 numéro 10 : Espaces vectoriels et applications linéaires

Séance de soutien PCSI2 numéro 10 : Espaces vectoriels et applications linéaires Séance de soutien PCSI2 numéro 10 : Espaces vectoriels et applications linéaires Tatiana Labopin-Richard Mercredi 18 mars 2015 L algèbre linéaire est une très grosse partie du programme de Maths. Il est

Plus en détail

1 Notion d espace vectoriel

1 Notion d espace vectoriel Arnaud de Saint Julien - MPSI Lycée La Merci 2014-2015 1 Résumé de cours sur les espaces vectoriels et les applications linéaires Les vecteurs du plan, les nombres réels, et les polynômes à coefficients

Plus en détail

C) Fiche : Espaces vectoriels.

C) Fiche : Espaces vectoriels. C) Fiche : Espaces vectoriels. 1) Définition d'un espace vectoriel. K= I ou est le corps des scalaires. E est un K-espace I vectoriel si et seulement si : C'est un ensemble non vide muni de deux opérations,

Plus en détail

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples, Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Matrices au lycée: de nouvelles possibilités, pour la transition secondaire-supérieur?

Matrices au lycée: de nouvelles possibilités, pour la transition secondaire-supérieur? Matrices au lycée: de nouvelles possibilités, pour la transition secondaire-supérieur? Anne Balliot, IREM de Rennes, Lycée Victor et Hélène Basch Ghislaine Gueudet, IREM de Rennes, IUFM Bretagne Colloque

Plus en détail