NOUVELLES MESURES DE DÉPENDANCE POUR
|
|
- Jean-Marie Lavergne
- il y a 8 ans
- Total affichages :
Transcription
1 NOUVELLES MESURES DE DÉPENDANCE POUR UNE MODÉLISATION ALPHA-STABLE. Bernard GAREL & Bernédy KODIA Institut de Mathématiques de Toulouse et INPT-ENSEEIHT Xèmmes Journées de Méthodologie Statistique de l Insee Paris, 24 mars 2009
2 Plan de la présentation 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient
3 Plan de la présentation 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient
4 Plan de la présentation 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient
5 Plan 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient
6 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
7 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
8 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
9 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
10 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
11 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
12 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
13 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
14 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
15 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
16 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
17 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
18 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
19 Les lois stables et leur caractérisation Un premier nom : Paul Lévy en Caractérisation : Les lois stables sont les seules lois limites de sommes de variables aléatoires indépendantes et identiquement distribuées. Fonction caractéristique : { } E exp iθx = exp γ α θ α [1 + iβsign(θ)w(θ, α)] + iδθ, où 0 < α 2, γ 0, 1 β 1 et δ réel. w(θ, α) Quand β = δ = 0, X est dite symétrique α-stable. Exemples de lois stables : Loi de Lévy (α = 1/2, β = 1) Loi de Cauchy (α = 1, β = 0) Loi de Gauss (α = 2)
20 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2
21 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2
22 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2
23 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2
24 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2
25 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2
26 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2
27 Les lois stables et leur caractérisation Soit 0 < α < 2. Le vecteur aléatoire X = (X 1, X 2 ) est dit stable dans R 2 si et seulement si il existe une mesure finie Γ sur le cercle unité S 2 = {s R 2 : s = 1} et un vecteur δ tels que pour tout θ R 2 : { E exp (i θ, X ) = exp θ, s α [1 + isign θ, s w( θ, s, α)] Γ(ds) S 2 +i θ, δ }. Ici θ, s désigne le produit scalaire dans R 2. La mesure Γ est appelée mesure spectrale du vecteur aléatoire α-stable X et le couple (Γ, δ) est unique. Le vecteur est symétrique si et seulement si δ = 0 et Γ est une mesure symétrique sur S 2. Dans ce cas, sa fonction caractéristique est donnée par { } E exp{i θ, X } = exp θ, s α Γ(ds). S 2
28 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...
29 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...
30 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...
31 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...
32 De Mandelbrot à nos jours : les applications Mandelbrot (1960) suggéra les lois stables comme modèles possibles des distributions de revenus et des prix spéculatifs. Dommaines d applications : Finance Télécommunication Physique, biologie, génétique...
33 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.
34 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.
35 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.
36 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.
37 Notre contexte : les mesures de dépendances Pourquoi parler de nouvelle mesure de dépendance? Les vecteurs aléatoires stables non gaussiens ne possendent pas de moment de segond ordre. Conséquence : La matrice de corrélation n est plus définie. Alternative : Définir des coefficients de dépendance basés sur des moments plus petits que 2.
38 Plan 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient
39 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2
40 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2
41 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2
42 Le paramètre d association de Press Press (1972) proposa une mesure de dépendance entre composantes d un vecteur symétrique α-stable bivarié dont la fonction caractéristique est donnée par : { E exp (i θ, X ) = exp { = exp m (θω k θ ) α/2} k=1 m k=1 ( w11 (k)θ w 12 (k)θ 1 θ 2 + w 22 (k)θ 2 2) α/2 }, où Ω k, k = 1,..., m sont des matrices symétriques positives de dimension 2 2. Le paramètre d association (a.p.) ρ est défini comme suit : m k=1 ρ = w 12(k) [( m k=1 w 11(k))( m k=1 w 22(k))]. 1/2
43 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2
44 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2
45 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2
46 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2
47 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2
48 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2
49 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2
50 Le paramètre d association généralisé de Paulauskas Paulauskas (1976) a introduit le paramètre d association généralisé, applicable à tout vecteur symétrique α-stable dans R 2. Soit (X 1, X 2 ) un vecteur SαS, 0 < α 2 et Γ sa mesure spectrale sur le cercle unité S 2. Soit (U 1, U 2 ) un vecteur aléatoire sur S 2 de distribution de probabilité Γ = Γ/Γ(S 2 ). Puisque Γ est symétrique, on a EU 1 = EU 2 = 0. Le paramètre d association généralisé de (X 1, X 2 ) est défini par : EU 1 U 2 ρ = (EU1 2. EU2 2 )1/2
51 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.
52 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.
53 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.
54 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.
55 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.
56 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.
57 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.
58 Coefficient covariation et covariation symétrique Cambanis et Miller (1981) ont introduit la covariation pour 1 < α < 2. Soit (X 1, X 2 ) un vecteur SαS réel de mesure spectrale Γ définie sur le cercle unité S 2. La covariation de X 1 sur X 2 est définie par [X 1, X 2 ] α = s 1 s <α 1> 2 Γ(ds) S 2 où a <p> = sign(a) a p. Le coefficient de covariation est donné par λ X1,X 2 = [X 1, X 2 ] α [X 2, X 2 ] α. Intérêt Garel et al. (2007) définissent le coefficient de covariation symétrique par Corr α (X 1, X 2 ) = λ X1,X 2 λ X2,X 1.
59 Plan 1 Introduction : Des lois,..., des noms 2 Quelques coefficients de dépendance 3 Coefficient de covariation symétrique signé Estimation du nouveau coefficient
60 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition
61 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition
62 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition
63 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition
64 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition
65 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition
66 Définition et propriétés Ce coefficient a été introduit par Garel et Kodia (2009). Soit (X 1, X 2 ) un vecteur aléatoire SαS avec α > 1. Le coefficient de covariation symétrique signé entre X 1 et X 2, est la quantité : 1 scov(x 1, X 2 ) = κ (X1 [X 1, X 2 ] α [X 2, X 1 ] α 2,X 2 ) X 1 α α X 2 α, Ce coefficient possède les propriétés suivantes : 1 1 scov(x 1, X 2 ) 1 et si X 1, X 2 sont indépendants, alors scov(x 1, X 2 ) = 0; 2 pour tout a 0, scov(x, ax) = 1; 3 Soient a et b deux réels non nuls, alors scov(ax 1, bx 2 ) = ± scov α (X 1, X 2 ), 4 pour α = 2, scov(x 1, X 2 ) coïncide avec le coefficient de corrélation habituel. Définition
67 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.
68 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.
69 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.
70 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.
71 Cas des vecteurs aléatoires sous-gaussiens Soient 0 < α < 2, G 1, G 2 des variables conjointement normales de moyenne nulle et A une variable aléatoire positive, indépendante de (( ) (G 1, G 2 ), telle que A S α/2 cos πα 2/α, 4 1, 0). Alors X = A 1/2 G = (A 1/2 G 1, A 1/2 G 2 ) est un vecteur aléatoire α-stable appelé sous-gaussien de vecteur gaussien sous-jacent G = (G 1, G 2 ). Fonction Proposition Soient 1 < α < 2 et X un vecteur sous gaussien de fonction caractéristique (1), alors le coefficient de covariation symétrique signé coïncide avec le gap et le paramètre d association entre les composantes de X. Dans ce cas, scov(x 1, X 2 ) = 1 la distribution de X est concentrée sur une ligne.
72 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.
73 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.
74 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.
75 Combinaisons linéaires de v.a. symétriques stables indépendantes Soient 1 < α 2, X 1 et X 2 deux variables aléatoires indépendantes telles que X k S α (γ k, 0, 0), k = 1, 2. Soit A = {a jk }, 1 j k 2, une matrice réelle. Le vecteur aléatoire Y = (Y 1, Y 2 ) = AX, dont les composantes sont des combinaisons linéaires Y j = 2 a jk X k, j = 1, 2, k=1 des X k, est α-stable. Sa fonction caractéristique est donnée par { E exp i 2 } θ j Y j = j=1 2 k=1 { E exp i ( 2 j=1 θ j a jk ) X k }.
76 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.
77 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.
78 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.
79 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.
80 Soient 1 < α 2 et Y = AX un vecteur a. α-stable t. q. γ 1 = γ 2, alors le coefficient de covariation symétrique signé est donné par : a11 a 21 α + a 12 a 22 α + a 11 a 22 (a 12 a 21 ) α 1 + a 12 a 21 (a 11 a 22 ) α scov(y 1, Y 2 ) = κ (Y1,Y 2 ) ( a 11 a 21 α + a 12 a 22 α + a 12 a 21 α + a 11 a 22 α). 1/2 Le paramètre d association est : et le gap est donné par : ρ = a 11 a 21 + a 12 a 22 [(a a2 12 )(a a2 22 )]1/2, a 11 a 21 (a11 2 ρ = + a2 21 ) α a 12 a 22 (a a2 22 ) α 2 1 [( a 11 2 (a a2 21 ) α a 12 2 (a a2 22 ) α 2 1)( a 21 2 (a a2 21 ) α a 22 2 (a a2 22 ) α 2 1)] 1. 2 Nous avons aussi scov = 1 ρ = 1 ρ = 1.
81 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.
82 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.
83 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.
84 Deux estimateurs convergents Un premier estimateur de scov(x 1, X 2 ) : ( n )( n X 1i sign(x 2i ) i=1 i=1 ŝcov(x 1, X 2 ) = κ (X1,X 2 ) [( n )( n X 1i i=1 i=1 ) 1/2 X 2i sign(x 1i ) )] 1/2 X 2i Un second estimateur de scov(x 1, X 2 ) : Précision ( n X 1i X 1 )( n I 2i ]c1,c 2 [ ( X 2i ) ŝcov SR i=1 i=1 (X 1, X 2 ) = κ (X1,X 2 ) [( n )( n I ]c1,c 2 [ ( X 1i ) i=1 i=1 X 2i X 1 ) I 1i ]c1,c 2 [ ( Y 1/2 i ), )] 1/2 I ]c1,c 2 [ ( X 2i ) où c 1 et c 2 sont des constantes arbitraires et les couples (X 11, X 21 ),..., (X 1n, X 2n ) sont des observations de (X 1, X 2 ) indépendantes.
85 Résultats de simulation : cas sous-gaussien Données α = 1.5, n=100, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR Données α = 1.5, n=500, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR
86 Résultats de simulation : cas sous-gaussien Données α = 1.5, n=100, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR Données α = 1.5, n=500, γ 1 = 10 et γ 2 = 150 scov ŝcov ŝcov SR
87 Résultats de simulation : combinaisons linéaires Données α = 1.7, n=100, γ = 10 a a a a scov ŝcov ŝcov SR Données α = 1.7, n=500, γ = 10 scov ŝcov ŝcov SR
88 Résultats de simulation : combinaisons linéaires Données α = 1.7, n=100, γ = 10 a a a a scov ŝcov ŝcov SR Données α = 1.7, n=500, γ = 10 scov ŝcov ŝcov SR
89 MERCI POUR VOTRE ATTENTION
90 Nous avons : et { tan πα w(θ, α) = 2 si α 1, ln θ si α = 1, 2 π 1 si θ > 0, sign(θ) = 0 si θ = 0, 1 si θ < 0. Retour
91 Intérêt du coefficient de covariation Soit X 1 et X 2 conjointement SαS avec 1 < α < 2, alors E(X 1 X 2 ) = λ X1,X 2 X 2 p. s. Retour
92 Suite de la définition Soit X une variable aléatoire SαS avec α > 1. La norme de covariation de X est définie par X 1 α = ([X 1, X 1 ] α ) 1/α et κ (X1,X 2 ) indique le signe de la dépendance avec : sign([x 1, X 2 ] α ) κ (X1,X 2 ) = sign([x 2, X 1 ] α ) si si [X 1,X 2 ] α X 2 α [X 1,X 2 ] α X 2 α < [X 2,X 1 ] α X 1 α [X 2,X 1 ] α X 1 α,. Retour
93 Suite de la définition Soit X une variable aléatoire SαS avec α > 1. La norme de covariation de X est définie par X 1 α = ([X 1, X 1 ] α ) 1/α et κ (X1,X 2 ) indique le signe de la dépendance avec : sign([x 1, X 2 ] α ) κ (X1,X 2 ) = sign([x 2, X 1 ] α ) si si [X 1,X 2 ] α X 2 α [X 1,X 2 ] α X 2 α < [X 2,X 1 ] α X 1 α [X 2,X 1 ] α X 1 α,. Retour
94 Suite de la définition Soit X une variable aléatoire SαS avec α > 1. La norme de covariation de X est définie par X 1 α = ([X 1, X 1 ] α ) 1/α et κ (X1,X 2 ) indique le signe de la dépendance avec : sign([x 1, X 2 ] α ) κ (X1,X 2 ) = sign([x 2, X 1 ] α ) si si [X 1,X 2 ] α X 2 α [X 1,X 2 ] α X 2 α < [X 2,X 1 ] α X 1 α [X 2,X 1 ] α X 1 α,. Retour
95 Vecteurs aléatoires sous-gaussiens La fonction caractéristique de X est donnée par : { E exp i 2 k=1 } { θ k X k = exp θ i θ j R ij α/2}, (1) i=1 j=1 où les R ij = EG i G j, i, j = 1, 2 sont les covariances du vecteur gaussien sous-jacent G. Retour
96 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour
97 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour
98 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour
99 Soit X 1 et X 2 conjointement SαS avec α > 1. Pour tout 1 p < α, on a la relation : [X 1, X 2 ] α X 2 α α = EX 1X <p 1> 2 E X 2 p, (2) En utilisant l égalité (2) dans laquelle on pose p = 1, alors scov(x 1, X 2 ) est également donné par : 1 scov(x 1, X 2 ) = κ (X1 (EX 1 sign(x 2 ))(EX 2 sign(x 1 )) 2,X 2 ) E X 1 E X 2. (3) Retour
Exercice : la frontière des portefeuilles optimaux sans actif certain
Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué
Plus en détailModélisation de séries financières par un modèle multifractal. Céline Azizieh
Modélisation de séries financières par un modèle multifractal Céline Azizieh Mémoire présenté à l Université Libre de Bruxelles en vue d obtenir le diplôme d actuaire Supervision: W. Breymann (RiskLab,
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détail1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Plus en détailFONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailTABLE DES MATIERES. C Exercices complémentaires 42
TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailAnalyse en Composantes Principales
Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées
Plus en détailSujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.
Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de
Plus en détailIntroduction à l approche bootstrap
Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?
Plus en détailCorrection de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
Plus en détailProgrammation linéaire
Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire
Plus en détailCapes 2002 - Première épreuve
Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série
Plus en détailSTATISTIQUES. UE Modélisation pour la biologie
STATISTIQUES UE Modélisation pour la biologie 2011 Cadre Général n individus: 1, 2,..., n Y variable à expliquer : Y = (y 1, y 2,..., y n ), y i R Modèle: Y = Xθ + ε X matrice du plan d expériences θ paramètres
Plus en détailCours d analyse numérique SMI-S4
ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailStructures algébriques
Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe
Plus en détailApproche modèle pour l estimation en présence de non-réponse non-ignorable en sondage
Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage Journées de Méthodologie Statistique Eric Lesage Crest-Ensai 25 janvier 2012 Introduction et contexte 2/27 1 Introduction
Plus en détailDétection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux
Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux hétérogènes Laurent Déjean Thales Airborne Systems/ENST-Bretagne Le 20 novembre 2006 Laurent Déjean Détection en
Plus en détailÉvaluation de la régression bornée
Thierry Foucart UMR 6086, Université de Poitiers, S P 2 M I, bd 3 téléport 2 BP 179, 86960 Futuroscope, Cedex FRANCE Résumé. le modèle linéaire est très fréquemment utilisé en statistique et particulièrement
Plus en détailExercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.
14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,
Plus en détailLimites finies en un point
8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailÉquation de Langevin avec petites perturbations browniennes ou
Équation de Langevin avec petites perturbations browniennes ou alpha-stables Richard Eon sous la direction de Mihai Gradinaru Institut de Recherche Mathématique de Rennes Journées de probabilités 215,
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailchargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d
Laboratoire de Mécanique et Ingénieriesnieries EA 3867 - FR TIMS / CNRS 2856 ER MPS Modélisation stochastique d un d chargement d amplitude variable à partir de mesures Application à l approche fiabiliste
Plus en détailPremière partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Plus en détailTempérature corporelle d un castor (une petite introduction aux séries temporelles)
Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailQuantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Plus en détailde calibration Master 2: Calibration de modèles: présentation et simulation d
Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe
Plus en détailTests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision
Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous
Plus en détailRupture et plasticité
Rupture et plasticité Département de Mécanique, Ecole Polytechnique, 2009 2010 Département de Mécanique, Ecole Polytechnique, 2009 2010 25 novembre 2009 1 / 44 Rupture et plasticité : plan du cours Comportements
Plus en détailChapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailaux différences est appelé équation aux différences d ordre n en forme normale.
MODÉLISATION ET SIMULATION EQUATIONS AUX DIFFÉRENCES (I/II) 1. Rappels théoriques : résolution d équations aux différences 1.1. Équations aux différences. Définition. Soit x k = x(k) X l état scalaire
Plus en détailLA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE
LA PHYSIQUE DES MATERIAUX Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE Pr. A. Belayachi Université Mohammed V Agdal Faculté des Sciences Rabat Département de Physique - L.P.M belayach@fsr.ac.ma 1 1.Le réseau
Plus en détailCCP PSI - 2010 Mathématiques 1 : un corrigé
CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P
Plus en détailMA6.06 : Mesure et Probabilités
Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................
Plus en détailTravail en collaboration avec F.Roueff M.S.Taqqu C.Tudor
Paramètre de longue mémoire d une série temporelle : le cas non linéaire Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor Notion de longue mémoire Les valeurs d une série temporelle X = (X l )
Plus en détailBACCALAURÉAT GÉNÉRAL SESSION 2012 OBLIGATOIRE MATHÉMATIQUES. Série S. Durée de l épreuve : 4 heures Coefficient : 7 ENSEIGNEMENT OBLIGATOIRE
BACCALAURÉAT GÉNÉRAL SESSION 2012 MATHÉMATIQUES Série S Durée de l épreuve : 4 heures Coefficient : 7 ENSEIGNEMENT OBLIGATOIRE Les calculatrices électroniques de poche sont autorisées, conformément à la
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailAlgorithmes pour la planification de mouvements en robotique non-holonome
Algorithmes pour la planification de mouvements en robotique non-holonome Frédéric Jean Unité de Mathématiques Appliquées ENSTA Le 02 février 2006 Outline 1 2 3 Modélisation Géométrique d un Robot Robot
Plus en détailStatistiques d ordre supérieur pour le traitement du signal
Statistiques d ordre supérieur pour le traitement du signal Jean-Louis Lacoume, Pierre-Olivier Amblard, Pierre Comon To cite this version: Jean-Louis Lacoume, Pierre-Olivier Amblard, Pierre Comon. Statistiques
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailCorrection du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Plus en détailLe théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines
Plus en détailChapitre 2. Matrices
Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce
Plus en détailPlan du cours : électricité 1
Semestre : S2 Module Physique II 1 Electricité 1 2 Optique géométrique Plan du cours : électricité 1 Partie A : Electrostatique (discipline de l étude des phénomènes liés aux distributions de charges stationnaires)
Plus en détailCalcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.
1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailTD1 Signaux, énergie et puissance, signaux aléatoires
TD1 Signaux, énergie et puissance, signaux aléatoires I ) Ecrire l'expression analytique des signaux représentés sur les figures suivantes à l'aide de signaux particuliers. Dans le cas du signal y(t) trouver
Plus en détailCorrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2
33 Corrigé Corrigé Problème Théorème de Motzkin-Taussky Partie I I-A : Le sens direct et le cas n= 2 1-a Stabilité des sous-espaces propres Soit λ une valeur propre de v et E λ (v) le sous-espace propre
Plus en détailExercice 1 Trouver l équation du plan tangent pour chaque surface ci-dessous, au point (x 0,y 0,z 0 ) donné :
Enoncés : Stephan de Bièvre Corrections : Johannes Huebschmann Exo7 Plans tangents à un graphe, différentiabilité Exercice 1 Trouver l équation du plan tangent pour chaque surface ci-dessous, au point
Plus en détailUne application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies
Une application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies Ariane Lançon (Observatoire de Strasbourg) en collaboration avec: Jean-Luc Vergely,
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailTexte Agrégation limitée par diffusion interne
Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse
Plus en détailCours de Mécanique du point matériel
Cours de Mécanique du point matériel SMPC1 Module 1 : Mécanique 1 Session : Automne 2014 Prof. M. EL BAZ Cours de Mécanique du Point matériel Chapitre 1 : Complément Mathématique SMPC1 Chapitre 1: Rappels
Plus en détailExercices Corrigés Premières notions sur les espaces vectoriels
Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3
Plus en détailAnnexe 1 Programmes des classes préparatoires aux Grandes Ecoles
Annexe 1 Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Physique, chimie et sciences de l ingénieur (PCSI) Discipline : Mathématiques Première année Classe préparatoire
Plus en détailTests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA
Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université
Plus en détailNON-LINEARITE ET RESEAUX NEURONAUX
NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailIntroduction. Mathématiques Quantiques Discrètes
Mathématiques Quantiques Discrètes Didier Robert Facultés des Sciences et Techniques Laboratoire de Mathématiques Jean Leray, Université de Nantes email: v-nantes.fr Commençons par expliquer le titre.
Plus en détailCours 02 : Problème général de la programmation linéaire
Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =
Plus en détailLE PRODUIT SCALAIRE ( En première S )
LE PRODUIT SCALAIRE ( En première S ) Dernière mise à jour : Jeudi 4 Janvier 007 Vincent OBATON, Enseignant au lycée Stendhal de Grenoble ( Année 006-007 ) 1 Table des matières 1 Grille d autoévaluation
Plus en détailFonctions de deux variables. Mai 2011
Fonctions de deux variables Dédou Mai 2011 D une à deux variables Les fonctions modèlisent de l information dépendant d un paramètre. On a aussi besoin de modéliser de l information dépendant de plusieurs
Plus en détailTESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION
TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION Bruno Saussereau Laboratoire de Mathématiques de Besançon Université de Franche-Comté Travail en commun
Plus en détailDirection des Études et Synthèses Économiques Département des Comptes Nationaux Division des Comptes Trimestriels
Etab=MK3, Timbre=G430, TimbreDansAdresse=Vrai, Version=W2000/Charte7, VersionTravail=W2000/Charte7 Direction des Études et Synthèses Économiques Département des Comptes Nationaux Division des Comptes Trimestriels
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailThéories de champ moyen et convection à grande échelle
Chapitre Théories de champ moyen et convection à grande échelle 51 Introduction Au cours de ce travail, nous avons à plusieurs reprises été confrontés au problème de la compréhension et de la modélisation
Plus en détailTP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options
Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce
Plus en détailDérivées d ordres supérieurs. Application à l étude d extrema.
Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une
Plus en détailESSEC Cours Wealth management
ESSEC Cours Wealth management Séance 9 Gestion de patrimoine : théories économiques et études empiriques François Longin 1 www.longin.fr Plan de la séance 9 Epargne et patrimoine des ménages Analyse macroéconomique
Plus en détailChapitre 3. Mesures stationnaires. et théorèmes de convergence
Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée
Plus en détailThéorie des Jeux Et ses Applications
Théorie des Jeux Et ses Applications De la Guerre Froide au Poker Clément Sire Laboratoire de Physique Théorique CNRS & Université Paul Sabatier www.lpt.ups-tlse.fr Quelques Définitions de la Théorie des
Plus en détailModèles et Méthodes de Réservation
Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E
Plus en détailINTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES
INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine
Plus en détailVision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007
Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................
Plus en détail(51) Int Cl.: H04L 29/06 (2006.01) G06F 21/55 (2013.01)
(19) TEPZZ 8 8 4_A_T (11) EP 2 838 241 A1 (12) DEMANDE DE BREVET EUROPEEN (43) Date de publication: 18.02.1 Bulletin 1/08 (1) Int Cl.: H04L 29/06 (06.01) G06F 21/ (13.01) (21) Numéro de dépôt: 141781.4
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détail1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.
Angles orientés Trigonométrie I. Préliminaires. Le radian Définition B R AB =R C O radian R A Soit C un cercle de centre O. Dire que l angle géométrique AOB a pour mesure radian signifie que la longueur
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailRelation entre deux variables : estimation de la corrélation linéaire
CHAPITRE 3 Relation entre deux variables : estimation de la corrélation linéaire Parmi les analyses statistiques descriptives, l une d entre elles est particulièrement utilisée pour mettre en évidence
Plus en détailTests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA
Plus en détailCours de mathématiques
DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................
Plus en détailLa problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites
La problématique des tests Cours V 7 mars 8 Test d hypothèses [Section 6.1] Soit un modèle statistique P θ ; θ Θ} et des hypothèses H : θ Θ H 1 : θ Θ 1 = Θ \ Θ Un test (pur) est une statistique à valeur
Plus en détailUn K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E
Exo7 Espaces vectoriels Vidéo partie 1. Espace vectoriel (début Vidéo partie 2. Espace vectoriel (fin Vidéo partie 3. Sous-espace vectoriel (début Vidéo partie 4. Sous-espace vectoriel (milieu Vidéo partie
Plus en détailFonctions de plusieurs variables et applications pour l ingénieur
Service Commun de Formation Continue Année Universitaire 2006-2007 Fonctions de plusieurs variables et applications pour l ingénieur Polycopié de cours Rédigé par Yannick Privat Bureau 321 - Institut Élie
Plus en détailNOTICE DOUBLE DIPLÔME
NOTICE DOUBLE DIPLÔME MINES ParisTech / HEC MINES ParisTech/ AgroParisTech Diplômes obtenus : Diplôme d ingénieur de l Ecole des Mines de Paris Diplôme de HEC Paris Ou Diplôme d ingénieur de l Ecole des
Plus en détailCorrigé des TD 1 à 5
Corrigé des TD 1 à 5 1 Premier Contact 1.1 Somme des n premiers entiers 1 (* Somme des n premiers entiers *) 2 program somme_entiers; n, i, somme: integer; 8 (* saisie du nombre n *) write( Saisissez un
Plus en détailLe théorème des deux fonds et la gestion indicielle
Le théorème des deux fonds et la gestion indicielle Philippe Bernard Ingénierie Economique& Financière Université Paris-Dauphine mars 2013 Les premiers fonds indiciels futent lancés aux Etats-Unis par
Plus en détailFonctions de plusieurs variables
Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les
Plus en détailNotes de cours Statistique avec le logiciel R
Notes de cours Statistique avec le logiciel R Shuyan LIU Shuyan.Liu@univ-paris1.fr http ://samm.univ-paris1.fr/shuyan-liu-enseignement Année 2013-2014 Chapitre 1 Introduction L objectif de ce cours est
Plus en détailIntroduction. Préambule. Le contexte
Préambule... INTRODUCTION... BREF HISTORIQUE DE L ACP... 4 DOMAINE D'APPLICATION... 5 INTERPRETATIONS GEOMETRIQUES... 6 a - Pour les n individus... 6 b - Pour les p variables... 7 c - Notion d éléments
Plus en détail