La corrélation : présentation et test du coefficient de corrélation de Pearson

Documents pareils
Introduction à la statistique non paramétrique

Relation entre deux variables : estimation de la corrélation linéaire

Tests paramétriques de comparaison de 2 moyennes Exercices commentés José LABARERE

Lire ; Compter ; Tester... avec R

distribution quelconque Signe 1 échantillon non Wilcoxon gaussienne distribution symétrique Student gaussienne position

Tests de comparaison de moyennes. Dr Sahar BAYAT MASTER 1 année UE «Introduction à la biostatistique»

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

Chapitre 3. Les distributions à deux variables

Cours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, LES STATISTIQUES INFERENTIELLES

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Statistiques. Rappels de cours et travaux dirigés. Master 1 Biologie et technologie du végétal. Année

Introduction aux Statistiques et à l utilisation du logiciel R

Exercices M1 SES Ana Fermin ( fermin.perso.math.cnrs.fr/ ) 14 Avril 2015

Biostatistiques : Petits effectifs

Analyse de la variance Comparaison de plusieurs moyennes

Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés

1 Définition de la non stationnarité

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke

Lecture critique d article. Bio statistiques. Dr MARC CUGGIA MCU-PH Laboratoire d informatique médicale EA-3888

Principe d un test statistique

Chapitre 6 Test de comparaison de pourcentages χ². José LABARERE

La problématique des tests. Cours V. 7 mars Comment quantifier la performance d un test? Hypothèses simples et composites

Cours de Tests paramétriques

TABLE DES MATIERES. C Exercices complémentaires 42

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Cours Fonctions de deux variables

Introduction à l approche bootstrap

MODELE A CORRECTION D ERREUR ET APPLICATIONS

Une introduction. Lionel RIOU FRANÇA. Septembre 2008

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Aide-mémoire de statistique appliquée à la biologie

T de Student Khi-deux Corrélation

VI. Tests non paramétriques sur un échantillon

Analyse de corrélation Étude des dépendances - Variables quantitatives

21 mars Simulations et Méthodes de Monte Carlo. DADI Charles-Abner. Objectifs et intérêt de ce T.E.R. Générer l'aléatoire.

Une variable binaire prédictrice (VI) et une variable binaire observée (VD) (Comparaison de pourcentages sur 2 groupes indépendants)

STATISTIQUES. UE Modélisation pour la biologie

Statistiques Descriptives à une dimension

Corrélation entre deux classements. ρ Le coefficient de rang de Spearman

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

Statistique Descriptive Élémentaire

FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc)

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

La place de SAS dans l'informatique décisionnelle

Annexe commune aux séries ES, L et S : boîtes et quantiles

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Que faire lorsqu on considère plusieurs variables en même temps?

Probabilité et Statistique pour le DEA de Biosciences. Avner Bar-Hen

FORMULAIRE DE STATISTIQUES

Probabilités III Introduction à l évaluation d options

Bases de données documentaires et distribuées Cours NFE04

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

données en connaissance et en actions?

LES DIFFERENTS TYPES DE MESURE

Exemples d application

Théorie des sondages : cours 5

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Fonctions de deux variables. Mai 2011

Étude des flux d individus et des modalités de recrutement chez Formica rufa

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

23. Interprétation clinique des mesures de l effet traitement

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

COMPARAISON DE LOGICIELS TESTANT L INDEPENDANCE DE VARIABLES BINAIRES

Le risque Idiosyncrasique

Logiciel XLSTAT version rue Damrémont PARIS

Analyses multivariées avec R Commander (via le package FactoMineR) Qu est ce que R? Introduction à R Qu est ce que R?

EVALUATION DE LA QUALITE DES SONDAGES EN LIGNE : CAS D UN SONDAGE D OPINION AU BURKINA FASO

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR

Résumé du Cours de Statistique Descriptive. Yves Tillé

L'évaluation par les pairs dans un MOOC. Quelle fiabilité et quelle légitimité? Rémi Bachelet Ecole Centrale de Lille 24 novembre 2014, Université

Degré de confiance pour les indicateurs de performance : degré de fiabilité du processus de production et écart significatif 1

UNE REPRESENTATION GRAPHIQUE DE LA LIAISON STATISTIQUE ENTRE DEUX VARIABLES ORDONNEES. Éric TÉROUANNE 1

3. Caractéristiques et fonctions d une v.a.

Statistique : Résumé de cours et méthodes

Limitations of the Playstation 3 for High Performance Cluster Computing

Introduction à l économétrie : Spécifications, formes fonctionnelles, hétéroscédasticité et variables instrumentales

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

UNE FORMATION POUR APPRENDRE À PRÉSENTER DES DONNÉES CHIFFRÉES : POUR QUI ET POURQUOI? Bénédicte Garnier & Elisabeth Morand

1 Importer et modifier des données avec R Commander

Régression linéaire. Nicolas Turenne INRA

Introduction à la Statistique Inférentielle

Les travaux doivent être remis sous forme papier.

Examen de Logiciels Statistiques

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Feuille d exercices 2 : Espaces probabilisés

1 Objectifs. Traitement statistique des données d enquête avec introduction à SPSS. Plan

Cours 9 : Plans à plusieurs facteurs

Traitement des données avec Microsoft EXCEL 2010

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Statistiques Appliquées à l Expérimentation en Sciences Humaines. Christophe Lalanne, Sébastien Georges, Christophe Pallier

Localisation des fonctions

Correction du bac blanc CFE Mercatique

Le Modèle Linéaire par l exemple :

BIOSTATISTIQUES AVANCEES PLAN. Quelques références. Master Biologie Intégrative 1 ère année

1. Vocabulaire : Introduction au tableau élémentaire

M2 IAD UE MODE Notes de cours (3)

Analyse de variance à deux facteurs (plan inter-sujets à deux facteurs) TP9

Transcription:

La corrélation : présentation et test du coefficient de corrélation de Pearson C. Bardel Septembre 26 Master 2 Neurosciences / 38

Plan du cours Introduction Mesure de la corrélation : covariance et coefficient de corrélation de Pearson Rappels sur la covariance Le coefficient de corrélation de Pearson Test sur le coefficient de corrélation de Pearson Déroulement du test Réalisation du test avec le logiciel R Test sur le coefficient de corrélation de Spearman 2 / 38

Introduction Contexte général d utilisation Étude de la relation entre 2 variables quantitatives Exemples : Taille et poids des enfants entre 5 et 6 ans Âge et fréquence cardiaque Les données n individus Pour chaque sujet : mesure des 2 variables quantitatives X et Y Pour chaque individu i, on a un couple d observations (x i, y i ) correspondant aux valeurs prises par X et Y pour l individu i Attention : les mesures ne sont pas toujours réalisées strictement sur les mêmes individus. Par exemple : Poids des nouveaux-nés et poids de leur mère avant grossesse 3 / 38

Différence entre corrélation et régression Corrélation Mesure l association entre 2 variables quantitatives jouant des rôles symétriques Graphiquement, on place indifféremment l une ou l autre variable en abscisse et en ordonnée On recherche s il existe une liaison linéaire entre les 2 variables et à la quantifier Régression Les 2 variables jouent des rôles dissymétriques étude des variations de l une (Y) en fonction de l autre (X) X = variable explicative = variable indépendante Y = variable à expliquer = variable dépendante Dans ce cours, on se focalisera sur la corrélation 4 / 38

Rappel : notion de covariance Signification intuitive La covariance mesure la variation simultanée de 2 variables Plus elle est élevée (val. abs.), + la liaison entre les variables est forte Définition mathématique Soient X et Y, 2 va quantitatives Espérances : µ X et µ Y Variances : σ 2 X et σ2 Y cov(x, Y ) = E((X µ X )(Y µ Y )) = E(XY ) E(X ) E(Y ) Propriétés cov(x, Y ) = cov(y, X ) cov(x, X ) = var(x ) X et Y indépendantes cov(x, Y ) = Attention, réciproque fausse! 5 / 38

Rappel : notion de covariance (2) Calcul de la covariance en statistiques Calcul de la covariance dans une population (description) ( n ) cov(x, Y ) = (x i m x )(y i m y ) n i= Estimation non biaisée de la covariance à partir d un échantillon de n couples de valeurs ( n ) cov(x, Y ) = (x i m x )(y i m y ) n i= 6 / 38

Rappel : notion de covariance (3) Interprétation géométrique I. (-) II. (+) A y m Y > Aire A = (x m x ) (y m Y ) m Y III. (+) IV. (-) y m Y < I. et IV. : (x m x ) (y m Y ) < II. et III. : (x m x ) (y m Y ) < La covariance est la moyenne des produits (x m x ) (y m Y ) m X x m X < x m X > 7 / 38

Rappels sur la covariance (4) Signe de la covariance Covariance négative Covariance positive Absence de correlation I. (-) II. (+) y my > I. (-) II. (+) y my > I. (-) II. (+) y my > my my my III. (+) IV. (-) y my < III. (+) IV. (-) y my < III. (+) IV. (-) y my < x mx < mx x mx > x mx < mx x mx > x mx < mx x mx > Problème La valeur de la covariance dépend des unités de X et Y 8 / 38

Rappel : notion de covariance Exemple : taille et poids de 6 enfants de 6 ans Enfant taille (cm) poids (kg) 6 7 2 9 6 3 7 7 4 22 22 5 2 22 6 28 23 Comment calculer la covariance? Covariance (description) : cov e = 4.83 cov e > : lorsque la taille, le poids et vice versa taille exprimée en mètres : cov e =.483 Dans un tableur : fonction covar ou covariance (covariance dans la population) Avec R : fonction cov (estimation de la covariance) La covariance ne permet pas d avoir une bonne idée de l intensité de la liaison entre X et Y 9 / 38

Coefficient de corrélation de Pearson Définition Estimation de ρ : r r X,Y = r X,Y = ρ X,Y = cov(x, Y ) σ X σ Y i (x i m X )(y i m y ) i (x i m x ) 2 i (y i m Y ) 2 i x iy i ( i x2 i ( i x i ) 2 n i x i n i y i ) ( i y 2 i ( i y i ) 2 n ) Calcul en utilisant un logiciel Avec un tableur : fonction coefficient.correlation Avec R commander : Statistiques Résumés Matrice de corrélations / 38

Interprétation du coefficient de corrélation Y Y r< r> X X Corrélation positive Y r= Corrélation négative Absence de corrélation X / 38

Interprétation du coefficient de corrélation Y r=.5 Y r=.9 X X Y r= Y r= X La valeur de r indique la force de la liaison linéaire : plus r est proche de, plus la liaison linéaire est forte 2 / 38 X

Propriétés du coefficient de corrélation Propriétés ρ X,Y Le coefficient de corrélation fait jouer un rôle symétrique à X et Y : ρ X,Y = ρ Y,X Le coefficient de corrélation s exprime sans unité. Il ne change pas si on change les unités ou l origine des X ou des Y Si X et Y sont indépendantes alors ρ X,Y = La réciproque est fausse, mais... Si (X,Y ) suit une loi binormale et que ρ X,Y = alors X et Y sont indépendantes 3 / 38

Quelques cas problématiques () Le coefficient de corrélation est très sensible aux points extrêmes et aux valeurs aberrantes Le point extrême masque la corrélation point extrême r=.9 Le point extrême crée une fausse corrélation extrême r=.946 point 4 / 38

Quelques cas problématiques (2) Les mélanges de population peuvent créer de fausses corrélations Ex : corrélation entre taille et longueur de cheveux. facteur de confusion : le sexe Hommes Femmes Le problème des effets de seuil liaison linéaire 5 / 38

Quelques cas problématiques (3) Importance de visualiser les données Exemple : le quartet d Anscombe (973) I II III IV x y x y x y x y. 8.4. 9.4. 7.46 8. 6.58 8. 6.95 8. 8.4 8. 6.77 8. 5.76 3. 7.58 3. 8.74 3. 2.74 8. 7.7 9. 8.8 9. 8.77 9. 7. 8. 8.84. 8.33. 9.26. 7.8 8. 8.47 4. 9.96 4. 8. 4. 8.84 8. 7.4 6. 7.24 6. 6.3 6. 6.8 8. 5.25 4. 4.26 4. 3. 4. 5.39 9. 2.5 2..84 2. 9.3 2. 8.5 8. 5.56 7. 4.82 7. 7.26 7. 6.42 8. 7.9 5. 5.68 5. 4.74 5. 5.73 8. 6.89 moy 9. 7.5 9. 7.5 9. 7.5 9. 7.5 sd 3.32 2.3 3.32 2.3 3.32 2.3 3.32 2.3 r xy.82.82.82.82 6 / 38

Quelques cas problématiques (3) Importance de visualiser les données Exemple : le quartet d Anscombe (973) dataset dataset 2 y 2 4 6 8 2 y2 2 4 6 8 2 5 5 2 5 5 2 x x2 dataset 3 dataset 4 y3 2 4 6 8 2 y4 2 4 6 8 2 5 5 2 5 5 2 7 / 38

Corrélation et causalité Attention! Une corrélation n implique pas une relation de cause à effet entre l une et l autre des variables Ex : taux de divorce et consommation de Margarine par habitant Source : http ://www.tylervigen.com/view correlation?id=73 Deux possibilités : Corrélation fortuite Existence d un facteur de confusion Exemple : consommation de glace et la vente de lunettes de soleil 8 / 38

Plan du cours Introduction Mesure de la corrélation : covariance et coefficient de corrélation de Pearson Rappels sur la covariance Le coefficient de corrélation de Pearson Test sur le coefficient de corrélation de Pearson Déroulement du test Réalisation du test avec le logiciel R Test sur le coefficient de corrélation de Spearman 9 / 38

Rappel : les étapes d un test statistique Réalisation d un test statistique. Identifier le test à réaliser : la question statistique 2. Poser les hypothèses statistiques 3. Vérifier les conditions d application du test 4. Définir la statistique du test et calculer sa valeur dans l échantillon 5. Prendre la décision statistique 6. Conclure 2 / 38

Test du coefficient de corrélation de Pearson Le test de nullité du coefficient de corrélation (= test de non corrélation ) La question statistique La question : existe-t il une liaison linéaire entre les 2 variables? Les données : échantillon de n individus pour lesquels on mesure 2 variables Les hypothèses statistiques Elles sont posées sur les valeurs théoriques H : ρ = Absence de liaison linéaire, X et Y sont indépendantes si elles suivent des loi normales H : ρ Existence d une liaison linéaire (ou test unilatéral ρ > ou ρ < ) Étude des données Calcul de l estimation du coefficient de corrélation, r 2 / 38

Test du coefficient de corrélation de Pearson (2) Conditions d application du test Indépendance des observations (X, Y) suit une loi binormale En pratique, on vérifie : Indépendance des observations Normalité de X et Y (test de Shapiro-Wilk + qqplot ou histogramme) Représentation graphique du nuage de points pour vérifier la linéarité Si les conditions ne sont pas vérifiées Test non paramétrique sur le coefficient de corrélation de Spearman 22 / 38

Test du coefficient de corrélation de Pearson (3) Statistique du test et calcul Statistique du test (R = estimateur de ρ) : R S R Student à n-2 ddl Valeur calculée de la statistique du test : t = r r 2 n 2 Prise de décision statistique et conclusion On lit la valeur seuil t seuil pour (n 2) ddl et un risque α dans la table de Student Si t t seuil Rejet de H, existence d une liaison linéaire significative entre les variables Si t < t seuil Non rejet de H, pas de liaison linéaire 23 / 38

Exemple Problème Dosage d une hormone dans le sang et le liquide amniotique (LA) chez 2 femmes enceintes LA (X) 8 5 3 4 9 2 3 3 Sang (Y) 4.8 3.9 7.3 6.7 4.4 5.4 7. 4.3 5.7 6.3 4.9 6. Représentation graphique LA 8 9 2 3 4 5 4. 4.5 5. 5.5 6. 6.5 7. Sang 24 / 38

Exemple Problème Dosage d une hormone dans le sang et le liquide amniotique (LA) chez 2 femmes enceintes LA (X) 8 5 3 4 9 2 3 3 Sang (Y) 4.8 3.9 7.3 6.7 4.4 5.4 7. 4.3 5.7 6.3 4.9 6. Existence d une liaison linéaire significative? Calcul de l estimation du coefficient de corrélation i x i iy i x i i y i n ( ) ( i x2 i ( i x i ) 2 ) n i y i 2 ( i y i ) 2 n AN : x = 39, y 2 = 387.25, x 2 = 659, xy = 8.7 y = 66.9, r =.975 24 / 38

Exemple (2) Réalisation du test Hypothèses statistiques : H : ρ = H : ρ, existence d une liaison linéaire Conditions : indépendance, binormalité de (X, Y) (cf suivant) Calcul de la valeur de la statistique du test : r =.975, n = 2 t = r r 2 n 2 t 3.9 Lecture de la valeur seuil dans la table de Student : (n-2) = ddl, risque α =.5 : t seuil = 2.228 Conclusion : t > t seuil, rejet de H Il existe une liaison linéaire statistiquement significative entre la quantité d hormone dans le sang et dans le LA au risque 5% 25 / 38

Vérification des hypothèses Hypothèse d indépendance Voir le protocole Normalité La vérification de l hypothèse de binormalité n est pas simple. Le test étant relativement robuste aux écarts à cette hypothèse, on se contente souvent de : Vérifier la normalité de X et Y (qq-plot, histogramme, test de Shapiro-Wilk) Vérifier que la relation entre X et Y est linéaire (graphique) 26 / 38

Réalisation du test avec R Calcul du coefficient de corrélation Statistiques Résumés Matrice de corrélations.975426 LA 8 9 2 3 4 5 4. 4.5 5. 5.5 6. 6.5 7. Sang Vérification des hypothèses : normalité des distributions Statistiques Résumés Test de normalité de Shapiro-Wilk Shapiro-Wilk normality test data: la W =.976, p-value =.966 Shapiro-Wilk normality test data: s W =.9535, p-value =.688 27 / 38

Réalisation du test avec R (2) Vérification des hypothèses de normalité LA 8 9 2 3 4 5 Sang 4. 4.5 5. 5.5 6. 6.5 7..5..5..5..5 norm quantiles.5..5..5..5 norm quantiles 28 / 38

Réalisation du test avec R (3) Test de non corrélation Statistiques Résumés Test de corrélation Pearson s product-moment correlation data: la and s t = 3.969, df =, p-value = 7.69e-8 alternative hypothesis: true correlation is not equal to 95 percent confidence interval:.9574.993289 sample estimates: cor.975426 Conclusion Rejet de H au risque α = 5% Il existe une liaison linéaire statistiquement significative entre la quantité d hormone dans le sang et dans le liquide amniotique au risque 5%. 29 / 38

Autres tests sur le coefficient de corrélation de Pearson Tests possibles Comparaison de ρ à une autre valeur que zéro Comparaison de 2 coefficients de corrélation Principe des tests ( ) Réaliser la transformation de Fisher : Z = 2 ln +R R Z suit approximativement une loi normale de variance n 3 3 / 38

Le coefficient de corrélation des rangs de Spearman Contexte d utilisation Conditions de binormalité non respectée Variables ordinales Utilisation d un test non paramétrique, basé sur les rangs des valeurs Définition du coefficient de corrélation de Spearman Pas d hypothèse sur les distributions Classement des valeurs x i et y i par ordre croissant Définition les rangs x i et y i de chaque couple de valeur En cas d ex-aecquo, on attribue le rang moyen r s = 6 i (x i y i )2 n(n 2 ) Estimation de l écart-type du coefficient de corrélation de Spearman rs 2 s r = n 2 3 / 38

Test sur le coefficient de Spearman Déroulement du test Hypothèses statistiques H : ρ s =, pas de corrélation H : ρs, existence d une corrélation (hypothèses unilatérales possibles corrélation positive ou négative) Conditions d application du test : pas de conditions Valeur de la variable de décision (cas n ) t = r s s r Sous H, la variable de décision T Student à (n-2) ddl Conclusion (Cas n ) Si t t α (n 2) Rejet de H, existence d une liaison linéaire significative entre les variables (n 2) Si t < t α Non rejet de H, pas de liaison linéaire Remarque : si n<, on utilise directement une table du ρ S de Spearman 32 / 38

Exemple Les données Poids de naissance de nouveaux nés et nombre de cigarettes fumées par jour par leur mère pendant les 2 premiers mois de grossesse. Pds (g) 447 5 7 72 857 23 245 224 227 2537 Nb cig 5 5 8 9 7 6 3 Calcul du r s r s = 6 i (x i y i )2 n(n 2 ) Pds (g) 2 3 4 5 6 7 8 9 Nb cig 8 3 6 7 5 9 4 2 x i y i -9-6 -2-2 -2 4 7 9 (x i y i )2 8 36 4 4 4 6 49 8 r s = 6 276 ( ) =.6727 33 / 38

Exercice (2) Déroulement du test Hypothèses statistiques H : ρs = H : ρ S Pas de conditions particulières Valeur de la variable de décision : t = Valeur seuil : t 8.5 = 2.36.6727 (.6727) 2 2 2.57 Conclusion : t > t.5 8 Rejet de H Il existe une corrélation significative entre le poids de naissance et le nombre de cigarettes fumées par la mère pendant les 2 premiers mois de grossesse. 34 / 38

p Réalisation du test en R Calcul du coefficient de corrélation de Spearman > cor(p, nb, method="spearman") -.6727273 6 8 2 22 24 2 4 6 8 2 4 nb Réalisation du test (Package stats : fonction cor.test) > cor.test(p, nb, method="spearman") Spearman s rank correlation rho data: p and nb S = 276, p-value =.3938 alternative hypothesis: true rho is not equal to sample estimates: rho -.6727273 35 / 38

Réalisation du test en R (2) Réalisation du test (Package pspearman, fonction spearman.test) > spearman.test(p, nb, approximation = "exact") Spearman s rank correlation rho data: p and nb S = 276, p-value =.3897 alternative hypothesis: true rho is not equal to sample estimates: rho -.6727273 Différence avec la fonction précédente : Meilleures approximations pour le calcul de la p-value Choix de l approximation : distribution exacte (pour n<22) : exact p =.3897 approximation AS89 : AS89 p =.3938 (cf cor.test) approximation de Student : t-distribution p =.334 36 / 38

Autre test Test sur le τ de Kendall Test non paramétrique, équivalent au ρ de Spearman Peut être calculé en R avec la fonction cor (method= kendall ) Test du τ de Kendall implémenté dans la fonction cor.test D autres packages proposent ce test, voir l aide de la fonction cor.test pour les références 37 / 38

Conclusion Résumé des principales notions à retenir Covariance : définition et interprétation Coefficient de corrélation de Pearson : Mesure l intensité et le signe de la liaison linéaire entre 2 variables quantitatives Plus r est proche de, plus la liaison linéaire est forte Ne pas confondre corrélation et causalité Compétences à acquérir Savoir tester s il existe une liaison linéaire significative Choisir entre le test de Pearson et de Spearman Réalisation du test Source : http ://xkcd.com/552/ 38 / 38