Biostatistiques : Petits effectifs Master Recherche Biologie et Santé P. Devos DRCI CHRU de Lille EA2694 patrick.devos@univ-lille2.fr
Plan Données Générales : Définition des statistiques Principe de l échantillonnage Principe du test statistique Tailles d échantillons Analyse descriptive / Test de Normalité. Petits échantillons : Petits / Grands échantillons. Comparaison de deux ou plusieurs échantillons. Tests non-paramétriques Mesure de l'association entre plusieurs variables.
La Statistique et les Biostatistiques La STATISTIQUE : discipline traitant du recueil (plans d expérience, sondages, ), du traitement et de l interprétation de données caractérisées par une grande variabilité. Partie des mathématiques appliquées, utilisant la théorie des probabilités. Beaucoup de domaines d applications Sondages : enquêtes d opinion Industrie : contrôle de qualité Marketing : scoring, profil de consommateurs Médecine : épidémiologie, recherche clinique.. Statistiques appliquées à la Médecine = BIOSTATISTIQUES Données spécifiques : variabilité inter et intra, données interprétées, Méthodes spécifiques : survie, courbes ROC, plans d expérience
Méthodologie statistique Employer bien sûr la "bonne" procédure statistique pendant l analyse!!! MAIS cela ne suffit pas Choisir le bon type d étude Choisir le bon plan d expérience Choisir les bons critères de jugement Définir les variables recueillies Qualité des données recueillies Avant l étude!!! Analyse statistique rigoureuse (tests, modèles, ) Bonne interprétation des résultats Fin d étude
L Échantillonnage
L inférence statistique On désire étudier une population P Principe : On tire un échantillon E de taille n issu de P On analyse les caractéristiques de E On généralise à P Attention!! E doit être un échantillon représentatif de P (même probabilité pour chaque individu de se retrouver dans E) E doit être de taille suffisamment élevée pour pouvoir extrapoler les résultats Définir très précisément la population que l on désire étudier!!
Les fluctuations d échantillonnage Quand on tire aléatoirement un échantillon, on a des fluctuations. Exemple : on s intéresse aux 10 premiers étudiants entrant dans l amphi. On comptabilise 7 femmes et 3 hommes. Peut-on en déduire que 70% des étudiants qui assisteront au cours sont des femmes? NON!!! On considère que dans la population totale, les proportions d hommes et de femmes sont les mêmes P(H)=P(F)=1/2 Soit X le nombre de femmes parmi les 10 étudiants. On peut montrer que X suit une loi binomiale de taille 10 et de paramètre 0.5 et calculer la probabilité d observer 0,1,2,,10 femmes. 0.3 0.25 0.2 0.15 0.1 0.05 0 P(X=k) 0 1 2 3 4 5 6 7 8 9 10
Les prendre en compte Comment prendre en compte les fluctuations d échantillonnage? 1) En vérifiant que l échantillon est représentatif (tests d adéquation par exemple) 2) En donnant la marge d erreur que l on commet en raisonnant sur un échantillon (Intervalles de confiance) 3) En maîtrisant les risques d erreurs (puissance dans le cas de comparaisons)
Principe du test statistique
Le test statistique Un travail de recherche est bâti pour répondre à une question Le test statistique est basé sur 3 principes généraux : Le test statistique sert à répondre à une question Le test statistique est un test d hypothèse : à la question on associe une hypothèse (H0) Le test statistique ne peut conclure de manière certaine : preuve expérimentale donc il faut prendre un risque (première espèce) Conclusion fondée sur un test statistique Principe du test statistique
Principe du test statistique Question : une pièce de monnaie est-elle pipée? Étape 1 : on cherche à prouver qu elle est pipée Étape 2 : confrontation expérimentale : on jette 50 fois la pièce. Étape 3 : test d hypothèse Si pièce non pipée : P(Face)=P(Pile)=1/2 Choix de l hypothèse à tester notée H0 : :«la pièce de monnaie n est pas pipée» Soit X : nombre de «Pile» (ou Face) Si H0 est vraie, la loi de X est connue (binomiale) P(X=k)= C p (1 p) k k N-k N
Principe du test statistique : Notion de risque Si H0 vraie, toutes les configurations sont possibles, y compris P(0P)=(0,5) 50 8.8 10-16!! 0.12 0.1 0.08 P (X=k) 0.06 0.04 0.02 0 0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50 k
Principe du test statistique : Notion de risque Il faut décider : on choisit un risque raisonnable = 5% On partage l ensemble des possibilités en 2 zones, selon le risque 5% : 18P 25P 32P 0P Compatible H0 = 95% 50P Très improbable sous H0 = 5% de chance =REJET DE H0 Limites de la zone compatible avec H0 se déterminent grâce au calcul des probabilités. Ici 18-32
Principe du test statistique : Règle de décision Zone compatible avec H0 = probabilité de 95% de se produire si H0 vraie Zone de rejet de H0 = probabilité de 5% de se produire si H0 est vraie!!! (risque) Règle de décision : on fixe a priori la règle suivante : - Si le résultat de l expérience se trouve dans la zone compatible avec H0 (exemple 22P), on ne décide rien («non significatif») - Si il se situe dans le zone «rejet de H0» on déclare H0 FAUSSE, donc on déclare H1 vraie, mais au risque 5%. - Exemple : 15P, on décide que la pièce est truquée Risque de première espèce = Probabilité de rejeter H0 à tort = 5%
Notion de Puissance d un test Décision Vérité H0 H1 Compatible H0 β Rejet de H0 = on décide H1 α 1-β α = Proba (décider H1 / H0 est vraie) = risque de première espèce β = Proba ( décider «compatible avec H0» / H1 est vraie) = risque de deuxième espèce Puissance = 1-β = Proba ( décider H1 / H1 est vraie) α = Risque d'affirmer qu'il y a une différence significative alors qu'elle n'existe pas réellement. β = Risque d'affirmer qu'il n'y a pas de différence significative alors qu'elle existe réellement. Puissance = Probabilité de détecter une différence si elle existe réellement
Notion de puissance d un test Puissance dépend de la différence mais aussi de la variabilité Puissance dépend du risque de première espèce α, mais inutile en pratique car α fixé à 5% Puissance = F(,N,DS) En pratique, on estime et DS et on déduit N
En pratique Dépend du plan d expérience : Nombre de groupes Indépendant / Apparié (patient propre témoin) Dépend du critère de jugement principal Numérique Binaire Survie Des 2 risques : α : risque de première espèce : généralement 5% β : risque de seconde espèce : inférieur à 20%
Application : Taille des échantillons Comparaison de 2 moyennes (groupes indépendants) n = 2 2( + ) = 1 α 1 β z z σ ² σ ² K ² ² Test bilatéral Test unilatéral Alpha Beta Zalpha Zbéta K 0.05 0.05 1.96 1.64 25.99 0.05 0.1 1.96 1.28 21.01 0.05 0.2 1.96 0.84 15.70 Alpha Beta Zalpha Zbéta K 0.05 0.05 1.64 1.64 21.64 0.05 0.1 1.64 1.28 17.13 0.05 0.2 1.64 0.84 12.37 (Formules approchées)
Exemple Différence attendue ( ) : 5mm de mercure Ecart-type (DS): 10 mm Risque de première espèce (α ): 5% Puissance (1-β ): 90% N 10 = 21.01* = 84 5 2 ( par groupe ) 1 0.8 Puissance 0.6 0.4 0.2 0 0 50 100 150 200 Nombre de Patients par Groupe
Application : Taille des échantillons Comparaison de 2 fréquences (groupes indépendants) n P (1 P ) + P (1 P ) P (1 P ) + P (1 P ) = ( + ) = K A A B B z z 2 A A B B 1 α 1 β ( PA PB )² ( PA PB )² Test bilatéral Test unilatéral Alpha Beta Z1 Z2 K 0.05 0.05 1.96 1.64 12.99 0.05 0.1 1.96 1.28 10.51 0.05 0.2 1.96 0.84 7.85 Alpha Beta Z1 Z2 K 0.05 0.05 1.64 1.64 10.82 0.05 0.1 1.64 1.28 8.56 0.05 0.2 1.64 0.84 6.18 (Formules approchées)
Exemple P A = 0.1, P B = 0.2 Risque de première espèce (α ): 5% Puissance (1-β ): 90% N = 10.51* 25 = 263 ( par groupe ) 1 0.9 0.8 0.7 Puissance 0.6 0.5 0.4 0.3 0.2 0.1 0 0 50 100 150 200 250 300 350 400 450 500 Effectif par Groupe
Puissance d un test et Taille d échantillon Comparaison de deux antihypertenseurs avec : : 5mm de mercure Ecart-type (DS): 10 mm Risque de première espèce (α ): 5% 1- β = 0.9 N1=N2=86 L étude a été réalisée sans calcul de puissance préalable sur 2 groupes de 30 sujets. Puissance = 1-β = 0.48!!! Ne pas confondre : Conditions d application du test et Puissance du test
Traitement statistique des données
Méthodes Statistiques : définitions générales INDIVIDU : «Objet» sur lequel un ou plusieurs caractères peuvent être observés. POPULATION : Ensemble des individus pris en considération. VARIABLE : peut être qualitative (attribut) ou quantitative (numérique). DISCRETES (Nombre limité de valeurs) QUANTITATIVES CONTINUES (prend ses valeurs dans un intervalle VARIABLES BINAIRES ( Présent / Absent ) QUALITATIVES NOMINALES (SEXE, Couleur des Yeux, CSP, ) ORDINALES = SCORE (Notion d ordre)
Les méthodes statistiques Univariée (moyenne, DS, ) Descriptive Multivariée (ACP, ) La statistique Univariée (tests, ) Inférentielle Multivariée (modèles, )
La Statistique Descriptive BUTS : Contrôle de qualité des données, descriptifs simples (moyennes, ). Synthétiser, résumer, structurer l'information contenue dans les données. Mettre en évidence des propriétés de l'échantillon. Suggérer des hypothèses. Analyses univariées : moyennes, histogramme, box-plot, fréquences, Analyses multivariées =Analyse des Données. Permet de traiter des données multidimensionnelles. Principales méthodes multivariées: Méthodes de classification : déterminer des sous-groupes homogènes Méthodes factorielles : réduire le nombre de variables par construction d'axes synthétiques (ACP, AFC, ACM,...), mais aussi sous-groupes d individus 2 classes de méthodes souvent complémentaires Cours N 2
La Statistique Inférentielle Univariée BUT : Valider ou infirmer des hypothèses a priori ou formulées après une phase exploratoire. Utilisation de tests statistiques se référant à des modèles probabilistes. EXEMPLES : Comparaison de moyennes (test T, Wilcoxon, ) ANOVA (+ + +!!!) / Modèle mixte Comparaison de fréquences (Khi², Fisher exact) Tests de lois (Shapiro-wilk, Kolmogorov-Smirnov)...
STATISTIQUE DESCRIPTIVE UNIVARIEE
Analyse descriptive univariée 3 Objectifs : Contrôle des données : Fréquences et Box-plots Calcul des statistiques descriptives : moyenne,. Présentation des résultats : Moyenne et Déviation standard ou Médiane et Quartiles Fréquence avec Intervalle de confiance
Paramètres statistiques de base Moyenne : x = 1 n n i= 1 x i Variance estimée: n 1 = n 1 s² x x i= 1 ( i ) 2 Déviation standard : racine carrée de la variance Min, Max, Médiane, Quartiles, Centiles
Le Box-Plot ( Boîte à Moustaches ) X max 0 1,5 (Q3-Q1) Q3 Médiane + II=Q3-Q1 0 : valeur comprise entre 1.5 et 3 interquartiles * : valeur supérieure à 3 interquartiles Q1 1,5 (Q3-Q1) X min
Représentations graphiques VARIABLES DISCRETES Femme 45% Homme 55% Homme Femme VARIABLES CONTINUES VARIABLES QUALITATIVES
Distribution d un paramètre (loi) Différentes formes observables D e n s i t y 0. 04 0. 02 0-2 2 6 10 14 18 22 26 30 34 38 X Modélisation de la distribution : Hypothèse de loi
Tests de Normalité -4-3 -2-1 0 1 2 3 4 Hypothèses de normalité requise pour test T, ANOVA régression, Intervalles de confiance (valeurs normales) SHAPIRO-WILK ( N< 50 ) KOLMOGOROV-SMIRNOV ( N> 50 )
Présentation des résultats Toujours rappeler la population étudiée, les patients inclus ou exclus, Préciser les méthodes statistiques utilisées Faire des tableaux de synthèse Utiliser des graphiques Existence de recommandations ( http://www.consort-statement.org/ ) Suivre scrupuleusement les guidelines si article scientifique!!!
Présentation des résultats Utilisation de la moyenne si distribution symétrique, de la médiane si distribution asymétrique 0.5 0.45 0.4 0.35 0.3 0.25 0.2 médiane -4-3 -2-1 0 1 2 3 4 0.15 0.1 moyenne 0.05 0 0 2 4 6 8 10 12 Pas de moyenne sans déviation standard Pas de médiane sans quartiles Pas de fréquence sans Intervalle de confiance
Intervalles de confiance à 95% d un paramètre numérique : si X suit une loi normale x ± 1.96 DS d une moyenne : quelque soit la loi de X, si n > 30 x ± 1.96 n DS d une fréquence si np, nq > 10 p ± 1.96 p(1 - n p)
Normalité d un paramètre
La droite de Henry Normalité : très important car condition de nombreux tests Méthode graphique qui permet de vérifier la normalité d une distribution Soit X, une variable aléatoire N(m,σ²) φ : ]-,+ [ [0,1] x φ (x) = P(X<x) Exemple : p On définit la fonction réciproque : φ -1 : [0,1] ]-,+ [ p φ -1 (p) -3-2 -1 0 1 2 3 z p z 0.01-2.326 0.025-1.96 0.05-1.64 0.5 0 0.95 1.64 0.975 1.96 0.99 2.326
En pratique 1 Ri Soit (X1,..., Xn) un échantillon issu de X, R1,..., Rn les rangs associés, Yi = φ n + 1 Si X suit une loi normale, alors les points (Xi,Yi) sont alignés Cas particulier des diagrammes P-P 2 1.5 R 2 = 0.9775 1 0.5 0 15 17 19 21 23 25 27 29 31 33-0.5-1 -1.5-2 Droite de pente 1/σ coupant l axe des abscisses en m.
Le test de Shapiro-Wilk Test implémenté dans de nombreux logiciels et utilisé pour des petits échantillons Basé sur le calcul des différences symétriques : d1 = Xn - X1 d2 = Xn-1 - X2......... dk = Xn-k+1 - Xk On obtient k=n/2 ou k=(n-1)/2 différences selon la parité de n Puis on calcule : b k n = aid, i S² = ( x ) 2 i x i= 1 i= 1 puis W = b² S ² Les a i sont des coefficients dépendants de i et n Utilisation d une table qui permet de conclure.
Exemple Xi di ai ai*di 16.3 31.0-16.3=14.7 0.5150 7.5705 16.8 19.6 27.4-16.8=10.6 0.3306 3.50436 19.8 20.6 27.0-19.6=7.4 0.2495 1.8463 21.0 22.4 25.0-19.8=5.2 0.1878 0.97656 23.0 23.4 24.4-20.6=3.8 0.1353 0.51414 23.9 24.4 23.9-21.0=2.9 0.0880 0.2552 25.0 27.0 23.4-22.4=1 0.0433 0.0433 27.4 31.0 23 k b = a d = 14.71 i= 1 n i= 1 i i ( ) 2 S² = x x = 220.77 i W = 0.9803 H0 : le paramètre suit une loi normale Lecture de la table : α = 0.05 n = 15 C(α,n) = 0.881 W > C(α,n) On ne rejette pas H0
Comparaisons de groupes
Comparaisons de groupes Dépend du type de variable : Qualitatitives : Khi² ou Fisher Exact Quantitatives Comparaison Quantitatives 2 approches: Tests paramétriques : Student par exemple Paramétrique = on fait une hypothèse sur la loi du paramètre on compare des moyennes : interprétation facile Hypothèse forte : normalité!!! Tests non paramétriques : Basé sur des rangs On compare des distributions : interprétation délicate Mais pas d hypothèse de loi mais conditions d application
Comparaisons de fréquence : le test du Khi² EXEMPLE : On veut savoir s il existe une relation de cause à effet entre un pneumococque et le décès. On dispose d un échantillon se résumant ainsi : V (vivant) D (décés) Pneumocoque G1 33 15 48 Autre G2 314 55 369 347 70 N=417 La mortalité est-elle plus élevée chez les pneumocoques? Soit H0 : Les 2 caractères sont indépendants Calcul des effectifs théoriques Tij=( Li * Cj) / N (tous supérieurs à 5) 1 degré de liberté Calcul de D² = 8,11 on rejette l indépendance
χ² d Indépendance : généralisation On souhaite savoir si deux paramètres A et B sont indépendants On construit le tableau de contingence croisant A et B Sous l hypothèse d indépendance, Calcul de : D² p k = i= 1 j= 1 Degrés de liberté : ν = (k-1) * (p-1) A 1 A 2... A j... A k B 1 O11............ O1k L1 B 2 O21............ O2k L2........................ B i......... Oij...... Li........................ B p Op1............ Opk Lp C1 C2... Cj... Ck N ( Tij Oij) Tij Tij ² Cj * Li = N Attention à Tij < 5 Utilisation de la table pour déterminer une valeur limite z Conclusion du test : si D² > z alors rejet de H0, donc il existe une liaison entre les caractères A et B
Cas particuliers : Fisher exact Test pouvant remplacer le χ² dans le cas d effectifs théoriques inférieurs à 5. Basé sur la combinatoire Valide quelque soient les effectifs théoriques Valide quelque soit le nombre de lignes et de colonnes Attention, temps de calcul prohibitif si le nombre de cases du tableau est élevé
Cas particuliers : Khi² apparié 2 Modalités 3 Modalités a c b d a b c L1 d e f L2 g h i L3 χ ( b c) ² ² = si b+c 10 χ b + c Approximation par la loi normale χ² à 1 ddl ( b c ) 1 ² ² = si b+c <10 b + c Test exact χ ² = C1 C2 C3 f + h c + g b + d * 1 1 * 2 2 * 3 3 2 2 2 b + d c + g b + d f + h c + g f + h 2* * + * + * 2 2 2 2 2 2 ( C L ) + ( C L ) + ( C L ) 2 2 2 χ² à 2 ddl Test de Mac Nemar FLEISS : Statistical methods for rates and proportions
Comparaisons de moyennes
Tests paramétriques Chaque fois que possible, utiliser des tests paramétriques car plus faciles à interpréter et utilisent l information totale (pas de perte d information) et donc a priori plus puissants. Attention : des conditions à vérifier : Normalité de la distribution (population totale ou par sous-groupe) L équilibre des groupes (même effectif dans chaque groupe) L égalité des variances (test de Fisher ou de Levene) En fonction de la compatibilité avec certaines de ces conditions, possibilité d utiliser un test paramétrique
Comparaison de 2 groupes X ~ N(m,σ)? OUI NON N1, N2 > 30? OUI Égalité des Variances? NON OUI Loi symétrique? NON OUI NON Test de Student Approximation de Satterthwaite Test de Student Wilcoxon (non-paramétrique)
Comparaison de k groupes Paramétrique : ANOVA (pas au programme) Non paramétrique : test de Kruskal-Wallis H0 : les moyennes (ANOVA) ou les distributions (KW) sont les mêmes dans les k groupes Cas 1 : on ne rejette pas H0 Pas de différence STOP Cas 2 : on rejette H0 Où sont les différences? Post-hocs Post-hocs : comparaisons multiples (par exemple, comparaison des groupes 2 à 2)
Le modèle linéaire Permet de modéliser de nombreux plans d expérience, simples ou complexes, en indépendant ou apparié, à un ou plusieurs facteurs. Hypothèse préalable de normalité sur «l erreur» (les résidus) En fait, comme tout modèle linéaire, validation a posteriori : Analyse des résidus Analyse des individus influents
Tests non-paramétriques
Définition - Impact Utilisé en général sur de petits échantillons (taille inférieure à 30 individus). Pas de statistiques en dessous de 8 par groupe Attention : les théorèmes statistiques (Th Central limite, par exemple) ne s appliquent plus Nécessité de disposer de tests spécifiques Interprétation plus compliquée : on ne compare pas des moyennes. Problème de l estimation : Dans les statistiques standard : moyenne, déviation standard Dans les modèles
Tests non-paramétriques «Distribution-free» tests : tests ne faisant aucune hypothèse a priori sur la distribution des variables analysées (pas d hypothèse de normalité). Généralement basés sur l analyse des rangs. soit (X1, X2,, Xn) n valeurs numériques d une même variable RANG(X i ) : Position de la valeur X i dans la série classée par ordre croissant -2 3 2 1 0-1 -3 4 5-4 3 8 7 6 5 4 2 9 10 1 Problèmes : On obtient une nouvelle variable Rx qui varie de 1 à n Attention aux ex-aequo (individus ayant la même valeur Xi) On «gomme» les différences Tests moins puissants
Le test de Wilcoxon ou Mann-Withney Utilisé pour comparer les distributions de 2 groupes indépendants H0 : F a (X) <> F b (X) (les fonctions de répartition sont différentes) On classe les observations par ordre croissant et on calcule la somme des rangs dans chaque groupe. On obtient une variable de décision qui suit une N(0,1) si au moins 8 individus dans chaque groupe X Si distribution identiques, alors mélange parfait entre le groupe A (ronds rouges) et le groupe B (triangles verts). Dans ce cas, les sommes des rangs sont identiques (ou proches) dans les 2 groupes
Le test de Wilcoxon Soit n et m les effectifs des groupe 1 et 2, Wx la somme des rangs du groupe A (ou B) Sous H0 : «les distributions sont identiques», on peut calculer E(Wx) et V(Wx) E( Wx) = n( n + m + 1) 2 et V ( Wx) = nm( n + m + 1) 12 Si n et m > 8, alors Z = Wx E( Wx) V ( Wx) suit une loi N(0,1) (Formules valides sans ex-aequo)
Le test de Kruskal-Wallis Utilisé pour comparer les distributions de plus de 2 groupes indépendants H0 : les distributions (fonctions de répartition) sont égales Basé sur la différence de la moyenne des rangs dans chaque groupe à la moyenne des rangs sur la population globale Si Ni 5, on obtient une variable de décision H qui suit un χ² à k-1 ddl 2 1 R (N+1) = k H i - N 2 S i= 1 ni 4 (Formule sans ex-aequo) ( N, effectif total, Ni effectif par groupe et Ri somme des rangs du groupe i )
Kruskal-Wallis : différences 2 à 2? Exemple : 3 groupes G1, G2 et G3 Test global significatif On aimerait comparer G1/G2, G2/G3 et G1/G3 : 3 tests post-hoc!!! Attention : Nécessité d une correction du risque α 2 options possibles : Option 1 : Utiliser les procédures implémentées dans certains logiciels (SAS, SPSS, ) et qui permettent une correction : Procédure de Dwass-Steel Procédure de Conover-Inman Option 2 : on effectue 3 tests de Wilcoxon au risque α/3
La méthode de Conover On transforme la variable X en variable R en calculant les rangs (en faisant attention aux ex-aequo). On réalise une ANOVA «normale» sur la variable R (en utilisant les corrections du risque a telles que Bonferroni ou Tukey) Méthode simple mais pas forcément optimale (simulations) et qui a été critiquée (préservation du risque alpha et puissance) Rank Transformations as a Bridge Between Parametric and Nonparametric Statistics, W. J. Conover and Ronald L. Iman - The American Statistician - Vol. 35, No. 3 (Aug., 1981), pp. 124-129
Quelques exemples
Exemple 1 : comparaison de 2 groupes Comparaison du BMI dans 2 groupes N1 N2 N3 N4 N5 N6 N7 N8 N9 N10 N11 N12 Gr 1 20 22 23 23 23 23 24 24 25 25 26 27 Gr 2 25 26 26 27 27 27 28 28 29 30 Question 1 : le BMI suit-il une loi normale dans cet échantillon? Test de Shapiro-Wilk : W=0.978 et p = 0.891 On ne rejette pas H0 Le BMI suit une loi normale!
Exemple 1 : comparaison de 2 groupes Utilisation d un test paramétrique : le test de Student Égalité des Variances? Test de Fisher (ou Levene) F=1.56, p=0.5155 Cas 1 : Variances égales Cas 2 : Variances inégales Test de Student sur variances poolées Test de Student avec corr Satterthwaite T = - 4.85 DF = 20 p < 0.0001 T = - 4.96 DF = 19.98 p < 0.0001
Exemple 1 : comparaison de 2 groupes Si le BMI n avait pas suivi une loi normale, alors utilisation du test de Wilcoxon. Somme des Rangs du Groupe 1 : 85.5 Somme des Rangs du Groupe 2 : 167.5 Z = 3.4582 p = 0.005 Les distributions du BMI sont statistiquement différentes dans les 2 groupes.
Exemple 2 : le test de Kruskal-Wallis 3 groupes de 10 individus Réponse cotée de 0 à 20 N1 N2 N3 N4 N5 N6 N7 N8 N9 N10 Somme Ri Gr 1 7 8 6 5 6 7 9 10 9 8 57.5 Gr 2 9 12 11 11 10 12 12 11 13 12 156.5 Gr 3 13 12 14 15 15 16 14 15 16 13 251 Test de KW : Khi² = 24.3885 DDL = 2 P < 0.0001
Kruskal-Wallis : différences 2 à 2? 2 options possibles : Option 1 : correction disponible dans le logiciel On aimerait comparer G1/G2, G2/G3 et G1/G3 : 3 tests post-hoc!!! Attention à la correction du risque α!! Option 2 : on effectue 3 tests de Wilcoxon au risque α/3 G1-G2 : p=0.00004 G2-G3 : p=0.00013 G1-G3 : p=0.00001 < 0.0166 G1#G2, G1#G3 et G2#G3
Méthode de Conover On transforme la variable en rang On réalise l ANOVA sur les rangs Si rejet de H0, comparaisons post-hoc Test global : p < 0.0001 Tests post-hocs significatifs Mêmes conclusions qu avec le test de Kruskal-Wallis
Exemple 2 : Modèle linéaire Et si la loi était normale??? Test de Shapiro-Wilk p=0.3541! La distribution suit une loi normale Utilisation du modèle linéaire Test de l effet global Vérification de l influence et des résidus Si modèle OK et effet global significatif, alors calcul des tests post-hoc
Exemple 2 : Modèle linéaire 3 2 1 Résidus aléatoires et normalement distribués Residual 0 0 5 10 15 20 25 30-1 -2 0.16 0.14 0.12-3 Obs Number 2 individus ayant une Distance de Cook (influence) supérieure à 4/n mais inférieure à 1. Vérification du modèle sans les 2 individus Cook's D 0.1 0.08 0.06 0.04 0.02 0 0 5 10 15 20 25 30 35 Obs Number Modèle paramétrique parfaitement valide!!!
1 groupe Mesures répétées
2 mesures Problématique : même paramètre X mesuré 2 fois sur le même individu : Mesure Avant / Après traitement par exemple. Plusieurs méthodes possibles Cas 1 : X suit une loi normale Test paramétrique Test T apparié Cas 2 : X ne suit pas une loi normale Tests non paramétriques Test des signes Wilcoxon apparié
Test de Student pour données appariés On suppose que le paramètre X suit une loi normale, X mesuré 2 fois : X1 et X2 H0 : m1=m2 On calcule, pour chaque individu, la différence d, puis la moyenne et la déviation standard de la différence. alors t = d σ d n suit une loi de Student à n-1 ddl
Le test des signes On dispose de n différences Soit K le nombre de différences positives (ou négatives) Sous H0 : m1=m2, il y a une chance sur 2 qu une différence soit positive On peut établir la loi de K qui suit une loi binomiale K ~ B(n,1/2)
Le test de Wilcoxon pour données appariées On dispose de n différences en valeur absolue On ordonne par ordre croissant et on calcule les rangs Soit Wx la somme des rangs des différences positives Sous H0 : les distributions sont identiques, on peut calculer E(Wx) et V(Wx) E( Wx) = n( n + 1) 4 et V ( Wx) = n( n + 1)(2n + 1) 24 Si n > 10, alors Z = Wx E( Wx) V ( Wx) suit une loi N(0,1) (Formules valides sans ex-aequo)
Exemple 10 vins notés par 2 experts Num X1 X2 D Ri 1 62 79 17 9 2 73 69-4 1 3 66 84 18 10 4 69 83 14 7 5 61 72 11 5 6 69 71 2 3 7 64 62-2 2 8 76 83 7 4 9 61 73 12 6 10 65 80 15 8 Moyenne 66.6 75.6 9 Différence de notation? 1) Normalité? OUI : D suit une loi normale 2) Utilisation du T apparié m d =9 t=3.60 σ d =7.90 ddl=9 n=10 p=0.0057 Très significatif!
Exemple Si la loi n avait pas été normale, utilisation de tests non paramétriques 1) Test des signes : K=2 différences négatives - K suit une B(10,1/2) p 2 k 10 C10 ( 0.5) 0.0547 en unilatéral, 0.109 en bilatéral NS!! k = 0 = = 2) Wilcoxon apparié : Wx=50.5 (sommes des rangs des diff >0) n( n + 1) E( Wx) = = 27.5 4 n( n + 1)(2n + 1) 10*11* 21 V ( Wx) = = = 96.25 24 24 Wx E( Wx) 50.5 27.5 Z = = = 2.3444 p=0.019 V ( Wx) 96.25?
3 mesures ou plus Problématique : même paramètre X mesuré k fois sur le même individu : Test de plusieurs traitements / Mesures répétées dans le temps. Plusieurs méthodes possibles Cas 1 : X suit une loi normale Paramétrique Modèle linéaire Cas 2 : X ne suit pas une loi normale Test non paramétriques Test de Friedman
Le test de Friedman Un échantillon de n individus, k mesures répétées On calcule le rang de chaque variable pour chaque individu Test basé sur la dispersion des rangs moyens de chaque mesure Q k 2 n k + Ri + i 1 12 1 = k( k 1) = 2 (Formule valide sans ex-aequo) Q suit une loi de Khi² à k-1 ddl
Exemple 10 souris Hormone mesurée à M0, M6, M12 Obs X1 X2 X3 1 7.7 7 5.1 2 9.2 8.3 7.9 3 5.5 4.8 5.3 4 8.8 8.1 7.7 5 8.3 7.2 5.5 6 7.9 7.5 5.3 7 7.2 7.1 4.9 8 8.5 7.3 8 9 9.4 8.4 8 10 8.9 8.2 7.9 8.14 7.39 6.56 Rangs Obs R1 R2 R3 1 3 2 1 2 3 2 1 3 3 1 2 4 3 2 1 5 3 2 1 6 3 2 1 7 3 2 1 8 3 1 2 9 3 2 1 10 3 2 1 3 1.8 1.2 Q=16.8 Suit un Khi² à 2 ddl p=0.0002245 Très significatif!! Problème des tests post-hocs : pas simple!!! Alternative : Wilcoxon appariés 2 à 2 avec correction du risque α
Associations entre paramètres
Le coefficient de Corrélation : Introduction Utilisé pour étudier la liaison (ou l indépendance) entre 2 paramètres numériques. EXEMPLES : Rapport entre la taille et le poids Rapport entre un prix de vente et une superficie Interaction entre des paramètres biologiques etc... On considère donc un couple de variables (X,Y) N couples (Xi,Yi), réalisations du couple de variables aléatoires (X,Y)
Le coefficient théorique Soit (X,Y) un couple de variables aléatoires Le coefficient de corrélation linéaire entre X et Y est défini par : COV(X,Y) E(XY)-E(X)E(Y) ρ = = 2 2 2 2 σ σ σ σ X Y X Y REMARQUES : ρ est toujours compris entre -1 et 1 Si X et Y sont indépendantes, alors E(XY)=E(X)E(Y) et donc ρ = 0 S il existe une relation fonctionnelle du type Y=aX+b entre X et Y, alors ρ = 1
Le coefficient observé On dispose d un échantillon de taille N (N>30) (X1,...,Xi,...Xn) et (Y1,...,Yi,...Yn) On définit le coefficient de corrélation de BRAVAIS-PEARSON par : 1 n (xi-x)(yi-y) n 1 n 1 2 2 2 1 n r = et 2 avec S x = (xi-x) S (yi-y) SxSy n y = 1 n 1 De même que pour le coefficient théorique : r est compris entre -1 et 1 r = 0 : pas de liaison r proche de 1 : liaison fonctionnelle ATTENTION : absence de liaison n est pas équivalent à indépendance
Du bon usage de r!!! r mesure le caractère LINEAIRE d une liaison Usage réservé à des nuages de points où les points sont répartis de part et d autre d une tendance R est très sensible aux individus extrêmes. Attention aux valeurs aberrantes. Utilité de la représentation graphique.
Le coefficient de corrélation de Spearman Soient (X1,...,Xi,...Xn) et (Y1,...,Yi,...Yn), (R1,...,Ri,...Rn) et (S1,...,Si,...Sn) les rangs associés. Le coefficient de corrélation de Spearman calculé entre (X1,...,Xi,...Xn) et (Y1,...,Yi,...Yn) est égal au coefficient de corrélation de Pearson calculé entre (R1,...,Ri,...Rn) et (S1,...,Si,...Sn). Utilisé en non paramétrique si N<30
Exemple 2 paramètres numériques mesurés chez 10 patients 140 120 100 80 Y 60 40 20 0 0 5 10 15 20 25 30 35 40 45 50 X Mesure de l association : calcul du coefficient de Spearman R=0.973 p<0.0001
Des questions??? Alain Duhamel Pôle de Santé Publique - aduhamel@univ-lille2.fr Patrick Devos Délégation à la Recherche - pdevos@univ-lille2.fr Julia Salleron Pôle de Santé Publique julia.salleron@univ-lille2.fr Possibilité de RDV le Mardi AM ou Jeudi AM (ou autre si nécessaire) Contact : Mme Brigitte Bonneau Pôle de Santé Publique 03 20 44 55 18