THESE. présentée à L ECOLE SUPERIEURE D INGENIEURS D ANNECY (ESIA) UNIVERSITE DE SAVOIE. par. Emmanuel DUCLOS. pour obtenir le

Dimension: px
Commencer à balayer dès la page:

Download "THESE. présentée à L ECOLE SUPERIEURE D INGENIEURS D ANNECY (ESIA) UNIVERSITE DE SAVOIE. par. Emmanuel DUCLOS. pour obtenir le"

Transcription

1 THESE présentée à L ECOLE SUPERIEURE D INGENIEURS D ANNECY (ESIA) UNIVERSITE DE SAVOIE par Emmanuel DUCLOS pour obtenir le DIPLÔME DE DOCTEUR DE L UNIVERSITE DE SAVOIE spécialité : Electronique - Electrotechnique - Automatique Contribution à la Maîtrise Statistique des Procédés Cas des procédés non normaux Le 27 Novembre 1997 devant le Jury composé de : Mr A. BARREAU Rapporteur Professeur à l Université de Angers Mr G. COLLIARD Examinateur Directeur de la société ODS Europe Mr A. COURTOIS Directeur de Thèse Professeur à l Université de Savoie Mr G. MOREL Examinateur Professeur à l Université de Nancy I Mr M. PILLET Co-directeur de Thèse Docteur-Agrégé de l Université de Savoie Mr G. SAPORTA Rapporteur Professeur au C.N.A.M. de Paris

2 A Joss et mes amis des Aravis

3 Remerciements Le travail présenté dans ce mémoire a été réalisé au Laboratoire de Logiciels pour la Productique d Annecy (LLP/CESALP) dirigé par Monsieur Alain HAURAT. Je tiens à lui adresser mes remerciements pour m avoir accueilli au sein de son laboratoire. Je remercie particulièrement Maurice PILLET pour le travail qu il a effectué a mes côté ainsi que pour les rapports chaleureux qu il a su entretenir. Je tiens à remercier Alain COURTOIS Professeur à l Université de Savoie pour les précieux conseils qu il m a donné au cours de ce travail. Je remercie vivement Monsieur Alain BARREAU, Professeur à l Institut des Sciences et Techniques de l Ingénieur d Angers, pour avoir accepté de rapporter sur ce travail et de participer au jury. Sa notoriété dans le domaine de la Qualité m honore particulièrement. Je suis très reconnaissant à Monsieur Gilbert SAPORTA, Professeur au Conservatoire National des Arts et Métiers de Paris, d avoir accepté d être rapporteur de ce travail. Je remercie Monsieur Gérard MOREL, Professeur à l Université de Nancy I, de me faire l honneur de participer au Jury. Je remercie vivement Monsieur Guy COLLIARD, directeur d ODS Europe, dont la motivation a été déterminante pour l élaboration de cette convention CIFRE. Je remercie également les entreprises qui m ont permis de mettre en œuvre et de tester les méthodes présentées dans ce mémoire : DAPTA, ID, SALOMON,... Je remercie Mohammed TABIZA, doctorant au LAMII, pour le temps qu il m a consacré lors de longues séances d initiation à la statistique, ainsi que Pascal ZAVAGNO pour son dévouement et ses nombreux coups de main en informatique. Je remercie enfin, tous les membres du LLP pour l ambiance chaleureuse à laquelle ils contribuent, avec une mention particulière pour Régis, Olivier, Isabelle et Gulçin qui ont partagé mon bureau.

4 Table des matières Chapitre 1 Concepts et outils statistiques de la M.S.P. Chapitre 2 La non normalité abordée par la Maîtrise Statistique des Procédés Chapitre 3 Mise en place d une carte de contrôle pour les procédés non normaux Chapitre 4 Application industrielle de la carte L Chapitre 5 Conclusion et Perspectives

5 Chapitre 1 Concepts et outils statistiques de la M.S.P. 1. La MSP, une nécessité économique L avènement de la M.S.P Classification des outils de la qualité 2 2. Concepts de la M.S.P Notion de capabilité Introduction Les indicateurs - Cp et Cpk Vers un indicateur plus synthétique - Le Cpm 6 Notion de rendement 7 Le cas unilatéral 7 Les pertes non symétriques Les cartes de contrôle Les principes de base 10 Dispersion instantanée et dispersion globale 10 Maintenir le procédé sous contrôle Carte de type Shewhart 11 Estimation par intervalle de confiance 12 Carte position 12 Carte de dispersion Autres cartes de contrôle 15 Les cartes CUSUM & EWMA 15 Cartes de contrôle multidimensionnelles 16 Cartes petite série 17 Cartes de pré-contrôle Etude de performance des cartes de contrôle Le choix d une méthode statistique Problématique de la modélisation Les modèles paramétriques Modèles non paramétriques 25 Modèle de localisation pour une observation 25 Modèle d échelle pour une observation 26 Modèle de localisation échelle pour une observation 26 Modèle de localisation échelle pour un échantillon Méthodes non paramétriques Qualité des méthodes non paramétriques 27

6 3.2 Performances d un estimateur Efficacité d un estimateur 27 Estimation ponctuelle 27 L erreur quadratique moyenne 28 L efficacité relative 28 La borne de Frechet 29 L optimalité Robustesse d un estimateur Orientation des travaux Les principes de base de la M.S.P. et leurs limites Orientation de nos travaux 31

7 Chapitre 2 La non normalité abordée par la Maîtrise Statistique des Procédés 1. Le mythe de la loi normale Justification de la normalité Procédés non normaux Introduction Les procédés multigénérateurs Les défauts de forme Critères de position Répercussions de la non normalité sur les méthodes de la M.S.P Incidence sur les indicateurs de capabilité Déterminer les limites des cartes de contrôle Incidence sur le choix de l estimateur La capabilité des procédés non Normaux Les indicateurs fondés sur des distributions théoriques Les critères de forme La loi de Rayleigh La loi Log-normale Limite de ces méthodes Indicateurs de capabilité fondés sur des familles de distributions La famille des lois de Burr 17 Identification de la loi 18 Construction des indicateurs de capabilité 18 Conclusion La famille des lois de Pearson La famille des lois de Johnson 21 Présentation des courbes de Johnson 22 Choix de la famille de courbes 22 Calcul de la dispersion et des indicateurs de capabilité Critique des méthodes Approches non paramétriques Méthodes bootstrap 24 La méthode de calcul 25 Le Bootstrap standard ou Naïf 25 Bootstrap par les p-quantiles 26 Bootstrap à biais corrigé par les p-quantiles. 26 Résultats 27

8 3. Les cartes de contrôle Méthodes fondées sur une famille de lois Construction d une carte à partir des lois de Burr 28 La distribution de BURR 29 Détermination des paramètres de la loi de Burr 30 Développement de la carte de contrôle non symétrique 30 Conclusion Cas des populations stratifiées Méthodes d'échantillonnage 32 Définition des strates 32 Répartition optimum de l échantillon entre les strates 33 Estimation de la moyenne de la population 34 Variance de l estimateur de la moyenne 34 Exemple d application à un procédé mutigénérateur 35 Aspect pratiques Cartes de contrôle pour les populations stratifiées 36 Conclusion Une approche non paramétrique L estimateur de Hodges Lehmann 39 Présentation de l estimateur de Hodges-Lehmann 39 Les limites de contrôle 40 Les performances de la carte de contrôle de Hodges-Lehmann 40 Comparaison entre la carte de Shewhart et la carte de Hodges-Lehmann 41 Critique des résultats Calcul des limites à partir des p-quantiles empiriques d un échantillon ordonné 43 Analyse de la période opérationnelle 44 Quelques restrictions sur la méthode : Synthèse Les indicateurs de capabilité Indicateurs de capabilité pour les procédés non normaux Réflexion sur les indicateurs 46 Dispersion à 6s 46 Dispersion sur 99,73% de la population 47 Conclusion Les cartes de contrôle Conclusion 51

9 Chapitre 3 Mise en place d une carte de contrôle pour les procédés non normaux 1. Introduction 1 2. Statistiques d ordre et L-estimateurs Introduction aux statistiques d ordre Les statistiques d ordre Lois de probabilité associées à une statistique d ordre Moments des statistiques d ordre Les L-statistiques Loi asymptotique des L-statistiques Robustesse des L-statistiques 7 3. Proposition d un autre estimateur pour les cartes de contrôle Choix de l estimateur Le L-estimateur des moindres carrés Présentation Estimation par les moindres carrés Cas particulier des distributions symétriques Etude qualitative du L-estimateur 12 Calcul du L-estimateur par la méthode de Lloyd 12 Calcul du L-estimateur par la méthode de Bovik 14 Variance asymptotique du milieu Etude de la P.OM Généralisation au cas non symétrique Choix du paramètre de localisation 18 Cas d une fonction perte symétrique 18 Cas d une fonction perte non symétrique Choix du paramètre de dispersion Exemple d application d un L-estimateur à une loi non normale. 21 Caractéristiques de la population 21 Etude de variance 22 Distribution des estimateurs Mise en oeuvre de la carte L Construction du L-estimateur Démarrage d une carte L Les procédés à évolution lente Les procédés à évolution rapide et les petites séries. 28 Les méthodes bootstrap 28 Application à un échantillon ordonné 28 Pré-requis à l utilisation de la méthode bootstrap 30 Exemple d application 30

10 4.3 Calcul des limites de contrôle Problématique Intervalle de confiance pour un paramètre de localisation 32 Intervalle de confiance pour un p-quantile 33 Intervalle de confiance «universel» 33 Limites traditionnelles des cartes de contrôle Choix des limites de contrôle 34 Tolérance aux valeurs extrêmes Intervalle de confiance pour le paramètre d échelle Incidence sur les règles de pilotage Procédé sous contrôle Procédé hors contrôle Tendance Supérieure ou Inférieure à la cible Tendance Croissante ou Décroissante Point proche d une limite de contrôle Synthèse des règles de pilotage Sensibilité de la carte L Sensibilité à un décentrage 40 Cas d une non normalité très marquée 40 Cas d une faible non normalité 43 Remarque Sensibilité à une déformation de la population 44 Cadre de notre étude 44 Résultats 47 Conclusion Le cas particulier des défauts de forme 50 Choix des paramètres à estimer 50 Variance du L-estimateur dans le cas des défauts de forme 51 Conclusion Extensions de la carte L La carte CUSUM L 53 Principe de la carte CUSUM-L 53 Exemple d application 54 P.O.M. de la carte CUSUM-L 55 Conclusion Conclusions et perspectives 57 Une approche généraliste 57 Avantages de la carte L 57 Mise en œuvre 58 Les limites de la carte L 58 Perspectives 58

11 Chapitre 4 Application industrielle de la carte L 1. Pré-requis à l application d une carte L Les procédés étudiés La méthode d échantillonnage Exemple Les besoins informatiques Nécessité d un outil informatisé Présentation de la maquette informatique 6 2. Exemples d application La plasturgie Etude d une presse à injecter 8 empreintes Etude d une presse à injecter 4 empreintes L industrie du décolletage Etude d un tour multibroches 6 broches Conclusion 23

12 Introduction La mondialisation de l'économie suscite aujourd'hui une concurrence importante entre les entreprises. La recherche de la qualité est devenue un point-clé de la compétition du fait de l'importance de l'offre par rapport à la demande. Ainsi, l'obtention de la qualité des services et des produits passe le plus souvent par la mise en place d un système d assurance qualité et par l'utilisation des outils de la qualité tant au niveau de la conception que de la réalisation des produits. La Maîtrise Statistique des Procédés, qui s'inscrit dans une stratégie de prévention et dont l objectif est d'améliorer la qualité d'une production, a donc connu un fort développement dans l'industrie européenne ces dix dernières années. Cette utilisation intensive et la diversité des applications ont contribué à mettre en évidence des cas où les hypothèses statistiques sur lesquelles reposent les outils de la M.S.P. ne sont pas valables. Parmi ces cas, la non normalité de la distribution des observations est fréquemment rencontrée par les industriels. L objectif de notre travail a été dans un premier temps d étudier l incidence de la non normalité sur les performances des outils de la M.S.P. et la validité des solutions proposées. Nous avons ensuite présenté une nouvelle approche pour la construction de cartes de contrôle dans le cas d une population non normale. La non normalité de la distribution des observations est selon Shewhart significative d'un processus qui n'est pas "sous contrôle". Cette non normalité peut néanmoins être acceptable pour un industriel et nous montrerons dans notre exposé qu'il est possible de tirer parti de la composante déterministe du signal pour améliorer l'efficacité des cartes de contrôle. Après avoir présenté les concepts de la M.S.P, et certains de leurs développements récents, nous rappellerons quelques notions importantes de la théorie de l estimation. Nous aborderons en effet dans notre exposé le problème des estimations s'appuyant sur un modèle statistique non paramétrique. Nous étudierons ensuite les différents cas de non normalité rencontrés dans le cadre d applications industrielles et certaines des méthodes proposées pour estimer les indicateurs de capabilité. Nous discuterons également des performances de cartes de contrôle dédiées aux procédés non normaux et de l intérêt pratique des méthodes employées. Pour améliorer les performances des cartes de contrôle dans le cas de procédés non normaux, nous proposerons l utilisation d un estimateur non paramétrique qui a des propriétés intéressantes en terme de variance pour un large ensemble de lois. Nous mettrons en évidence les performances de ces nouvelles cartes de contrôle (la carte L) et présenterons plusieurs méthodes pour sa mise en œuvre dans un contexte industriel. Ces études seront validées par des exemples d application en milieu industriel.

13 Chapitre I Chapitre I Concepts et outils statistiques de la MSP La MSP, une nécessité économique C est en 1929 que Shewhart a présenté sa célèbre «Control Chart», ouvrant ainsi la voie à une nouvelle discipline qu est la M.S.P. Tout d abord oubliée, ce n est que dans les années 60 que Deming a su insuffler un regain d intérêt à cette technique. En effet, les japonais avaient déjà compris l enjeu que représentait la qualité au lendemain de la deuxième guerre mondiale. Le passage d une économie de production, durant les 30 glorieuses, à une économie de marché après la crise de 73 poussa l industrie européenne à subir de fortes mutations et c est seulement dans les années 80 que la qualité s imposa comme une évidence en Europe. La M.S.P. sous ses différentes formes constitue aujourd hui le fer de lance d une stratégie de prévention. La M.S.P. n est pas à elle seule synonyme de qualité, on la conjugue avec d autres outils tels que l AMDEC, les plans d expérience, les techniques de régression, le QFD ainsi que les 7 outils de la qualité pour obtenir un ensemble cohérent, capable de soutenir le système qualité.

14 L avènement de la M.S.P. L industrie japonaise utilise de façon intensive les outils statistiques depuis plus d une quarantaine d années. L évolution des méthodes de production et du niveau de qualité souhaité est à l origine de la prise de conscience des bénéfices importants qu il était possible de réaliser grâce aux statistiques.

15 Au cours de l histoire, le contrôle qualité s est d abord orienté sur le produit fini. Ce contrôle était réalisé soit par un contrôle à 100% soit par un contrôle statistique alors qu aucune de ces deux méthodes ne permet d obtenir 100% de produits bons. Les plans de contrôle nécessitent, en effet, des prélèvements importants pour ne garantir qu un niveau assez médiocre de produits non conformes, alors que les niveaux de qualité requis sont souvent de l ordre de quelques pièces par millions (ppm). D autre part, les cadences de production ayant considérablement augmentées, il devient impossible de procéder à du contrôle 100%. Ce type de contrôle ne donne d ailleurs que des résultats médiocres lorsqu il est réalisé par l homme, du fait de son caractère répétitif. Enfin, le contrôle final, qu il soit statistique ou à 100%, est très critiquable puisqu il mobilise du personnel qui n apporte aucune valeur ajoutée au produit. Il garantit plus ou moins un niveau de qualité pour le client mais n empêche pas la fabrication de produits non conformes qui finissent par s avérer très coûteux pour les entreprises. Ces constats ont donc motivé les entreprises à évoluer vers un contrôle, plus réactif, en amont du produit fini. Il s agit de l auto-contrôle. Classification des outils de la qualité Pour aborder la démarche de la qualité totale, celle-ci doit s appliquer au niveau le plus élevé de l entreprise. C est par l application simultanée des outils et méthodes de la qualité que les industriels performants arrivent à placer rapidement sur le marché des produits compétitifs. La M.S.P. que nous aborderons en détail dans ce mémoire n est qu un maillon de la chaîne de la qualité, que l on applique tout au long du processus de création et de fabrication d un produit. Le tableau (Figure 1 ) présente le degré d utilité de chacun de ces outils pour les différentes étapes de définition du processus de fabrication et de conception du produit. On remarque en particulier que la M.S.P. est l élément terminal de cette longue chaîne de spécifications et qu elle est le seul outil capable d assurer la qualité du produit au niveau de l outil de production.

16 Phases de développement Définition PLAN D EXPERIENCES QFD AMDEC PRODUIT AMDEC PROCEDE MSP du produit L J Définition des caractéristiques J J Validation du produit J J Définition du processus J L Validation du processus J J K Définition des spécifications J J K J Suivi et pilotage en production J Utilisation Majeure L Utilisation Mineure (d après Pil 93 1 ) Figure 1 1 PILLET M. Contribution à la Maîtrise Statistique des Procédés - Cas particulier des petites séries - Thèse en Sciences de L ingénieur - Univ. Savoie -1993

17 Concepts de la M.S.P La naissance de la M.S.P. remonte à la fin des années 20 par les célèbres travaux de Shewhart [She 32] 2 où ce dernier propose de déceler les causes de non qualité d un produit à partir de tests statistiques sous forme graphique ; la carte de contrôle est née. Dans les décennies qui ont suivi, la M.S.P. s est enrichie d outils modernes répondant à de nouvelles attentes des industriels. Parmi les applications de la M.S.P, nous nous limiterons à l étude des outils dédiés aux critères mesurables. Ces outils, aussi différents soient ils, s appuient sur deux concepts essentiels de la M.S.P : L analyse de capabilité Le pilotage par carte de contrôle Bien que les concepts de capabilité et de carte de contrôle n aient pas été introduits en même temps, ils sont très étroitement liés. Une étude de capabilité permet de définir si le procédé de fabrication est apte à fournir un produit avec le niveau de qualité requis. Les indices de capabilité consistent en effet à comparer la qualité d une production sur une période donnée, par rapport à un objectif donné. Tandis que les cartes de contrôle permettent de piloter un procédé, afin de maintenir et d améliorer sa capabilité. Notion de capabilité Introduction On définit la capabilité d un moyen de production comme étant une quantification de la performance réelle du procédé par rapport à la performance souhaitée. La traduction en langage mathématique de cette définition donne lieu, encore à l heure actuelle, à beaucoup de discussions. Deux questions se posent en effet, à savoir : Quelle est la traduction de la performance souhaitée? Comment mesurer la performance réelle? Si tout le monde est à peu près d accord pour prendre l intervalle de tolérance comme référentiel de la performance, le calcul de la performance réelle suscite encore quelques interrogations lorsque l on s intéresse aux procédés non normaux. Notion de capabilité selon Serre. 2 SHEWHART Economic Control of Quality of Manufactured Products -Van Nostrand Co. Inc Princeton

18 Ce problème sera largement abordé dans le chapitre suivant, c est pourquoi nous ne nous y attarderons pas plus longtemps. Deux générations d indicateurs de capabilité ont ainsi vu le jour : Les indicateurs de première génération qui s appuient sur un calcul de la dispersion des mesures. Les indicateurs de deuxième génération, qui se basent sur la fonction perte introduite par Taguchi. Les indicateurs - Cp et Cpk Il n est plus besoin de vanter les mérites des indicateurs de capabilité Cp et Cpk. Ils sont déjà largement utilisés dans l industrie pour définir la qualité d un produit livré au client. Rappelons les formules de ces indicateurs (Eq 0). On note m et s la moyenne et la dispersion de la population, IT est l intervalle de tolérance, TS et TI sont respectivement les Tolérances Supérieure et Inférieure. Cp= IT 6 s Cpk=Min TS m, m TI 3 s Eq 0 Ces indicateurs de capabilité sont indissociables si l on souhaite formaliser correctement le niveau de qualité d une production. Cependant de nombreuses relations client fournisseur s appuient uniquement sur le Cpk, pour la simple raison que cet indicateur intègre à la fois une notion de centrage et de dispersion. On peut montrer au travers d un exemple qu un Cpk seul, ne permet pas de rendre compte de la qualité d un produit livré (Figure 2). TI 8 s TS TI 16 s TS 4 s 6 s 6 s Figure 2 On constate dans ces deux cas que le Cpk est de 1,33 alors que la qualité de ces produits est fondamentalement différente. Dans le 1 er cas le Cp est de 1,33 alors qu il est de 2,67 dans le second cas, ce qui peut conduire à la conclusion que la production 2 est de meilleure qualité. Or nous verrons dans le paragraphe suivant que c est exactement l inverse.

19 L utilisation du Cp et du Cpk ne permet donc pas une interprétation aisée de la qualité d une production. Il est encore plus difficile de comparer deux productions lorsque leurs Cp et Cpk sont différents. Le besoin d un indicateur de capabilité plus synthétique se fait donc ressentir. Vers un indicateur plus synthétique - Le Cpm Le Cpm a été introduit par Hsiang T.C. et Taguchi G. [Hsi 85] 3 bien après le Cp et le Cpk. Cet indicateur a la particularité de prendre en compte à la fois la dispersion et le centrage de la production. Son avantage est donc de fournir une indication précise sur la qualité de la production au travers d une seule valeur. Le principe du Cpm repose sur la considération suivante : Le principal critère utilisé pour juger si un produit est de qualité ou ne l est pas, est de vérifier si les critères qui le caractérisent sont conformes aux spécifications. En tout état de cause, un produit qui est juste à l extérieur des tolérances sera rejeté alors qu un produit qui est juste à l intérieur de ces tolérances est jugé satisfaisant alors que la qualité intrinsèque de ces deux produits est peu différente (Figure 3). IT Cible Produit 1 Produit 2 Figure 3 Taguchi considère au contraire que tout écart d un critère par rapport à la valeur cible est dommageable pour la qualité du produit. Il propose donc d évaluer la «non qualité» d une production en calculant un écart quadratique moyen par rapport à la cible, cette procédure est plus connue sous le nom de «fonction perte de Taguchi». La perte engendrée par une valeur individuelle est donc évaluée par L=K X Cible 2. Dans le cas d un échantillon de moyenne m et d écart type s la perte moyenne par pièce est donnée par la relation (Eq 0) : L=K s 2 m Cible 2 Eq 0 3 HSIANG T. C. TAGUCHI G. A tutorial on Quality Control and assurance - The Taguchi Methods ASA - Annual Meeting Las Vegas

20 Le Cpm est alors défini par (Eq 0) : Cpm= IT 6 s 2 m Cible 2 Eq 0 Si on se reporte à l exemple énoncé au, on constate que le Cpm pénalise énormément le décentrage d un procédé puisque dans le premier cas Cpm= 1,33 alors que dans le second cas, Cpm= 0,64. Cette différence s explique par un mauvais rendement de réglage dans le cas N 2 ou le Cp est très bon mais le centrage du procédé laisse à désirer. Notion de rendement Une particularité intéressante du Cpm est d intégrer une notion de rendement de réglage du procédé. En effet, on constate que le Cpm est égal au Cp lorsque le procédé est parfaitement réglé : c est-à-dire lorsque Cp = Cpk. Plus le réglage se détériore (le Cpk s écarte du Cp), plus le Cpm tend vers Cp Cpk Cpm k Ainsi le Cpm s avère beaucoup plus sensible au décentrage que le Cpk. On trouve par exemple un Cpm de 1.33 pour un décentrage de k=1.11s alors que Cpk=1.33 pour un décentrage de k=2s. Le cas unilatéral Du fait de sa limitation aux critères bilatéraux le Cpm était encore considéré par certains utilisateurs comme un outil mineur de la M.S.P. Une extension au cas unilatéral proposée par M. Pillet [Pil 96b] 4 [Pil 97b] 5 élargit le cadre d application du Cpm et le rend, ainsi, au moins aussi attrayant que le Cp et le Cpk. 4 PILLET M. DUCLOS E. COURTOIS A. Généralisation de l indicateur de capabilité Cpm - Cas des tolérances unilatérales - Contrôle Industriel et Qualité - N Février 96 5 PILLET M. ROCHON S. DUCLOS E. Generalization of capability index Cpm. Case of unilateral tolerances Quality engineering, accepté, USA

21 Nous avons vu précédemment que le Cpm intégrait une notion de rendement par rapport à une situation où le procédé est parfaitement centré. Dans le cas unilatéral, il n est pas possible de centrer le procédé, c est pourquoi nous allons définir une situation de référence (Figure 4) telle que : la moyenne soit située à ls de 0 ; La moyenne soit située à 4s de la limite supérieure ; Le Cpm de référence soit de 1,33. l s IT 4 s Perte X Figure 4 La valeur l détermine le niveau de qualité souhaité, c est pourquoi il doit être le fruit d un consensus entre le client et le fournisseur. Elle sera fixée entre 3 et 5. Voyons comment réécrire l équation du Cpm (Eq 0) : Cpm= IT A s 2 m 2 = 4 λ s 4 λ =1,33 d ' o A= A s 2 2 λ s 1,33 1 λ 2 Eq 0 Ainsi on peut donner les différentes valeurs de A en fonction de l (Figure 5) : l A Figure 5 La formule du Cpm est indépendante de la distribution de la population, ainsi son application est particulièrement aisée dans le cas des défauts de forme.

22 Les pertes non symétriques La philosophie du Cpm est très différente de celle des indicateurs Cp et Cpk. Alors que le Cp et le Cpk sont très liés à la notion de pourcentages hors tolérance, le Cpm traduit plus la qualité globale des produits. Une des subtilités du Cpm est d ailleurs de pouvoir considérer qu un écart positif par rapport à la cible peut engendrer des pertes différentes d un écart négatif [Tag 89] 6. Ce cas de figure est rencontré fréquemment dans l industrie lorsque le dépassement d une tolérance provoque dans un cas une opération de retouche sur le produit (faible coût), et dans l autre cas un rebut (coût élevé). TI TS K 1 Cible K 2 x 1 x 2 Figure 6 Dans ce cas, on définit la perte moyenne par la relation (Eq 0) : L= 1 N [ K 1 ' x Cible 2 K 2 '' x Cible 2 ] Eq 0 avec : K 1 le coefficient de la fonction perte pour tout x<cible K 2 le coefficient de la fonction perte pour tout x>cible Dans ce cas, l intuition nous dit que la meilleure politique n est pas forcément de centrer la production sur la cible pour minimiser la perte (Figure 6). Nous aborderons ce sujet plus en détail dans le chapitre 3. Rappelons enfin que les indicateurs de capabilités sont estimés en remplaçant m et s par des estimations ( X et S), d où une incertitudes qui se traduit par un intervalle de confiance, trop peu souvent utilisé. Nous verrons au chapitre une utilisation des intervalles de confiance sur les indicateurs de capabilité. 6 TAGUCHI G. ELSAYED A. HSIANG T. C. Quality engineering in production systems - Mc Graw-Hill 1989

23 Les cartes de contrôle Les principes de base Les cartes de contrôle sont des outils indispensables pour réaliser un pilotage rationnel du procédé de fabrication. Une application rigoureuse de cette méthode permet d améliorer de manière significative la capabilité du procédé pour deux raisons : L emploi de critères de décisions statistiques permet de réduire les erreurs liées à un réglage inopportun ou à une absence de réglage. Il en résulte une augmentation du rendement de stabilité. De plus, l application d une politique consistant à viser une valeur cible permet d augmenter le rendement de réglage Dispersion instantanée et dispersion globale Lorsque nous avons abordé la notion de capabilité, nous avons bien sûr parlé de la dispersion du procédé. Cette variabilité provient de l ensemble du procédé de production que l on décompose généralement en cinq sources élémentaires de dispersion (les 5M) et, par conséquent, cinq causes fondamentales de la non qualité : Machine, Main d œuvre, Matière, Méthodes et Milieu. L objectif de la qualité étant de réduire l influence des causes de dispersion, on ciblera tout naturellement notre action sur les 5M du procédé. Or, il est souvent difficile d agir sur la dispersion de la machine, à moins d investissements importants. Cette dispersion résiduelle, que l on qualifie aussi de «dispersion naturelle», détermine donc la capabilité maximale que l on puisse atteindre : c est la capabilité machine. On distinguera donc deux types de dispersion : la dispersion instantanée causée par la machine et dans une moindre mesure les «autres M», et la dispersion globale qui est une résultante des variations causées par les 5M sur la période de production. Dispersion instantanée Dispersion globale Dispersion instantanée Dispersion globale Cote Cote Temps Temps Figure 7 Pour réduire la dispersion globale du procédé et, donc, pour que la capabilité procédé tende vers la capabilité machine, il est nécessaire de limiter les variations de consigne de la machine en la pilotant. Le problème qui se pose alors est de distinguer les écarts du procédé qui sont naturels, de ceux qui doivent entraîner un réglage.

24 Maintenir le procédé sous contrôle En analysant finement la dispersion d un procédé, on peut extraire deux causes essentielles de dispersion. Il s agit des causes communes, qui sont liées à des phénomènes aléatoires, et des causes spéciales qui sont des causes de dispersion identifiables. Contrairement aux causes communes, les causes spéciales nécessitent une intervention sur le procédé. Causes Spéciales Réglage 1 Réglage 2 Causes Communes Les cartes de contrôle ont été développées dans le but de détecter l apparition de causes spéciales et de les dissocier des causes communes qui ne nécessitent pas d intervention sur le procédé. Pour cela on réalise deux tests statistiques : Le premier pour s assurer que la machine n est pas déréglée, Le second pour vérifier que la dispersion naturelle n a pas changé. Carte de type Shewhart La carte de contrôle proposée par Shewhart est constituées d un test par intervalle de confiance, pour vérifier la conformité d un paramètre du procédé à une valeur théorique et une estimation ponctuelle qui permet de déterminer le réglage à effectuer si la valeur du paramètre estimé a évolué. La carte de Shewhart, se compose de deux graphiques : une carte de position et une carte de dispersion permettant respectivement de représenter l évolution de la position et de la dispersion de la machine (Figure 8).

25 Date Heure X1 X2 X3 X4 X5 Moyenne Ecart-type X S Figure 8 Intervalle de confiance On note m une estimation ponctuelle d un paramètre m 0 d une loi F m (X). Pour réaliser un test par intervalle de confiance ou test d hypothèse sur un paramètre d un procédé on considère deux cas : On suppose que l estimation du paramètre du procédé est égale à une valeur théorique que l on spécifie (la cible pour une carte de contrôle). Cette hypothèse est appelée hypothèse nulle H 0. m=m 0 L autre alternative notée H 1 est valide lorsque l estimation m est différente de la valeur théorique. m¹m 0 Deux types d erreurs peuvent être commises lors d un test d hypothèse : On peut tout d abord rejeter l hypothèse nulle H 0 alors qu elle est vraie. La probabilité de faire cette erreur (type I) est aussi appelée risque a ou risque fournisseur. On peut également accepter l hypothèse nulle H 0 alors qu elle est fausse. La probabilité de faire cette erreur (type II) est aussi appelée risque b ou risque client. Carte position Pour construire la carte de position, on suppose qu en l absence de causes spéciales, la population suit une loi normale. Dans le cas de la carte de Shewhart, nous considérons que l écart type s de la population est connu. On en déduit que l écart type de la moyenne d un échantillon de n observations est : s/ n. Ayant calculé la moyenne d un échantillon de n observations, nous cherchons à déterminer si l écart de cette moyenne par rapport à la cible n est pas supérieur à la dispersion naturelle de la moyenne. Si l écart est supérieur à un écart maximal admis pour un niveau de confiance donné (dispersion naturelle de la moyenne), on conclut que la population n est pas centrée sur la cible.

26 LIC LSC s n s Risque a /2 Population Cible Dispersion naturelle de la moyenne Figure 9 Pour déterminer les limites de contrôle de la carte qui, comme on peut le constater sur la Figure 9, correspondent à la dispersion naturelle de la moyenne, on se fixe un risque a. On note u une variable aléatoire distribuée selon une loi normale réduite : u= Moyenne Cible s/ n La table de la loi normale réduite fournit la probabilité que les réalisations d une variable aléatoire X distribuée selon la loi normale réduite soit supérieure à la valeur u. En consultant cette table, on note que pour u=3, le risque a=0,0027. Si ce risque nous apparaît satisfaisant, on place les limites de contrôle selon la relation (Eq 0). LSC=Cible 3 s n LIC=Cible 3 s n Eq 0 Calcul de la dispersion Le calcul des limites de contrôle de la carte de position suppose que l écart type des observations soit connu. Cela n est généralement pas le cas, c est pourquoi il est nécessaire de l estimer. Pendant la période de référence, où le procédé est supposé réglé, on procède à un échantillonnage à intervalle régulier de k sous-groupes, dont l effectif n est pas forcément constant.

27 L estimation S de l écart-type s est alors donnée par la relation (Eq 0) : k ν i S 2 i=1 i S= k i=1 ν i n avec n i =n i -1 et S 2 = x i ij x i 2 j=1 n 1 Eq 0 Carte de dispersion Une carte de dispersion est également utilisée pour détecter l occurrence de causes spéciales dont les effets se traduiraient par une modification de la dispersion instantanée du procédé. De plus, le test précédent de comparaison des moyennes, n est valide que dans l hypothèse où l écart-type s de la population est connu et constant. Il suffit donc que la carte de dispersion soit sous contrôle pour valider cette hypothèse. La carte de dispersion se base sur un test de comparaison de la variance de l échantillon par rapport à la variance de la population. Pour cela on calcule l étendue ou l écart type de l échantillon que l on compare à des limites de contrôle. Considérons la variable V = n 1 S 2 s 2 distribuée selon une loi du c 2. Nous voulons savoir, en admettant un risque a, si l écart type de l échantillon appartient à la population d écart-type s. Les limites du test sont alors déterminées en fonction du risque a choisi par l inégalité : d où 2 2 c α/2 V c 1 α/2 c 2 α/2 n 1 s S c 2 1 α/2 n 1 s Eq 0 Une autre approche, beaucoup plus largement appliquée, consiste à prendre les limites à ± 3 écarttypes de S, de manière analogue à la moyenne. L écart type de S est donné par la relation s 1 c 4 2 où c 4 est un coefficient correcteur du biais de l écart-type empirique moyen par rapport à l écart-type. En effet, le rapport S /c 4 donne un estimation sans biais de s. Dans ce cas on obtient les limites de contrôle (Eq 0) :

28 LSC=c 4 s 3 s 1 c 4 2 LIC=c 4 s 3 s 1 c 4 2 Eq 0 Autres cartes de contrôle La carte de Shewhart est un outil incontournable de la M.S.P, mais il existe bien évidemment d autres cartes de contrôle. Nous présenterons succinctement les principes de celles qui, selon nous, ont contribué le plus à l évolution de la M.S.P. Les cartes CUSUM & EWMA Un des principaux inconvénients des cartes de type Shewhart est de ne baser son test que sur les dernières informations recueillies. Elle ignore ainsi les informations relatives aux tendances du procédé contenues dans les dernières estimations. La carte de Shewhart s avère donc peu performante pour la détection de faibles décentrages. Les cartes CUSUM (Cumulative Sum) et EWMA (Exponentially Weighted Moving Averages) constituent une alternative intéressante à la carte Shewhart puisqu elles ont la particularité de détecter les très faibles dérives du procédé. Le principe de la carte CUSUM est de sommer les écarts entre les estimations de la position du procédé et la cible. Lorsque le cumul des écarts positifs ou le cumul des écarts négatifs dépasse une certaine valeur, on conclut à un décentrage du procédé (Eq 0). Selon la sensibilité de la carte souhaitée, les limites de contrôle H varient entre 4 et 5. Afin d éliminer les variations résiduelles imputables aux causes communes, qui peuvent être à l origine de fausses alarmes, on applique un «filtre» K dont la valeur est souvent d un demi écart type. S H i =Max [ 0, X i Cible K S H i 1 ] S Li =Max [ 0, Cible K X i S Li 1 ] Eq 0 Au même titre que la carte CUSUM, la carte EWMA est particulièrement adaptée à la détection de faibles dérives. La statistique M reportée sur la carte de contrôle se calcule par la relation (Eq 0). M i =λ X i 1 λ M i 1 λî \]0;1\[} {} Eq 0

29 La constante l détermine le poids que l on souhaite affecter aux dernières mesures. Plus cette valeur est grande, plus la carte est sensible aux dérives subites. En contrepartie, elle détecte moins bien les petits écarts par rapport à la cible. Les limites de contrôle de la carte EWMA se construisent à ±3 écart-types de la variable M. s M =s λ [1 1 λ 2i ] n 2 λ d ou les limites λ [1 1 λ 2i ] LSC M =Cible 3 s i n 2 λ λ [1 1 λ 2i ] LIC M =Cible 3 s i n 2 λ Cartes de contrôle multidimensionnelles Ces cartes de contrôle s adressent aux procédés multivariés dont plusieurs caractéristiques sont interdépendantes [Hot 47] 7 [Jau 97] 8. Dans ce cadre, si plusieurs paramètres doivent être contrôlés simultanément, une pratique élémentaire veut que l on construise une carte de contrôle pour chacun des critères étudiés. Ce faisant, on écarte toute éventualité de corrélation entre les variables. Supposons que l on suive indépendamment deux caractéristiques X 1 et X 2. L utilisation simultanée de deux cartes de Shewhart conduit à une région de contrôle rectangulaire (Figure 10). La probabilité que l une ou l autre des caractéristiques sorte des limites de contrôle est p= 0.27%. En revanche, la probabilité jointe que les deux caractéristiques soient hors contrôle est p= , ce qui est excessivement faible. La représentation sous forme d une carte de contrôle bidimentionnelle est une zone «sous contrôle» rectangulaire. Posons maintenant le problème sous forme vectorielle en considérant la variable X distribuée selon une loi normale bidimensionnelle N(m 0,S 0 ) (Eq 0). =[ X X 1 2] X m 0 = [ m 01 m 02 ] S 0 = [ s 2 01 s 012 ] 2 s 012 s 02 Eq 0 D un point de vue statistique, la construction d une carte de contrôle pour deux variables se rapporte à un test bivarié avec les hypothèses H 0 : m=m 0 et H 1 : m¹m 0 Pour un échantillon X n le test n X m 0 t S 0 X 2 m 0 c 2, α conduit à une région critique en forme d ellipse. La région de validité du test est alors représenté par la surface de l ellipse tandis que la zone de rejet est à l extérieur. 7 HOTELLING H. «Multivariable Quality Control» - Techniques of statistical analysis Mc Graw-Hill - New York JAUPI L. SAPORTA G. Cartes de contrôle pour la variabilité des procédés multidimensionnels Congrès Qualité et Sûreté de fonctionnement - Mars 97 - Angers

30 X 1 Zone de rejet du test X 1 Zone de rejet du test LIC X 2 Zone d'acceptation du test LSC X 2 LSC X 1 LIC X 1 LIC X 2 Zone d'acceptation du test B A LSC X 2 LSC X 1 LIC X 1 Les variables sont indépendantes X 2 Les variables sont corrélées X 2 Figure 10 Si l on compare les zones d acceptation pour le contrôle univarié (rectangle) et multivarié (ellipse), on voit apparaître deux zones A et B où les conclusions des tests sont différentes. La Zone A correspond à la non détection d un état hors contrôle par la méthode univariée alors que le test multivarié conclue que le procédé est hors contrôle. La Zone B correspond à une fausse alerte de la part de la méthode univariée puisque le test multivarié considère que le procédé est sous contrôle. La taille des Zones A et B dépend essentiellement de la corrélation entre les variables X 1 et X 2. Néanmoins, ces zones existent toujours, ce qui justifie l emploi d une méthode multivariée. Cartes petite série Les apports de la MSP dans le domaine de la production en grandes séries ne sont plus à démontrer. Le formalisme et l efficacité de la démarche MSP ont été largement plébiscités par les industriels qui ont su l appliquer avec rigueur. Ces méthodes semblent cependant limitées aux productions de type grandes et moyennes séries, alors qu une grande partie de la production industrielle repose aujourd hui sur une organisation de type «petites séries». La mise en place des concepts de Justeà-Temps, va d ailleurs dans le sens d une diminution de la taille des lots, de même que la diversification des produits qui oblige les industriels à réduire la taille de leur cycle de production. Cette évolution, semble irréversible, c est pourquoi de nouveaux concepts ont été développés pour appliquer la M.S.P. aux productions en petites séries La principale difficulté rencontrée lorsqu on étudie des productions en petite série est de les classer par catégories. Les petites séries connaissent en effet une grande diversité, de sorte que chacune d elles semble un cas particulier. «Nos procédés sont trop particuliers pour appliquer la M.S.P.» entend-on souvent dans les ateliers! Ce raisonnement conduit le plus souvent à une approche artisanale, très subjective, qui nécessite une expérience importante de la part des opérateurs pour mener à bien le pilotage du procédé.

31 Nous retiendrons deux approches fondamentalement différentes pour le traitement des petites séries. La première d entre elles, consiste à rechercher un effet de série dans des productions répétitives de courte durée. Les observations recueillies pour des critères différents ou des opérations différentes peuvent être regroupées sur une même carte de contrôle de type grande série. Une autre philosophie est d anticiper au maximum les prises de décision, même pour des séries très courtes. Il s agit donc d exploiter au maximum les données récoltées pour piloter le procédé L objectif d une carte de type effet de série est de pouvoir suivre l évolution d un procédé qui réalise un travail répétitif en petites séries. Dans le cas de grandes séries, on utilise autant de cartes de contrôle que de produits ou de séries lancées. Ceci est bien évidemment inapplicable dans le cas de petites séries puisque les cartes de contrôle obtenues ne comporteraient pas plus de deux ou trois points chacune. L originalité de cette carte réside donc dans l application d un changement de variable, de manière à pouvoir reporter sur la même carte (Figure 11) les points issus d opérations affectant des produits différents (cibles et dispersions différentes). Si on considère des opérations A, B et C avec des cibles et des dispersions différentes, on reportera sur la carte, non pas les mesures X mais une variable réduite du type (Eq 0). [Hil 69] 9 [Koo 91] 10 [Whe 91] 11 X Cible A s A / n Eq 0 9 HILLER F. S. Xb and R chart Control Limits based on a small number of subgroups - Journal of Quality Technology - pp KOONS G. F. SPC : Use in low volume manufacturing environment - Statistical Process Control in Manufacturing - Quality and reliability - ASQC Quality Press WHEELER D. J. Short Run S.P.C. - SPC Press

32 Carte effet de série Date 3/09/97 3/09/97 5/09/97 5/09/97 6/09/97 Heure 8:25 11:56 9:32 17:15 18:41 Référence A B B A C n X X X X X X Figure 11 La carte petite série [Pil 92] 12 [Pil 96a] 13, comme son nom l indique, est particulièrement adaptée aux séries très courtes et aux démarrages de séries. Son objectif est de permettre le pilotage du procédé dès les premières pièces. Elle s appuie sur la technique de pilotage traditionnelle des cartes de type Shewhart. La M.S.P. préconise en général de travailler à partir d échantillons pour améliorer la précision des méthodes statistiques. Mais pourquoi attendre l acquisition d une n ème mesure pour savoir si le procédé est décentré? Le principe de la carte petite série consiste donc à décomposer un échantillon afin de placer un point sur la carte à chaque nouvelle mesure (Figure 12). Pour tenir compte de l enrichissement de l information à chaque nouvelle mesure, les limites de contrôle se resserrent (Eq 0). LC=Cible±3 s/ n Eq 0 12 PILLET M. Application du SPC aux Petites Séries Revue contrôle industriel et qualité - N pp PILLET M. A specific SPC chart for Small-Batch control Quality Engineering - 8(4) - pp

33 Cette carte sera donc très appréciée pour des séries de moins de 10 pièces. Elle peut également servir à lancer une grande série, en la «collant» à une carte de Shewhart, afin de vérifier si le procédé est sous contrôle dés les premières mesures. Carte Petite Série Date 3/09/97 4/09/97 4/09/97 5/09/97 6/09/97 Heure 8:10 11:05 15:12 10:35 9:49 X1 0 X2-1 X3-1 X4 +3 X5 1 Total X R LSC Xb LIC Cible LSC R Cible Figure 12 Outre le pilotage de petites séries, cette méthode est particulièrement adaptée au démarrage de grandes séries.

34 Cartes de pré-contrôle Certaines entreprises qui critiquent la M.S.P. pour la lourdeur des calculs et de sa méthodologie, substituent les cartes de contrôle par des cartes de pré-contrôle [Bho 91] 14. Même si ces cartes ne constituent pas réellement une avancée pour la M.S.P, elles ont la particularité d être de plus en plus utilisées dans l industrie. L objectif des cartes de pré-contrôle est de détecter des dérives du procédé qui peuvent entraîner une production de pièces non conformes. Cette méthode a l avantage de ne nécessiter aucune construction graphique et ne demande que le prélèvement de 2 échantillons pour prendre une décision. Une carte de pré-contrôle (Eq 0) est constituée de 3 zones. La moitié centrale de la zone de spécification, délimitée par les limites de pré-contrôle, constitue la zone verte tandis que les deux autres quarts de la spécification constituent la zone jaune. A l extérieur des tolérances, on trouve la zone rouge. Limite supérieure de spécification Limite supérieure de pré-contrôle Cible ZONE VERTE ZONE JAUNE ZONE ROUGE Figure 13 IT/2 Pour déterminer si le procédé est capable à un instant donné, on prélève cinq pièces consécutives. Si les cinq pièces sont dans la zone verte, le procédé est sous contrôle et l on a une forte probabilité que le Cm soit au moins de 1,33. On peut calculer dans le cas d une production centrée, distribuée selon une loi normale, la probabilité p qu au moins une pièce sur les 5 prélevées soit hors de la zone verte. Cm p 1.5% 11.6% 20.8% 51.2% 71.7% Figure 14 Pour effectuer un pilotage du procédé, on prélève deux observations consécutives de façon périodique. La période d échantillonnage est fixée à un sixième de la période moyenne séparant deux interventions. Cinq règles régissent le fonctionnement des cartes de pré-contrôle (Figure 15). 14 BHOTE K. R. World Class Quality - Amacom p

35 Schéma Description Action 1 Les deux observations sont dans Continuer la production la zone verte. 2 Une observation dans la zone verte, une autre dans la zone jaune. Continuer la production 3 Deux observations dans la même zone jaune. Régler le procédé 4 Une observations dans chaque zone jaune Arrêter le procédé et rechercher les causes de dispersion. 5 Une observation dans la zone rouge Arrêter le procédé et trouver la cause du critère défectueux Figure 15 Les cartes de pré-contrôle ont l avantage de fournir une méthode très simple. Cependant elles peuvent avoir un certain nombre d inconvénients relatifs à leur efficacité. La faible taille des échantillons ne permet pas de détecter de petites dérives. C est pourquoi il est impératif de n utiliser cette méthode que pour des machines ayant une bonne capabilité, sans quoi on risque de produire beaucoup de critères hors des spécifications. Les cartes de pré-contrôle ne fournissent aucune méthode pour le réglage du procédé. La taille des échantillons n est pas liée à l efficacité. Etude de performance des cartes de contrôle Les études de performance des cartes de contrôle ont deux objectifs : elles permettent, dans un premier temps, d orienter le choix sur un type de carte de contrôle, selon le niveau de performance souhaité. D autre part, les cartes de contrôle étant des méthodes de test par prélèvement d échantillons, leur capacité à détecter une dérive est étroitement liée à la taille des échantillons. Il est donc possible d optimiser la taille des échantillons en fonction de la sensibilité requise.

36 Deux méthodes sont employées pour exprimer l efficacité d une carte de contrôle. On trouve pour certaines cartes, des abaques fournissant la probabilité de conclure que le procédé est centré en fonction du décentrage de la population et de la taille des échantillons. Un autre indicateur, est la Période Opérationnelle Moyenne (P.O.M. ou Average Run Length) qui représente le nombre moyen d échantillons successifs avant la détection d un point hors contrôle On peut caractériser la sensibilité d une carte de contrôle par sa P.O.M. dans deux états du procédé : La P.O.M. pour un procédé centré est notée POM 0, et la P.O.M. pour un procédé décentré de k est notée POM k. Le décentrage k est l écart réduit entre la cible et la moyenne du procédé : k= (m-cible)/s. La norme AFNOR [AF0 95] 15 préconise d utiliser POM 1.(décentrage d un écart-type) et considère qu une bonne carte de contrôle doit rentrer dans le gabarit suivant : POM 0 > 100 et 1 <POM 1 < quelques unités. P.O.M k Figure 16 Si la POM 0 est importante, cela signifie que pour un procédé centré, le nombre de fausses alertes est faibles (risque a). Si la POM 1 est faible, le temps de détection d un décentrage d un écart-type est court. C est donc que la carte est sensible aux décentrages. Le choix des limites d une carte de contrôle résulte le plus souvent d un compromis entre ces deux P.O.M. En effet, le choix d une POM 0 élevée implique une POM 1 élevée. Il est donc nécessaire de relaxer l une des contraintes pour obtenir des performance acceptables 15 AFNOR Norme NF X Application de la Statistique - Cartes de contrôle - Principes Généraux 1995

37 Le choix d une méthode statistique Nous avons rappelé dans le début de ce chapitre un certain nombre de méthodes statistiques qui sont utilisées dans le cadre de la M.S.P. Ces méthodes obéissent bien entendu à un certain nombre d hypothèses statistiques, qui permettent d échafauder un modèle. Il est possible d envisager plusieurs modèles pour traiter un problème. Le résultat obtenu dépendra de la validité du modèle et de l efficacité de la méthode employée ; l un et l autre étant étroitement liés. Ce paragraphe a pour objectif de rappeler quelques notions sur la statistique non paramétrique et l efficacité des méthodes statistiques. Ces deux thèmes constituent en effet, le cœur de la problématique que nous développerons dans le chapitre suivant. Problématique de la modélisation La majorité des méthodes de la Maîtrise Statistique des Procédés abordent les problèmes d estimation d un point de vue paramétrique. En effet, partant d un constat expérimental, on suppose que la distribution des observations peut être caractérisée par une loi ou une famille de lois. Cette famille de lois est elle-même fonction d un nombre restreint de paramètres, comme la moyenne et l écart type pour une loi normale. Une telle approche peut être parfaitement appropriée si la famille des lois de probabilité est liée à certaines caractéristiques physiques du procédé. Dans certains cas, cette loi s impose d elle même. On peut citer par exemple la loi hypergéométrique lorsque l on fait du contrôle aux attributs. A l opposé, dans de nombreux cas, il s agit de choisir une loi sachant qu elle conditionne de manière importante l étude statistique d un phénomène. Le choix d un modèle est en effet une formalisation mathématique des hypothèses faites sur les observations. Bien que cette formalisation soit importante, elle est souvent négligée au profit du choix de la méthode statistique à employer. Or il est bien évident que la méthode de résolution du problème dépend particulièrement du modèle adopté. Le développement récent de la statistique mathématique a été dominé par l étude des formes faibles du modèle statistique. C est à dire que l on postule des hypothèses relativement plus faibles que sur une structure paramétrique classique. Cette problématique a donné naissance à deux approches : L approche non paramétrique (ce qui ne veut pas dire que les paramètres disparaissent) qui consiste à se placer dans une large classe de lois de probabilités plutôt que dans une famille paramétrique donnée. La robustesse dont la principale préoccupation est de mettre en oeuvre des estimateurs qui éliminent les valeurs extrêmes, mais aussi d étudier la stabilité d une procédure statistique lorsqu on s éloigne du modèle pour lequel elle est optimale.

38 Les modèles paramétriques On considère qu un modèle paramétrique décrit un ensemble de lois, tel que deux lois quelconques de cet ensemble ne diffèrent entre elles que par la valeur d un paramètre. Le modèle paramétrique le plus connu pour décrire la distribution d observations réelles est le modèle normal qui regroupe l ensemble des lois normales. Ce modèle est décrit de la manière suivante : On considère un couple de paramètre (m,s 2 ) dans R R +* tel que X est une observation de la loi N(m,s 2 ). x m 2 f x = e 2 s 2 2 ps 2 Modèles non paramétriques A la différence d un modèle paramétrique qui spécifie la loi de chaque observation par la valeur d un paramètre, un modèle non paramétrique laisse beaucoup plus de souplesse quant à la forme et à la nature possible des lois des observations. Bien que les modèles paramétriques soient particulièrement appréciés pour leur simplicité et la précision des descriptions offertes, ils sont dans bien des cas peu envisageables. Pendant très longtemps, le développement des méthodes statistiques et l étude de leurs propriétés ont été fondés essentiellement sur la normalité de la famille de lois. Or la validité d un tel modèle n est pas toujours assurée. En effet, différents facteurs comme des erreurs d expérimentation, des erreurs de mesures ou encore des perturbations aléatoires non prises en compte dans le modèle peuvent rendre un modèle paramétrique inexact. Les modèles non paramétriques fondamentaux pour une observation sont : le modèle de localisation, le modèle d échelle et le modèle de localisation-échelle. Avant de présenter ces modèles non paramétriques, définissons un ensemble de lois. On considère tout d abord un ensemble F des lois continues, définies sur R. Un sous ensemble de F, est l ensemble F 0 des lois à médiane nulle ( F 0 =1/2 ). Et enfin un sous ensemble de F 0, est l ensemble F s des lois symétriques par rapport à l origine ( F x =1 F x ). Modèle de localisation pour une observation Il existe F appartenant à F 0 et m appartenant à R tels que X est une observation de la loi F m définie xîr,f rsub { size 8{m} } left (x right )=F left (x-m right )} {} par :

39 Modèle d échelle pour une observation Il existe F appartenant à F s et s appartenant à R +* tels que X est une observation de la loi F s xîr,f rsub { size 8{s} } left (x right )=F left ( {x} slash {s} right )} {} définie par : Modèle de localisation échelle pour une observation Il existe F appartenant à F s et (m,s) appartenant à R R +* tels que X est une observation de la loi F m,s définie par : xîr,f rsub { size 8{m,s} } left (x right )=F left ( { left (x-m right )} slash {s} right )} {} Pour ces différents modèles, m et s sont respectivement appelés paramètres de localisation et paramètres d échelle. Nous verrons au chapitre 3, l application d un estimateur construit sur un modèle linéaire localisation échelle. Ce modèle est un peu différent de celui présenté précédemment puisqu il concerne un échantillon. Modèle de localisation échelle pour un échantillon Il existe F appartenant à F et (m,s) appartenant à R R +* tels que X 1,..., X n est un échantillon de la loi F m,s définie par : xîr,f rsub { size 8{m,s} } left (x right )=F left ( { left (x-m right )} slash {s} right )} {} Méthodes non paramétriques Avant de donner une définition des méthodes non paramétriques, rappelons ce qu est une méthode paramétrique. La notion de méthode paramétrique est assez bien partagée par les statisticiens : elle consiste à chercher une solution optimale selon deux critères de qualité qui sont la validité et l efficacité. Par exemple : un estimateur à variance minimale (efficacité) parmi les estimateurs sans biais (validité). L objectif des méthodes non paramétriques est un peu différent puisqu il consiste à rechercher des solutions qui sont applicables pour un vaste domaine de lois spécifiées par le modèle. On souhaite en effet que la validité des résultats ne dépende pas trop fortement de la loi des observations. Il faut cependant garder à l esprit que la solution est rarement indépendante de la loi. Alors que la validité d un résultat est parfois peu sensible aux types de lois considérées, l efficacité des solutions dépend généralement de ces lois. Nous souhaiterons donc également que l efficacité de la méthode soit raisonnable.

40 Qualité des méthodes non paramétriques Le choix d une méthode statistique est souvent conditionné par sa qualité par rapport à d autres méthodes statistiques. Dans le cas de méthodes non paramétriques, il semble naturel de comparer les résultats obtenus à ceux d une autre méthode non paramétrique dans des conditions équivalentes. Il est également très instructif de comparer ces résultats à ceux d une méthode paramétrique. En effet, l utilisation d une méthode non paramétrique sous un modèle paramétrique donné peut occasionner une perte d efficacité importante par rapport à la méthode paramétrique optimale. Il est donc bon de savoir si l élargissement du domaine de validité des modèles n est pas trop pénalisant d un point de vue de l efficacité. Dans ce cas on étudie les variances respectives des estimateurs, ce qui se traduit par le calcul de l efficacité relative. Outre les performances à l intérieur d un modèle spécifié, la qualité d une méthode se juge aussi suite à une déviation du modèle. C est pourquoi la statistique non paramétrique se préoccupe particulièrement de cette notion qu est la robustesse. Performances d un estimateur L un des problèmes qui se pose fréquemment aux utilisateurs de la statistique consiste à choisir entre plusieurs estimateurs d une même quantité pour résoudre un problème. Le choix d un critère est alors primordial pour déterminer si un estimateur est préférable à un autre. La comparaison de l efficacité de deux estimateurs suscite alors deux questions : l estimateur choisi est il le meilleur parmi tous les estimateurs (efficacité absolue)? ou bien est-il tout simplement le meilleur dans une classe d estimateurs donnée (optimalité)? Efficacité d un estimateur Estimation ponctuelle Avant d aborder ces notions de performance des estimateurs, rappelons ce qu est une estimation pontuelle. On dispose d une information sur la loi F(X) par un échantillon (x 1,..., x n ) de la variable X. m est un paramètre de la loi que l on souhaite estimer. On note j m une grandeur que l on cherche à estimer. Souvent cette grandeur n est autre que le paramètre m lui même. C est le cas lorsque l on cherche à estimer la moyenne d une loi normale. Cependant, il arrive que la grandeur à estimer soit une fonction de m : par exemple lorsqu on s intéresse à la variance d une loi normale s² et non son écart-type s. On appelle estimateur ponctuel de j m toute statistique T n construite sur l échantillon X n.

41 L erreur quadratique moyenne La démarche utilisée pour comparer deux estimateurs repose sur le calcul d une perte quadratique engendrée par l estimation. Il s agit de l erreur quadratique moyenne (Eq 0). EQ n, m 0 =E [ T n j m 0 2 ] Le critère EQ(n,m 0 ), que l on cherche à minimiser, représente l espérance du carré des écarts entre les réalisations de l estimateur T n et les vraies valeurs de j(m 0 ) Il apparaît alors logique de prendre parmi deux estimateurs, celui dont l erreur quadratique moyenne est la plus faible. Si les estimateurs sont sans biais pour un même paramètre, l erreur quadratique moyenne n est autre que la variance de l estimateur. On dit d ailleurs qu un estimateur sans biais est plus efficace qu un autre estimateur si sa variance est plus petite. Si l estimateur T n est un estimateur quelconque, l erreur quadratique moyenne s écrit (Eq 0) : EQ n, m 0 =E [ T n E T n 2 ] E T n j m 0 2 EQ n, m 0 =Var T n b 2 n, m 0 Eq 0 Eq 0 L erreur quadratique moyenne est un critère qui tient compte à la fois du biais et de la dispersion de l estimation. Ainsi même si un estimateur sans biais est intuitivement séduisant, on pourra lui préférer un estimateur faiblement biaisé mais de plus faible variance. L efficacité relative Afin de comparer les qualités respectives de deux estimateurs sans biais, on calcule souvent le rapport de leurs variances ou de leurs variances asymptotiques. Soient T n et T n deux estimateurs définis à partir d observations indépendantes d une loi F. On appelle alors efficacité relative de T n par rapport à T n la quantité (Eq 0) [Cap 88] : ER T n,t n ' = Var T n ' Var T n Eq 0

42 J. Pitman [Pit 48] 16 à introduit une notion d efficacité relative légèrement différente. Il pose le problème de la manière suivante : Si on considère deux statistiques T n et T n équivalentes selon un certain critère (ce peut être la variance) et pour des tailles d échantillons n et n. Le rapport n/n est appelée efficacité relative de T n par rapport à T n. Nous considérons pour notre part que la première définition de l efficacité relative est plus satisfaisante car elle nous permet de comparer les performances de deux estimateurs pour un nombre d observations données. La M.S.P. accorde en effet beaucoup d importance à la taille des échantillons car elle a une influence économique et pratique capitale. De plus, la relation (Eq 0) permet d obtenir la formule de l efficacité relative asymptotique lorsque l on fait tendre le nombre d observations vers l infini. Dans bien des cas, la variance exacte d un estimateur fonction de n observations est difficile à obtenir. Aussi un critère souvent utilisé pour comparer deux estimateurs est l efficacité relative asymptotique (Eq 0) : Var T n ' ERA T n,t n ' =Lim n Var T n Eq 0 La borne de Frechet Il paraît évident que la variance d un estimateur T ne peut être nulle. Il est alors logique de se poser la question de l existence d une borne inférieure. On peut montrer en effet que la variance d un estimateur ne peut être inférieur à une limite appelée Borne de Frechet ou Borne de Cramer-Rao. Un estimateur sans biais est dit efficace si sa variance est égale à la borne de Frechet [Tas 89] 17. La moyenne est par exemple l estimateur efficace lorsque les observations suivent une loi normale (Voir Annexe 2). Rappelons que cette borne n est valable que pour des distributions dont le support ne dépend pas du paramètre estimé. L optimalité Lorsque la borne de Frechet n est pas atteinte, et c est souvent le cas, on affaiblit le critère de l efficacité absolue pour se contenter d un estimateur optimal. On appelle estimateur optimal un estimateur T sans biais, préférable à tout autre au sens de la variance. T rsub { size 8{1} } ÏB rsub { size 8{0} } V left (T right ) <= V left (T rsub { size 8{1} } right )} {} 16 PITMAN E. J. Notes on non parametric statistical inference - Manuscrit non publié 17 TASSI P. Méthodes Statistiques - Economica 2nde Edition

43 Robustesse d un estimateur L étude de la robustesse d un estimateur consiste, entre autre, à quantifier sa tolérance aux valeurs extrêmes et sa sensibilité à de nouvelles observations. La taille des échantillon étant le plus souvent constante en M.S.P. grandes séries, on ne s intéressera qu à la propriété de tolérance aux valeurs extrêmes d un estimateur. Pour cela on définit un coefficient de tolérance. On suppose un estimateur T n fonction des observations X 1,...,X n. Soient a et b deux entiers tels que : left (x rsub { size 8{1} },K,x rsub { size 8{n} } right )ÎR rsup { size 8{n} },x rsub { size 8{ left (α+1 right )} } <= t rsub { size 8{n} } <= x rsub { size 8{ left (n-β right )} } } {} si l on fixe les valeurs de x (a+2),...x (n) et que x α 1 - alors t n - si l on fixe les valeurs de x (1),...x (n-b-1) et que x n β + alors t n + Si a* et b* sont respectivement les plus petits entiers satisfaisant les conditions précédentes. On dit alors que le coefficient de tolérance à gauche est t(t n )= a*/n et le coefficient de tolérance à droite est t(t n )= b*/n. Si l estimateur a des propriétés de symétrie, on trouve a* = b*. On appelle point de rupture asymptotique la grandeur a*/n, lorsque n. On peut donner à titre d exemple le coefficient de tolérance pour la médiane empirique et la moyenne empirique (Figure 17). n t X n t X n Figure 17 Cet exemple met en évidence la grande robustesse de la médiane empirique par rapport à la moyenne empirique qui ne tolère aucune observation aberrante.

44 Orientation des travaux Les principes de base de la M.S.P. et leurs limites Dans les premières heures de la M.S.P, les industriels se contentaient d appliquer la MSP dans des cas où les hypothèses des outils statistiques utilisés, n étaient pas trop mises à mal. Le développement de ces méthodes et leur généralisation dans l entreprise, ont conduit tout naturellement les ingénieurs à se confronter à des cas atypiques où l application de la MSP pouvait être discutable. Nous pouvons citer parmi ces cas : Les cas où les données sont corrélées (procédés continus), ce qui rend difficile l estimation de la dispersion instantanée et biaise l estimation de position du procédé. Les petites séries ou de manière générale les procédés offrant un faible volume d information sur leur évolution, conduisant ainsi à des difficultés d échantillonnage et d estimation de la dispersion instantanée. Les procédés non normaux qui remettent en cause le calcul des indicateurs de capabilité ainsi que celui des limites pour une carte de contrôle. Orientation de nos travaux Le travail que nous allons développer dans ce mémoire concerne l application d une méthode non paramétrique à la M.S.P. Les outils statistiques de la M.S.P, comme nous venons de le voir, se basent pour la plupart sur un modèle paramétrique de loi. La loi normale est l un de ces modèles incontournables, dont l utilisation est souvent justifiée. Néanmoins cette approche souffre de l étroitesse de son cadre d application et les exemples de non normalité que nous soumettent les industriels illustrent bien ses limites. Nous proposerons donc une approche plus générale, ne postulant aucune loi a priori, permettant de construire des cartes de contrôle dont les performances sont supérieures à celles des cartes utilisant la moyenne. Nous verrons dans le Chapitre 2 que la MSP n est pas sans réponses face aux cas de non normalité. Nous rappellerons quelques unes des méthodes développées au cours des dix dernières années pour répondre aux problèmes posés quant à l utilisation des cartes de contrôle et des indicateurs de capabilité. Après avoir analysé et critiqué ces méthodes nous poserons une nouvelle problématique. Nous proposerons ensuite dans le Chapitre 3 l utilisation d une méthode non paramétrique dont l objectif est de fournir une carte de contrôle possédant de bonnes performances quelle que soit la distribution des observations. Deux objectifs sont alors poursuivis : la minimisation de la variance des estimations ainsi que la minimisation de la perte au sens de Taguchi, occasionnée par la dispersion naturelle du procédé. Nous présenterons enfin dans le Chapitre 4, quelques applications industrielles mettant en lumière l efficacité de la méthode et son adéquation au besoin industriel.

45 Chapitre 2 Chapitre 2 La non normalité abordée par la Maîtrise Statistique des Procédés Le mythe de la loi normale La loi normale prend une part très importante dans les méthodes de décisions statistiques. Ce modèle statistique a en effet l intérêt incontestable de pouvoir décrire avec simplicité un grand nombre de phénomènes aléatoires naturels. Son caractère n en est pas universel pour autant et on constate que bon nombre d applications statistiques ne peuvent se satisfaire de l hypothèse de normalité. Nous présenterons dans ce paragraphe quelques exemples typiques de non normalités rencontrées couramment dans l application de la M.S.P. Justification de la normalité L'objectif de la M.S.P. est, comme nous l'avons vu au chapitre précédent, de mettre un procédé «sous contrôle». C'est-à-dire éliminer les causes spéciales à l'origine de non stationnarité du procédé, pour ne garder que les causes communes, non réductibles. Lorsque toutes les causes spéciales ont été éliminées, on considère que la distribution des critères étudiés suit une loi normale. Cette hypothèse se justifie par le nombre important des causes communes et leurs effets d'un ordre de grandeur équivalent.

46 D'autre part, pour des raisons d'efficacité que nous avons déjà soulignées, on préfère utiliser des cartes de contrôle par échantillonnage de type X /R. Même si le théorème central limite n'est valable que pour des échantillons de grande taille, il a une influence non négligeable sur la distribution des moyennes, calculées à partir d'échantillons de faible taille. Ainsi, la distribution des moyennes, suivra une loi normale si la distribution des valeurs individuelles ne présente pas un caractère non normal trop prononcé. Dans ces mêmes conditions, on ne peut établir la distribution de l étendue R et de l écart-type empirique S.

47 Toutefois le large développement de la M.S.P, dans de nombreux domaines, a contribué à la mise en évidence de différents cas de non normalité. Nous allons voir que la non normalité d'un procédé n'est pas forcément le résultat d'un procédé mal maîtrisé au sens de Shewhart. Il existe en effet des procédés qui sont naturellement non normaux alors qu ils sont sous contrôle. C est le cas en l occurrence des critères de forme. D autres procédés sont soumis à des causes spéciales parfaitement identifiées. En toute rigueur le procédé n est pas sous contrôle, mais on se satisfait de cette situation pour des raisons techniques ou économiques. Nous citerons dans cette catégorie, les procédés multipostes ou multi-empreintes. Procédés non normaux Introduction Si on étudie les critères suivis en M.S.P. sur un procédé de fabrication, deux facteurs essentiels peuvent être à l'origine de leur non normalité: Le premier est lié à la nature même du procédé. De nombreux procédés sont en effet non symétriques pour des raisons mécaniques ou physiques. Prenons par exemple le cas du remplissage de bouteilles proposé par R. Mortel [Mor 95] 18. Ce procédé est constitué de 24 têtes de remplissages dont le débit peut être réglé indépendamment. A chaque cycle de remplissage, 24 bouteilles sont remplies simultanément. On conçoit aisément que les différentes buses ne peuvent pas avoir rigoureusement le même débit. De plus celui-ci n'évolue pas forcément de la même manière dans le temps. L'obstruction de l'orifice ou les bulles d'air sont autant de causes qui influent sur le débit des têtes de remplissage. La production ne suit pas une tendance centrale mais plusieurs, ce qui explique la non normalité du procédé. Le second dépend du type de données traitées. En effet, certaines grandeurs physiques sont bornées ou correspondent à des singularités : une circularité est nécessairement positive, un ph de 0 ou une température de 0 Kelvin sont des singularités, donc des valeurs non égalables. Ces caractéristiques introduisent bien entendu des dissymétries dans la répartition des mesures. D'autre part, les grandeurs représentées proviennent parfois d'un calcul basé sur plusieurs mesures. C'est le cas par exemple de la circularité d'une pièce mécanique qui se calcule en effectuant la différence entre le diamètre du cercle inscrit et celui du cercle circonscrit. Ce problème est bien connu en M.S.P. sous l'appellation de «défaut de forme». 18 MORTEL R.R. & RUNGE G.C. Statistical Process Control of Multiple Stream Process Journal of Quality Technology Vol 27 N

48 Les procédés multigénérateurs Les procédés multigénérateurs, bien que peu abordés en M.S.P. constituent une part importante des moyens de production. On regroupe sous cette appellation tous les procédés constitués de plusieurs «machines élémentaires» indépendantes les unes des autres, réalisant les mêmes caractéristiques. Nous citerons à titre d'exemple les procédés les plus classiques tels que les tours multibroches, les presses à injecter multi-empreintes, ou encore les filières. Les caractéristiques issues de chaque générateur ou machine élémentaire sont distribuées selon une loi élémentaire, qui peut être une loi normale si la caractéristique étudiée est bilatérale, ou une loi de défaut de forme dans le cas d'un critère unilimite. La population constituée de la production de l'ensemble des générateurs est ainsi un mélange de lois, encore appelé stratification (Figure 18). Nous allons établir les caractéristiques essentielles de cette distribution, qui sont la moyenne et la variance en fonction des différentes lois élémentaires. Intervalle de tolérance Intervalle de tolérance Caractéristique Caractéristique Figure 18 Dans l'exemple de la Figure 18 on considère une population constituée de k=5 strates de moyenne et d'écart-type respectif m i et s i. En supposant que les générateurs produisent chacun =1/5 de la production, on définit alors la densité de probabilité de la population fp en fonction des lois élémentaires f1... f2 par: f p f f 1 5 On note mi(q) les moments d'ordre q des variables aléatoires distribuées selon fi. X est la variable aléatoire de fp. Les moments non centrés d'ordre q de la variable X se calculent par l'expression: D'où la moyenne et la variance (Eq 0): Eq 0 E X q q i m ( ) i k i 1 E X i mi k i 1 V [ X ]=E [ X 2 ] E [ X ] 2 = p [ k s 2 i m i2 i=1 k p m i]2 i=1

49 La Maîtrise Statistique des Procédés a pour objectif de réduire l'influence des causes spéciales (ici évidentes) à l'origine de la non normalité de la population. Cependant cette procédure peut s'avérer très délicate et surtout très coûteuse : modification de la structure d'une machine ou encore retouche de moules pour une presse à injecter. Considérons par exemple une presse à injecter avec un moule comportant 10 empreintes identiques. Malgré tout le soin que peuvent apporter les outilleurs dans la fabrication du moule, il est impossible de réaliser 10 empreintes identiques. A chaque injection, la presse va donc produire 10 pièces provenant de 10 générateurs différents. Les critères étudiés auront donc nécessairement une distribution non normale. La population est alors dite «stratifiée». En revanche, on peut admettre que les distributions élémentaires issues de chaque générateur (chaque moule) suivent une loi normale. Figure 19 Si, comme c'est le cas de la Figure 19, l'aptitude du procédé est satisfaisante par rapport aux tolérances à respecter, faut-il chercher à supprimer l'influence de la cause spéciale ici évidente (les différences entre les empreintes)? Réduire les dissemblances consisterait alors à retoucher les moules. Cela coûterait une fortune pour un résultat très hasardeux du fait des dispersions d'usinage. Il nous semble préférable dans ce cas, de considérer que les causes communes génèrent une population non normale et d'essayer de piloter ce "paquet" pour le maintenir sur la cible.

50 Les défauts de forme Dans le domaine mécanique, les critères unilimites présentent une part importante des critères étudiés [Joh 93] 19. Les critères de forme tels que les rugosités, les planéités, les circularités sont non symétriques par nature puisque bornés en zéro. Prenons l'exemple d'un calcul de circularité (Figure 20) qui consiste à faire la différence entre le rayon du cercle inscrit R min et le rayon du cercle circonscrit de même centre R max d'un alésage. R min R max Figure 20 Ces deux variables aléatoires sont supposées distribuées selon une loi normale. La différence de ces deux variables, notée z = R max - R min, est distribuée selon une loi normale N(m,s n ), encore appelée «loi normale sous-jacente». Cependant il existe une relation d ordre entre R max et R min qui est d ordre dimensionnelle. On conçoit aisément que R min sur une pièce soit supérieur à R max d une autre pièce si l écart entre la moyenne de chacune des variables est faible. En revanche, R max est par définition supérieur à R min sur une même pièce. La circularité est alors distribuée selon une loi de z = R max R min (loi de défaut de forme), très caractéristique pour son repliement sur l'intervalle positif. Cette loi est aussi connue sous le nom de loi normale repliée. Loi de défaut de forme Intervalle de tolérance Loi normale sous-jacente m m m: moyenne de la loi normale sous-jacente m : moyenne de la loi de défaut de forme Figure 21 Pour que la caractéristique de circularité suive une loi de défaut de forme, il faut que les mesures R min et R max suivent une loi normale de même écart type. 19 JOHNSON N. L. KOTZ S. Process Capability Indices - Chapman & Hall

51 De manière plus générale, on note z la variable aléatoire distribuée selon la loi normale sous-jacente N(m n,s n ), obtenue à partir des variables x et y (R max et R min dans l exemple précédent). La moyenne de z est donnée par : E [ z ]=m n =E [ x ] E [ y ] La loi de défaut de forme s exprime donc par l'expression (Eq 0) : Eq 0 z³0}} {} [ f d z = 1 1 e s n 2 p 2 z m n s n e z m n s n La moyenne et la variance de la loi normale repliée sont données par (Eq 0) Eq 0 m=s n 2 ] 2 p e mn/ sn 2 2 mn 1 2 F m n / s n s 2 =m n 2 s n 2 m 2 Critères de position Un autre cas de non normalité concerne les caractéristiques distribuées de façon circulaire autour d'un point central. Pour décrire de tels critères, on utilise la loi de Rayleigh. On considère le cas d'un alésage effectué sur une machine à commande numérique. Ses coordonnées sont programmées selon les coordonnées rectangulaires qui correspondent aux axes de déplacement de l'outil, dans le plan perpendiculaire à l'axe de perçage. La dispersion occasionnée par le jeu cinématique des deux axes suit une loi normale. Il n'en est pas de même pour les coordonnées polaires. Les positions radiales sont distribuées suivant une loi de Rayleigh (Figure 4) tandis que les positions angulaires suivent une loi uniforme. On est souvent confronté à ce type de mesure de distance radiale en mécanique ; étude d'une coaxialité par exemple. En supposant que les caractéristiques des deux lois normales, décrivant les variations de position en coordonnées rectangulaires, soient parfaitement connues, on peut alors établir l'expression de la loi de Rayleigh et déterminer ses paramètres.

52 Y s n s n X s r s n m r r m r Figure 22 La fonction de répartition F et la densité de probabilité f s'écrivent respectivement: 2 r n n 2 e s 2 s 2 r 0, F r e f r La moyenne et l'écart type de la loi de Rayleigh sont donnés par: s 1, 25 s s 2 s 0, 655 s 2 2 r s m r n n r n n Il est possible de généraliser cette approche pour les cas où la moyenne des variables X et Y ne correspond pas avec le centre du cercle. n 2 r

53 Répercussions de la non normalité sur les méthodes de la M.S.P. L'analyse de capabilité et le pilotage de procédés par cartes de contrôle sont le plus souvent fondés sur l'hypothèse de normalité. Cependant les procédés non normaux sont relativement fréquents, nous l'avons vu précédemment, ce qui peut nous conduire à remettre en cause la validité de ces méthodes. L appellation «non normalité» regroupe une grande variété de lois dont les caractéristiques sont parfois très différentes de la loi normale. C'est pourquoi il serait dangereux de conclure que les méthodes de la M.S.P. sont applicables ou inapplicables dans un contexte non normal. Il serait plus juste de se demander si ces méthodes sont robustes et tolèrent quelques écarts par rapport à un modèle ; ici la loi normale. Incidence sur les indicateurs de capabilité Les indicateurs de capabilité ont pour objectif de déterminer dans quelle mesure un procédé de fabrication peut respecter les spécifications que l'on s'est fixé. Bien que le calcul des indicateurs de capabilité tels que le Cp et le Cpk (Eq 0) repose uniquement sur la comparaison entre la tolérance et la dispersion d'une caractéristique, celui-ci impose la connaissance a priori de la distribution des données. On souhaite généralement que les données soient distribuées selon une loi normale. Eq 0 Cp= IT m TI ;TS m Cpk=min 6. s 3. s La connaissance de la loi de distribution des mesures permet en effet de faire le lien entre la valeur de l'indicateur de capabilité et le pourcentage de mesures hors tolérances. Pour un Cpk donné, il est facile à l'aide d'une table de la loi normale réduite de connaître le pourcentage hors des tolérances. Malheureusement ce calcul n'est plus possible lorsque la distribution des mesures ne suit pas une loi normale. Il devient alors aventureux de comparer des indices de capabilité si l'on n'est pas certain de la normalité de la loi ou si les deux productions non normales peuvent être décrites par une même loi. Gunter [Gun 89] 20 est l'un des premiers à avoir abordé ce problème d'interprétation des indicateurs de capabilité en montrant que des productions non normales différentes ayant le même Cp et Cpk généraient des pourcentages de non conformités différents. Tout le problème se résume à la définition de la dispersion des mesures lorsque la production n'est pas décrite par une loi normale. La situation de référence que nous connaissons est celle de la loi normale. En effet, lorsque l'on définit sa dispersion à 6s on sait que la proportion de la population située dans l'intervalle m±3 s est de 99.73% (Figure 5). 20 GUNTER The use and abuse of Cpk - Quality Progress 22(3), pp & 22(5), pp

54 TI Intervalle de tolérance TS 99.73% Dispersion Figure 23 Dès lors que l'on définit la dispersion comme étant l'intervalle renfermant 99.73% de la population, les indicateurs de capabilité peuvent être interprétés indépendamment de la distribution de la population. La détermination de la dispersion n'est pas une chose aisée d'un point de vue expérimental, lorsque l'on ne peut s'appuyer sur un modèle statistique. Nous verrons dans le paragraphe suivant quelques méthodes permettant de répondre à ce problème. Déterminer les limites des cartes de contrôle De nombreuses études concernent l'impact de la non normalité sur l'efficacité des cartes de contrôle. Burr [Burr 67] 21, par exemple a montré que les cartes de contrôle ne pouvaient être raisonnablement utilisées que si la population ne se révélait pas fortement non normale. Shilling et Nelson [Shi 76] 22 ont alors cherché à déterminer quelles étaient les domaines d'applications valides des cartes de contrôle. L'une des répercussions essentielles de la non normalité sur les performances d'une carte de contrôle est la modification des risques a liés aux tests d'hypothèse. Shilling et Nelson considèrent que le domaine d'application d'une carte X n'est valide que pour un risque a proche de 0.3%. Pour cela deux alternatives sont envisageables : soit la distribution des moyennes suit une loi normale et on garde les limites traditionnelles ( Cible±3 s X ), soit il faut modifier les limites de contrôle. Les auteurs ont donc calculé les risques pour différentes lois non normales et pour différentes tailles d'échantillons. Les résultats obtenus ne permettent pas de conclure à une quelconque méthode pour établir les limites de contrôle. Cependant, ils confirment que les risques a sont dans la plupart des cas très différents de 0.27% si l'on s'en tient aux limites habituelles Cible±3 s X. De plus, on peut constater que le théorème central limite n'est pas un bon argument pour placer des limites de contrôle à Cible±3 s X lorsque les échantillons sont de taille moyenne. En effet, la convergence en loi de la distribution de la moyenne est parfois très lente. A titre d'exemple, le tableau (Figure 24) donne la taille minimum d'un échantillon pour obtenir des risques de l'ordre de 0.3% pour différentes lois de distribution de la population. 21 BURR, I. W. The effect of Non-Normality on constants for X and R charts Industrial Quality Control, Vol. 23, N 11, pp Mai SHILLING E.G. & NELSON P.R. The effect of non normality on the control limits of Xb charts - Journal of Quality technology - Vol 8 N 4 pp

55 Type de loi Echantillon mini Uniforme n>25 Gamma a=1/2 n>100 Gamma a=1 n>100 Gamma a=2 n>100 Gamma a=3 n>50 Gamma a=4 n>50 Bimodale symétrique n>500 Bimodale dissymétrique n>25 Figure 24 Pour chacun de ces cas, les tailles d'échantillons sont rédhibitoires pour l utilisation des cartes de contrôle. En pratique, on considère souvent que des risques inférieurs à 0.3% permettent une utilisation satisfaisante des cartes de contrôle. Dans ce cas les échantillons minimum sont d une taille plus acceptable pour la loi uniforme et la loi bimodale symétrique (Figure 25). Type de loi Echantillon mini Risque α pour n=5 Uniforme Gamma a=1/ Gamma a= Gamma a= Gamma a= Gamma a= Bimodale symétrique Bimodale dissymétrique Figure 25 On retiendra essentiellement deux thèses dans le choix des limites d une carte de contrôle : Une première approche que l on qualifiera de «puriste» tend à garder les risques a aussi proches que possible de 0.27% pour la carte des moyennes, quel que soit le type de distribution abordée. Nous décrirons dans ce chapitre quelques unes des méthodes permettant d aboutir à ce résultat. Nous citerons par exemple les travaux de Yourstone [Your 92] 23 qui suggère un ajustement des limites de contrôle basé sur une identification de la distribution de la population. Une autre approche, un peu plus «pragmatique» consiste à placer systématiquement les limites de contrôle à ±3 s estimateur quelle que soit la carte utilisée. Ce choix de l intervalle de confiance bien que simpliste, fait néanmoins autorité puisque les cartes de contrôle les plus répandues utilisent ce type de limites. Parmi ces cartes, nous pouvons citer la carte aux écart-types (S), la carte aux étendues (R), les cartes aux attributs (p,np c et u) pour lesquelles l estimateur utilisé ne suit pas une loi normale. 23 YOURSTONE Steven A. & ZIMMER W.J. Non normality and the design of control; charts for averages Decision Science Vol 23 N 5 pp

56 David [Dav 81] 24 considère en effet, que l ajustement des limites de contrôle dans le but de conserver des risques proches de 0,27% est un raffinement dont l apport pratique est limité. Wheeler [Whe 92] 25 adopte le même point de vue et montre pour plusieurs exemples de distributions non normales que la distribution des moyennes offre des risques a d un ordre de grandeur très raisonnable pour de faibles tailles d échantillons. Incidence sur le choix de l estimateur La problématique ne se borne malheureusement pas au calcul des limites pour une carte de contrôle. Le problème de l estimateur ponctuel est aussi un élément important. Nous savons par exemple que si la population est distribuée selon une loi normale, alors la moyenne est le meilleur estimateur sans biais qui puisse exister. En effet, sa variance atteint la borne de Frechet qui fixe la variance théorique minimum de l estimateur en fonction de l information qui lui est fournie. Qu en est il lorsque la population n est pas distribuée selon une loi normale? On peut montrer par exemple que la médiane est particulièrement performante pour des lois à caractère impulsionnel, tandis que le milieu de l étendue aura un bon comportement pour des lois proches de la loi uniforme. Estimateur Domaine d application X =X n 1 2 (n impair) X = 1 n n x i X n X 1 2 Figure DAVID H. A. Order Statistics - New York - Willey WHEELER D. J. Understanding Statistical Process Control - SPC press

57 D autre part, les règles de décision telles que : «7 points consécutifs sont du même coté de la cible alors le procédé est hors contrôle» n ont plus la même signification lorsque la distribution de l estimateur n est pas symétrique. Quand la distribution de la population suit une loi normale, la moyenne et la médiane de la population sont superposées. Ainsi les probabilités que la moyenne d un échantillon soit à droite ou à gauche de la moyenne de la population ( X ) sont égales. Cette propriété est à la base de ces règles de décision. Or, lorsque la population est dissymétrique, la moyenne et la médiane ne sont plus superposées. Cela signifie que la probabilité qu une valeur individuelle tombe à droite de la moyenne n est pas égale à celle qu elle tombe à gauche. Le problème est donc le même si la distribution de la moyenne n est pas symétrique. La moyenne des moyennes est différente de la médiane des moyennes. En toute rigueur, le test n est plus valable.

58 La capabilité des procédés non Normaux Le calcul des capabilités pour les procédés non normaux est un problème important étant donnée la forte sensibilité de ces indicateurs à une déviation de la population par rapport au modèle que constitue la loi normale. Pour que les indicateurs de capabilité puissent être exploitables indépendamment de la forme de la population, il est nécessaire de définir la dispersion comme l'intervalle centré couvrant 99.73% de la population. On note x p un p-quantile de la loi de distribution de la population. Alors les indicateurs de capabilité peuvent s écrire de manière générale : Cp= IT D et Cpk=min TS x 0.5 ; x 0.5 TI avec D=x x D 2 Il est peu concevable d estimer les p-quantiles de la distribution de la population en se basant uniquement sur les mesures relevées lors d une étude de capabilité. En effet, ces estimations seraient très approximatives du fait de l insuffisance des observations. La littérature compte un nombre important de méthodes proposant une extension de la définition des indicateurs de capabilité pour des lois non normales. Parmi elles on distingue quatre approches fondamentalement différentes : Les méthodes les plus connues consistent à faire l hypothèse que la distribution peut être approchée par une distribution théorique. Cette hypothèse doit pouvoir se justifier par la nature des observations, défaut de forme par exemple. Dans le cas contraire, on appliquera un test d adéquation pour créditer l hypothèse de départ. Ces méthodes sont qualifiées de «descendantes» (top-down) car on postule une loi avant de pouvoir vérifier son adéquation avec les observations expérimentales. Elles seront abordées très succinctement car elles sont déjà très largement répandues en milieu industriel. D autres méthodes dites «paramétriques empiriques» s appuient sur des familles de lois de distributions ou des familles de fonctions. Les familles de lois utilisées telles que les lois de Burr, lois de Pearson ou fonctions de Johnson ont la particularité de pouvoir décrire un grand nombre de configurations en faisant varier certains de leurs paramètres. A l inverse des méthodes précédentes, les méthodes paramétriques sont «ascendantes» (bottom-up) car on estime des paramètres à partir des observations du procédé pour en déduire la fonction représentant le mieux la distribution de la population. Les méthodes graphiques reprennent pour la plupart la philosophie de l histogramme en lui apportant des propriétés de continuité. Pour obtenir un histogramme lissé on utilise par exemple la méthode des noyaux (Kernel) ou encore un algorithme des splines cubiques.

59 Il existe aussi quelques méthodes non paramétriques dont les principes, plus originaux, ne s appuient sur aucune loi ou famille de lois pour calculer la dispersion. Le cadre de travail défini par un modèle paramétrique peut être parfaitement approprié lorsque la famille des lois de probabilité est liée aux caractéristiques physiques de l expérience. Cependant, le choix d un modèle statistique est souvent un procédé simplificateur de la réalité. C est pourquoi il est parfois préférable d utiliser les formes faibles d un modèle statistique lorsque la validité d un modèle paramétrique est mis en doute. Les indicateurs fondés sur des distributions théoriques Les critères de forme La difficulté liée à la loi de défaut de forme, est d établir sa dispersion, car sa forme varie en fonction du décentrage et de la dispersion de la loi normale sous-jacente. Il est donc nécessaire de déterminer les caractéristiques de la loi normale sous-jacente afin de connaître la dispersion de la population. Nous avons vu que la loi de défaut de forme s exprime par la relation : z³0}} {} f d z = 1 1 s n [ e 2 p 2 z m s n 2 e 2 1 z m s n 2 ] On note m et s la moyenne et l écart-type de la loi de défaut de forme. Nous distinguerons trois cas pour le calcul de la dispersion de la loi de défaut de forme, en se basant sur les valeurs du rapport m/s (Figure 27). 1 er Cas Si le rapport m/s < 1.323, la moyenne de la loi normale sous-jacente est inférieure à 0, ce qui est contraire aux hypothèse de la loi de défaut de forme. Dans ce cas, on suppose que la moyenne de la loi de défaut de forme est centrée sur 0. La dispersion est alors définie par D=5s, ce qui correspond à 99.74% de la population. (Voir en Annexe 2 les démonstrations mathématiques) 2 ème Cas Lorsque le rapport est compris entre et 3, on se place dans le cas ou une partie de la loi normale sous-jacente est du côté négatif. Dans ce cas les normes fournissent généralement, sous forme d un tableau la valeur du p-quantile x déterminé à partir du rapport m/s ou de la moyenne de la loi normale sous-jacente [AFN 94] 26 (Voir en Annexe 2). 26 AFNOR Norme NF E Moyens de production - Conditions de réception - Méthode d évaluation de l aptitude à réaliser des pièces

60 3 ème Cas Lorsque m/s > 3 la loi normale de défaut de forme peut être assimilée à une loi normale. On définit donc la dispersion comme la somme de la moyenne de la loi de défaut de forme et le p-quantile de la loi normale x s, c est à dire 2,78s que l on approxime parfois à 3s. Dans ces trois cas, la dispersion de la loi de défaut de forme est définie par l intervalle qui couvre 99,73% de la population en partant de zéro. 1 er Cas 2 ème Cas 3 ème Cas m s m s m s D=5 s D=x s D=m 3 s D D D Figure 27 La loi de Rayleigh En ce qui concerne la loi de Rayleigh, les calculs permettant d établir les indicateurs de capabilité Cp et Cpk sont particulièrement simples. On peut montrer [Sou 86] 27 que la portion de la loi de Rayleigh couvrant 99.73% de la population est de 5.25 s r lorsqu il n y a pas de décentrage. Les relations du Cp et du Cpk en fonction de l écart type des observations s r sont alors immédiates (Eq 0). Eq 0 IT Cp= Dispersion = IT et Cpk= TG m r 5.25 s r s r m r 27 SOUVAY P. La statistique outil de la qualité Edition AFNOR

61 La loi Log-normale Contrairement à la loi de Rayleigh, la loi Log-normale n a pas de justification physique. On doit son utilisation à sa simplicité. Elle permet de modéliser assez fidèlement des distributions bornées telles que les défauts de forme. Le problème qui se pose encore est de calculer le p-quantile de la loi Log-normale correspondant à % pour pouvoir calculer le Cpk. TS m Cpk= x m Rappelons tout d abord, que si une variable aléatoire Y est distribuée selon une loi normale, alors la variable définie par X=exp(Y) suit une loi log-normale. Une manière très simple de trouver le p-quantile, est d opérer une transformation vers la loi normale à toutes les réalisation de la variable X : Y=ln(X). On calcule alors les paramètres caractéristiques de la loi normale, qui sont respectivement la moyenne m et l écart type s. Si Y suit une loi normale N(m ;s), alors X=e Y suit une loi Log-normale dont l espérance m vaut e m s2 /2 et le quantile de X vaut e m 3 s. D où l expression du Cpk (Eq 0). Eq 0 TS m Cpk= e m 3 s m Limite de ces méthodes Les méthodes présentées dans ce paragraphe font partie des grands classiques de la M.S.P. et répondent aux problèmes les plus courants de non normalité. Elles ont l avantage d être relativement simples du fait des lois postulées. L existence de tests d adéquation pour la loi de Rayleigh et la loi log-normale contribue aussi à les rendre attrayantes. Cependant les hypothèses formulées sont très restrictives quant à la définition des procédés. En effet, la loi de défaut de forme ne concerne que des critères unilimites particuliers. La loi de Rayleigh n est applicable que si les deux sources de dispersion sont orthogonales et ont même écart-type. Ces différentes méthodes n ont pas la prétention de répondre à tous les problèmes de non normalité. C est cet inconvénient majeur qui a motivé le développement de méthodes basées sur des familles de lois, afin d élargir le domaine d application des indicateurs de capabilité à un plus grand nombre de lois non normales.

62 Indicateurs de capabilité fondés sur des familles de distributions L intérêt de ces méthodes paramétriques par rapport aux précédentes est de mettre en œuvre un modèle statistique plus général, valide pour une grande variété de formes de densités de probabilité. Plusieurs auteurs ont proposé l'utilisation de méthodes robustes pour estimer la capabilité de procédés dans le cas de lois non normales. Parmi eux, Clements [Cle 89] 28 suppose que la distribution du procédé peut être représentée par une loi de Pearson. Il fournit des tables qui permettent de déterminer la capabilité du procédé en fonction du coefficient de Skewness b 1 et de Kurtosis b 2 de la population. Dans le même état d'esprit, Farnum [Far 97] 29 propose la construction d indicateurs de capabilité à l'aide des lois de Johnson. Bien qu elles utilisent des modèles différents, ces approches sont sensiblement équivalentes. L objectif est en effet de déterminer les p-quantiles délimitant la dispersion de la population en se servant du modèle que l on aura identifié. La famille des lois de Burr Le modèle de lois proposé par Burr [Bur 42] 30 permet de représenter les fonctions de répartition d une distribution contrairement aux lois de Pearson et Johnson qui décrivent sa densité de probabilité. La fonction de répartition est introduite sous forme d'une équation différentielle. On appelle loi de Burr une loi continue f(x) dont la fonction de répartition F(x) satisfait l'équation différentielle: F ' x =F x [1 F x ] g x où g(x) est une fonction non négative. La solution de cette équation différentielle s'écrit: 1 F x = 1 exp [ G x ] avec G x = - x g u du une loi strictement croissante. Pour pouvoir identifier la loi de distribution des données, Burr propose de calculer la somme des moments centrés théoriques. M k = a xk [1 F x ] dx - a x k F x dx Cela permet de fournir les p-quantiles de la loi sans avoir à calculer les probabilités en passant par la densité de probabilité. Par contre il est nécessaire de connaître la forme a priori de la loi de distribution. 28 CLEMENTS J.A. Process capability calculations for non normal distributions Quality Progress - N 22 pp FARNUM R.N. Using Johnson curves to describe non-normal process data Quality engineering 9(2) - pp BURR, I. W. Cumulative frequency functions - Annals of Mathematical Statistics, N 13, pp

63 Identification de la loi Castagliola [Cas 96] 31 propose une variante de la méthode de Burr en construisant une fonction de répartition empirique F e (Eq 0) à partir d un échantillon ordonné. La fonction F e n étant pas continue, on ne peut l utiliser directement pour estimer les p-quantiles de la population. Eq 0 F e x ={0, k n, x x 1 x k x x k 1 1, x³x n Où x 1, x 2, K, x n est un échantillon ordonné de n observations du procédé x 1, x 2, K, x n. F En conséquence, la fonction G e =ln e x 1 F e x ne peut être calculée à partir de F e que pour n-1 valeurs de x (k) (k=1, 2,..., n-1). Pour obtenir une fonction continue, on propose de remplacer la fonction G e inconnue par un polynôme G r (x) d ordre r. Ce polynôme est obtenu en appliquant la méthode des moindres carrés sur les n-1 couples { x (k) ; G e (x (k) )}. La fonction de répartition s écrit alors F r x = 1. 1 exp [ G r x ] Remarque Quelques restrictions sont à émettre concernant la fonction G(x). En effet, la fonction G(x) et donc G r (x) doit être strictement croissante. En conséquence, il faut que le polynôme G r (x) soit d ordre impair. Construction des indicateurs de capabilité A partir de la fonction de répartition empirique F r (x), on calcule les probabilités d avoir des mesures à l extérieur des tolérances p i et p s On peut écrire le Cp et Cpk en fonction de la loi normale réduite : Cp= 1 6 [ F 1 1 p s F 1 p i ] Cpk= 1 3 min [ F 1 p i, F 1 1 p s ] 31 CASTAGLIOLA Ph Evaluation of non normal Process capability indices using Burr's distributions Quality engineering 8(4) pp

64 Grâce à ces formules, il est possible d'estimer les valeurs du Cp et du Cpk conformément à leur définition même lorsque la loi est non normale. Pour cela, on se base sur les proportions hors tolérances. Les indicateurs de capabilité Cp et Cpk obtenus (Eq 0) peuvent donc être comparés à ceux calculés dans le cas d une population normale. Loi non normale Loi normale réduite F r (TS) 1 F TS r TI TS Figure 28 Cp= 1 6 [ F 1 F r TS F 1 F r TI ] Cpk= 1 3 min [ F 1 F r TI, F 1 F r TS ] Eq 0 En utilisant cette transformation, P. Castagliola utilise implicitement la médiane comme estimateur de position de la population. Conclusion L utilisation des courbes de Burr par Castagliola est assez originale car elle est fondée sur la construction de la fonction de répartition empirique de la population. Les courbes de Burr offrent alors un cadre suffisamment souple pour décrire un nombre important de lois. Il faut toutefois prendre quelques précautions pour que la méthode fournisse de bons résultats. La première contrainte est de prélever au moins une centaine d observations pour que la fonction de répartition empirique soit parfaitement décrite, surtout au niveau des queues. Il faut ensuite déterminer l ordre du polynôme G r (x) pour que son tracé approche au mieux les données. Castagliola n énonce malheureusement pas de règle à ce sujet.

65 La famille des lois de Pearson Clements [Cle 89] 32 a proposé, de son côté, une méthode de calcul des indicateurs de capabilité Cp et Cpk en se basant non pas sur les lois de Burr mais sur les lois de Pearson. La démarche de Clements est à peu près équivalente à celle de Burr, car il considère que la définition des indices de capabilité Cp et Cpk est fondée sur le pourcentage hors tolérances. On suppose que les courbes de Pearson peuvent être caractérisées à partir de quatre paramètres qui sont la moyenne, l'écart type, le coefficient de Skewness et le coefficient de Kurtosis. Ces différents paramètres sont calculés à partir de données expérimentales du procédé. On utilise la médiane M plutôt que la moyenne pour estimer de manière robuste la tendance centrale de la population. D autre part, les coefficients de Skewness et de Kurtosis sont construits à partir des moments d'ordre trois et quatre. L auteur rappelle à cet égard que la taille des échantillons de capabilité ne doit pas être inférieure à n= 20. Ceci n'est absolument pas contraignant pour réaliser une étude ce capabilité car les normes imposent souvent des tailles d échantillons bien supérieures. A partir des différents paramètres des courbes de Pearson, Clements utilise le tableau établi par Gruska et Al [Gru 89] 33 pour connaître la dispersion de la population. En effet ce tableau fournit les probabilités supérieure p s et inférieure p i des lois de Pearson réduites (m=0 et s=1) en fonction des coefficients de Skewness et Kurtosis. Les indicateurs de capabilité obtenus par cette méthode s écrivent alors sous la forme (Eq 0) : Eq 0 C p= USL LSL p s p i C pk=min USL M p s M ; M LSC M p i Par la suite, W. L. Pearn et S. Kotz [Pea 95] 34 ont étendu cette méthode de calcul à d'autres indicateurs de capabilité. Il s'agit en l'occurrence des indicateurs, dits de 2ème et 3ème génération, comme le Cpm, le Cpmk et le Cpm* (Eq 0). La mise en place ne présente aucune difficulté supplémentaire ; il suffit pour les obtenir de déterminer les p-quantiles définissant la dispersion. 32 CLEMENTS J. A. «Process Capability Calculations for Non-normal Distributions» Quality Progress N 22 - pp , Sep GRUSKA G. F. MIRKHANI K. & LAMBERSON L.R. Non normal Data Analysis Applied Computer Solutions Inc REARN W.L. & KOTZ S. Application of clements method for calculating second and third generation capability indices for non normal pearsonian population - Quality Engineering 7(1) pp

66 C pmk=min[ TS TI C pm= 6 [ p s p i /6 2 M Cible 2 ] 1/2 C pm min TS M ; M TI = 6 [ p s p i /6 2 M Cible 2 ] 1/2 TS M 3 [ p s M /3 2 M Cible 2 ] ; M TI 1/2 3 [ M p i /3 2 M Cible 2 ] 1/2 ] Eq 0 Ces derniers résultats nous semblent très critiquables car la notion de perte est totalement indépendante des pourcentages hors tolérances. Dans la philosophie originale du Cpm, on considére, au contraire, que l utilisation de l indicateur Cpm est totalement indépendante de la distribution de la population. Le Cpm est calculé à partir de la fonction perte, qui ne tient compte que de l écart quadratique des observations avec la cible (Voir Chapitre 1). La substitution de s par (p s -p i )/6 est donc inadaptée. La méthode proposée par Clements ne semble pas dénuée d intérêt et bon nombre d auteurs y font référence. Cet engouement s explique en grande partie par le caractère systématique de la méthode et sa simplicité. Elle se révèle d ailleurs d une grande souplesse puisque les courbes de Pearson permettent de représenter un grand nombre de situations. Cependant pour obtenir des résultats fiables, il est recommandé de calculer les coefficients de Skewness et de Kurtosis sur un échantillon de taille relativement importante, faute de quoi l estimation de la dispersion peut aboutir à des valeurs extravagantes. La famille des lois de Johnson Les courbes de Johnson furent présentée en 1949 comme une alternative aux lois de Pearson pour la description des lois non normales. Leur principe est similaire aux lois de Pearson puisqu à l aide de 3 familles de lois, on peut décrire une grande variété de formes de distributions. L éventail des possibilités offertes par les courbes de Johnson est sensiblement équivalent à celui des courbes de Pearson. Les courbes de Johnson offrent néanmoins quelques avantages sur les courbes de Pearson. En effet, elle bénéficient de méthodes permettant de choisir la courbe qui décrit le mieux la population. Des transformations permettent également de simplifier les problèmes de calculs de probabilité en se ramenant à une loi normale réduite. De plus, l estimation des paramètres des courbes est basée sur une approximation de p-quantiles de l échantillon des observations. Cette approche est généralement plus fiable que les méthodes basées sur les moments comme celle proposée par Clements.

67 Présentation des courbes de Johnson Johnson a proposé trois courbes pour décrire différents types de distributions. Chacune d elles peut être transformée (approximativement) en une loi normale réduite. Les fonctions k 1, k 2 et k 3 sont à la base des transformations de variables que l on opère pour ramener la distribution d une variable, décrite par une loi de Johnson, à une loi normale réduite. k 1 x, λ,e =sinh 1 x e λ x e k 2 x, λ,e =ln λ e x k 3 x, λ, e =ln x e λ Ces courbes sont définies sur un intervalle non borné (l ensemble des réels). Au contraire cette équation décrit des distributions qui sont définies sur un intervalle ouvert ]e,e+l[. Les dernières courbes sont de type log-normal et trouveront leur application pour des critères unilimites comme les défauts de forme. Choix de la famille de courbes Slifker et Shapiro [Sli 80] 35 ont introduit une méthode basée sur l approximation de p-quantiles afin de déterminer quelle est la courbe la plus à même de décrire la distribution de la population. La première étape de cette méthode consiste à choisir une valeur z et calculer les valeurs de la fonction de répartition de la variable N(0,1) en -3z, -z, z, 3z. Les auteurs proposent de prendre z = D où P -3z = P = P -z = P = 0.3 P z = P = 0.7 P 3z = P = On estime ensuite les p-quantiles de la population correspondant aux probabilités précédentes. Ceci peut être fait à l aide d un échantillon ordonné comme le fait Castagliola pour la construction des courbes de Burr. A l aide des p-quantiles que l on note x -3z, x -z, x z, x 3z, on calcule les coefficients m, n et p, qui permettront de choisir la famille de courbes. m = x -3z - x -z n = x -z - x z p = x z - x 3z 35 SLIFKER J. F. SHAPIRO S. S. The Johnson System : Selection and parameter estimation Technometrics - Vol 22 N 2 - pp

68 On distingue trois cas : mn/p 2 < 1 mn/p 2 = 1 mn/p 2 > 1 Courbe Bornée k 2 Courbe Log-normale k 3 Courbe non bornée k 1 Le type de courbe étant déterminé, on estime les paramètres de la loi en appliquant les équations ayant pour variables m, n et p. Pour plus de précision, on trouvera l ensemble de ces équations en Annexe Mathématique ( 1). Calcul de la dispersion et des indicateurs de capabilité. Pour calculer la dispersion de la distribution de la population, modélisée par une courbe de Johnson, on prend les p-quantiles de la loi normale réduite délimitant 99.73% de la population, c est à dire -3 et 3. On applique une transformation qui permet alors de reporter les p-quantiles qui délimitent la dispersion sur la courbe de Johnson. Trois transformations existent selon le type de loi choisi. Courbes non bornées x=e λ sinh g z h Courbes bornées x=e λ[ 1 exp g z Courbes Log-normales x=e λ exp z g h h ] Les indicateurs de capabilité se calculent en reprenant les formules utilisées pour la méthode de Clements. Johnson propose lui aussi de suivre la tendance centrale de la population à l aide de la médiane. 1 Critique des méthodes Les différentes méthodes proposées dans ce paragraphe sont basées sur le principe d approximation de la distribution de la population par une famille de courbes paramétriques. Pour estimer les paramètres de ces lois on distingue deux approches : l une basée sur un calcul de moments de la population tandis que l autre utilise une approximation de p-quantiles de la population. Ces dernières sont, selon Farnum [Far 97] 36, beaucoup plus fiables que celles utilisant les moments. Cependant, il faut souligner que les méthodes utilisant les p-quantiles ne donnent des résultats vraiment fiables que pour des échantillons de taille respectable (de l ordre de 100). 36 FARNUM R.N. Using Johnson curves to describe non-normal process data Quality engineering 9(2)

69 Bien que ces méthodes revêtent un caractère général, elles n en sont pas moins limitées par le type de courbes qu elles utilisent. En effet les courbes de Pearson ne peuvent décrire que des populations dont la distribution est unimodale. Les courbes de Burr en revanche permettent de décrire des distributions un peu plus complexes comme les lois multimodales. Cette propriété nous semble particulièrement intéressante car bon nombre d applications industrielles génèrent des lois multimodales ; les couples de serrages par exemple [Gui 97]. Pour leur part, les lois de Johnson présentent la particularité de décrire des lois définies sur un support borné. Le cadre d application nous semble ici moins évident mais on peut imaginer que des distributions soient tronquées pour des raisons physiques. Les spécificités de chacune des méthodes proposées exigent donc que l utilisateur ait une «petite idée» a priori de la distribution de la population. Plusieurs auteurs comme Franklin et Wasserman se sont affranchis de ces problèmes de modélisation en proposant des méthodes non paramétriques. Approches non paramétriques Méthodes bootstrap Les méthodes bootstrap ont une approche totalement différente de celles présentées auparavant puisque leur objectif n est pas de modéliser au mieux la distribution de la population pour estimer sa dispersion. Ce sont des méthodes d estimation non paramétriques basées sur un rééchantillonnage de l échantillon original nécessaire à l estimation des indicateurs de capabilité. Les premiers travaux furent présentés par Efron B.[Efr 79] 37, puis Efron & al [Efr 83] [Efr 86] développèrent trois types d algorithmes bootstrap. Ces méthodes, qui permettent de construire un intervalle de confiance pour la statistique étudiée, sont respectivement le bootstrap standard ou naïf, le bootstrap par les p-quantiles et le bootstrap à biais corrigé par les p-quantiles. Ces différents algorithmes ont été étudiés par Franklin L.A. & Wasserman G.S. [Fra 91] 38 [Fra 92] 39 pour la construction d intervalles de confiance pour les indicateurs de capabilité Cp Cpk et Cpm. 37 EFRON B. Bootstrap Methods :Another look at the Jackknife - Annals of Statistics - N 7 - pp FRANKLIN L.A.& WASSERMAN G.S. Bootstrap Confidence Interval estimates of Cpk : An introduction Communications in Statistics - Simulation and Computation - N 20 - pp FRANKLIN L.A.& WASSERMAN G.S. - Bootsrap Lower confidence limits for capability Indices Journal of Quality Technology Vol 24 N

70 La méthode de calcul On note x 1, x 2, L, x n un échantillon de taille n prélevé sur le procédé pour calculer les indicateurs de capabilité du procédé. On appelle échantillon bootstrap, un échantillon x, x, L, x constitué 1 2 n par tirage avec remise dans l échantillon original. Il est possible de constituer n échantillons, à partir d un échantillon original de taille n. Pour chacun des n n échantillons on calcule les C statistiques d intérêt p*, C pk ou C pm qui sont respectivement des estimateurs du Cp Cpk ou Cpm. Efron B conseille de prendre un minimum de 1000 échantillons bootstrap. L objectif étant de démontrer le bien fondé de ces méthodes, nous nous contenterons d en donner un rapide aperçu. Nous commenterons ensuite les résultats obtenus par Franklin et Wasserman. Le Bootstrap standard ou Naïf L estimation d une statistique d intérêt par la méthode bootstrap consiste dans la plupart des cas à calculer la moyenne des B réalisations de cette statistique (Eq 0). La statistique bootstrapée, notée C est indifféremment le Cp ou le Cpk. Eq 0 B C 1 C B i i=1 On note S c * un estimateur de l écart type de l estimateur de l indice de capabilité C B S c 1 B 1 i=1 C i C 2 Dans le cas d un intervalle de confiance bilatéral (1-a) on calcule les limites par la relation classique. C±x 1 α/2 S c Où x et un p-quantile de la loi normale réduite pour la probabilité p=1-a/2.

71 Bootstrap par les p-quantiles Cette deuxième méthode ne diffère de la première que par le calcul de l intervalle de confiance. On C la construit à partir des statistiques d ordre de correspondant aux p-quantiles a/2 et 1-a/2 (Eq 0). Eq 0 [ C B α/2 ; C B 1 α/2 ] Cette méthode peut cependant souffrir de biais. Pour remédier à ce problème, une seconde méthode a été développée. Il s agit du Bootstrap à biais corrigé par les p-quantiles. Bootstrap à biais corrigé par les p-quantiles. Pour détecter un éventuel décentrage de la distribution, on calcule à partir des réalisations C ordonnées de, la probabilité : p 0 =P C c C C est à dire le nombre de statistiques bootstrapées supérieures à, divisé par B. On calcule alors le p-quantile correspondant pour la loi normale réduite afin de déterminer les probabilités associées à chacune des limites de l intervalle de confiance. { x 0 =F 1 p P L =F 2 x 0 x 1 α/2 0 P U =F 2 x 0 x 1 α/2 d où l intervalle de confiance (Eq 0) Eq 0 [ C ; C P L B P U B ]

72 Résultats Les travaux de Franklin et Wasserman ont mis en évidence que la méthode bootstrap naïve était la plus précise et la plus robuste à la non normalité. En effet, les intervalles de confiance de 95% construits à partir d un échantillon de taille n=30, 50 ou 75 sont aussi performants que ceux calculés dans le cas de la loi normale. Au delà du calcul d intervalle de confiance, on retiendra que l intérêt des méthodes bootstrap est de pouvoir fournir une estimation de bonne qualité d une statistique quand on a un nombre réduit d observations. Cela peut s avérer intéressant pour les indicateurs de capabilité ainsi que d autres statistiques telles que des estimateurs de dispersion (S). L étude réalisée par Franklin et Wasserman ne concerne que la robustesse des intervalles de confiance à la non normalité. On regrette en effet que les indicateurs Cp et Cpk utilisés soient ceux définis dans le cas d une loi normale. La dispersion n est plus dans ce cas, conforme à sa définition sous l hypothèse de normalité (99.73% de la population).

73 Les cartes de contrôle Le problème lié à l utilisation de cartes de contrôle dans un contexte de non normalité, reste encore relativement peu abordé dans la littérature scientifique. La première raison qui peut expliquer ce phénomène est la relative robustesse des cartes de contrôle à la non normalité. En effet, lorsque la population est faiblement dissymétrique, la moyenne, utilisée pour estimer la position du procédé, reste distribuée selon une loi normale. Cependant cette robustesse est très limitée du fait de la faible taille des prélèvements. De plus cette relative «immunité» à la non normalité n est pas valable pour les cartes aux valeurs individuelles ou encore pour les cartes utilisant d autres estimateurs que la moyenne : la médiane par exemple. La seconde raison, qui peut expliquer ce manque d enthousiasme pour l étude des cartes de contrôle dans une situation non normale, est la ressemblance du problème avec celui du calcul des indicateurs de capabilité lorsque la population est non normale. Une méthode pour calculer les limites de contrôle d une carte X, proposée par Yourstone, utilise d ailleurs les courbes de Burr pour modéliser la fonction de répartition des moyennes. Des méthodes équivalentes sont tout à fait envisageables avec les courbes de Johnson ou Pearson. Méthodes fondées sur une famille de lois Construction d une carte à partir des lois de Burr Les cartes de contrôle de type Shewhart sont construites en posant l hypothèse de normalité de la distribution des moyennes. Cette hypothèse bien que très forte, peut ne pas être valable si la population est fortement non normale. Dans ce cas, les limites de contrôle placées à ±3 s de la cible ne garantissent plus des risques statistiques de l ordre de 0.27%. Partant de ce constat, Yourstone [You 92] 40 a proposé une méthode de construction de carte de contrôle basée sur la famille de lois de Burr. L objectif de cette méthode est de conserver le niveau de risque a proche de 0.27% quelle que soit la distribution de population. Le problème de modélisation de la distribution de la moyenne pour fixer les limites de contrôle, est beaucoup moins complexe que dans le cas des capabilités car la distribution des moyennes bien qu occasionnellement non normale possède une forte tendance centrale, et les distributions considérées sont dans la plupart des cas unimodales (sauf si les mesures d un échantillon ne sont pas identiquement distribuées). Contrairement à Castagliola qui construit la loi de Burr à partir d une estimation des p-quantiles de la population, Yourstone se base sur les moments. 40 YOURSTONE Steven A. & ZIMMER W.J. Non normality and the design of control charts for averages Decision Science Vol 23 N 5 pp

74 Lorsque la distribution des moyennes ne peut être modélisée par une distribution normale, deux alternatives se présentent à l utilisateur de cartes de contrôle : La première solution consiste à transformer les valeurs individuelles de telle manière que la variable obtenue soit distribuée selon une loi normale. L inconvénient d une telle méthode est lié à la difficulté de déterminer et de justifier la transformation appropriée. Une autre alternative consiste à modifier les limites de contrôle de la carte. Cette approche a l'avantage de ne pas modifier les données de base. De plus, la modification des limites semble plus simple à effectuer et à justifier. Une manière de modifier les limites est de procéder au calcul des probabilités. Cela requiert que l'on connaisse la forme de la distribution des moyennes ou qu'on l'approche précisément. Burr a développé une fonction algébrique qui a la propriété de décrire un nombre important de distributions. Celle-ci peut-être utilisée pour déterminer les limites dissymétriques de la carte. La distribution de BURR La distribution de BURR généralisée est utilisée pour déterminer les limites non symétriques de la carte de contrôle. La fonction de répartition de la distribution de BURR est définie par : F y y = [ y c k ] F y y =0 y 0 y 0 y donc est une variable aléatoire dépendant deux paramètres positifs c et k. Cas particuliers (Voir Figure 29) : c = et k = décrit une loi normale N(0 ; 1) c = 3 et k = 6 décrit une loi gamma de paramètre a=16 1 Fonctions de répartition de Burr F(y) Loi Gamma Loi Normal y Figure 29

75 Détermination des paramètres de la loi de Burr Comme toute approche statistique, la construction d une carte de contrôle nécessite une analyse préliminaire du procédé. On utilise un minimum de 50 valeurs individuelles pour déterminer X ainsi que les coefficients de Skewness et de Kurtosis (Eq 0) de la population. Eq 0 α 3 = 1 N i=1 N X i X 3 [ 1 N 2]3 2 N X i X i=1 α 4 = 1 N N X i X 4 i=1 [ 1 N 2]2 N X i X i=1 Il est évident que deux distributions ayant les quatre premiers moments identiques ne sont pas nécessairement identiques, cependant il est raisonnable de penser qu'il n'y aura pas de différence d un point de vue pratique. On déduit des équations (Eq 0) la valeur des coefficients de Skewness et de Kurtosis de la distribution des moyennes [Sap 78] 41. α 3 X = α 3 α 1 4 X = α 4 3 n 3 2 n A partir des tables de BURR [Bur 67] 42 et des coefficients α 3 X et α 4 X, on détermine les coefficients c et k de la loi de Burr représentant la distribution de X. Développement de la carte de contrôle non symétrique A partir du modèle mathématique que constitue la loi de Burr, on peut estimer la forme des queues de la distribution de la moyenne, et donc calculer les limites de contrôle assurant un certain niveau de risque à gauche et à droite de la distribution. La fonction de répartition inverse d une distribution de Burr définie par la relation (Eq 0) : Eq 0 Y =[ 1 P 1 1 c k 1 ] est utilisée pour déterminer les p-quantiles x 0,00135 et x 0,99865 nécessaires au calcul des limites de contrôle. 41 SAPORTA G. Théorie et Méthodes de la Statistique - Technip BURR, I. W. The effect of Non-Normality on constants for X and R charts Industrial Quality Control, Vol. 23, N 11, pp Mai 1967

76 On note Y une variable aléatoire distribuée selon la loi de Burr caractérisée par les coefficients k, c, M et S. Les variables réduites de loi de Burr et de la distribution de la moyenne sont alors égales. Y M S = X m s/ n m et s étant respectivement la moyenne et l écart type de la population. D où le changement de variable : X = s/ n Y M m S Il suffit alors de substituer Y par les p-quantiles issus de la fonction de répartition inverse d une distribution de Burr (Eq 0) pour connaître les limites de la carte de contrôle de type Shewhart (Eq 0). Eq 0 1 LIC=m [ M 1 Pi 1 c k 1 ] s S n 1 LSC=m [ 1 Ps 1 c k 1 M ] s S n Conclusion La démarche proposée par Yourstone présente l avantage de fournir un cadre rigoureux pour la détermination des limites de contrôle. Cet avantage est incontestable quand on sait que les limites de contrôle sont systématiquement placées à ±3s de l estimateur considéré. Il faut aussi souligner que cette méthode n exige pas un nombre excessif d observations pour déterminer les limites de contrôle. L auteur suggère en effet d utiliser au minimum 50 observations pour calculer les coefficients de Kurtosis et de Skewness de la distribution de la moyenne. Cependant comme le fait remarquer Rodriguez [Rod 92] 43 les méthodes basées sur les moments peuvent donner des résultats instables. C est pourquoi il est très hasardeux de vouloir trop réduire le nombre d observations. D autres approches sensiblement équivalentes s appuient sur une identification de la distribution de la moyenne par la loi de Weibull ou Log-normale [Sch 96] 44. On peut effectivement utiliser d autres réseaux de courbes comme les lois de Pearson ou Johnson présentées au paragraphe précédent, même si l utilisation des courbes de Burr nous semble plus générale. 43 RODRIGUEZ R.N. Recent developments in process capability analysis Journal of Quality Technology Vol 24 N SCHNEIDER H. KASPERSKI W.J. & al Control charts for skewed and censored data Quality engineering 8(2):

77 Cas des populations stratifiées Méthodes d'échantillonnage Parmi les procédés permettant d améliorer la précision des estimations obtenues à partir d un échantillonnage aléatoire, on peut retenir la technique de stratification [Gen 74] 45 [Ard 95] 46. Ces techniques concernent les populations non homogènes dont on peut isoler les lois élémentaires (Figure 30). La stratification, préalable à l échantillonnage, consiste à diviser la population en un certain nombre de groupes homogènes appelés strates et à tirer indépendamment un échantillon dans chacune des strates. St rate N 3 Strate N 1 St rat e N 2 Figure 30 L échantillon est alors constitué d autant de sous-échantillons qu il y a de strates, chaque souséchantillon étant prélevé au hasard dans une strate. De manière générale, on a toujours intérêt à stratifier une population lorsque cela est possible. Cette technique n est bien entendu possible que si les générateurs (ou strates) sont identifiables sur le procédé étudié. Pour des raisons économiques évidentes, les échantillons prélevés pour les cartes de contrôle, pour chacune des strates seront de petites tailles et le plus souvent unitaires. Définition des strates Le problème essentiel qui conditionne l efficacité de la méthode est le choix des strates et leur délimitation. Pour être choisi comme critère de stratification, un caractère statistique quantitatif ou qualitatif doit être en corrélation étroite avec les variables étudiées. Pour un procédé multiempreintes, par exemple, on applique la stratification par empreinte. L efficacité de la stratification dépend en effet de l homogénéité des strates vis à vis de ces variables. 45 GENET J., PUPION G., REPUSSARD M. Probabilités, Statistiques et sondages - Vuibert ARDILLY Les techniques de sondage - Technip

78 On peut montrer qu on a intérêt à multiplier le nombre de strates pour accroître la précision de l estimation. On reste néanmoins limité par la nécessité de tirer au moins un échantillon (même unitaire) par strate. La stratification permet d améliorer considérablement la précision des estimations, d autant qu il est possible de déterminer une répartition optimum des échantillons entre les différentes strates. Dans le cas où le taux de sondage est uniforme entre les strates, l échantillon est appelé échantillon stratifié représentatif. Ce type d échantillonnage n offre pas un gain de précision aussi important que si le taux de sondage par classe est optimisé. Répartition optimum de l échantillon entre les strates L objectif de cet échantillonnage est de répartir entre les différentes strates l échantillon, dont l effectif global n est fixé. Cette répartition est faite de façon à obtenir la meilleure estimation possible. Il s agit de déterminer les tailles n 1, n 2,..., n k des échantillons dans les différentes strates, pour lesquelles la variance de l estimateur est minimum avec la condition : k n h =n h=1 Ceci revient à rechercher le minimum de l expression. k W n 1,..., n =V x ' λ n h k 1 où l est le multiplicateur de Lagrange h=1 Pour obtenir la meilleure estimation possible, le taux de sondage dans chaque strate doit donc être proportionnel à l écart-type dans la strate de la variable étudiée. La valeur du coefficient de proportionnalité est déterminé par la relation (Eq 0) : Eq 0 K = k h=1 n N h s h Cet échantillon est appelé échantillon de Neyman. D un point de vu pratique, il semble difficile d appliquer un tel échantillonnage sur un procédé de fabrication. Cela voudrait supposer que la dispersion sur chacun des générateurs est parfaitement connue et n évolue pas dans le temps.

79 Estimation de la moyenne de la population Une fois l échantillonnage effectué dans chacune des strates, on peut estimer la moyenne de la population en appliquant la relation (Eq 0). Eq 0 k x ' = 1 N h=1 n N h h x n hi h i=1 avec N N h n h k l effectif total l effectif de la strate h la taille de l échantillon de la strate h nombre de strates Dans le cas d un échantillon stratifié représentatif la relation se résume à la moyenne des échantillons (Eq 0). Eq 0 k x ' = h=1 N h N 1 N i=1 n h x hi = 1 k n h=1 n h x hi i=1 avec N h N 1 n h = 1 n Variance de l estimateur de la moyenne L expression générale de la variance de l estimateur de la moyenne de la population est donnée par la relation (Eq 0). Eq 0 avec k 2 N V x ' = h h=1 N 2 N h n 2 h N h 1 s h n h = k N h 2 h=1 s 2 h = N h 1 S N h h N 2 N h n h S h N h n h

80 Exemple d application à un procédé mutigénérateur On peut montrer au travers d un exemple numérique qu il est très avantageux de prélever un échantillon dans les strates d une population, plutôt que de procédé à cet échantillonnage de manière aléatoire. Prenons l exemple d un tour comportant 6 broches. Les 6 broches ont la même dispersion s = 0.2 ; l échantillon stratifié représentatif (1 pièce par broche) est aussi l échantillon de Neyman On suppose que les différentes strates ont respectivement pour moyenne 10.5 ; 10.1 ; 9.9 ; 10.2 ; 10.5 ; 10.0 La variance de la population s obtient à partir des relations (Eq 0) V [ X ]=E [ X 2 ] E [ X ] 2 = p [ k s 2 i m i2 i=1 k p m i]2 i=1 V [ X ]= = La variance de la moyenne dans le cas d un échantillonnage aléatoire de taille n= 6 est donc : V [ X ]=V [ X ]/n= En revanche si l estimateur est construit à partir d un échantillon stratifié représentatif, sa variance est donnée par la relation : n h = 1 s h = 0.2 N h =N/6 k= 6 h h d ou V [ X ' ]= 1 k s 2 = h=1 h L efficacité relative de l estimateur construit sur un échantillon stratifié représentatif par rapport à la moyenne est donc : V [ X ' ] = V [ X ] » 43

81 Aspect pratiques Les méthodes de stratification s appliquent tout particulièrement aux procédés dont la production peut être décomposée en sous-groupes homogènes. Pour les procédés multigénérateurs la décomposition est évidente puisque chaque générateur est à l origine d une loi élémentaire. Pour un procédé de type multibroches, on a tout intérêt à prélever une pièce minimum par broche (comme nous le montre l exemple ci-dessus), pour constituer l échantillon stratifié représentatif. Cette méthode est néanmoins contraignante car elle oblige à prélever des échantillons dont la taille est multiple du nombre de générateurs. Si le procédé possède un nombre important de générateurs (machines transferts à tables rotatives 18 postes) il devient difficile de procéder à la stratification de la population pour des raisons économiques. On lui préfère parfois l échantillonnage séquentiel qui consiste à prendre un échantillon par strates consécutives [Pil 97a] 47. Même si on n a pas un échantillon minimum par strate, cette technique permet de réduire de manière significative la variance des estimations de la moyenne. Dans le cas particulier où la taille d échantillon est égale au nombre de générateurs, on a un échantillon stratifié représentatif. On peut également prélever systématiquement les échantillons dans les mêmes strates. Cela permet de réduire la taille des échantillons, ou tout au moins de ne pas être contraint à prendre une taille d échantillon égale au nombre de générateurs. Cette démarche permet d obtenir une variance inférieure à celle d un échantillonnage séquentiel mais a l inconvénient majeur d être biaisée. Cartes de contrôle pour les populations stratifiées Lorsque l on rencontre une population stratifiée, celle ci a très souvent pour origine un procédé multigénérateur. Le suivi de procédés multigénérateurs est assez complexe car il nécessite que l on détecte à la fois les dérives de l ensemble du procédé et les dérives d un seul générateur. Montgomery propose dans son ouvrage [Mon 91] 48 l utilisation de cartes de contrôles spécifiques pour le contrôle statistique de ces procédés. Il propose d utiliser deux cartes de contrôle pour effectuer le suivi d un procédé multigénérateur. L une pour la détection de causes spéciales qui affectent l ensemble des générateurs, et l autre pour les causes spéciales qui n occasionnent le décentrage que d un générateur ou un ensemble de générateurs. Pour détecter un décentrage du procédé dans sa globalité, on prélève un échantillon de taille n par générateur, la moyenne maxi et la moyenne mini sont reportées sur une carte de contrôle. Si les deux points sont sous contrôle, c est qu a fortiori les autres générateurs sont sous contrôle. Les limites de cette carte de contrôle sont basées sur l écart-type de la moyenne des échantillons prélevés sur chaque générateur. 47 PILLET M. DUCLOS E. Optimisation de la taille des échantillons dans le cas des systèmes multigénérateurs - Revue Pratique de Contrôle Industriel - N Février MONGOMERY Douglas C. Introduction to Statistical Quality Control - Wiley & Sons 2nd edition 1991

82 Pour détecter la dérive d un générateur par rapport aux autres générateurs, on reporte sur une seconde carte quel est le générateur dont la moyenne est maxi ou mini. Si la moyenne des échantillons sur un générateur est plusieurs fois consécutives supérieure ou inférieure à celle des autres générateurs, alors on peut considérer que ce générateur est hors contrôle. La période opérationnelle (P.O.M.) de cette deuxième carte est donnée par : POM 1 = g r 1 où g est le nombre de générateurs et r le nombre de fois consécutives ou un g 1 générateur prend une valeur extrême. LSC LSC= X 3 s X X LIC LIC= X 3 s X S max ou R max Max Détection de la dérive du générateur 7 Min 1 Un inconvénient majeur de ce type de carte est sa faible efficacité lorsque la variance globale du procédé est très grande par rapport à celle de chaque générateur. En effet, si on considère Y tj une variable aléatoire représentant les mesures sur un générateur j à l instant t, m la moyenne du procédé ou la cible, A t une variable aléatoire de moyenne nulle, et de variance s a 2 qui représente la différence entre les moyennes des générateurs à l instant t et m, e tj une variable aléatoire de moyenne nulle et de variance s 2 qui représente les variations du générateur j à l instant t. Alors on peut modéliser la moyenne d un échantillon de taille n, prélevé sur un générateur par la relation suivante : Y tj =m A t e tj En conséquence, la variance de la moyenne des échantillons prélevés sur un générateur est s a2 +s 2 /n et les limites d une carte de contrôle de Montgomery sont, dans ce cas, placées à m±3 s a 2 s2 /n. Si l on considère s a 2 très supérieur à s 2 alors une évolution de s 2 ne sera pas détectable.

83 R.R. Mortell et G. C. Runger [Mor 95] 49 ont proposé une alternative à cette méthode en suivant d autres variables. Deux cartes sont également utilisées pour suivre les procédés multigénérateurs. Une carte de contrôle pour détecter les dérives de l ensemble des générateurs et une deuxième carte pour déceler les dérives d un générateur par rapport aux autres. La première carte est une simple carte de Shewhart sur laquelle on reporte la moyenne de l ensemble des générateurs. Les échantillons sont la plupart du temps unitaires sur chacun des générateurs. La seconde carte, utilisée pour détecter les dérives d un générateur, est également constituée d une carte de type Shewhart ou CUSUM. Afin d éliminer l effet des causes spéciales sur l ensemble des générateurs, on soustrait à la moyenne de chaque échantillon (prélevé sur un générateur donné), la moyenne des échantillons de l ensemble des générateurs à un instant donné. Ces grandeurs, aussi appelées résidus, sont insensibles à l autocorrélation de A t et permettent par conséquent de dissocier les causes spéciales qui influent sur un ou plusieurs générateurs, de celles qui agissent sur l ensemble des générateurs. Les limites de contrôle d une telle carte sont placées à ±3 s/ n. Une autre alternative pour détecter d éventuelles dérives d un générateur est de suivre l étendue entre la moyenne des échantillons prélevés sur chaque générateur à un instant t. Cette variable notée R t =max Y tj min Y tj peut être suivie à l aide d une carte de Shewhart ou j j une carte CUSUM. Cette procédure présente l avantage sur la précédente de ne reporter qu une seule variable sur la carte de contrôle, quel que soit le nombre de générateurs du procédé de fabrication. Conclusion Le cadre d application des cartes de contrôle de Mortell R. et de Montgomery D. sont les procédés multigénérateurs pour lesquels la production d un générateur peut être isolée. Ces cartes présentent donc l intérêt de fournir une information synthétique sur l évolution du procédé. Elle permettent en effet de dissocier les évolutions communes à l ensemble des générateurs de celles limitées à un générateur. Cette approche multivariée nécessite donc que l on prélève au moins une observation par générateur comme il a été suggéré au paragraphe précédent. Ceci entraîne donc un coût élevé de prélèvement. 49 MORTEL R.R. & RUNGE G.C. Startistical Process Control of Multiple Stream Process Journal of Quality Technology Vol 27 N

84 Une approche non paramétrique L estimateur de Hodges Lehmann Ce n est que très récemment que l on s est intéressé aux méthodes d estimations non paramétriques pour les appliquer aux cartes de contrôle. Alloway et Raghavachi [All 91] 50 ont proposé une carte de contrôle utilisant l estimateur de Hodges-Lehmann pour remplacer la carte X. L estimateur de Hodges-Lehmann possède la caractéristique essentielle d offrir une grande tolérance aux valeurs extrêmes. De plus, il ne postule aucune loi a priori. Présentation de l estimateur de Hodges-Lehmann Nous nous plaçons tout d abord dans le cas d un modèle non paramétrique de localisation. On considère une variable aléatoire X telle que X-q a une fonction de répartition F vérifiant F(0) = ½. Le paramètre de localisation q est la médiane. L estimateur de Hodges-Lehmann, associé aux statistiques de rang signées de Wilcoxon permet de résoudre le problème de test suivant : { H 0 : q=0 H 1 : q¹0 Sous l hypothèse H 0, la loi de l estimateur de Hodges-Lehmann est symétrique par rapport à son espérance. On construit l estimateur de Hodges-Lehmann de la manière suivante : Pour chaque échantillon de taille n, on calcule les M=n(n+1)/2 moyennes de Walsh définies par : W i, j = X i X j 2 avec 1 i j n On ordonne les moyennes de Walsh : W i,1 W i,2 L W i, M Où W (i,k) est la statistique d ordre k des moyennes de Walsh ordonnées de l échantillon i. L estimateur de Hodges Lehmann est alors défini par (Eq 0) : q=md iane W i,1,w i,2, L,W i, M Eq 0 50 ALLOWAY J. A. RAGHAVACHI M. Control charts based on the Hodges-Lehmann Estimator Journal of Quality Technology - N 23 - pp

85 Si M est impair Si M est pair q= q=w i, M 1 2 W i, M 2 W i, M Si la population est symétrique par rapport à la médiane q, alors q est distribué symétriquement par rapport à q. De plus q est un estimateur non biaisé de q (quand les moments de X existent) et équivariant par translation. Les limites de contrôle Les limites de contrôle de la carte de Hodges-Lehmann sont calculées expérimentalement à partir de m échantillons de taille n. LIC=md LSC=md iane W 1, k,w 2, k, K,W m, k iane W 1, M k 1,W 2, M k 1, K,W m, M k 1 L ordre k des moyennes de Walsh est déterminé à l aide de la relation suivante : P [W i,k q W i, M k 1 ]»1 α Cette relation fait appel aux statistiques de rang signées de Wilcoxon. Seul un nombre limité des tests d hypothèse sont réalisables puisque les statistiques de rang signées de Wilcoxon sont discrètes. On trouve par exemple pour un échantillon de taille n= 8 et pour k=2 que l intervalle de confiance est de 98.4%, ce qui semble tout à fait acceptable pour une application SPC. Les performances de la carte de contrôle de Hodges-Lehmann Alloway et Raghavachi ont mis en évidence que la taille d un échantillon ne devait pas être inférieure à n=10 de manière à obtenir des risques a de l ordre de 0.27%. Si on prend les moyennes de Walsh extrêmes, pour un échantillon de taille 10, on montre que 99.8% de la population est entre les limites de la carte. Ainsi la Période Opérationnelle Moyenne théorique pour un procédé centré (POM 0 =1/a) est de l ordre de 500. Les résultats de simulation de E. Pappanastos & Adams [Pap 96] 51 montrent que les limites de la carte de Hodges-Lehmann basées sur les distribution de Wilcoxon fournissent une POM 0 nettement supérieure à la POM théorique. 51 PAPPANASTOS E.A. & ADAMS B.M. Alternative Designs of Hodges-Lehmann Control Chart Journal of Quality Technology Vol 28 N

86 Comparaison entre la carte de Shewhart et la carte de Hodges-Lehmann On note d = m m 0 le décentrage du procédé. Pappanastos & Adams ont comparés la POM des s cartes de Shewhart et de Hodges-Lehmann pour différentes valeurs du décentrage d et des échantillons d effectif n=10. d POM X POM HL On peut conclure aisément en se référant au tableau ci-dessus que la carte de Hodges-Lehmann n est absolument pas sensible aux décentrages du procédé. D autres méthodes de calcul des limites de contrôle ont été proposées par E. Pappanastos. Il s agit notamment de construire les limites de contrôle à partir d une équation de la forme : q ±C2 S 2. où q est la médiane des estimations précédentes q 1, q 2,..., q m. S 2 est la moyenne des variances des échantillons. Le coefficient C2 * est choisi pour fournir la POM 0 souhaitée. Cette alternative (HL*) permet de rendre la carte de contrôle Hodges-Lehmann plus sensible aux décentrages du procédé grâce à des limites de contrôle plus resserrées. Malgré cet accroissement de sensibilité, la carte de contrôle de Shewhart reste beaucoup plus sensible que la carte de Hodges-Lehmann à un décentrage du procédé. Ceci a pu être constaté pour plusieurs types de distributions : loi normale, loi uniforme et double exponentielle (Figure 31). d Distribution normale X HL* Distribution uniforme X HL* Distribution double exponentielle X HL* Figure 31

87 Critique des résultats Papanastos et Adams concluent à la suite de ces résultats que l utilisation de cartes de contrôle mettant en œuvre l estimateur de Hodges-Lehmann pour un paramètre de localisation, n est absolument pas viable. Même si leur conclusion peut s avérer juste dans bon nombre de cas, il faut garder à l esprit que l estimateur de Hodges-Lehmann a une variance asymptotique inférieure à celle de la moyenne pour les lois à tendance leptokurtique. Ce résultat n est a priori pas surprenant car la médiane a de très bonnes performances lorsque la distribution de la population est de nature leptokurtique. Un théorème énonce d ailleurs les propriétés d efficacité relative asymptotique de l estimateur de Hodges-Lehmann pour les lois fortement unimodales [Cap 88] ERA q, X = V X 3 V q L idée de loi fortement unimodale est assez vague. Elle concerne en fait toutes les lois dont le poids des queues est compris entre la loi uniforme U[-1,1] et la loi de Dirichlet De(0,1) selon le critère de Van Zwet [Van 64] 52. Ce critère permet de classifier les lois selon le poids de leurs queues. Si l on interprète ce théorème, on s aperçoit que la variance de la moyenne est légèrement inférieure à celle de l estimateur de Hodges-Lehmann lorsque la loi est proche d une loi uniforme. Au contraire celle-ci devient nettement supérieure quand la loi tend vers une loi de Dirichlet. On retrouve ces résultats en examinant les périodes opérationnelles des cartes X et HL* de la Figure 31. Les limites ayant été placées systématiquement à ±3 s/ n, on peut constater que la POM 0 de l estimateur de Hodges-Lehmann est plus faible que celle de la moyenne pour la loi normale. La variance de l estimateur de Hodges-Lehmann est donc bien supérieure à celle de la moyenne. On note au contraire que la POM 0 est très nettement supérieure lorsque l on est dans le cas de la loi double exponentielle. L estimateur de Hodges-Lehmann n est donc pas si inintéressant que Pappanastos le prétend. Il suffirait d ajuster convenablement les limites de contrôle pour avoir une meilleure Période Opérationnelle Moyenne. Un point important sur lequel les auteurs ne se sont pas trompés, concerne l applicabilité de la carte HL. En effet nous avons vu que les caractéristiques de l estimateur de Hodges-Lehmann étaient particulièrement intéressantes pour des lois à tendance leptokurtiques, mais qu en revanche elles étaient médiocres pour des lois platikurtiques. En outre, on peut se demander si les objectifs visés ne sont pas contradictoires. En effet, en appliquant l estimateur de Hodges-Lehmann à la M.S.P, on cherche à détecter des évolutions de la population avec un estimateur qui se caractérise par une très grande robustesse ; donc une faible sensibilité aux évolutions. 52 VAN ZWET W. R. Convex Transformations of Random Variables- Mathematisch Centrum

88 Calcul des limites à partir des p-quantiles empiriques d un échantillon ordonné Une autre approche proposée par Willemain et Runger [Wil 96] 53 consiste à construire les limites d une carte de contrôle en estimant les p-quantiles de la distribution de la variable reportée sur la carte, à partir d un échantillon ordonné. Cette méthode permet de construire un intervalle de confiance indépendamment de la distribution des variables considérées (Distribution-free tolerance intervals) [Wil 62] 54. Les auteurs proposent d étudier m réalisations d une variable aléatoire Y i, 1 i m Cette variable aléatoire Y i est celle reportée sur la carte de contrôle dont on cherche à calculer les limites ; c est aussi bien une observation individuelle que la moyenne ou l étendue d un échantillon. Les Yi sont supposés indépendants et identiquement distribués. Pour réaliser le calcul des limites de contrôle on supposera une période d étude du procédé, préliminaire au pilotage. Lors de cette période, le procédé doit être stable pour que les informations collectées soient représentatives de la distribution de la population. On note y(k) la statistique d ordre k de l échantillon de taille m. Par convention y 0 =- et y m 1 =+ Les m statistiques d ordre divisent l espace des réalisations de Y en m+1 «blocs statistiquement équivalents». y (1) y (2)... y (m-1) y (m) y Figure 32 On note P la probabilité qu une réalisation de Y tombe entre les limites de l un de ces blocs (Eq 0). Eq 0 P=Pr [ y k Y y k b ]=F y k b F y k 53 WILLEMAIN Th. R. & RUNGER G. C. Designing Control Charts using an Empirical Reference Distribution - Journal of Quality Technology Vol 28 N WILKS S.S. Mathematical statistics - Wiley 1962

89 Si on place les limites de manière empirique : LIC=Y (k) et LSC = Y (k+b), b étant le nombre de blocs entre les limites de contrôle. Alors P est la probabilité qu un point soit placé entre les limites. P est une variable aléatoire distribuée selon une loi beta de paramètres b et m (Eq 0). Eq 0 m! g p = b 1! m b! pb 1 1 p m b,0 p 1 On note que g(p) ne dépend pas de f(y) qui est inconnue. La probabilité qu un point tombe entre deux limites a pour espérance et pour variance (Eq 0) : E [ P ]= b Var [ P ]= b m 1 b m 1 m 1 2 m 2 Eq 0 Analyse de la période opérationnelle On note R le nombre de tests avant détection d un point hors contrôle. R suit conditionnellement à P une loi géométrique de paramètre 1-P telle que E(R/P=p)= 1/(1-p). La période opérationnelle moyenne est donc une variable aléatoire dépendant de P. Si on prend des limites de contrôle LSC= y(k+b) et LIC= y(k) la distribution marginale de la POM est une loi beta inverse (Eq 0) : Eq 0 C POM 1 b 1 h POM = POM ³1 POM m 1 Dont en déduit l espérance et la variance de la POM (Eq 0) : Eq 0 E [ E R/ P ]=E [ POM ]= m bm et Var [ POM ]= m b m b 2 m 1 b On note qu en choisissant des limites de manière à obtenir la POM souhaitée, cela ne signifie pas que sa variance sera raisonnable. En effet, pour obtenir des limites avec un bonne précision, il est nécessaire de prélever un grand nombre d observation dans la phase préliminaire, comme en témoigne la Figure 33.

90 m = nombre d observation b = nombre de blocs à l intérieur m b E(POM) σ(pom) Figure 33 Quelques restrictions sur la méthode : Tout d abord, pour que E[POM] et Var[POM] soient finis, il faut que b m 1. Par ailleurs, les auteurs préconisent de laisser au moins trois blocs de part et d autre des limites de contrôle pour obtenir des résultats satisfaisants en terme de variance. De plus, ils montrent qu il faut prélever au moins 4.E[POM] observations, pour obtenir la POM souhaitée. Cependant, ceci ne garanti pas que la Variance de la POM sera raisonnable. Ces différentes restrictions sur la méthode, la rendent difficilement applicable dans le domaine industriel. En effet le nombre de données requises pour déterminer les limites de contrôle est tout à fait rédhibitoire. On imagine mal un industriel attendre mesures avant de pouvoir piloter son procédé. La seule alternative consisterait éventuellement à appliquer cette méthode sur les données d un historique de production ou bien sur un procédé pouvant fournir un volume important de données. D autre part cette méthode ne traite que les distributions symétriques puisque l on ne considère que les paramètres b et m dans le calcul de la POM alors que le paramètre k a aussi beaucoup d importance.

91 Synthèse Les indicateurs de capabilité Indicateurs de capabilité pour les procédés non normaux Les différents outils d analyse de capabilité présentés dans ce chapitre répondent globalement assez bien à la demande industrielle dans la mesure où on considère qu une pièce est bonne quand on est dans les tolérances. Cependant leur utilisation nécessite un minimum de précautions pour obtenir des résultats cohérents. En effet, le pari qui consiste à évaluer la dispersion à 99,73% de la population est particulièrement ambitieux, et chacune de ces méthodes possède un cadre d application bien défini, qui si on en sort, peut aboutir à des résultats bien différents de ceux escomptés. Nous résumerons les avantages et inconvénients de chacune des méthodes étudiées sous forme d un tableau (Figure 36). Réflexion sur les indicateurs Deux écoles s opposent sur la définition des indicateurs de capabilité et notamment sur la définition de la dispersion : La première, dont nous venons d étudier les travaux adopte une approche qui consiste à considérer que la notion de capabilité est étroitement liée à celle de pourcentage hors tolérance. On définit alors la dispersion sur un intervalle contenant 99,73% de la population. La seconde école considère au contraire que la dispersion définie sur 6 écart-types de la globalité des observations fournit une bien meilleure idée du niveau de qualité de la production. Nous argumenterons et comparerons donc ces deux approches. Dispersion à 6σ Prenons par exemple (Figure 34) le cas d une loi uniforme et d une loi normale d écart-types unitaires avec une tolérance de ± 2. Pour chacune de ces lois, il est possible de calculer le ratio IT/6s que nous associerons à l indicateur Cp.

92 Dans ce cas, on constate qu une distribution selon une loi normale engendre de l ordre de 4.5% de pièces hors tolérances, ce qui se traduit par un Cpk très faible, alors que dans le cas d une loi uniforme aucune pièce ne sort des spécifications. On comprend aisément que pour le fournisseur, cette situation ne soit pas très agréable. En effet, malgré la conformité aux tolérances, le Cp et le Cpk sont inférieurs à 1 et sa production risque d être refusée. IT= 4 Cp= Cpk= IT= 4 s s 2.28% 2.28% m m Figure 34 Du point de vue du client, le Cpk étant inférieur à 1.33, il peut selon la norme en vigueur, refuser le lot ou imposer le tri de la production. Le tri des pièces distribuées selon la loi normale permettra d améliorer le Cp. En revanche, celui de la loi uniforme, n apportera aucune amélioration. Certains constructeurs comme General Motors préconisent donc un tri de la population avec un calibre resserré afin que la dispersion (6s) soit suffisamment faible pour garantir un bon Cp. Ces mesures draconiennes, sont a priori peu économiques car elle rebutent des pièces qui sont dans l intervalle de tolérance. Cependant l objectif qui se résume a fournir des pièces dans les tolérances n est pas suffisant pour garantir le niveau de qualité du produit fini. Il faut aussi que la production soit centrée sur la cote cible. Dispersion sur 99,73% de la population Considérons maintenant le cas où les indices de capabilité sont établis en fonction de la l intervalle couvrant 99,73% de la population (Figure 35). m IT= 4 Cp= Cpk= 1.33 m IT= 4 Dispersion Dispersion Figure 35

93 Pour le fournisseur, cette construction des indicateurs Cp et Cpk est beaucoup plus avantageuse. En effet, une population uniforme a des Cp et Cpk identiques à ceux d une loi normale ayant la même dispersion (99,73%). Or le coût de la non qualité au sens de Taguchi est beaucoup plus élevée pour la loi uniforme que pour la loi normale du fait de la faible concentration des observations autour de la cible. Il est évident dans ce cas, que le client «se fait avoir» sur la qualité de la marchandise. D autre part, on imagine mal un fournisseur appliquer cette méthode si la distribution de la population suit une loi a tendance leptokurtique. Dans ce cas, en effet, un Cpk calculé en se basant sur la définition de la dispersion à 99,73% de la population, est inférieur à un Cpk classique. Alors pourquoi utiliser une méthode complexe et pénalisante? Conclusion Selon nous, la variance ou l écart type offrent une définition de la dispersion beaucoup plus cohérente et beaucoup plus révélatrice de la qualité du produit que celle basée sur les 99,73% de la population. Les indicateurs de capabilités ainsi utilisés fournissent alors une information plus fidèle du niveau de qualité de la production. Par ailleurs, nous pensons que la multiplication des méthodes de calcul des indicateurs de capabilité est un vecteur de confusion pour les industriels déjà confrontés aux problèmes de méthodologie de la M.S.P.

94 Synthèse des indicateurs de capabilité dans le cas de populations non normales Type Méthode proposée Avantages Inconvénients d application Lois bornées Loi de défaut de forme Facilité de mise en place. ü La validité du modèle nécessite une parfaite Loi de Rayleigh connaissance du type de Loi Log-normale critère étudié. ü L éventail des applications est limité. Lois non normales unimodales Lois de Pearson Lois de Johnson ü La méthode de Cléments est particulièrement simple. ü Les courbes de Johnson, offrent un plus grand nombre de possibilités, bien que plus délicates à utiliser La modélisation à partir de moments ou de p- quantiles conduisent parfois à des résultats peu fiables. Il est donc préférable de prélever un nombre important d observations. Lois unimodales et multimodales continues Courbes de Burr La construction des courbes de Burr à partir de la fonction de répartition empirique de la population permet de décrire des distributions multimodales. ü Le nombre d observations nécessaire à la modélisation de la fonction de répartition empirique peut être élevé. ü L ordre du polynôme peut avoir des répercussions importantes sur la représentation de la fonction de répartition. Modèle non paramétrique Méthode Bootstrap Estimations fiables pour un nombre restreint d observations. La construction d un intervalle de confiance permet d exclure les estimations ponctuelles aberrantes. Les méthodes bootstrap nécessitent des moyens de calcul relativement puissants. Figure 36

95 Les cartes de contrôle La plupart des études portant sur la mise en œuvre de cartes de contrôle, dans le contexte de procédés non normaux, se focalisent sur le problème d efficacité du test d hypothèse. On retiendra, au gré des publications, deux approches sensiblement équivalentes qui consistent, soit à adapter les limites de contrôle au type de loi rencontré, soit à transformer la variable représentant le procédé afin qu elle soit distribuée selon une loi normale. Il faut cependant rappeler que les cartes de contrôle ne se limitent pas à une représentation graphique de tests d hypothèse. La carte de contrôle est bien entendu un outil de prise de décision statistique, mais c est aussi un outil de réglage grâce à l estimation ponctuelle fournie par la moyenne ou la médiane. La non normalité de la population a aussi des répercussions sur l efficacité des estimateurs. Ce phénomène est d ailleurs très remarquable dans l application de la carte de Hodges-Lehmann, qui est plus performante que la carte de Shewhart pour des populations de type impulsionnelles. Synthèse des cartes de contrôle dans le cas de populations non normales Méthode Cadre d application Avantages Inconvénients La moyenne des échantillons suit une loi non normale. Détermination des limites de contrôle en modélisant la population par une loi de Burr Méthode simple Les limites calculées, assurent un risque a de l ordre de 0,27% Les méthodes se basant sur les moments nécessitent souvent un volume important de données. Extraction des tendances de la population et des générateurs extrêmes Procédés multigénérateurs L échantillonnage stratifié représentatif fournit une estimation dont la variance est proche de la variance optimale. Il faut pouvoir isoler la production de chacun des générateurs Estimateur de Hodges-Lehmann Toute loi non normale satisfaisant le modèle non paramétrique de localisation. Modèle non paramétrique Estimateur plus performant que la moyenne pour les lois leptokurtiques La robustesse de cet estimateur est au dépend de sa sensibilité. Ce qui se caractérise par une POM médiocre. Calcul des limites par les p-quantiles Toute loi Méthode utilisable sur les réalisations de n importe quelle variable aléatoire. Le nombre d échantillon nécessaire pour obtenir des limites de contrôle fiables est exorbitant Figure 37

96 Conclusion L aspect applicatif est de loin le plus important pour la M.S.P. On regrette donc que certaines méthodes soient proposées sans tenir compte des réalités industrielles. On citera par exemple la méthode non paramétrique de calcul des limites de contrôle à partir des p-quantiles empiriques d un échantillon ordonné. Pour que les limites puissent assurer une P.O.M. de 370 par exemple, la méthode proposée requiert 1500 échantillons. Etant donné la tendance est au raccourcissement des séries, bon nombre d entre elles seraient terminées avant que les limites de la carte de contrôle ne soient établies! L aspect applicatif concerne également le nombre d observations au sein d un échantillon. En effet, la taille d un échantillon revêt une importance économique et pratique qui peut prévaloir par rapport à l optimalité des estimations en terme de variance. Dans le cas de procédés multigénérateurs par exemple, nous savons que la variance des estimations est minimale si l on prélève un échantillon de Neyman. Mais peut-on sérieusement penser qu un industriel prélèvera au moins une pièce sur chacune des 12 empreintes d'une presse? C est en effet illusoire. Il serait donc particulièrement intéressant d explorer des méthodes non paramétriques permettant d offrir des estimations dont la variance est inférieure à celle de la moyenne quelle que soit la distribution des observations. Il serait aussi important que la carte de contrôle mise en œuvre, ne limite pas son application à un type d échantillonnage particulier.

97 Chapitre 3 Chapitre 3 Mise en place d une carte de contrôle pour les procédés non normaux. Introduction La non normalité est un problème important pour l application de la Maîtrise Statistique des Procédés, c est pourquoi ce sujet a été assez largement abordé ces dernières années. Les approches utilisées pour aborder ce problème sont le plus souvent assez classiques car elles consistent à adapter les méthodes de la Maîtrise Statistique des Procédés à certains types de non normalités. Ainsi, l accent est particulièrement porté sur le calcul des limites de contrôle des cartes, en vue d une amélioration de la Période Opérationnelle Moyenne. En revanche, on s intéresse assez peu aux performances des estimateurs utilisés. Ainsi on utilise assez systématiquement la moyenne ou la médiane comme estimateur ponctuel de la position du procédé. Mais peut-on réellement envisager d optimiser la P.O.M. d une carte de contrôle, sans s interroger sur les performances de ces estimateurs ponctuels? Les caractéristiques essentielles d un estimateur sont sa justesse et sa précision. Or nous savons que l un des inconvénients majeurs des méthodes paramétriques, est de voir leurs performances chuter lorsque les conditions expérimentales s éloignent du modèle statistique utilisé (la loi normale par

98 exemple). Ainsi la moyenne est l estimateur optimal en terme de variance lorsque la population suit une loi normale. En revanche la médiane a de bonnes performances pour des lois à tendance leptokurtiques ou impulsionnelles (Chapitre ). Le second élément à prendre en considération est le choix des paramètres de localisation et d échelle de la population. Comment justifier le choix de la médiane plutôt que celui de la moyenne? Nous verrons qu il est possible de justifier ce choix en considérant le coût de la non qualité au sens de Taguchi.

99 Tout au long de nos travaux, nous avons tenté de résoudre les différents problèmes liés à l optimalité de l estimateur ponctuel, le choix des paramètres de la population, afin de mettre en œuvre une méthode générale indépendante du caractère de la population. Nous proposons dans ce chapitre une nouvelle approche pour la mise en place de la M.S.P. dans le cas de procédés non normaux. L originalité du concept que nous proposons, repose essentiellement sur une approche non paramétrique de l estimation de paramètres de la population. La carte de contrôle que nous présentons a l avantage d être plus précise et plus sensible aux décentrages du procédé, que des cartes utilisant la moyenne. Dans un premier temps, nous ferons quelques rappels sur la notion de statistiques d ordre et plus particulièrement sur les combinaisons linéaires de statistiques d ordre ou L-statistiques. Après avoir présenté le L-estimateur des moindres carrés, nous étudierons certaines de ses propriétés afin de montrer son adéquation au problème d estimation auquel nous sommes confrontés. Dans un second temps nous définirons plusieurs méthodes de mise en place de la «carte L» (construite à partir du L-estimateur des moindres carrés) selon la richesse de l information dont on dispose. Nous déterminerons également le choix des paramètres de la population, en se basant sur le critère de la perte au sens de Taguchi. Enfin nous comparerons les performances de la carte L à celles de cartes de contrôle utilisant la moyenne comme estimateur ponctuel.

100 Statistiques d ordre et L-estimateurs Les statistiques d ordre ont joué un rôle prépondérant dans le développement de méthodes robustes et non paramétriques. On les rencontre de façon assez naturelle et depuis longtemps dans les problèmes de rejet de valeurs extrêmes, grâce à des estimateurs tels que les moyennes a tronquées. Nous commencerons, dans ce chapitre, par donner les définitions et quelques propriétés des statistiques d ordre, puis nous étudierons les lois exactes et asymptotiques des statistiques d ordre et enfin leurs combinaisons linéaires (L-statistiques). L objectif de ce paragraphe est de rappeler en quelques lignes les résultats fondamentaux communément admis. Pour plus de précisions nous invitons le lecteur à se reporter aux ouvrages de J. P. Lecoutre [Lec 87] 55 P. Capéràa & B. Van Cutsem [Cap 88] 56 ou encore H. David [Dav 81] 57. Introduction aux statistiques d ordre Les statistiques d ordre Soient des variables x 1, x 2, K, x n que l on range dans l ordre croissant et que l on note x 1 x 2 L x n. La variable aléatoire X (i) associe à toute réalisation x 1, x 2, K, x n est la i ème plus petite valeur de l échantillon. Cette variable est appelée statistique d ordre i (i = 1, 2,...n). Le sujet des statistiques d ordre est très vaste car il concerne toutes les fonctions de variables aléatoires ordonnées. Un exemple très classique de telles fonctions est l étendue R=x n x 1 très largement utilisée pour donner une estimation rapide de la dispersion d une population. Une autre fonction bien connue des utilisateurs de la M.S.P, est la médiane x=x n 2 1 fournit une estimation robuste de la position de la population. avec n impair, qui 55 LECOUTRE J.P. & TASSI P. Statistique non Paramétrique et Robustesse - Economica CAPERAA Ph & VAN CUTSEM B Méthodes et modèles en statistiques non paramétriques Exposé fondamental - Presse de l'université Laval - DUNOD DAVID H. A. Order Statistics - New York - Willey

101 Lois de probabilité associées à une statistique d ordre On note F(x) la fonction de répartition de la variable aléatoire X et f(x) sa densité de probabilité. La fonction de répartition de la statistique d ordre X (s) est notée F s (x) et sa densité de probabilité (marginale) f s (x) (Eq 0). 1 f s x = s 1! n s! F s 1 x [1 F x ] n s f x Eq 0 Cette expression de f s (x) peut permettre d établir la loi de distribution de la médiane si on connaît la fonction de répartition des observations x. La densité jointe de deux statistiques d ordre X (i) et X (j) est donnée par la relation (Eq 0). f ij x, y = n! i 1! j i 1! n j! F i 1 x f x [ F y F x ] j i 1 f y [1 F y ] n j Eq 0 A partir de la densité jointe de deux statistiques d ordre, on peut établir la densité de probabilité de statistiques d ordre telles que l étendue. On trouvera dans l annexe mathématique le développement de ce calcul pour une population distribuée selon une loi uniforme. Moments des statistiques d ordre Nous avons vu dans la section précédente qu il est difficile d exprimer les lois marginales des statistiques d ordre au moyen de fonctions élémentaires. Il en est de même pour les moments exacts de ces statistiques. Si une variable X possède un moment d ordre k, alors pour tout r {1,...,n}, la r ème statistique d ordre X (r ) possède un moment d ordre k. Ce moment s exprime par la relation (Eq 0). E [ X r ] k = n! x k F r 1 x 1 F x n r df x r 1! n r! - Eq 0

102 Les conditions d existence de la covariance de deux statistiques d ordre sont sensiblement équivalentes à celles des moments d ordre k. En effet, si l espérance E[X] de la variable X existe alors, pour tout couple (r, s) tel que 1 r s n, E [ X r X s ] existe (Eq 0). n! E [ X r X s ]= r 1! xy F r 1 x 1 F x n r df x s r 1! n s! x y Eq 0 Les L-statistiques Les exemples de la médiane ou encore de l étendue suggèrent la généralisation de l utilisation de combinaisons linéaires des composantes du vecteur des statistiques d ordre. Soient X 1, X 2,..., X n un échantillon d une loi F et X le vecteur des statistiques d ordre associé. Soient c 1, c 2,..., c n n coefficients réels. On appelle L-statistique, la statistique T n définie par (Eq 0). n T n = c i X i i=1 Les L-statistiques peuvent être utilisées pour estimer les paramètres de localisation ou de dispersion d une loi parente. On les appelle alors L-estimateurs. Eq 0 Loi asymptotique des L-statistiques La loi exacte d une L-statistique est souvent très délicate à établir du fait de la complexité des calculs. On ne trouve dans la littérature que quelques démonstrations concernant des lois parentes relativement simples telles que la loi uniforme ou encore la loi exponentielle. Seuls les premiers moments peuvent être calculés ou approximés aisément. On peut en revanche obtenir des résultats de manière plus aisée en considérant la loi asymptotique des L-statistiques. Même si dans le cadre d application de la M.S.P. nous sommes bien loin des conditions asymptotiques (puisque n est relativement petit en M.S.P.) nous pouvons nous intéresser à ces propriétés pour les tests par intervalle de confiance. Rappelons à ce titre que la distribution de la moyenne empirique X est souvent supposée suivre une loi normale pour établir les limites d une carte de contrôle alors qu elle n est qu asymptotiquement normale. Comme les valeurs centrales et les valeurs extrêmes des statistiques d ordre n ont pas les mêmes lois asymptotiques, les lois limites obtenues pour une L-statistique seront très différentes selon les poids (coefficient c i de la L-statistique) attribués à chacune des statistiques d ordre.

103 Pour obtenir une loi limite qui soit une loi normale, les coefficients extrêmes c 1 et c n ne doivent pas être trop grand. En effet, un théorème développé dans David [Dav 81] énonce qu une condition suffisante pour que la distribution d un L-estimateur soit normale, est qu un poids nul soit donné aux valeurs extrêmes. En fait, les conditions pour que la distribution d un L-estimateur soit asymptotiquement normale porte à la fois sur la loi parente, la valeur des coefficients de la L-statistique et le nombre de ses coefficients. Une version simplifiée du théorème de Shorack [Sho 1972] 58 est énoncé dans l ouvrage de Capéràa [Cap 88]. Les hypothèses postulées par Shorack concernent le comportement de la fonction de poids (poids affecté à chacune des statistiques d ordre) pour les valeurs extrêmes ainsi que l évolution de la fonction de répartition de la population pour les valeurs excentrées. Il montre la dualité entre deux critères. Plus la fonction de répartition F converge lentement vers 0 et 1, plus les contraintes sur la fonction de poids sont fortes. Il faut en effet que les poids affectés aux statistiques d ordre extrêmes soit nuls, comme l a énoncé David. Dans le cas contraire, si les coefficients affectés aux statistiques d ordre extrêmes sont non nuls (la moyenne empirique par exemple), les contraintes sur la fonction de répartition sont plus fortes pour que l on puisse conclure à la normalité asymptotique du L-estimateur. Fonction de répartition de la population Fonction de poids Conditions de normalité 1 F(x) 0 x Tendance Platikurtique J(u) 0 u 1 Si la fonction de poids est non nulle en 0 et 1, il est nécessaire (et pas forcément suffisant) que la fonction de répartition converge rapidement vers 0 et 1. 1 F(x) 0 x Tendance Leptokurtique J(u) 0 u 1 Si la fonction de répartition converge lentement vers 0 et 1, il est nécessaire que la fonction de poids soit nulle en 0 et 1. Cette dernière affirmation montre que la moyenne et les L-estimateurs (si les coefficients sont non nuls aux extrêmes) sont soumis aux mêmes conditions quant à leur distribution asymptotique. Nous verrons donc un peu plus loin comment envisager le calcul des limites de contrôle d une carte utilisant un L-estimateur. 58 SHORACK G.R. Functions of order statistics - Ann. Math. Statist - N 43 pp

104 Robustesse des L-statistiques Une statistique est dite robuste, si l influence des valeurs extrêmes est limitée et varie continûment. Ainsi, les images de deux lois proches, par une statistique robuste, restent proches. Pour étudier la robustesse d une statistique, on introduira la notion de fonctionnelle statistique. Soit q une fonction paramétrique et P une loi de probabilité ; alors T est une fonctionnelle telle que q=t P. Une définition importante de la robustesse, proposée par P Huber [Hub 64] 59 et F Hampel [Ham 68] 60 repose sur la continuité de la fonctionnelle T au voisinage de la fonction P. Nous donnerons les résultats qui proviennent de cette définition pour les L-statistiques sans rentrer dans les détails mathématiques. On suppose que la fonctionnelle d une L-statistique est définie par la relation 1 T P = P 1 u J u du 0 où J est la fonction de poids des coefficients définie sur le support [0,1]. On voit alors que les critères pour que la fonctionnelle T soit continue sont ceux énoncés au paragraphe précédent : Pour que la statistique T n soit robuste, il faut soit que la fonction de poids soit nulle à l extérieur du support [a,1-a], soit que la loi P converge rapidement vers 0 et 1. La normalité de la distribution d une L-statistique et sa robustesse sont donc étroitement liées. Des études de robustesse menées par Hampel [Ham 74] concernant des estimateurs très classiques comme la moyenne empirique, la médiane empirique, les moyennes a tronquées ou encore l estimateur de Hodges-Lehmann, ont mis en évidence que seule la moyenne parmi ces estimateurs possède une fonctionnelle non continue. Cette non robustesse se traduit alors par une tolérance nulle aux valeurs extrêmes. En effet le coefficient de tolérance de la moyenne est nul, ce qui signifie toute valeur aberrante à une répercussion sur l estimation. En revanche, un estimateur très robuste comme la médiane a un point de rupture asymptotique de 0,5 (Voir chapitre 1). 59 HUBER P. Robuste estimation of a location parameter - Ann. Math. Statist. N 35 - pp HAMPEL F. R. The Influence curve and its in robust estimation J. Amer. Statist. Assoc. - N 69 pp

105 Proposition d un autre estimateur pour les cartes de contrôle Choix de l estimateur Le choix d un estimateur est souvent un problème complexe qui oblige à des compromis. De nombreux critères, parfois contradictoires, sont à prendre en compte. Notre choix s est donc articulé autour de trois critères essentiels : Nous souhaitions tout d abord que la méthode utilisée soit non paramétrique afin de ne pas restreindre notre domaine d application à une famille de lois statistiques. En effet, la majorité des méthodes de la Maîtrise Statistique des Procédés aborde les problèmes d un point de vue paramétrique, ce qui selon nous, est un procédé réducteur et pénalisant. On suppose que la distribution des observations peut être caractérisée par une loi ou une famille de lois. Cette famille est elle-même fonction d un nombre restreint de paramètres, comme la moyenne et l écart-type pour une loi normale. La simplicité des méthodes paramétriques réside essentiellement dans le nombre restreint de paramètres à estimer pour caractériser la loi. Une telle approche peut être parfaitement adaptée si la famille de lois est liée à certaines caractéristiques physiques du procédé. Cependant, le choix d un modèle paramétrique comme la loi normale, bien que valide dans bon nombre de cas, ne peut raisonnablement satisfaire tous les cas de figure. D autre part, l objectif étant de remplacer la moyenne par un autre estimateur, celui-ci se doit d être sans biais et avec une variance inférieure ou égale à celle de la moyenne. La moyenne n étant pas toujours le meilleur estimateur, en terme de variance, lorsque la distribution de la population est non normale, il est possible de trouver un estimateur dont la variance sera plus faible quelle que soit la distribution des observations. Ces conditions sont en effet indispensables pour que la carte de contrôle mise en oeuvre détecte des causes spéciales au moins aussi rapidement qu une carte de Shewhart. Enfin, pour que la méthode proposée possède un caractère général, il est important que l estimateur utilisé converge vers la moyenne dans les cas ou la population est distribuée selon une loi normale.

106 Le L-estimateur des moindres carrés Présentation L'estimateur que nous allons utiliser s applique à un très grand nombre de distributions, pour ne pas dire toutes, puisqu il s agit de distributions qui ne dépendent que d'un paramètre de position et d'un paramètre d'échelle, quelles que soient leurs formes. Pour de telles distributions, Lloyd [Llo 52] 61 montre que les paramètres peuvent être estimés en appliquant la théorie des moindres carrés généralisés à un échantillon ordonné. Ces estimateurs, qui sont des combinaisons linéaires des observations ordonnées, ont la propriété très intéressante d'être à la fois sans biais et à variance minimale. En effet, la variance de l'estimateur de la position de Lloyd n excède jamais la variance de la moyenne. La construction de cet estimateur se base sur une modélisation de la distribution empirique ou théorique de la population. Estimation par les moindres carrés Dans ce paragraphe nous donnons une rapide démonstration de la construction du L-estimateur des moindres carrés. Pour plus de détails nous invitons le lecteur à se reporter à l annexe mathématique (Annexe 2) Nous appelons m et s respectivement les paramètres de position et d'échelle de la distribution de la fonction. Ces paramètres, que l on cherche à estimer par la méthode des moindres carrés, ne sont pas nécessairement la moyenne et l'écart type de la population. On note (x (1),x (2),...,x (n) ) les observations ordonnées du vecteur X k telles que x 1 x 2 L x n Nous allons construire la variable réduite U (r) de rang r, telle que : U r = x r m s Les moments d ordre 1 et 2 de la variable U sont alors notés E [U r ]=α r Var [U r ]=w rr Cov [U r,u s ]=w rs On écrit l'expression de l'espérance des statistiques d'ordre x (r) sous forme vectorielle E [ X ]=m e sα 61 LLOYD E. H. Least-Squares Estimation of Location and Scale parameters Using Order Statistics - Biometrika - Vol 39 - pp

107 où α est le vecteur des a r e est un vecteur ayant des composantes unitaires X est le vecteur des mesures ordonnées α 1 que l on note respectivement M α= α n e= 1 M 1 et X = x 1 M x n L expression de l espérance des statistiques d ordre peut se simplifier sous la forme où q= m s 1 α 1 M M A=[ ] 1 α n E [ X ]=A q La matrice de covariance de X est donnée par : COV X =s 2 W est une matrice (nxn) des éléments w rs Le modèle étant un modèle linéaire multiple ordinaire de la forme E [ X ]= A q, on connaît une estimation du vecteur q au sens des moindres carrés généralisés, donnée par la relation (Eq 0) : q= A t 1 A 1 A t 1 X Eq 0 La variance des estimateurs est donnée par : Var [ m ]=s 2 Var [ s ]=s 2 α t α det A t 1 A e t e det A t 1 A Ce qui permet de comparer aisément les performances de la moyenne à celle du L-estimateur de position.

108 D autres auteurs comme Downton [Dow 54] ont étudié les performances du L-estimateur des moindres carrés pour des distributions classiques telles que la loi uniforme, une loi triangulaire tronquée, la loi exponentielle et une loi de Pearson de type III. Il confirme que la variance du L- estimateur de Lloyd est inférieure à celle de la moyenne pour la loi uniforme et la loi triangulaire. De plus, il montre que l estimateur des moindres carrés est la moyenne pour la loi exponentielle, ce qui était prévisible puisque la moyenne est dans ce cas l estimateur sans biais à variance minimale. Cas particulier des distributions symétriques Lloyd a également détaillé le cas où la loi parente est symétrique. Il montre que les estimateurs de localisation et de dispersion sont respectivement donnés par les équations Eq 0 et Eq 0. m= et 1 X e t 1 e s= αt 1 X α t 1 α Eq 0 Eq 0 La variance des estimateurs est donnée par les relations Eq 0 et Eq 0 : s2 Var m = e t 1 e Eq 0 s Var 2 s = α t 1 α Eq 0 Cet estimateur a trouvé une de ses premières applications en traitement d image. Bovik [Bov 83] propose en effet une application de filtrage où l image, représentant un signal informatif s, est entachée d un bruit blanc additif b. X j =s b j La loi de distribution du bruit est supposée symétrique. Pour supprimer les effets du bruit, Bovik cherche le L-estimateur qui minimise l erreur quadratique moyenne E s s. Nous ne développerons pas ici le calcul des coefficients du L-estimateur de position, celui-ci est néanmoins disponible dans l annexe mathématique (Annexe2 3)

109 Les coefficients optimaux au sens de l erreur quadratique moyenne sont donnés par la relation Eq 0. C= H 1 e e t H 1 e ou H est la matrice des coefficients H ij =E [b i b j ] Eq 0 Etude qualitative du L-estimateur Les résultats présentés par Bovik sont assez éloquents, quant aux améliorations apportées par le L- estimateur des moindres carrés dans le cadre d une population non normale. Les performances du L-estimateurs peuvent se résumer à un calcul de l efficacité relative par rapport à la moyenne et la médiane pour différents types de distributions (Figure 38). L effectif des échantillons est n=3. Distribution Var(L-estimateur)/Var(Médiane) Var(L-estimateur)/Var(Moyenne) Forme en U Uniforme Parabolique Triangulaire Normale Laplace Figure 38 L efficacité du L-estimateur est d autant plus grande par rapport à la moyenne que la loi diffère de la loi normale. Les variances sont les mêmes pour une loi normale et l amélioration n est que substantielle pour une loi triangulaire. En revanche, les progrès par rapport à la médiane sont d autant plus grands que les queues de la distribution sont légères. Ainsi les résultats sont très satisfaisants pour une loi uniforme et le sont beaucoup moins pour une loi à tendance centrale très prononcée comme la loi de Laplace. Calcul du L-estimateur par la méthode de Lloyd Le calcul formel des coefficients d un L-estimateur est relativement pénible car il faut établir plusieurs moments caractéristiques des statistiques étudiées. Ainsi, si on utilise la méthode proposée par Lloyd on calcule la matrice de covariance des statistiques d'ordre réduites 8 ainsi que le vecteur des espérances des statistiques d'ordre α. Pour la méthode de Bovik, on détermine la matrice H. Nous donnerons à titre d exemple le développement du calcul pour une loi uniforme. Pour des distributions plus complexes nous aurons recours au calcul numérique par ordinateur.

110 Supposons que la variable aléatoire X soit distribuée selon une loi uniforme U sur l'intervalle [0,1]. Sa densité est f(x)=1 et sa fonction de répartition F(x)=x sur ce même intervalle (Figure 39). f(x) 1 F(x) x 0 1 x Figure 39 L expression de l espérance d une statistique d ordre se simplifie dans le cas de la loi uniforme E [ X k ]=n.c n 1 n.c n 1 1 k k 1. - x k. 1 x n k. dx X k. 1 F X n k. f x. dx b Cette intégrale est de la forme générale I = x a m1 b x m2 dx a m1 m2 1 m1! m2! d'où sa solution I ( b a) m1 m2 1 avec ici b=1 a=0 m1=k m2=n-k n 1!! n k! d'où E [ X k ]=n k k 1! n k! n 1! = k n 1 On en déduit E[X (k) X (l) ] ainsi que la variance de X k et la covariance de X k et X l. Var [ X k ]= k n k 1 n 1 2 n 2 Cov [ X k, X l ]= k n l 1 avec1 k l n n 1 2 n 2 Il est alors possible de construire la matrice W et la matrice H. Le calcul des coefficients du L- estimateur étant particulièrement délicat dans le cas général d'un échantillon de taille n, nous nous contenterons de traiter l'exemple n=3. = 1 [ ]

111 On inverse les matrices de covariance W 1 =20 [ ] En utilisant la relation (Eq 0) de Lloyd, on trouve que le L-estimateur optimal est le filtre milieu. Il est optimal en terme de variance parmi les estimateurs linéaires. C opt = Calcul du L-estimateur par la méthode de Bovik La méthode proposée par Bovik suppose que le bruit soit centré. C est pourquoi nous allons considérer ici une loi uniforme U [ 1, ]. Le calcul de la matrice H n est pas très aisé pour une telle distribution. C est pourquoi nous allons nous appuyer sur les résultats précédents de la matrice de covariance qui est invariante par translation de la population. On en déduit la matrice H : E [ X k X l ]=Cov [ X k X l ] E [ X k ] E [ X l ] où E [ X k ]= 2 k n 1 2 n 1 H = 1 [ ] En appliquant la relation (Eq 0) on trouve là aussi que l estimateur est le milieu. Variance asymptotique du milieu On peut montrer que la variance du L-estimateur des moindres carrés évolue asymptotiquement en 1/n 2 alors que celle de la moyenne varie en 1/n dans le cas de la loi uniforme.

112 La variance d'un L-estimateur est définie par la relation suivante : Var m =C t HC=C t C En effet, pour des raisons de symétrie de la matrice H, les moments du bruit centré étant tantôt positifs tantôt négatifs, ces deux relations sont équivalentes. Nous avons démontré précédemment les calculs de l'espérance de la variance et de la covariance d'une statistique d'ordre dans le cas d'une distribution uniforme définie sur l'intervalle [0,1] Cette dernière a pour variance 1/12. Nous pouvons généraliser ces résultats à des distributions uniformes de variance s 2 en multipliant par un coefficient d échelle 12 s 2. Var [ X k ]=12 s 2 k n k 1 n 1 2 n 2 Cov [ X k, X l ]=12 s 2 k n l 1 avec1 k l n n 1 2 n 2 Pour la suite du calcul, on ne s'intéresse qu'aux coefficients placés dans les angles de la matrice R, car les autres seront annulés lors de la multiplication avec le vecteur C des coefficients du filtre milieu. [ 12 n L? L 1 ] s2 d'où R= n 1 2 n 2 M O M 1 L? L n d'où Var [ m ]= t C C= 1 12 s2 n 1 2 n 1 2 n 2 = 6 s 2 n 1 n 2 La variance asymptotique du L-estimateur est donc Lim Var m = 6 s2 n n 2 que la moyenne empirique évolue en 1/n : Lim Var X = s2 n n. Elle évolue en 1/n 2 alors

113 Etude de la Période Opérationnelle Moyenne Nous avons montré au travers de simulations [Duc 96] 62 que la réduction de la variance apportée par le L-estimateur permettait d améliorer la Période opérationnelle d une carte de contrôle de type Shewhart. Pour ces simulations, nous avons choisi de prendre les limites de contrôle égales à ±3 s/ n quelle que soit la forme de la population et le type d'estimateur. On compare donc les performances des cartes de contrôle à limites constantes. La Figure 41 donne d ailleurs un aperçu de la P.O.M. des deux cartes de contrôle étudiées lorsque la population suit une loi normale. La P.O.M. est représentée en fonction du décentrage k.s ou k est un réel. La distribution du L-estimateur étant plus étroite que celle de la moyenne, on minimise de façon importante les risques a, d où une P.O.M. importante pour k= 0. P.O.M. pour la loi uniforme k 0 0,2 0,4 0,7 1 1,25 1,5 2 3 n=3 L-Estim. NC ,1 10,3 5,27 3,15 1,44 1,01 X NC ,6 9,24 4,64 2,89 1,50 1,01 n=5 L-Estim ,1 5,99 2,60 1,45 1,05 1,00 X ,7 13,1 4,46 2,42 1,59 1,08 1,00 n=7 L-Estim ,7 15,1 3,46 1,44 1,12 1,00 1,00 X ,8 7,72 2,70 1,62 1,20 1,01 1,00 Risque α constant L-Estim ,2 9,77 2,38 1,25 1,07 1,00 1,00 Figure P.O.M. pour une loi uniforme P.O.M L-estimateur - n=5 L-estimateur - n=7 Moyenne - n=5 Moyenne - n= k Figure DUCLOS E. PILLET M. COURTOIS A. Optimisation de la Maîtrise Statistique des Procédés par une méthode de filtrage d ordre - Revue de Statistique Appliquée XLIV (2) pp NC : Non calculable car les limites de contrôle sont à l extérieur de la distribution de la population.

114 Nous avons également traité le cas qui consiste à travailler à risque a constant. Ainsi, pour la carte X on fixe les limites de contrôle à 3 s/ n, et on recalcule les limites de la carte de Shewhart avec L-estimateur, de manière à obtenir un risque a équivalent à celui de la carte X. L exemple choisi est celui d un échantillon de taille n=7 avec une distribution uniforme (Ligne grisée de la Figure 40). Les limites sont fixées à 2,76 s/ n pour obtenir une P.O.M k=0 = 650. Les calculs mettent en évidence que la carte utilisant le L-estimateur minimise les risques de fausses détections lorsque le décentrage est faible. En revanche, si le décentrage est significatif (k>0,9), la P.O.M. de la carte de contrôle avec L-estimateur devient plus faible que celle de la carte X (Figure 42). On constate par exemple pour la limite supérieure 3 s/ n=3/ 7=1,13, que P.O.M. Moyenne = 2 et P.O.M. L-estimateur =1,5 ; on détecte donc les décentrages beaucoup plus rapidement en utilisant un L-estimateur. P.O.M Moyenne L-estimateur k Figure 42 Ces premières simulations sur des distributions simples mais possédant un caractère non normal prononcé ont montré que les L-estimateurs pouvaient être une alternative intéressante à l utilisation de la moyenne dans un contexte non normal. Nous avons donc cherché à généraliser notre approche aux lois non normales ne possédant pas de propriété de symétrie.

115 Généralisation au cas non symétrique Choix du paramètre de localisation Cas d une fonction perte symétrique Lorsque la distribution de la population est symétrique, le choix du paramètre de localisation de la population ne se pose pas réellement puisque la moyenne et la médiane se superposent à l axe de symétrie de la courbe. Dans le cas contraire ce choix est discutable car la médiane et la moyenne ne correspondent pas forcément à une caractéristique géométrique de la loi. De plus, ces deux paramètres sont le plus souvent distincts (Figure 43). La question qui se pose alors, est de savoir s il est préférable de choisir la moyenne plutôt que la médiane ou tout autre paramètre? Moyenne Médiane Moyenne Médiane Mode Figure 43 Nous avons donc choisi de mettre en place un critère qui permette de déterminer un paramètre optimal. Le coût de la non qualité nous est apparu un critère satisfaisant pour justifier le choix du paramètre de localisation. En effet, nous allons chercher le paramètre de localisation qui, lorsqu il coïncide avec la cible du procédé, permet de minimiser la perte au sens de Taguchi [Tag 89] 64 (Figure 44). Cible Paramètre de localisation Fonction Perte Figure TAGUCHI G. ELSAYED A. HSIANG T. C. Quality engineering in production systems Mc Graw-Hill

116 La justification du choix du paramètre m p est assez triviale car il suffit de minimiser l expression de la perte moyenne par individu produit. Tout d abord, rappelons que la fonction perte est définie par : L=K X X 0 2 où X est la valeur prise par une caractéristique X 0 est la cible de la production K une constante qui dépend des coûts engendrés par un dépassement des tolérances L expression de la perte moyenne est donc L=K E [ X X 0 2 ] On suppose que le paramètre de localisation est placé sur la cible : m p = X 0 L=K E [ X m p 2 ]=K E [ X 2 ] 2 m p E [ X ] m p 2 On cherche un extremum de la fonction en la dérivant par rapport à m p : L m p =K 2 E X 2 m p =0Ûm p =E X Le paramètre de localisation est donc la moyenne pour que la perte soit minimale quand ce paramètre est égal à la cible. Ceci est vrai quelle que soit la distribution de la population. Cas d une fonction perte non symétrique Le coût de la non qualité associé à la production d une pièce n est pas systématiquement symétrique. En effet les opérations effectuées à la suite d un dépassement de la tolérance supérieure ne sont pas forcément aussi coûteuses si on dépasse la tolérance inférieure. Prenons l exemple rencontré pour l usinage de paliers ou des manetons de vilebrequins. Les pièces usinées ont une forte valeur. On considère en effet que la perte d un vilebrequin entraîne un coût de 2000 francs. Ce cas de figure est rencontré lorsque la tolérance inférieure du diamètre est dépassée. En revanche si on dépasse la tolérance supérieure, on effectue une retouche qui est évaluée à 50 francs.

117 Dans ce cas il est évident que le paramètre moyenne ne permet pas de minimiser la perte lorsqu on le centre sur la cible (Figure 45). Il faut donc trouver un autre paramètre de localisation. Son choix dépend ici des coefficients K 1 et K 2 de la fonction perte respectivement à gauche et à droite de la cible. L 1 =K 1 (x 1 -x 0 ) 2 TI TS Fonction Perte Cible L 2 =K 2 (x 2 -x 0 ) 2 Figure 45 On note respectivement L 1 L 2 les pertes à gauche et à droite de la cible. { L 1 =K 1 X 1 X 0 2 X 1 X 0 L 2 =K 2 X 2 X 0 2 X 2 X 0 On considère que la distribution de la population est centrée sur la cible de telle manière que le paramètre de localisation se superpose à la cible : m= X 0 P est la probabilité qu une mesure soit inférieure au paramètre de localisation : P=Pr(X<m) La perte moyenne de la production est alors donnée par : m E L =K 1 - x m 2 + f x dx K 2 x m 2 f x dx m Le minimum de E(L) s obtient en annulant sa dérivée par rapport à m soit : m m K 1. P K 2. 1 P =K x f x dx K 2 x f x dx m La résolution non triviale de cette équation où P dépend de m nécessite la connaissance de la loi des observations, ce qui est inacceptable dans un cadre non paramétrique. Nous supposerons dans la suite de notre étude que la fonction perte est symétrique, dans ce cas le paramètre à estimer est la moyenne.

118 Choix du paramètre de dispersion Pour le paramètre d échelle, nous n avons pas mis en évidence de critère de choix particulier, si ce n est l aspect pratique. En effet, le paramètre qui paraît le plus évident à estimer est l écart type. Exemple d application d un L-estimateur à une loi non normale. Caractéristiques de la population Nous avons choisi de traiter le cas d une population stratifiée composée de 6 lois élémentaires normales de mêmes écart-types : N 1 (0, 1) N 4 (5, 1) N 2 (5.5, 1) N 5 (5, 1) N 3 (-3.2, 1) N 6 (-3.5, 1) N(5.0;1) N(5.5;1) N(0;1) N(-3.2;0) f(x) N(-3.5;1) fp(x) x Figure 46 Cet exemple simule le cas industriel d une fabrication sur une presse avec 6 empreintes. Les prélèvements sur chacun des générateurs étant équiprobables ( = 1/6), on définit la densité de probabilité des critères générés par : f ( X ) f ( X ) f ( X )... f ( X ) p N1 N2 N6 La fonction perte étant symétrique, le paramètre de localisation est la moyenne m et le paramètre d échelle est l'écart type s.

119 La méthode de calcul présentée dans le chapitre 2 ( 1.2.2) est utilisée pour déterminer la moyenne et l écart-type du mélange de lois. D'où m= s= A titre d exemple, on donne (Figure 47&Figure 48) les coefficients des deux estimateurs pour n=3, 4 et 5. On remarque sur la Figure 47 que la fonction de poids est relativement proche de celle du milieu de l étendue. Dans ce cas, on peut se demander si le choix du milieu de l étendue n est pas une bonne solution à chaque fois que la distribution de la population à une tendance platikurtique. Plusieurs considérations nous dissuaderons d une telle approche. Tout d abord, le milieu de l étendue n est pas optimal en terme de variance pour toutes les lois à tendance platikurtique. Et d autre part, le paramètre de position qu elle estime est différent de la moyenne lorsque la loi n est pas symétrique. L-estimateur de position n c 1 c 2 c 3 c 4 c Figure 47 L-estimateur de dispersion n c 1 c 2 c 3 c 4 c Figure 48 Etude de variance Comme nous pouvons le constater dans le tableau de la Figure 49 et sur la Figure 50, la variance du L-estimateur est toujours très inférieure à celle de la moyenne. Pour l industriel, il est alors possible de tirer parti de cette réduction de la variance en améliorant la commandabilité et donc la capabilité de son procédé de fabrication, ou en réduisant la taille des prélèvements. Par exemple, pour une moyenne calculée sur un échantillon de taille n=7, le L-estimateur ne requiert, à variance équivalente, qu un échantillon de taille n=4. Variance des estimateurs Echantillon n = 3 n = 4 n = 5 n = 6 n = 7 n = 8 n = 9 n = 10 L-estimateur m Moyenne Efficacité relative Figure 49

120 Variance Variance des estimateurs - Echantillonnage aléatoire L-estimateur Moyenne n Figure 50 Remarque : La variance de la moyenne est calculée par s 2 /n avec l'écart type de la population. Var [ m ] L efficacité relative du L-estimateur par rapport à la moyenne est donnée par : Var [moy ] Distribution des estimateurs La distribution de la moyenne ainsi que la distribution des L-estimateurs dans certains cas sont asymptotiquement normales. Cette étude réalisée sur un très grand nombre de données a montré que pour une population fortement non normale, ni la moyenne ni le L-estimateurs ne suivent une loi normale pour des échantillons de taille modérée (Figure 51). Distribution de la Moyenne - Echantillonnage aléatoire n= n=6 n= p(x) Distribution du L-estimateur - Echantillonnage aléatoire 0.08 n= n= n= p(x) X X Figure 51 Alors que la distribution de la moyenne converge vers une loi normale, au fur et à mesure que n grandit, on constate que la distribution du L-estimateur possède une tendance leptokurtique.

121 Mise en oeuvre de la carte L Construction du L-estimateur La construction du L-estimateur de Lloyd nécessite le calcul de la matrice de covariance des statistiques d'ordre réduites 8 ainsi que le vecteur des espérances des statistiques d'ordre a. Nous savons que le calcul littéral des moments d ordre 1 et 2 des statistiques d ordre est particulièrement pénible. En effet, les coefficients de la matrice de covariance s expriment par la relation (Eq 0). avec f rs x, y = y Cov [ X r :n X s:n ]= x m r :n y m s : n f rs x, y dxdy - - n! r 1! s r 1! n s! F r 1 x f x F y F x s r 1 p y [1 P y ] n s Cette relation requiert que la loi de distribution de la population soit parfaitement connue. Il faut donc identifier la population à une loi paramétrique. Ceci, est inacceptable à nos yeux pour deux raisons : D une part, il est tout à fait illusoire de vouloir identifier la distribution d un critère dans des conditions de production, D autre part, cette procédure nous place dans un cadre paramétrique, que nous ne souhaitons pas. Nous préférons donc estimer W et a à partir de mesures prélevées sur le procédé (Eq 0). Eq 0 w ij = 1 m 1 m [ x i x i x j x j ] α i = 1 m m x i Eq 0 Le calcul de la matrice W et du vecteur a nécessitent que le procédé soit stationnaire, autrement dit qu il soit sous contrôle. En effet si l information apportée par W et a est corrompue par une dérive du procédé, les estimations pourront être de mauvaise qualité. Nous exposerons donc plusieurs méthodes pour calculer le L-estimateur, adaptées au type de procédé piloté.

122 Démarrage d une carte L Pour que l utilisation d un L-estimateur soit bénéfique par rapport à un estimateur comme la moyenne, il est nécessaire que le surplus d information apporté par la matrice de covariance et le vecteur des moments soient cohérents avec ce que l on souhaite réellement modéliser. Procédé stationnaire L'échantillon est représentatif de la population Procédé non stationnaire L'échantillon ne possède aucune des caractéristiques statistiques de la population Figure 52 Le problème est ici sensiblement équivalent à celui rencontré lorsque l on veut calculer une capabilité machine. Pour ce faire, on prélève les mesures sur une période suffisamment courte pour que les dérives du procédé (qui pourraient être compensées par un bon pilotage) soient peu significatives. Cette procédure est bien sûr satisfaisante si le procédé n est pas soumis à un trop grand nombre de perturbations. La notion de stabilité est ici relative à la cadence de production et non pas au temps. En effet, un procédé pour lequel on ne note qu une faible dérive pour un nombre important de pièces produites est présumé stable quel que soit le temps nécessaire à cette production. En revanche, un procédé sera qualifié d instable si des causes spéciales sont fréquemment identifiables. Nous distinguerons deux cas : celui des procédés à évolution rapide ou à évolution lente. Les procédés à évolution lente Les procédés à évolution lente sont en général assez peu problématiques car la quantité de données recueillables sur une période stable suffit à établir les statistiques d intérêt. La norme AFNOR [AF1 95] 65 suggère, par exemple, de calculer la dispersion de la population à partir d une vingtaine de sous-groupes, lors de la «période de référence» préalable à toute mise en place d une procédure M.S.P. Un minimum de trente valeurs individuelles est en effet souhaitable pour que le calcul d une variance empirique converge vers une valeur exploitable. 65 AFNOR Norme NF X Application de la Statistique - Cartes de contrôle de Shewhart aux mesures ISSN

123 De manière analogue, nous avons montré expérimentalement que pour débuter une carte L, trente à quarante échantillons suffisent pour que les coefficients de la matrice de covariance soient dans le voisinage de leurs valeurs asymptotiques. Pendant le prélèvement de ces données, on reportera la moyenne et l écart type des échantillons sur une carte préliminaire, afin de s assurer de la stabilité du procédé (Figure 53). Après avoir calculé le L-estimateur, on peut placer les limites de la carte de contrôle. On vérifiera de manière rétrospective que le procédé était bien sous contrôle pendant la période de référence. Dans le cas contraire, le calcul des coefficients du L-estimateur a été pollué par des causes spéciales. Carte de Suivi Calcul du L-estimateur Carte de contrôle a 1 1, 1 1, n a W a 2 n, 1 n, n Paramètres s et m C L estimateur LSC Cible LIC c 1 c n Pilotage Figure 53 Cette période d étude préliminaire nous semble acceptable pour un industriel. Nous savons néanmoins par expérience, que les cartes d observations préliminaires ne sont pas toujours utilisées sur des procédés «bien connus». Afin de réduire au minimum la période de référence et éviter l utilisation d une carte de suivi au profit d une carte de contrôle, nous proposons de faire évoluer les coefficients du L-estimateur progressivement de la moyenne (1/n) aux coefficients optimaux. Pour cela nous avons choisi d utiliser un algorithme de lissage (Eq 0). Au fur et à mesure que les échantillons sont prélevés, les coefficients de l'estimateur C Lissage évoluent de la moyenne (Ci= 1/n) vers les coefficients optimaux C L-estimateur estimés à l aide de la relation (Eq 0). 1 C Lissage = k C k L Estimateur 1 k n M max k max 1 [ ] n Eq 0

124 On note k le numéro de l échantillon prélevé et k max le nombre d'échantillons qui fixe la fin de la période de référence. On choisira de préférence une valeur de k max supérieure à trente. Lorsque le nombre d échantillon k atteint la valeur k max, les coefficients du L-estimateur sont ceux du L- estimateur des moindres carrés. Cette procédure a l avantage de permettre le pilotage du procédé avec les seules valeurs m et s fixées par «l expérience». De plus, rappelons que les coefficients obtenus par lissage donnent une estimation sans biais de la position de la population puisqu il s agit d une combinaison linéaire de deux estimateurs sans biais (Eq 0). m=c Lissage X = α C L estimateur X Estimation par les moindres carr s 1 α 1 n e X Moyenne Eq 0 Nous présentons à titre d exemple (Figure 54, Figure 55 & Figure 56) une simulation du démarrage d une carte L de position avec k max = 40. Les coefficients du L-estimateurs sont initialisés à 1/5 et convergent respectivement [ ] Coefficients du L- estimateur Figure 54 Variance n Figure 55 7 Carte de position Moyenne L Estimateur Figure 56

125 Nous pouvons constater que la variance de l estimation évolue de s 2 /5 = 3,19 à 1,5 qui correspond à la variance du L-estimateur des moindres carrés. Nous aborderons dans le paragraphe suivant le calcul des limites de contrôle de la carte L. Les procédés à évolution rapide et les petites séries. Si le calcul des coefficients du L-estimateur n est pas trop délicat pour les procédés relativement stables, il n en est pas de même pour ceux qui sont particulièrement perturbés. En effet, les périodes de stabilité étant très courtes, il est difficile de recueillir suffisamment de données pour construire le L-estimateur. Nous considérons que les petites séries se rapportent au même cas de figure puisque le nombre de données exploitables est faible. L idée consiste donc à exploiter au maximum le peu de données recueillies, pour faire converger les coefficients de la matrice W et du vecteur a vers des valeurs raisonnables. Pour cela nous utiliserons une méthode de type bootstrap à partir d un échantillon de capabilité machine ou d une carte préliminaire construite avec les toutes premières mesures d une série courte. Les méthodes bootstrap Les méthodes bootstrap déjà évoquées au chapitre précédent font partie des méthodes intensives de calcul. Elles se sont développées avec la montée en puissance des ordinateurs. C est une procédure de réechantillonnage dont l objectif est d étudier les propriétés d une statistique T fondée sur un échantillon (X 1,X 2,...,X m ) d une variable aléatoire. L algorithme du bootstrap est relativement simple. Nous le résumerons en trois étapes (Figure 57) : Nous considérons tout d abord un échantillon indépendant E= (X 1,X 2,...,X m ). On prélève N valeurs de façon équiprobable avec remise, dans la population empirique que constitue E. L échantillon ainsi prélevé est noté E*. La dernière étape consiste à étudier le comportement de la statistique «bootstrapée» T* construite à partir de E*. Ainsi, on itère un grand nombre de fois le réechantillonnage et le calcul de T* pour donner lieu à une approximation par la méthode de Monte-Carlo. Application à un échantillon ordonné Les statistiques étudiées seront des statistiques d ordre associées au calcul des éléments de W et a. Les échantillons bootstrap sont de la taille des sous groupes de la carte de contrôle : N=n. T X i i=1,2, K, n pour éléments du vecteur a. T X i X i X j X j 1 i j n pour les éléments de la matrice W.

126 On note E * l espérance calculée à partir de B échantillons bootstrap. L espérance des statistiques bootstrapées est calculée par la relation (Eq 0). T E Eq 0 Distribution de la population E On possède un échantillon de N mesures indépendantes. Cet ensemble de mesures sert de population de base. Distribution empirique E(T*) On opère un réechantillonnage aléatoire avec remise dans E. Chaque échantillon bootstrap permet de calculer une statistique bootstrapée T*. s (T*) L'ensemble des B statistiques T* permet d'approximer le comportement de T Distribution de T* E * (T*); V (T*);... * Figure 57

127 Pré-requis à l utilisation de la méthode bootstrap Cette méthode ne peut être appliquée que si l échantillonnage effectué sur le procédé est aléatoire. En effet, le réechantillonnage avec remise, élimine toute corrélation entre les mesures de l échantillon original. Dans le cas de procédés multigénérateurs, il se peut qu un échantillonnage aléatoire ne soit pas adapté au suivi par carte de contrôle. L un des effets de l échantillonnage séquentiel, par exemple, est de réduire le nombre de combinaisons de générateurs au sein d un échantillon. Il en résulte une variance inter échantillon plus faible que pour un échantillonnage aléatoire. Dans ce cas le réechantillonnage aurait pour conséquence de modifier la variance inter échantillons et les valeurs de W et a. On est donc contraint de calculer le L-estimateur à partir des échantillons prélevés lors de la période de référence, par la méthode de lissage. Pour que l échantillon original soit représentatif de la population, il est nécessaire que le procédé soit stable pendant le prélèvement de l échantillon. Plus la taille de l échantillon est grande, plus les résultats obtenus seront de bonne qualité. Avec une vingtaine de mesures individuelles, on peut déjà obtenir des coefficients du L-estimateur qui sont dans le voisinage des coefficients optimaux. Exemple d application On se propose de suivre le procédé décrit au paragraphe. simulant une fabrication sur presse à injecter avec six empreintes. On procède à un échantillonnage aléatoire de taille n=5 pour construire la carte de contrôle. Le procédé étant modérément stable, on prélève m=30 mesures individuelles (soit six échantillons M.S.P.) dans un laps de temps relativement court pour que l évolution du procédé ne soit pas significative. Cet échantillon est l échantillon de base qui servira à construire le L-estimateur par la méthode bootstrap. On génère B=1000 échantillons ordonnés de taille n=5. On peut prélever jusqu'à K n m m 1 L m n 1 n m = =C n! m n 1 échantillons différents à partir de l échantillon original. n n K m n 1 étant le nombre de combinaisons avec répétition (Ici K m n 1 =278256) On calcule à partir de ces échantillons les coefficients de la matrice W et du vecteur a. Si le paramètre de localisation de la population est la moyenne, alors m p = 1 B 1 n X B i=1 n i, j j=1, la moyenne de l ensemble des échantillons bootstrap. Le paramètre d échelle est l écart-type des B*n mesures individuelles. A l issue des calculs, on obtient les coefficients suivants : L-estimateur de position c 1 c 2 c 3 c 4 c 5 Coefficients par méthode Bootstrap Coefficients Optimaux

128 On constate que les coefficients obtenus par méthode bootstrap sont très proches des coefficients optimaux. L efficacité relative du L-estimateur de position par rapport à la moyenne est de 0,49 avec les coefficients estimés par la méthode bootstrap alors qu elle est de 0,47 pour les coefficients optimaux. L-estimateur de dispersion c 1 c 2 c 3 c 4 c 5 Coefficients par méthode Bootstrap Coefficients Optimaux Les coefficients obtenus par la méthode bootstrap permettent un suivi de très bonne qualité, comme on peut le constater sur la Figure Xb L-EstX Cible X S L-EstS Figure 58

129 Calcul des limites de contrôle Outre le calcul du L-estimateur, la construction d une carte L nécessite également la détermination de limites de contrôle. Celles-ci permettent de préciser le moment opportun pour effectuer un réglage. Les limites de contrôle d une carte de Shewhart sont en général placées à ±3 s p / n, de façon à obtenir un risque a de l ordre de 0,27% dans l hypothèse d une population relativement proche d une loi normale. Cette hypothèse sort bien entendu du cadre de notre étude. Il est donc indispensable de reconsidérer le choix des limites de contrôle. Problématique Le calcul ou l évaluation de la distribution d un L-estimateur est un problème qui reste encore entier à l heure actuelle. En effet les calculs sont relativement complexes et nécessitent la connaissance de l expression de la loi de distribution de la population, ce qui n est pas notre cas. Le calcul des lois exactes n étant pas concevable, nous aurons recours à des approximations. Nous avons exposé au chapitre précédent quelques méthodes permettant d établir les limites de contrôle d une carte de la moyenne, pour des lois non normales. Les méthodes exposées sont pour la plupart basées sur l identification d une loi paramétrique (Courbes de Burr [You 92], loi de Weibull [Sch 96] 66 etc.). La parfaite connaissance des caractéristiques de la loi permet de déterminer aisément les limites de contrôle telles que les risques a soient de l ordre de 0,27%. Ces méthodes nous apparaissent cependant peu intéressantes du fait de leur approche paramétrique, qui par essence ne peut satisfaire à tous les cas de figure. De plus, la modélisation des queues d une distribution reste modérément fiable, surtout si cette modélisation est réalisée à partir d un échantillon représentatif de faible taille. Intervalle de confiance pour un paramètre de localisation Notre souci étant principalement de fournir une méthode générale, nous allons rappeler plusieurs méthodes classiques, permettant de déterminer un intervalle de confiance pour un paramètre de localisation. Nous discuterons ensuite de leurs avantages et inconvénients dans le cadre de notre application. La construction d un intervalle de confiance nécessite généralement la connaissance de la loi des observations pour pouvoir garantir un certain niveau de confiance. Néanmoins il existe des méthodes dites «distribution-free» qui ne postulent aucune loi a priori. Deux méthodes sont couramment proposées lorsque l on considère un modèle non paramétrique de localisation échelle. Il s agit d une méthode basée sur les p-quantiles empiriques d un échantillon ordonné et d une autre approche au caractère un peu plus arbitraire. 66 SCHNEIDER H. KASPERSKI W.J. & al Control charts for skewed and censored data Quality engineering 8(2):

130 Intervalle de confiance pour un p-quantile Une méthode qui résulte des propriétés des statistiques d ordre, consiste à calculer l intervalle de confiance d un p-quantile x p = 0.5. L intervalle de confiance est alors défini par deux statistiques d ordre X (i) et X (m+1-i) où m est le nombre de mesures disponibles. On cherche donc à définir l entier i tel que : m i P X i x p X m 1 i = r=i r! r! m r! 1/2 m ³1 α Cette méthode a l avantage de permettre la construction d un intervalle de confiance à partir des réalisations d une variable aléatoire, quelle que soit sa loi. Néanmoins les travaux de Willemain et Runger [Wil 96] (voir Chapitre ) montrent que la Période Opérationnelle Moyenne d une carte de contrôle construite sur ce principe est très influencée par la dispersion des statistiques d ordre X (i) et X (m+1-i). Cela implique que les limites soient calculées à partir d un échantillon important. En effet Willemain suggère de prélever quatre fois plus d échantillons que la POM souhaitée pour que les limites soient fiables. Si l on souhaite P.O.M k=0 =370 pour maintenir un risque a=0.27%, alors il fait posséder au moins 1480 observations. Ceci n est malheureusement pas admissible, d autant plus que les observations qui proviennent du L-estimateur, sont peu nombreuses lors de la période de référence. Intervalle de confiance «universel» Une deuxième méthode, est d utiliser l intervalle de confiance qui s impose lorsque les observations proviennent d une loi normale ou de Student. Ceci est très souvent le cas, même si le modèle ne le justifie pas. On définit cet intervalle de confiance par la relation (Eq 0). [ m t n s n ; m t n s n ] Eq 0 Où m est un estimateur du paramètre de localisation m tandis que s est un estimateur du paramètre de dispersion. La valeur t n est telle que le niveau de cet intervalle de confiance soit au moins égal à 1-a. Or la grandeur de t n, dépend de la loi de m / s, qui elle même dépend de la loi des observations que nous ne connaissons pas. Pour que les limites soient conformes à celles de la carte de Shewhart lorsque la variance du L-estimateur est proche de celle de la moyenne, il est possible de prendre t n =3. Cette dernière méthode, ne se caractérise pas par sa précision car il est difficile d avoir une idée des risques engendrés. En procédant de manière équivalente, il est possible de choisir des limites de contrôle dont la philosophie se rapproche un peu plus de celle des autres cartes de contrôle, tout en conservant un niveau de confiance acceptable.

131 Limites traditionnelles des cartes de contrôle La plupart des cartes de contrôle basées sur le principe de Shewhart, comme la carte aux étendues (R ), la carte aux écart-types (S), les cartes aux attributs (p, np, c et u) construisent leurs limites à ±3 écart-types de l estimateur utilisé (Eq 0). LSC=Cible 3 s L estimateur de Localisation LIC=Cible 3 s L estimateur de Localisation Eq 0 Ce choix bien qu arbitraire garantit néanmoins un fonctionnement satisfaisant des cartes de contrôle. Les risques a sont bien entendus différents des 0,27% de la carte de Shewhart mais restent d un ordre de grandeur acceptable. D ailleurs, le raffinement qui consiste à calculer des limites de contrôle assurant un risque de 0,27% apparaît futile quand on remarque que les risques a peuvent s écarter de manière importante de la valeur souhaitée, même quand la population suit une loi normale. Il suffit de faire quelques simulations pour s en convaincre. On effectue, par exemple, 30 tirages d une variable aléatoire suivant une loi normale, on calcule l écart type empirique S de l échantillon, puis on place les limites de contrôle à ±3 s/ n de la cible, où s est estimé par l écart-type empirique S. Les risques engendrés par de telles limites peuvent varier de 3% à 0,01%. Nous allons discuter le choix des limites de contrôle pour la carte L de position. Ce choix étant lié, comme nous allons le voir, à la tolérance du L-estimateur aux valeurs extrêmes. Choix des limites de contrôle Tolérance aux valeurs extrêmes Parmi les populations qu il peut nous être donné de rencontrer, nous distinguerons deux familles de lois. Celles qui ont des queues plus lourdes que la loi normale, comme la loi double exponentielle, et celles qui ont des queues plus légères, comme la loi uniforme. L efficacité d un L-estimateur est conditionnée par sa fonction de poids. Celle-ci affectera beaucoup de poids aux valeurs centrales du L-estimateur si les queues de la loi de la population sont plus lourdes que celles de la loi normale (médiane). En revanche, on donnera plus de poids aux valeurs extrêmes si les queues de la loi sont plus légères que celles de la loi normale (milieu). Si les poids affectés aux valeurs extrêmes X (1) et X (n) ne sont pas nuls et si l une ou l autre de ces valeurs prend une valeur exagérément grande, elle affectera de façon importante le résultat du L- estimateur. On retiendra en effet, que si la fonction de poids d un L-estimateur, définie sur [0,1], est non nulle dans le voisinage de 0 et 1, alors la tolérance aux valeurs extrêmes est nulle (voir ). C est le cas de la moyenne empirique par exemple, mais également celui du L-estimateur de moindres carrés dans la plupart des cas.

132 Dans les cas où la population a des queues soit beaucoup plus lourdes, soit beaucoup plus légères que celles de la moyenne, la distribution du L-estimateur des moindres carrés sera leptokurtique. En effet, dans le cas d une population platikurtique, la faible robustesse aux valeurs extrêmes se traduira par des queues lourdes pour sa distribution. Dans le cas d une population leptokurtique, la faible pondération des coefficients extrêmes ne pourra éliminer totalement la présence des queues de la population, du fait de la faible taille des échantillons. Ainsi, les risques engendrés par des limites (Eq 0) seront toujours supérieurs à 0,27%. L ordre de grandeur de ces risques évolue sensiblement selon la taille des échantillons et la symétrie de la population. On aura souvent des valeurs de l ordre de 2%. Nous distinguerons deux cas dans le choix des limites de contrôle : Si l objectif est de minimiser les risques a, on choisira l intervalle de confiance donné par (Eq 0), soit : LSC=m p 3 s n LIC=m p 3 s n Les risques seront très inférieurs à 0.27% si la population est platikurtique. Ils seront en revanche plus grands pour une population leptokurtique. La deuxième alternative (Eq 0) fournit des risques supérieurs ou égaux à 0,27%. Ils sont toujours supérieurs à ceux engendrés par les limites (Eq 0). Intervalle de confiance pour le paramètre d échelle Pour le paramètre d échelle, la construction de l intervalle de confiance est relativement simple. On constate en effet que la distribution de l écart-type empirique et du L-estimateur de dispersion sont toujours extrêmement proches l une de l autre. Malgré la similarité des distributions nous choisirons les limites (Eq 0) qui ont l avantage de prendre pour cible s p. De plus, les limites de contrôle traditionnelles (Eq 0) sont construites à partir du coefficient c 4 qui introduit un biais lorsque la distribution des observations ne suit pas une loi normale. LSC= c c 4 2. s LIC= c c 4 2. s Eq 0

133 LSC=s 3 s L estimateur LIC=s 3 s L estimateur Eq 0 Les limites de contrôle des deux cartes L étant déterminées, il est possible de piloter de manière statistique un procédé. Néanmoins il existe d autres règles de contrôle, qui ne sont pas basées sur le test par intervalle de confiance, qui méritent d être étudiées. Incidence sur les règles de pilotage Le pilotage par carte de contrôle est régi par un certain nombre de règles de décision qui s appuient sur la statistique. Les règles énoncées dans le cadre de l utilisation des cartes L, sont sensiblement équivalentes à celles utilisées pour une carte de type Shewhart, sous certaines conditions. Nous commenterons les cinq situations entraînant une prise de décision de la part de l opérateur. Procédé sous contrôle Règle de pilotage Les points reportés sur la carte de position et de dispersion oscillent de part et d autre de la cible. Le procédé est parfaitement centré. Si la distribution de l estimateur suit une loi normale alors la probabilité qu une mesure soit dans l intervalle de confiance ±s est p= C est pourquoi on énonce souvent un quota de 2/3 des points dans le tiers central de la carte de contrôle. Cette dernière règle n est donc pas applicable à la lettre avec un L-estimateur du fait du caractère leptokurtique de sa distribution (p>0.683). Elle n a d ailleurs qu un intérêt limité à partir du moment où le procédé ne répond pas aux différentes règles qui suivent (procédé hors contrôle). Décision Il faut poursuivre la production.

134 Procédé hors contrôle Règle de pilotage Le dernier point placé sur la carte de position ou de dispersion est en dehors des limites de contrôle. L hypothèse H0 du test par intervalle de confiance n est pas valide, que le niveau de confiance 1-a soit parfaitement ou partiellement connu. Le procédé est hors contrôle. Il faut donc intervenir sur le procédé. Décision Si un état hors contrôle est détecté sur la carte de position le procédé est décentré. On préconise alors d effectuer un réglage de la valeur qui sépare le point de la cible. Si un point hors contrôle est noté sur la carte de dispersion, la capabilité machine peut avoir évolué. On vérifiera tout d abord que le décentrage n est pas imputable à une erreur de mesure. Dans le cas contraire, la distribution de la population ayant évolué, il faut recalculer les coefficients du L- estimateur. La détection d un point hors contrôle peut être le seul fait d une évolution du paramètre d échelle de la population, auquel cas les coefficients du L-estimateur fournissent encore une estimation sans biais à variance minimale. Cependant il est difficile de vérifier cette hypothèse et la détection d un point hors contrôle déclenche le plus souvent des actions correctives qui modifient le comportement du procédé. C est pourquoi nous conseillons fortement de recalculer les coefficients du L- estimateur et d appliquer l une des procédures de démarrage décrites au paragraphe 4.2 de ce chapitre. Tendance Supérieure ou Inférieure à la cible Règle de pilotage Sept points consécutifs sont détectés au dessus ou en dessous de la cible, tout en restant entre les limites de contrôle. Ce test est lié à des propriétés de symétrie de la distribution de l estimateur utilisé. Intéressons nous tout d abord à une carte X. La cible de la carte de contrôle est le plus souvent la moyenne des estimations X. Si la distribution de X suit une loi normale ou possède des propriétés de symétrie, alors la moyenne des moyennes X est confondue avec la médiane des moyennes. Dans l hypothèse où le procédé est centré, la probabilité qu un point tombe d un côté ou de l autre de la cible est de 0,5. La probabilité de voir des points consécutifs d un côté de la cible est donc relativement faible.

135 Le phénomène peut être considéré anormal au bout de sept points consécutifs car la probabilité qu un huitième point tombe de ce même côté est du même ordre de grandeur que les risques a. L hypothèse H0 n est donc plus valable. Cette règle veut que la distribution de l estimateur soit symétrique. On peut cependant trouver assez facilement des contre-exemples comme l écart type S et l étendue R dont les distributions sont non symétriques. Dans les différentes études réalisées, la distribution du L-estimateurs de position de Lloyd s est avérée avoir une tendance centrale et des propriétés de symétrie plus fortes que la moyenne, dans un contexte non normal. De plus, la distribution du L-estimateur de dispersion est la plupart du temps semblable à celle de l écart type. Cette règle nous semble donc tout à fait applicable aux cartes L. La valeur fatidique de 7 points consécutifs peut néanmoins être revue si l on a la certitude que les risques a sont très différents de 0,27%. Le nombre de points peut être défini de telle sorte que la probabilité d être n fois consécutives du même côté (0.5 n ) soit du même ordre de grandeur que les risques a associés à la position des limites de contrôle. On peut citer, par exemple, la norme AFNOR [AF1 95] 67 qui considère que 9 points consécutifs du même côté permettent de conclure à un décentrage du procédé ; la probabilité d un tel événement est de 0,002. Décision Si une tendance est décelée sur la carte de position, il est conseillé de régler le procédé de l écart moyen qui sépare la tendance de la cible. Il faut noter dans ce cas que le réglage préconisé par le L- estimateur de position sera bien meilleur que celui donné par la moyenne pour un échantillon de même taille. Si la tendance est détectée sur la carte de dispersion, il est préférable de recalculer le L-estimateur ainsi que les limites des deux cartes de contrôle. Tendance Croissante ou Décroissante Règle de pilotage Sept points consécutifs forment une tendance croissante ou décroissante. Ce test s appuie sur l hypothèse d indépendance des données. Sous cette hypothèse, les points reportés sur les cartes doivent former un tracé dont les tendances sont alternativement croissantes ou décroissantes. Si ce n est pas le cas, il y a de fortes chances que le procédé soit en train de dériver. P X i X i 1 L X i 1 =1/7! α Ceci est vrai quel que soit l estimateur utilisé et quelle que soit sa distribution. 67 AFNOR Norme NF X Application de la Statistique - Cartes de contrôle de Shewhart aux mesures ISSN

136 Décision Si une tendance croissante ou décroissante est détectée sur la carte de position, on recentre le procédé de la valeur qui sépare le dernier point de la cible. Si une tendance est révélée sur la carte de dispersion, on recalcule le L-estimateur et les limites de deux cartes de contrôle ; comme dans le cas précédent. Point proche d une limite de contrôle Règle de pilotage Le dernier point est situé dans le sixième supérieur ou inférieur de la carte, proche des limites. Le procédé n est pas hors contrôle, cependant le procédé peut avoir subi un décentrage. Si le point est excentré du fait des causes communes, la probabilité est très faible qu un second point se situe dans la même zone. Décision On prélève immédiatement un autre échantillon. Si le point reporté se trouve dans le tiers central de la carte, ce n était qu une fausse alerte. On repasse donc en production. Pour la carte de position, si le second point se trouve dans la même zone que le premier, le procédé est décentré. On préconise alors de régler de la valeur qui sépare la cible de la moyenne de ces deux points. Pour la carte de dispersion, on s intéressera uniquement au cas où deux points sont proches de la limite supérieure. La capabilité machine s étant détériorée, on recalcule le L-estimateur et les cartes de contrôle. Synthèse des règles de pilotage L étude détaillée de ces cinq règles de pilotage montre que la carte L ne requiert pas de méthode de pilotage spécifique. Nous n avons apporté aucune modification aux règles traditionnelles de pilotage du point de vue de leurs principes. En revanche, nous avons rappelé les fondements mathématiques de chacune de ces règles afin de nuancer leur application dans des cas où la distribution de l estimateur ne suit pas une loi normale. Nous avons également précisé quels événements étaient susceptibles de remettre en cause les coefficients du L-estimateur. L utilisation et l interprétation de cartes de contrôle avec L-estimateur sera donc totalement transparente pour un utilisateur libéré des procédures de calcul.

137 Sensibilité de la carte L La sensibilité des cartes de contrôle est une des caractéristiques essentielles permettant de juger leurs performances. Pour appréhender ce niveau de performance on peut procéder de deux manières sensiblement équivalentes. La première consiste à calculer la période opérationnelle moyenne (P.O.M.) pour un décentrage donné, l autre se résume à calculer la forme de la distribution de l estimateur pour déterminer la probabilité de détecter un état hors contrôle. Cette dernière méthode n est d ailleurs applicable que pour les cartes de contrôle de type X. La Période Opérationnelle Moyenne est un indicateur reconnu par l ensemble des professionnels de la qualité ; une description est d ailleurs proposée dans la norme AFNOR paru en 95 [AF1 95]. Les études de P.O.M. peuvent, dans des cas simples, être réalisées par calcul. C est le cas de la carte de Shewhart dans des conditions de normalité du procédé. Lorsque l hypothèse de normalité de la population n est pas valide, ou que l estimateur utilisé n est pas la moyenne, on procède par simulations informatiques. Lors de ces études, on suppose également que les caractéristiques de la population ne sont pas affectées par le décentrage (ce n est pas le cas d un défaut de forme par exemple). Dans un premier temps nous avons réalisé une étude de P.O.M. de façon à évaluer les améliorations potentielles d une carte L par rapport à la carte de Shewhart. Etant donné le caractère non paramétrique de notre approche, les performances de la carte dépendent de la population étudiée. Nous avons donc jugé utile de traiter un cas où le L-estimateur possède une variance très inférieure à celle de la moyenne, pour vérifier si l amélioration en variance se répercutait sur la P.O.M. Nous avons également choisi de traiter un cas où la variance du L-estimateur est proche de celle de la moyenne, pour s assurer que les performances de la carte L ne sont pas inférieures à celles d une carte X. La seconde partie de notre étude concerne le suivi d un procédé dont l évolution se traduit par une modification de la distribution de la population. Sensibilité à un décentrage Cas d une non normalité très marquée La détection des dérives aussi bien rapides que lentes sur un procédé de production est lié au choix des limites de contrôle et à la distribution de l estimateur utilisé. Le premier cas que nous avons choisi de présenter est celui d une distribution possédant des queues légères (Figure 59). Il s agit d un mélange de lois normales de moyennes différentes. Nous avons vu au paragraphe que la forme de la population avait une répercussion importante sur la distribution des estimateurs, surtout si les échantillons sont de petite taille. Il en résulte que les risques a sont inférieurs à 0.27% lorsque les limites sont placées à ±3 s p / n. Cela se traduit par une POM supérieure à 370. Pour le L-estimateur, le problème est un peu délicat car nous ne connaissons pas a priori sa distribution.

138 Population Figure 59 Loi Normale Nous avons donc calculé les P.O.M. de la carte X et de la carte L dans les mêmes conditions. Il ressort de cette étude trois points essentiels : La P.O.M. de la carte L avec des limites placée à ±3 s/ n est d un ordre de grandeur équivalent à celle de la carte X, pour des décentrages k compris entre - 3/ n et + 3/ n. Pour des décentrages inférieurs aux limites de contrôle, c est le poids des queues qui détermine la P.O.M. C est pourquoi les résultats peuvent être très variables selon la taille des échantillons (Figure 60). Pour des décentrages supérieurs aux limites de contrôle, la P.O.M. de la carte L tend plus rapidement vers 1 que la carte X. Ceci s explique par le caractère impulsionnel de la loi du L- estimateur. Une faible augmentation du décentrage occasionne une forte augmentation de la probabilité de détecter le décentrage. P.O.M Carte L Carte Xb 0 k P.O.M Carte L Carte Xb k Figure 60 La P.OM. de la carte L pour des limites placées à ±3 s L estimateur est toujours inférieure à la P.O.M. de la carte X. Les risques a sont ici de l ordre de 0.6%, ce qui est loin d être alarmant (Figure 61). Le choix de telles limites a l avantage de fournir une carte très sensible aux décentrages.

139 Carte Xb Carte L 5 4 Carte Xb Carte L P.O.M k P.O.M k Figure 61 k Carte L 3 s/ n Carte X Carte L 3 s L estimateur Figure 62 La Figure 62 permet de faire une rapide synthèse des caractéristiques des Périodes Opérationnelles Moyennes des différentes cartes. Pour illustrer ces résultats nous avons simulé sur une carte de contrôle la dérive d un procédé (Figure 63). La dérive simulée est linéaire. En effet le décentrage de la population est proportionnel au numéro de l échantillon, ce qui signifie que le procédé est stationnaire pendant la constitution de l échantillon. On peut constater que la détection de la dérive est faite un peu plus tôt avec la moyenne qu avec le L-estimateur lorsque les limites sont placées à ±3 s p / n (LC1). Ceci s explique par la variance importante de la moyenne par rapport au L-estimateur. Nous pouvons considérer que nous n avons pas eu de chance car la moyenne surestime tout le temps la position du procédé entre l échantillon N 35 et l échantillon N 46. Dans le cas contraire, nous aurions pu détecter cette dérive avec le L-estimateur bien avant, puisqu il suit avec précision la tendance du procédé. La détection est en revanche plus rapide (échantillon N 27) avec les limites placées à ±3 s L estimateur (LC2) au risque de générer un nombre important de fausses alarmes.

140 Moyenne L-estimateur LC1 Tendance Cible LC2 Figure 63 Si nous avions appliqué la règle de pilotage qui consiste à compter le nombre de points consécutifs d un même côté de la cible, nous aurions détecté la dérive du procédé dès l échantillon N 15 avec le L-estimateur alors que cela n aurait été fait (avec beaucoup de perspicacité) qu au 24 ème échantillon avec la moyenne. Cas d une faible non normalité Dans le cas d une faible non normalité, l amélioration apportée par le L-estimateur en terme de variance est assez peu significative. L exemple proposé met en œuvre un L-estimateur de position dont l efficacité relative par rapport à la moyenne est de 0, Population Figure 64 Loi Normale Dans ce cas, on constate que la carte L et la carte X ont un comportement sensiblement équivalent. La P.O.M de la carte L est très proche de celle de la carte X pour les mêmes limites de contrôle (Carte L1). Ce résultat nous conforte dans l idée que la carte L, reste, dans le cas général, au moins aussi sensible que la carte de X. Pour des limites placées à ±3 s L estimateur les risques sont plus faibles que précédemment et tendent vers 0.27% si le L-estimateur optimal est la moyenne.

141 P.O.M Carte L1 Carte Xb Carte L2 0 k Carte L1 Carte Xb Carte L Remarque Dans le cas de populations fortement dissymétriques, la P.O.M. obtenue pour les différentes cartes, sera elle aussi dissymétrique. Yourstone montre dans ses travaux que le choix des limites peut permettre de minimiser cette dissymétrie, mais que ce n est pas suffisant. Sensibilité à une déformation de la population La seconde partie de notre étude concerne la détection d une déformation de la population. Ce phénomène peut être mis en évidence sur une presse à injecter, si le conduit d injection d une des empreintes tend à s obstruer. On aura le même comportement si on a un défaut de serrage sur une des broches d un tour. Ce problème est d un intérêt fondamental pour l utilisation des cartes L. En effet, nous savons qu un L-estimateur des moindres carrés est construit à partir de la matrice de covariance des statistiques d ordre, qui apporte une information fortement liée à l échantillonnage et à la distribution de la population. Or, si cette distribution évolue, le L-estimateur ne sera plus en mesure de fournir une estimation à variance minimale, ni même sans biais. La question qui se pose alors, est de savoir si la détection d une déformation est possible avant que les performances du L- estimateur ne se dégradent trop. Cette question a trait donc à la robustesse du L-estimateur des moindres carrés. Cadre de notre étude Nous avons vu au paragraphe ( ) les deux conditions pour qu un L-estimateur soit robuste selon Huber. La première condition, qui est relative aux poids des coefficients extrêmes n est qu exceptionnellement satisfaite avec le L-estimateur des moindres carrés. Le second critère demande que les lois convergent rapidement vers 0 et 1 pour que l estimateur soit robuste. Cette condition peut être satisfaite si la distribution de la population est tronquée ou a des queues légères. Ceci ne concerne donc qu un nombre limité de cas.

142 Le cadre non paramétrique étant peu propice aux démonstrations, nous avons étudié le cas ou le L- estimateur de position est de toute évidence très peu robuste. Ils s agit en l occurrence du cas ou les coefficients extrêmes sont fortement pondérés. Loi N 1 Loi N 2 Loi N Figure 65 Cette étude réalisée par simulation informatique a conduit à la comparaison des distributions des L- estimateurs de position et de dispersion, respectivement avec celles de la moyenne et de l écart type. Les comparaisons ont été réalisées sur trois distributions qui diffèrent légèrement les unes des autres (Figure 65). Dans des conditions normales, la distribution de la population suit la loi N 1. Au fur et à mesure que le procédé se dégrade, la distribution des observations suit la loi N 2 puis la loi N 3. Dans cet exemple, les estimations réalisées à l aide de la moyenne et du L-estimateur s appuient sur des échantillons d effectif n=5.

143 Estimateurs d un paramètre de localisation Loi N 1 Estimateurs d un paramètre de dispersion N(5,1) N(5.5,1) N(5.0,1) N(0,1) N(-3.2,1) N(3.5,1) L-estimateur Moyenne L-estimateur S Loi N N(7,1) N(5.5,1) N(5.0,1) N(0,1) N(-3.2,1) N(3.5,1) L-estimateur Moyenne L-estimateur S Loi N N(10,1) N(5.5,1) N(5.0,1) N(0,1) N(-3.2,1) N(3.5,1) L-estimateur Moyenne L-estimateur S Figure 66 On considère que la «Loi N 1» représente la distribution de la population lorsque le procédé est stationnaire. Les coefficients du L-estimateur de Lloyd ont donc été calculés à partir de ce modèle. Dans ce cas, le L-estimateur de position m et de dispersion s sont sans biais et à variance minimale. Nous allons donc évaluer quelles sont les pertes de performance du L-estimateur lorsque la loi originale subit une faible déformation (Loi N 2) puis un forte déformation (Loi N 3).

144 Les différents indicateurs de performance étudiés sont : L efficacité relative de la moyenne par rapport au L-estimateur de position ER X, m =Var [ m ]/Var [ X ] L efficacité relative de l écart type empirique par rapport au L-estimateur de dispersion ER S, s =Var [ s ]/Var [ S ] Le biais réduit du L-estimateur de position B m = m m p / s p Le biais réduit du L-estimateur de position B s = s s p / s p ER X, m ER S, s B m B s Loi N Loi N Loi N Figure 67 Résultats Nous retiendrons de cette étude les points suivants : Le tracé des distributions Figure 66 confirme la faible robustesse du L-estimateur des moindres carrés pour un paramètre de localisation. En effet, sa distribution est affectée de manière significative par l évolution de la population contrairement à la moyenne qui s avère plus robuste. Malgré la forte dégradation des performances du L-estimateur de position, (qui se traduit par une augmentation importante de l efficacité relative de la moyenne par rapport au L-estimateur) son biais reste modéré. Les corrections éventuelles que l on apportera au procédé ne seront donc pas dommageables à sa stabilité. Le L-estimateur de dispersion semble plus robuste aux évolutions de la population car son biais reste négligeable. Le décalage entre s et S que l on peut constater sur les trois courbes est essentiellement imputable au biais de S en tant qu estimateur de s p. Rappelons d ailleurs que dans le cas d une loi non normale, S /c 4 est aussi un estimateur biaisé de s p. L évolution de la moyenne de la population, liée à sa déformation est ici très faible (k= 0.2 entre les Lois N 1 & 3). En conséquence, la détection de ce décentrage par un dépassement des limites de contrôle est peu probable. On peut faire la même remarque pour la dispersion de la population. Néanmoins, les performances des L-estimateurs étant encore acceptables, on peut détecter l apparition d une tendance sur les deux cartes L (Figure 68).

145 D autres simulations, effectuées sur une population leptokurtique ont mis en évidence les mêmes phénomènes. Malgré la faible pondération des coefficients extrêmes du L-estimateur de position, celui-ci s avère peu robuste par rapport à la moyenne. Néanmoins, le biais du L-estimateur de position reste très faible. Le L-estimateur de dispersion est pour sa part beaucoup plus robuste et son biais est négligeable. 6.0 Carte de position Shew hart Carte L Xbb LSC LIC Carte de dispersion Loi N 1 Loi N 3 Carte L Carte S Ecart-Type Population LSC Figure 68 Conclusion L étude réalisée dans ce paragraphe nous a permis de vérifier que la faible robustesse du L- estimateur de position ne constituait pas une entrave à l utilisation de la carte L puisque les modifications de la distribution de la population sont détectées au même titre que les autres causes spéciales. Notons d ailleurs que le faible biais du L-estimateur de position a tendance à favoriser cette détection. De plus, les modifications subies par la population sont ici particulièrement importante et peu vraisemblables sur un outils de production.

146 Ces résultats et ceux obtenus par Pappanastos [Pap 96] 68 confirment en effet, que la robustesse d un estimateur et la détection d anomalies de production par une carte de contrôle sont antinomiques. Nous avons vu au chapitre 2 que L estimateur de Hodges-Lehmann qui se caractérise par une grande robustesse fournit généralement des résultats médiocres, lorsqu il est employé pour une carte de contrôle. Le L-estimateur des moindres carrés, qui en revanche est peu robuste détecte rapidement les évolutions de la population. Nous rappelons donc la règle de pilotage suivante : Lorsque une tendance est détectée à la fois sur la carte de position et de dispersion (comme sur la Figure 68), cela signifie que la distribution de la population a été modifiée. Différentes actions sont alors à mettre en œuvre : Arrêter la production. Rechercher l origine des causes spéciales. Recalculer les coefficients du L-estimateur. La non stationnarité des procédés est un problème bien connu en automatique. Elle conditionne en effet la validité des modèles mathématiques mis en œuvre. Pour remédier à cette non stationnarité, on a souvent recours aux méthodes dites «adaptatives», dont l objectif est de prendre en compte les évolutions du procédé pour que les modèles mathématiques utilisés restent acceptables. Il serait intéressant de pouvoir maintenir les coefficient du L-estimateur dans le voisinage des valeurs qui assurent une estimation à variance minimale et sans biais. Une stratégie très classique, par exemple, consiste à recalculer périodiquement les coefficients à partir d une fenêtre de données limitée dans le temps. 68 PAPPANASTOS E.A. & ADAMS B.M. Alternative Designs of Hodges-Lehmann Control Chart Journal of Quality Technology Vol 28 N

147 Le cas particulier des défauts de forme Nous allons nous intéresser dans ce paragraphe aux défauts de forme, qui représentent une part importante des non normalités rencontrées dans le milieu industriel. Le cas des défauts de forme est a priori facile à traiter puisque la distribution de la population est parfaitement caractérisée lorsqu on connaît le rapport m/ s où m et s sont respectivement la moyenne et l écart type de la loi de défaut de forme. On peut donc s affranchir du calcul de la matrice de variance covariance ainsi que du vecteur des moments d ordre 1 pour déterminer les coefficients du L-estimateur. On peut en effet imaginer que l on possède une base de données des coefficients du L-estimateur, indexée par le coefficient m/ s et la taille d échantillon. n=3 k= z / s z C 1 C 2 C Figure 69 Rappelons que l utilisation du L-estimateur des moindres carrés, même si cette méthode est non paramétrique, suppose que la loi des observations peut être décrite par un modèle non paramétrique localisation échelle. Dans le cas de la loi de défaut de forme, ce modèle n est pas valable car les deux paramètres m p et s p sont liés. Toute modification du paramètre de localisation de la population entraîne une modification du paramètre d échelle, du fait d une modification de la loi des observations. Nous avons montré au paragraphe que la carte L était particulièrement sensible aux modifications de la distribution de la population. Cela se traduit en particulier par une baisse de l efficacité du L- estimateur et un léger biais. L objectif d une carte de contrôle étant de détecter toute modification significative de la population, il n est pas inintéressant d utiliser une carte L dans le cas d un défaut de forme, sous réserve que les performances du L-estimateur soient nettement supérieures à celles de la moyenne. Choix des paramètres à estimer Nous avons justifié au paragraphe le choix du paramètre de localisation, en prenant pour critère, la minimisation des coûts de la non qualité. Dans le cas de tolérances unilatérales, Taguchi définit la fonction perte par L=KX² (Figure 70). Le paramètre de localisation n étant pas superposable à la cible, son choix n intervient pas dans la minimisation de la perte moyenne.

148 n L= K X n i=1 i 2 =K X 2 s 2 Eq 0 L=K.X² 0 Figure 70 On prendra donc de manière très naturelle la moyenne de la loi de défaut de forme comme paramètre de localisation. Variance du L-estimateur dans le cas des défauts de forme Avant de mettre en place une carte L, il est nécessaire de calculer la variance du L-estimateur pour apprécier si son efficacité relative par rapport à la moyenne justifie son utilisation. Pour les défauts de forme, nous nous intéresserons particulièrement au cas où le rapport m/ s est proche de 0 puisqu il caractérise une forte non normalité. En revanche, si le rapport m/ s tend vers 3, la loi de défaut de forme est une loi normale. Eff Efficacité relative L-estimateur/ Moyenne k n=3 n=4 n=5 n=6 Figure 71

149 Nous avons calculé avec Matlab les coefficients du L-estimateur des moindres carrés, par intégration numérique (Eq 0 & Eq 0 p101). Ces résultats nous ont permis de déterminer l efficacité relative de la moyenne par rapport au L-estimateur de position (Figure 71). On constate que la variance du L-estimateur est inférieure à celle de la moyenne pour de faibles décentrages de la population, et qu elle atteint son minimum pour un décentrage de l ordre d un écart type. L efficacité relative tend ensuite vers 1 pour k>2, puisque la distribution de la population se rapproche de la loi normale. D un point de vu quantitatif, il faut admettre que l amélioration apportée par le L-estimateur en terme de variance par rapport à la moyenne est substantielle. En effet, celle-ci ne dépasse pas 5% pour un échantillon de taille n=5, ce qui n entraîne aucune amélioration sur la sensibilité d une carte de contrôle de type Shewhart Conclusion Les résultats de notre étude tendent à conclure que la carte L n est pas applicable au cas des défauts de forme. En effet, l utilisation du L-estimateur des moindres carrés est particulièrement délicate dans le cas des défauts de forme, car toute évolution de la moyenne entraîne une modification de distribution des observations. Le L-estimateur n est donc optimal que très localement. D autre part, la variance du L-estimateur de position est sensiblement équivalente à celle de la moyenne. Il est donc plus intéressant d utiliser une carte X, qui pour des performances équivalentes a l avantage d être très simple.

150 Extensions de la carte L La carte L que nous avons proposée dans la section précédente n est pas la seule application possible du L-estimateur des moindres carrés. Son application peut, en effet, couvrir un large ensemble d outils, au même titre que les estimateurs classiques de position et de dispersion. L un des outils majeurs dans l évolution moderne de la M.S.P. est la carte CUSUM pour sa grande sensibilité aux faibles dérives. La carte CUSUM L La carte CUSUM, ne se substitue généralement pas à la carte de Shewhart. On considère plutôt qu elle complète ses applications. Alors que la carte de Shewhart est plutôt destinée aux procédés discrets, comme le montrent ses premières applications dans le milieu automobile, la carte CUSUM est particulièrement bien adaptée aux procédés continus. Les procédés continus ont, comme leur nom l indique, la particularité d évoluer de manière continue, de sorte qu il est possible de détecter des tendances croissantes ou décroisantes sur un critère étudié. Le cartes CUSUM peuvent être utilisées à partir de valeurs individuelles ou d échantillons. Nous nous intéresserons aux cartes construites à partir d un échantillon, pour lesquelles, nous substituerons L-estimateur de position à moyenne. Principe de la carte CUSUM-L Le principe de la carte CUSUM est de faire le cumul des écarts d une estimation par rapport à la valeur cible que l on s est fixée. Si le procédé subit une dérive, cela se répercute par une augmentation de la somme des écarts. Pour détecter les dérives à la fois croissantes et décroissantes, on utilisera deux sommes S H et S L, respectivement haute et basse. S H i =Max [ 0, m Cible K S H i 1 ] S Li =Max [ 0, Cible K m S L i 1 ] La valeur K, aussi appelée filtre, est utilisée pour limiter l influence des faibles écarts, qui conduisent parfois à la détection d une dérive alors que celle-ci est peu significative. K=k.s avec k généralement fixé à 0,5 pour détecter un décentrage d un écart type. Les limites sont notées H telle que H=h.s estimateur. Les limites habituelles sont fixées à partir de l écart-type de la moyenne. Nous fixerons ici les limites en fonction de l écart type du L- estimateur : H=h.s L-estimateur

151 La variance du L-estimateur étant plus faible que celle de la moyenne, les sommes cumulées ainsi obtenues, seront moins «polluées» par la dispersion de l estimateur. La carte CUSUM-L a alors l avantage évident de faire ressortir des tendances de manière beaucoup plus claire. Exemple d application Nous présentons ici l étude d un procédé dont la non normalité conduit à un L-estimateur dont l efficacité relative est de l ordre de 0,85 (Figure 72). Cette amélioration en variance ne conduit pas, en pratique, à une carte L plus performante que la carte de Shewhart. En effet, nous avons vu au paragraphe, que la P.O.M. de la carte L était peu différente de celle d une carte de Shewhart lorsque les limites sont placées à ±3 s/ n Population Figure 72 Loi Normale Nous avons donc cherché à mettre en évidence les performances de la carte CUSUM-L par rapport à une carte CUSUM classique. La Figure 73 présente le suivi du procédé à l aide d une carte de Shewhart. On constate ici que les estimations effectuées à l aide de la moyenne (n=5) et du L-estimateur de position sont comparables. De plus, le suivi du procédé sur 25 échantillons ne permet pas la détection d un état hors contrôle si l on s en tient aux règles de pilotage énoncées au. Le procédé subit ici une dérive linéaire. Au 25 ème échantillon le procédé est décentré de 0,5s Xb L-estim Tendance Figure 73

152 Si on applique une carte CUSUM à la même série de données, on constate sans surprise que la dérive du procédé est détectée (Figure 74). Le propre de la carte CUSUM étant en effet de déceler les dérives lentes Carte CUSUM standard Figure 74 SH SL Malgré la faible amélioration en variance, du L-estimateur par rapport à la moyenne, la carte CUSUM-L s avère plus sensible aux dérives que la carte CUSUM standard (Figure 75). 10 Carte CUSUM-L SH SL Figure 75 L utilisation du L-estimateur des moindres carrés est donc particulièrement intéressante avec une carte CUSUM même pour des non normalités peu prononcées. P.O.M. de la carte CUSUM-L Une étude de Période Opérationnelle Moyenne réalisée à partir du même exemple de population a permis de vérifier la sensibilité de la carte CUSUM-L. Les calculs ont été effectués par simulation pour des échantillons de taille n=5. Le nombre de détection a été fixé à 5000 pour établir la P.O.M, soit 2, itérations pour une P.O.M. de 420. Les limites sont placées avec un coefficient h=5 et la valeur du filtre est k=0,5. Le décentrage l est un multiple de l écart-type de la population.

153 Le tracé de P.O.M. de la carte CUSUM-L est relativement simple à interpréter puisqu il est toujours inférieur à celui de la carte CUSUM standard (Figure 76). Cela signifie que la détection d une dérive par la carte CUSUM-L intervient toujours avant celle de la carte CUSUM standard pour des risques a sensiblement équivalents (Figure 77). Nous avons pu montrer par ailleurs (Chapitre 4) que les amélioration apportée par la carte CUSUM-L par rapport à la carte CUSUM standard sont d autant plus importantes que la non normalité est marquée L-estimateur Moyenne L-estimateur Moyenne Figure 76 l P.O.M. CUSUM-L P.O.M. CUSUM Figure 77 Conclusion La carte L que nous avons proposée dans ce chapitre bénéficie de la faible variance du L-estimateur des moindres carrés. Cela permet notamment de déceler des dérives avec beaucoup d acuité et d effectuer des réglages de meilleure qualité sur le procédé. Cependant ces avantages s estompent très rapidement si l efficacité relative du L-estimateur par rapport à la moyenne n est pas suffisante. On notera pour mémoire que la carte L ne nous semble pas d un grand intérêt quand l efficacité relative est supérieure à 0,8. En effet, la faible amélioration par rapport à la carte de Shewhart, ne justifie pas un surcoût de calculs. La carte CUSUM-L, en revanche est plus sensible que la carte CUSUM standard, même dans le cas où le L-estimateur est peu efficace. Son intérêt est donc d étendre le domaine d application des cartes de contrôle construites à partir d un L-estimateur. De plus, cette carte particulièrement sensible aux dérives peut permettre de détecter d éventuelles évolutions de la distribution de la population. La carte CUSUM-L n est bien entendu pas la seule extension possible de la carte L. On peut effectivement envisager d applique le L-estimateur des moindres carrés à des cartes de type EWMA.

154 Conclusions et perspectives Une approche généraliste L originalité de notre étude réside essentiellement dans une approche non paramétrique des problèmes d estimation de position et de dispersion d une population à partir d un échantillon de faible taille. L approche non paramétrique permet en effet de s affranchir de l hypothèse de normalité souvent peu justifiée. Le modèle «localisation échelle», utilisé dans notre étude, permet en effet de décrire un large éventail de distributions qui se caractérisent par un paramètre de localisation et un paramètre d échelle. L estimateur que nous proposons, pour la construction d une nouvelle carte de contrôle a la particularité de pouvoir estimer d autres paramètres de localisation que la moyenne ou la médiane. Ces paramètres, le plus souvent utilisés par défaut, ne sont pas forcément les meilleurs. Nous avons montré, que l on pouvait déterminer ce paramètre de localisation en minimisant le critère du coût de non qualité au sens de Taguchi. Nous avons montré que le paramètre de localisation optimal est la moyenne de la population lorsque la fonction perte est symétrique. Dans le cas contraire, le choix du paramètre de localisation dépend de la densité de loi de la population, ce qui rend le paramètre difficile à déterminer expérimentalement. Avantages de la carte L La carte L que nous avons présenté dans ce chapitre est construite à partir du L-estimateur des moindres carrés introduit par Lloyd en Cet estimateur a la particularité de fournir des estimations sans biais d un paramètre de localisation et d un paramètre d échelle de la population. C est aussi un estimateur optimal en terme de variance parmi les estimateurs construits à partir d une combinaison linéaire des observations. Les répercussions de cette faible variance sur la carte L sont notamment de fournir un tracé moins bruité que la carte de Shewhart, de telle sorte que les règles de pilotage basées sur la mise en évidence de tendances sont plus faciles à appliquer. De plus la P.O.M de la carte L est toujours très inférieure à celle de la carte Shewhart lorsque les limites sont placées à ±3 s L estimateur. La sensibilité de la carte L aux décentrages est donc plus grande que celle de la carte de Shewhart. Cet avantage peut aussi s avérer un inconvénient lorsque les risques a sont trop grands. Les risques a sont en effet souvent de l ordre 2%, ce qui peut apparaître inacceptable pour certains utilisateurs. On peut donc choisir de minimiser ces risques en prenant des limites plus larges à ±3 s/ n. Nous avons également proposé une extension de la carte L, appelée CUSUM-L, qui consiste à appliquer une procédure CUSUM à des estimations provenant du L-estimateur des moindres carrés. La carte CUCUM-L a l intérêt d être plus sensible aux faibles dérives que la carte CUSUM proposée par Page [Pag 54] PAGE E. S. Continuous Inspection Schemes - Biometrics - Vol

155 Cette propriété est d autant plus intéressante qu elle est toujours valable lorsque les performances du L-estimateur sont médiocres par rapport à la moyenne. Mise en œuvre Afin de faciliter la mise en œuvre de la carte L nous avons proposé deux procédures de démarrage. Le démarrage par lissage des coefficients du L-estimateur permet un passage progressif de la moyenne vers les coefficients optimaux, au fur et à mesure de l apprentissage du procédé. Cette procédure est plus particulièrement destinée aux séries longues car elle exige un minimum de 30 échantillons pour que les coefficients du L-estimateurs soient correctement estimés. La seconde procédure s appuyant sur une méthode bootstrap est plus particulièrement destinée aux séries courtes ou aux procédés à évolution rapide. Son principe repose sur la constitution d une population empirique, à partir de laquelle on construit les coefficients du L-estimateur par rééchantillonnage. Le nombre d observations nécessaires au calcul des coefficients peut ainsi être réduit à une trentaine, ce qui est particulièrement intéressant lorsque le procédé est peu stable. Les limites de la carte L L utilisation de méthodes non paramétriques ne signifie pas que ces méthodes sont universelles. En effet, les modèles postulés, même très larges ne peuvent satisfaire toutes les situations. Ainsi le modèle localisation échelle, utilisé pour le L-estimateur des moindres carrés n est pas valable pour les lois de type défaut de forme puisque tout décentrage du procédé entraîne une modification de la distribution de la population. Les paramètres de localisation et d échelle n ont donc plus la même signification lorsque la distribution de la population évolue. Perspectives Ce problème est aussi rencontré pour des critères différents des défauts de forme. On suppose par exemple que les caractéristiques de la distribution des observations évoluent pour une raison quelconque. Une bonne utilisation de la M.S.P. veut que ce phénomène soit détecté car nous avons eu l occurrence d une cause spéciale. Nous avons vu au paragraphe que ce type d évolution était parfaitement détectable à l aide d une carte L. Cependant, dans de telles condition les performances en variance du L-estimateur chutent de manière importante. Pour augmenter nos chances de détecter les modifications de la distribution de la population, il peut être intéressant de mettre en place une procédure adaptative, de sorte que les coefficients du L-estimateur garantissent des performances optimales.

156 Chapitre 4

157 Chapitre 4 Application Industrielle de la carte L Pré-requis à l application d une carte L Depuis sa création, la M.S.P. s est enrichie d un nombre important d outils élargissant le domaine des applications de la carte X /R. Ces outils souvent très spécialisés, comme les cartes de contrôle multidimensionnelles ou les cartes petites séries, nécessitent une parfaite adéquation avec le problème traité pour que leur application soit couronnée de succès. Chacun des outils de la M.S.P. a des spécificités à la fois statistiques et méthodologiques, qui le rendent plus ou moins apte à piloter une famille de procédés. En effet, on utilisera plus volontiers une carte aux valeurs individuelles sur un procédé continu de l industrie chimique, que sur un procédé discret de l industrie mécanique. Ainsi, nous allons préciser le cadre d application de la carte L ainsi que les conditions opératoires qui garantissent des performances intéressantes. Les procédés étudiés L étude des procédés non normaux nous a permis d extraire deux grandes familles de non normalités : Les non normalités qui proviennent de la structure du procédé. C est-à-dire les procédés qui possèdent plusieurs causes de dispersion dominantes. Les non normalités liées au type de critère étudié. Les critères unilimites tels que les défauts de forme ou les critères de position qui suivent une loi de Rayleigh par exemple.

158 Nous avons montré au chapitre 3 que le L-estimateur des moindres carrés ne pouvait être utilisé efficacement dans le cas de critères unilimites car, dans ce cas, le modèle localisation échelle n est pas valide. Toute modification de la dispersion du procédé ou de son centrage entraîne en effet une modification de la distribution de la population. Par suite, le L-estimateur des moindres carrés fournit des estimations biaisées des paramètres de localisation et d échelle. Le modèle localisation échelle est en revanche bien adapté à la représentation de distributions stratifiées. L utilisation de la carte L pour le suivi de procédés de type multigénérateurs est donc particulièrement conseillée. Cependant, pour que la mise en œuvre de la carte L soit réellement profitable, il est recommandé de restreindre son domaine d application à des populations dont la non normalité est relativement marquée. Dans le cas de faibles non normalités, la moyenne offre des estimations dont la variance est très proche des bornes de Fréchet. La méthode d échantillonnage La procédure d échantillonnage possède un aspect théorique important pour les méthodes d estimation statistiques par sondage. Son choix conditionne en effet la précision et la validité des résultats. De plus, elle revêt un aspect pratique et économique primordial pour les utilisateurs de la M.S.P. puisque les contraintes des cadences de production ou de lots, ne permettent pas toujours de mettre en place les méthodes d échantillonnage les plus efficaces. Nous avons présenté au chapitre 2 un certain nombre de méthodes d échantillonnage dont les performances et les applications sont parfois très différentes. Parmi celles-ci, nous avons retenu quatre méthodes incontournables dans les applications industrielles : La plus connue d entre elles est bien entendu l échantillonnage aléatoire que l on pratique notamment en contrôle réception. Cette méthode est la plus simple car elle ne tient pas compte d une éventuelle stratification de la population. On l utilisera de préférence pour des procédés non stratifiés, cependant sa simplicité peut motiver son utilisation dans d autres situations. L échantillonnage séquentiel, s applique exclusivement aux procédés stratifiés. Il a l avantage de réduire la variance des estimations par rapport à l échantillonnage aléatoire du fait d une réduction de la variance inter échantillons. Cette procédure est particulièrement adaptée aux procédés tels que les multibroches où les observations proviennent successivement de strates différentes. Un cas particulier de l échantillonnage séquentiel est celui où la taille des échantillons est égale au nombre de strates. Dans ce cas l échantillon est dit représentatif puisque l on a une observation par strate. Cette méthode est la plus efficace des trois mais aussi la plus contraignante car elle nécessite une distinction physique des différentes strates. Le prélèvement d un échantillon représentatif est particulièrement intéressant car il réduit fortement la variance inter échantillons. Dans le même état d esprit, on peut prélever systématiquement des observations sur des strates définies à l avance. L avantage de cette démarche est de pouvoir fournir des estimations à faible variance tout en prélevant des échantillons économiquement viables. Cependant cette approche occulte l information provenant des autres strates de la population, et par conséquent ne pourra détecter un éventuel accident sur les strates non surveillées.

159 Le choix de ces méthodes est généralement dicté par le type de procédé à piloter. Dans chacun de ces cas, on peut utiliser la moyenne ou le L-estimateur pour estimer le paramètre de position de la population. Les coefficients du L-estimateur ainsi que sa variance seront bien entendu différents selon la méthode d échantillonnage retenue. Cependant l utilisation du L-estimateur de position, reste intéressante pour chacune des méthodes présentées puisque ses performances en terme de variance sont meilleures ou égales à celles de la moyenne. En outre, rappelons qu il est possible d optimiser les prélèvements au sein d une strate. Cet échantillon appelé échantillon de Neyman tient compte de la dispersion de chacune des strates de la population. Un échantillon représentatif peut être un échantillon de Neyman si la dispersion de chacune des strates est d un même ordre de grandeur. Dans le cas particulier où les échantillons prélevés sont des échantillons de Neyman on peut remarquer que le L-estimateur de position est la moyenne. La moyenne est donc l estimateur à variance minimale parmi les estimateurs linéaires. Dans ce cas, il est évident que le calcul du L-estimateur a peu d intérêt. Exemple Pour illustrer notre propos, nous avons calculé la variance du L-estimateur de position et de la moyenne pour l échantillonnage séquentiel et l échantillonnage aléatoire. Ces calculs ont été réalisés pour une population constituée de six strates (Voir chapitre 3). N(5, 1), N(5, 1), N(5.5, 1), N(0, 1), N(-3.2, 1), N(-3.5, 1) Dans ce cas, l échantillon de Neyman est l échantillon représentatif puisque les strates ont la même dispersion. Echantillonnage Aléatoire Echantillon n = 3 n = 4 n = 5 n = 6 n = 7 n = 8 n = 9 n = 10 L-estimateur m Moyenne Efficacité relative Echantillonnage Séquentiel Echantillon n = 3 n = 4 n = 5 n = 6 n = 7 n = 8 n = 9 n = 10 L-estimateur m Moyenne Efficacité relative Figure 78

160 1 0.8 Aléatoire Séquentiel Variance n Figure 79 A la lumière de cet exemple, nous constatons, que pour l échantillonnage séquentiel, l efficacité relative du L-estimateur par rapport à la moyenne ne dépend pas de la taille d échantillon, contrairement à l échantillonnage aléatoire. D autre part, on vérifie bien que la moyenne et le L- estimateur ont la même variance quand on prélève l échantillon de Neyman. Dans l exemple proposé, on peut ramener le nombre de strates à cinq puisque deux d entre elles on la même moyenne : N(5, 2), N(5.5, 1), N(0, 1), N(-3.2, 1), N(-3.5, 1) L échantillon de Neyman est alors le même que précédemment puisqu on prélèvera deux observations sur la première strate et une seule pour chacune des autres strates. Les besoins informatiques Nécessité d un outil informatisé Le succès de la mise en place de la M.S.P. tient essentiellement à la motivation du personnel d encadrement et à l implication des opérateurs dans le processus d amélioration de la qualité. Cependant, le surplus de travail qu occasionne ces méthode est souvent une cause de démotivation. Ainsi l outil informatique est devenu une nécessité pour bon nombre d utilisateurs de la M.S.P. Nous ne considérons en aucun cas que l informatisation est la clé de la réussite pour la mise en œuvre de la M.S.P. Cependant elle peut y contribuer très largement pour les différentes raisons que nous énonçons ci-dessous : ü Du point de vue de l opérateur ü Les fréquences de contrôle sont très élevées. ü Le nombre de critères suivis est important. ü Les calculs sont complexes (carte CUSUM, carte Petite Série, etc. ) ü Pour la démarche qualité ü Le volume de données est important. L informatique permet une analyse synthétique des données de production et facilite leur archivage.

161 La lourdeur des calculs nécessaire à la construction du L-estimateur des moindres carrés justifie à elle seule l utilisation de l informatique. En effet le calcul des coefficients du L-estimateur des moindres carrés requiert la construction de la matrice de covariance des statistiques d ordre réduites, ainsi que son inversion. De plus, les algorithmes de rééchantillonnage de type bootstrap n ont aucun intérêt s'ils ne sont pas informatisés. Notre objectif étant de valider la carte L dans une approche industrielle, nous avons développé une maquette informatique permettant le pilotage du procédé par cartes L. Présentation de la maquette informatique Nous allons présenter brièvement les fonctionnalités développées dans ce logiciel pour exploiter au maximum les possibilités des cartes L et CUSUM L. La maquette réalisée se compose de quatre modules qui s articulent autour d une base de données. Les fonctionnalités des différents modules sont : La spécification de la gamme de contrôle du critère étudié : Cible, écart-type de la population, mode de calcul des limites de contrôle, méthode de détermination des coefficients du L- estimateur. Le calcul des coefficients du L-estimateur par méthode bootstrap ou par simulation de Monte Carlo. L analyse de capabilité machine et de capabilité procédé. Le pilotage par carte de contrôle et la saisie de nouvelles données. Définition du procédé La première étape de définition du procédé est de saisir les données relatives au critère surveillé. La cible du procédé La dispersion instantanée du procédé Les tolérances de critère. On définit également le mode de calcul des limites. Autrement dit, on précise si les limites sont fixes ou recalculées périodiquement.

162 Définition du mode de calcul du L-estimateur La deuxième étape importante consiste à déterminer la méthode de calcul des coefficients du L-estimateur. Si la distribution de la population est parfaitement connue, il est possible de fixer ces coefficients et de les saisir manuellement. De manière plus générale, la distribution des observations n étant pas connue a priori, on a le choix entre : Le calcul des coefficients par méthode bootstrap à partir d une distribution empirique. Le calcul des coefficients à partir des échantillons prélevés pour le pilotage par carte de contrôle. Nous avons vu au chapitre 3 qu il était intéressant d appliquer une méthode de lissage pour pondérer progressivement les estimations du L-estimateur au fur et à mesure que les coefficients convergent vers les coefficients optimaux. Le calcul des coefficients par simulation de Monte Carlo, qui suppose la connaissance des caractéristiques de la loi de distribution des observations. Nous n avons programmé que le cas de mélanges de lois normales.

163 Exemples d application Les applications présentées dans ce chapitre concernent l industrie du décolletage et de la plasturgie. Ce choix qui peut apparaître restrictif a été influencé par l activité économique régionale. De plus ces secteurs d activité rencontrent fréquemment des cas typiques de non normalité auxquels nous nous intéressons. Les activités du décolletage et de la plasturgie sont, en effet, très largement implantées dans la région Rhône-Alpes. En outre ces industries ont consenti des efforts considérables pour développer une politique de qualité totale, sous l impulsion de leurs clients, qui sont bien souvent des constructeurs automobiles. Leur connaissance des méthodes de la M.S.P. ainsi que l existence d une structure de contrôle qualité ont été un atout important pour la réussite de notre étude. La plasturgie L industrie de la plasturgie possède un nombre important de techniques de mise en forme du plastique : le thermoformage, le moulage par transfert, injection, ou projection. Parmi ces techniques, nous nous sommes particulièrement intéressés aux presses à injecter qui comptent parmi les procédés les plus classiques de la plasturgie. Ces procédés permettent de fabriquer des formes pleines par injection de plastique dans un moule. Pour des raisons de rentabilité évidentes, on utilise le plus possible des moules comportant plusieurs empreintes : les multi-empreintes. Injection de Plastique Moule Figure 80

164 Les deux paramètres prépondérants du process d une presse à injecter sont la température du plastique et la pression d injection. Néanmoins une parfaite maîtrise de ces paramètres ne suffit pas à obtenir des pièces identiques. En effet, une parfaite homogénéité de la production suppose que les empreintes soient strictement identiques et que la matière première soit répartie de manière équivalente entre elles. Ces deux raisons expliquent à elles seules que ces procédés sont particulièrement non normaux. Etude d une presse à injecter 8 empreintes Notre première étude a été réalisée dans l entreprise ID, spécialisée dans la fabrication de pièces plastiques de petites tailles pour les composants électroniques ou la connectique. La fabrication de pièces de précision nécessite un soin particulier pour l élaboration des moules. Présentation du procédé de fabrication Le procédé que nous avons étudié comporte 8 empreintes et fabrique des connecteurs électriques. Nous avons suivi l une des cotes critique de cette pièce, qui est une surépaisseur permettant d offrir une résistance mécanique lors de l enfichage ou le retrait du connecteur. Schéma du connecteur 5.38 ±0.05mm Analyse de variance Nous avons tout d abord réalisé une analyse de variance pour chacune des empreintes du moule, afin de vérifier de manière rigoureuse la non normalité du procédé. Pour cela nous avons prélevé 10 mesures par empreinte. L objectif de l analyse de variance est de déterminer si la variabilité liée aux différents facteurs (empreintes) est significative par rapport à la dispersion imputable aux facteurs non contrôlés, c est-à-dire les causes communes.

165 Facteurs X 10 X i X i=1 Empreinte E-5 Empreinte E-5 Empreinte E-5 Empreinte E-5 Empreinte E-5 Empreinte E-5 Empreinte E-5 Empreinte E-5 X S E-4 Figure 81 Σ des carrés ddl Variance F expérience F théorique Facteurs 6.37E E Résidus 1.86E E-06 Total 8.23E Le résultat de cette étude nous montre que le rapport entre la variance inter échantillon et la variance résiduelle V A /V R =F exp rience, est très supérieur à F théorique que l on trouve dans la table de la loi de Snedecor en fonction des paramètres n A = 7 n R = 72 et a=5% On conclut donc que l influence des facteurs est significative. C est-à-dire que la stratification de la population est importante. Distribution de la population Si on calcule la variance et la moyenne de chacune des empreintes, en supposant que chacune des empreintes génère une loi normale, on peut avoir une idée de la distribution de la population (Figure 82). Empreinte Moyenne Ecart-type Figure 82 On vérifie tout d abord par un test de Hartley si les écarts entre la variance des empreintes sont significatifs (Eq 0) : r= V max V min = avec a=5% La ratio entre la variance maximum et la variance minimum étant inférieur à la valeur fournie dans un tableau en fonction de la taille des échantillons (ici n=10), le test conclut que l écart les variances n est pas significatif. On peut donc considérer que toutes les empreintes ont la même variance pour obtenir la distribution Figure 83. Eq 0

166 Distribution de la population Figure 83 Calcul des coefficients du L-estimateur Notre période d étude étant limitée dans le temps, nous avons choisi de calculer les coefficients du L-estimateur par la méthode bootstrap à partir de 30 observations. Nous pouvons constater sur la courbe ci-dessous, que les coefficients obtenus sont très proches de ceux calculés par une méthode de Monte Carlo à partir de la distribution Figure 83. Cela signifie dans ce cas que l hypothèse de normalité de la distribution des empreintes est tout à fait valable. Ces deux méthodes diffèrent en effet par leur manière de générer des données. Alors que la méthode bootstrap est une méthode de rééchantillonnage à partir de données prélevées sur le procédé, la simulation de Monte Carlo que nous avons menée suppose la connaissance du nombre de générateurs et de leurs lois respectives. 0.5 Fonction de poids du L-estimateur de position J(u) Bootstrap Simulation u Figure 84 Calculons maintenant l efficacité relative du L-estimateur de position par rapport à la moyenne pour un échantillon d effectif n=5. L écart-type s est calculé à partir de la population empirique de la procédure bootstrap car c est à partir de cette population que l on détermine les coefficients du L-estimateur ainsi que les paramètres de localisation m et d échelle s à estimer.

167 Variance du L-estimateur de position pour un échantillon d effectif n=5 Var m =s 2 α t α det A t 1 = 1,15.10 A -6 Variance de la moyenne D où une efficacité relative (Eq 0) intéressante. Var X = s2 n =1, Var m ER X, m = Var X» 0.67 Eq 0 Suivi du procédé par carte L Pour piloter le procédé, nous avons effectué des prélèvements de 5 pièces de manière aléatoire tous les quarts d heure. Les tracés de la carte de Shewhart et de la carte L sont représentés Figure 85. On constate que le procédé dérive lentement. Toutefois cette dérive ne peut donner lieu à une action corrective pour les raisons suivantes : Aucun point ne dépasse les limites de contrôle, on ne peut compter que 6 points au-dessus de la cible, on a alternativement des séquences de points croissantes ou décroissantes. L amélioration apportée ici par la carte L est assez sensible puisque son tracé est un peu moins mouvementé que celui de la carte de Shewhart. Le point N 10 est très proche de la limite supérieure, ce qui peut amener l opérateur à intervenir sur le procédé Carte de Shewhart LC(Xb) mu Xb LC(mu) Figure 85 m X

168 Etant donné que le procédé dérive de manière lente, nous avons considéré que le suivi par une carte CUSUM était mieux adapté à ce type de configuration. Pilotage par carte CUSUM-L Les Figure 86 et Figure 87 représentent respectivement les tracés de la carte CUSUM standard et la carte CUSUM-L pour la même séquence de données que précédemment (Figure 85). Les cartes CUSUM ont été calculées avec les paramètres suivants : CUSUM CUSUM-L Ecart type de 1, , l estimateur Filtre k= 0.5 k=0.5 Limites de contrôle h= 5 h= Carte CUSUM LSC SH SL LIC SH SL Figure 86 Carte CUSUM-L LSC SH SL LIC SH SL Figure 87

169 On constate ici que la carte CUSUM-L est plus sensible que la carte CUSUM standard puisque la dérive du procédé est mise en évidence au 10 ème point alors que la carte CUSUM standard ne fait que s approcher de la limite au 11 ème point. Ceci n a rien de surprenant car nous avions montré au chapitre 3 que la P.O.M. de la carte CUSUM-L convergeait plus rapidement vers 1 que celle de la carte CUSUM standard lorsque le décentrage augmente. Etude d une presse à injecter 4 empreintes Les données collectées pour cet exemple proviennent d un sous-traitant d un fabricant de fixations de skis. La presse à injecter étudiée comporte quatre empreintes et les pièces fabriquées sont des pistons pour le talon d une fixation de ski /-0.30 Etude préliminaire. Afin de déterminer la cote à étudier, nous nous sommes basés sur une étude de capabilité antérieure. Il ressort de cette étude que la longueur du piston suit une distribution stratifiée. L étude de capabilité a été réalisée indépendamment sur chacune des empreintes en prélevant 30 mesures. Figure 88 Moyenne Ecart type Empreinte N Empreinte N Empreinte N Empreinte N Les résultats sont assez significatifs et il n est pas besoin d effectuer une analyse de variance pour conclure que l influence des empreintes est significative. En effet le tracé (Figure 89) laisse paraître une forte stratification de la population.

170 Distribution des observations Figure 89 Coefficients du L-estimateur La distribution de la population étant platikurtique, la fonction de pondération du L-estimateur de position a une forme en U qui se rapproche du milieu de l étendue. En effet, les coefficients calculés par la méthode bootstrap à partir de 30 observations sont assez proches de 0.5 aux extrêmes. Le même calcul réalisé par simulation nous donne en revanche une fonction de pondération qui oscille un peu plus autour de la moyenne. Cette différence s explique bien entendu par la légère différence entre la distribution obtenue par l étude de capabilité et la distribution de la population empirique, utilisée pour la procédure bootstrap. J(u) Fonction de poids du L-estimateur de position Bootstrap Simulation u La forte non normalité de la population nous permet d obtenir un L-estimateur de position relativement performant, comme le montre le calcul de l efficacité relative du L-estimateur par rapport la moyenne : Var m = 1, Var X = 2, d où l efficacité relative : ER X, m =0.541

171 Ces valeurs sont obtenues en prenant l écart-type de la population empirique s p comme approximation de l écart type de la population. Pilotage par Carte L Pour construire la carte L nous avons pris comme cible le milieu de l intervalle de tolérance. Les échantillons sont prélevés aléatoirement par groupe de 5. Les limites de contrôle la carte de Shewhart sont respectivement calculées par : Carte X Carte L Formule Cible±3 s p n Cible±3 s L estimateur LSC LIC Carte L et Carte Xb LC(mu) Mu Moyenne LC(Xb) m X Figure 90 La Figure 90 présente l évolution du procédé selon la carte L et la carte de Shewhart. Bien que la détection d un point hors contrôle soit faite simultanément sur les deux cartes de contrôle, la carte L fournit, un tracé beaucoup moins perturbé ce qui permet d extraire la tendance du procédé plus aisément. Supposons par exemple que l on applique la règle de pilotage qui consiste à compter le nombre de points consécutifs d un côté de la cible. La valeur du réglage à appliquer au procédé apparaît de manière évidente sur la carte L. On calcule la moyenne des estimations du point N 5 au point N 11.

172 11 i=5 11 m i = X i i=5 = La règle de pilotage veut que le réglage effectué soit de la valeur de l écart entre la tendance moyenne et la cible. On peut avoir une idée de la précision du réglage effectué en calculant l écart type des estimations de la position du procédé, à partir des point N 5 à N 11. En calculant le rapport R= R glage (une sorte de rapport Signal/Bruit) on peut donc caractériser s Estimation l efficacité du réglage effectué. Plus cette valeur est grande, plus on peut considérer que le réglage est fiable. Une valeur de R inférieure à 2 est en revanche le signe d un réglage peu fiable. Réglage préconisé Précision R 11 Figure 91 m Cible - m i i=5 = X Cible - X i i=5 = m i m 2 7 i=5 7 = X i X 2 7 i=5 7 = La comparaison réalisée Figure 91 montre, comme on pouvait s y attendre, que les réglages effectués à l aide de la carte de Shewhart sont moins précis que ceux réalisés à partir de la carte L. La faible variance du L-estimateur de position permet en effet d obtenir une valeur de R beaucoup plus élevée que dans le cas de la moyenne.

173 Carte CUSUM-L Pour compléter notre étude, nous avons calculé les cartes CUSUM pour la série de données étudiée précédemment, afin de vérifier si le décentrage du procédé est détecté Carte CUSUM LSC SH SL LIC SH SL Figure 92 Dans ce cas, la carte CUSUM ne détecte pas plus rapidement le décentrage que dans le cas de la carte de Shewhart. Même si, il est vrai, les points sont très proches de la limite supérieure à partir du 10 ème point, celles-ci ne sont franchies qu au 12 ème échantillon. Avec la carte CUSUM-L, le procédé est hors contrôle dès le 10 ème point, ce qui est un peu mieux que la carte de Shewhart lorsque l on utilise la règle de pilotage des tendances Carte CUSUM-L LSC SH SL LIC Figure 93 Les deux études réalisées dans la plasturgie ont montré que la carte L pouvait avoir un grand intérêt pour le pilotage de procédés multi-empreintes, et notamment sur des cotes critiques lorsque la capabilité machine n est pas très grande.

174 L industrie du décolletage L industrie du décolletage implantée massivement dans la vallée de l Arve travaille essentiellement pour le secteur automobile. Les procédés utilisés pour la fabrication de pièces cylindriques sont pour la plupart des tours. Le plus utilisé d entre eux est sans doute le tour multibroches, dont l intérêt est de pouvoir réaliser plusieurs opérations (6 ou 8) en un cycle. Nous nous sommes donc intéressés à l une de ces productions Broches Outil Plateau Pièce à usiner Figure 94 Etude d un tour multibroches 6 broches Le critère que nous avons choisi d étudier est une longueur 5.25mm sur une pièce de décolletage. Le contrôle est réalisé à l aide d un manchon ±0.1 Capteur Inductif Figure 95 Butée Dans le cadre de cet exemple, les données ont été recueillies à l aide d un terminal d atelier PAT 600 â.

175 Etude préliminaire Conformément aux procédures établies, nous avons réalisé un prélèvement de 30 pièces sur une période de production très courte pour calculer la capabilité machine. Les résultats obtenus révèlent une très bonne capabilité machine (Figure 96). Figure 96 Moyenne Ecart-type Tolérance 5.35 Supérieure Tolérance Inférieure 5.15 Cm 3.42 Cmk 2.83 La construction d un histogramme et le calcul du test du c 2 laissent supposer que la distribution des observations suit une loi normale. Cependant il faut garder à l esprit que le test du c 2 conclut très souvent à la normalité d une distribution lorsque le nombre d observations est faible. c 2 observé = < c 2 Théorique = En outre le test de Kolmogorov confirme ce résultat (Figure 97) Histogramme Test de Kolmogorov Mesures Courbe Théorique F(x)-Dn Fréquences F(x)+Dn Figure 97 Il faut néanmoins admettre, aux vues des résultats que la distribution des observations ne peut être que faiblement non normale

176 Calcul des coefficients du L-estimateur Les opérateurs semblent ne pas se soucier de l ordre des pièces lorsqu elles sont éjectées du tour. Plutôt que de prélever six pièces consécutives à la sortie de la machine, ils prélèvent les pièces dans le bac de réception. La première méthode a pourtant plusieurs avantages : Les observations constituent un échantillon représentatif. Les observations étant consécutives, le procédé est supposé stationnaire et on minimise les effets d éventuelles dérives. Les observations provenant des derniers cycles d usinage, on améliore la réactivité en cas de réglage. L échantillonnage étant aléatoire nous décidons de calculer les coefficients du L-estimateur par la méthode bootstrap, en s appuyant sur les 30 observations de l échantillon de capabilité machine. La taille des échantillons définie dans la gamme de contrôle est de n=6. La fonction de poids obtenue, a une forme en U peu prononcée, qui peut être attribuée à la faible représentation des observations dans les queues de la distribution empirique, ce qui donne un caractère platikurtique à cette dernière. 0.5 Fonction de poids du L-estimateur de position J(u) u Bootstrap Moyenne Le calcul des variances de la moyenne empirique et du L-estimateur de position nous permet alors d établir l efficacité relative des deux estimateurs, qui est ici très proche de 1, comme on pouvait s y attendre. Var m = 1, Var X = 1, d où l efficacité relative : ER X, m =0.97

177 Pilotage par carte L Dans ce cas il est évident que les estimations effectuées à l aide de la moyenne et du L-estimateur de position sont indiscernables les unes des autres. Comme on peut le constater sur la carte de contrôle (Figure 98) les limites de contrôle, les tracés de la carte de Shewhart et la carte L se superposent totalement Carte L et Carte Xb LC(mu) Mu Moyenne LC(Xb) Figure 98 Les données reportées sur la carte de contrôle révèlent un procédé hors contrôle. Celui-ci est cependant parfaitement piloté, mais avec des limites de contrôle élargies, qui permettent de garantir que la production reste dans les tolérances tout en autorisant une certaine dérive de la moyenne. Cette procédure est très souvent appliquée lorsque la capabilité machine est supérieure à 2, car elle permet de réduire le nombre d interventions sur un procédé difficilement pilotable.

178 Conclusion Ce chapitre nous a permis d étudier en détail le comportement de la carte L au travers de trois applications industrielles. Après avoir défini les conditions opératoires pour une bonne application de la carte L nous avons traité deux exemples en plasturgie sur des procédés de type multi-empreintes et un exemple dans l industrie du décolletage sur un tour multibroches. Les études menées sur des presses à injecter ont mis en évidence la forte non normalité des critères couramment surveillés. Dans ces conditions, la carte L s avère particulièrement intéressante car elle permet de détecter beaucoup plus rapidement les dérives du procédé. Par ailleurs, les réglages effectués sur le procédé lors de la détection d un état hors contrôle du procédé (point hors des limites ou détection d une tendance) sont beaucoup plus précis lorsque l on utilise une carte L. La troisième étude menée sur un tour multibroches a révélé, contre toute attente, que la loi de distribution des observations pouvait être assimilée à une loi normale. Nous avons montré dans ce cas que l utilisation de la carte L était sans risque puisque les coefficients du L-estimateur étaient très proches de ceux de la moyenne et que par conséquent l efficacité de la carte L et de la carte de Shewhart X /S étaient équivalentes. Nous conseillons donc par prudence d utiliser de la carte L sur des procédés qui sont potentiellement non normaux, même si celle-ci n a pas été vérifiée. En effet, dans le «pire des cas» (celui d une normalité), la carte L sera aussi performante que la carte de Shewhart.

179 Chapitre 5 Conclusion et perspectives Parmi les sujets qui préoccupent les industriels et les chercheurs dans le domaine de la M.S.P, l étude des procédés non normaux est particulièrement à l honneur. Nos travaux, qui s inscrivent dans ce cadre, ont eu pour ambition de fournir une approche générale pour le pilotage des procédés non normaux. En guise de conclusion, nous effectuerons, une synthèse des résultats obtenus puis nous ferons le point sur les orientations à donner aux travaux futurs pour enrichir ces premiers résultats. Les causes de non normalité Notre premier objectif a été de recenser les facteurs qui peuvent engendrer la non normalité d une production. L étude de procédés non normaux est parfois complexe et ne révèle pas toujours les causes de cette non normalité. Cependant on peut distinguer deux types de non normalité : La non normalité provient souvent de l influence prépondérante de plusieurs facteurs de dispersion inhérents au procédé. Il s agit par exemple des empreintes sur une presse à injecter. Dans d autres cas, la grandeur physique surveillée explique à elle seule la non normalité de la distribution des mesures. C est le cas des planéités ou des circularités en mécanique.

180 L état de l art La non validité de l hypothèse de normalité des observations a des répercussions à la fois sur la validité et les performances des différents outils statistiques utilisés. Ainsi de nombreuses approches ont été proposées pour le calcul des indicateurs de capabilité et la construction de cartes de contrôle. La bibliographie concernant le calcul des indicateurs de capabilité est sans aucun doute la plus riche. Le problème de la validité de ces indicateurs concerne en effet un grand nombre de soustraitants de l automobile qui connaissent soit des procédés non normaux soit des procédés mal maîtrisés. La plupart des méthodes proposées s appuient sur une définition de la dispersion qui est étroitement liée au pourcentage de pièces hors tolérances. La dispersion est en effet définie comme étant l intervalle centré couvrant 99,73% de la population. Nous considérons pour notre part, que cette construction des indicateurs ne fournit pas une information conforme au niveau de qualité réel de la production. En effet une production décrite par une loi platikurtique (provenant d un procédé non maîtrisé) aura les mêmes Cp et Cpk qu une production décrite par une loi normale (provenant d un procédé parfaitement maîtrisé) de même dispersion (99,73%). Cette dernière ayant pourtant un niveau de qualité bien supérieur. Les indicateurs de capabilité «classiques», qui se basent sur une définition de la dispersion de 6s, donnent en revanche une interprétation du niveau de qualité assez proche de celle que propose Taguchi en pénalisant tout écart d une mesure par rapport à la cible. Placer les pièces à l intérieur de l intervalle de tolérance est certes une condition nécessaire à l obtention de la qualité, mais pas une condition suffisante. Il faut aussi centrer la production sur la cible. C est pourquoi nous préférons la définition classique des indicateurs Cp et Cpk qui peuvent être utilement complétés par le Cpm. Les travaux concernant les cartes de contrôle sont peu nombreux. Ils se focalisent essentiellement sur la précision des tests par intervalle de confiance dans le but de garantir un risque a de 0,27%. Cette approche que nous qualifions de «puriste» ne nous apparaît pas d un intérêt fondamental. En pratique, la dispersion et les queues des distributions ne peuvent être connues parfaitement. On se satisfait généralement de tests permettant de prendre des décisions avec des risques «raisonnables». La performance des estimateurs ponctuels est par contre peu abordée alors qu elle conditionne à la fois la sensibilité de la carte et la précision des réglages. La moyenne et la médiane utilisées assez systématiquement peuvent en effet s avérer des estimateurs médiocres pour certains types de distributions.

181 Définition du cadre d étude Les deux objectifs que nous nous sommes fixés pour définir le cadre de travail étaient donc : Rechercher l optimalité de l estimateur ponctuel Proposer une approche non paramétrique pour ne pas limiter notre domaine d application à une famille particulière de lois. Nos travaux se sont donc appuyés sur les statistiques d ordre qui constituent un outil privilégié de la statistique non paramétrique. Le L-estimateur des moindres carrés proposé par Lloyd s est avéré particulièrement adapté à notre problème. Il a en effet les propriétés suivantes : Il se base sur un modèle non paramétrique de localisation échelle, Il fournit une estimation sans biais des paramètres de localisation et d échelle, Il fournit une estimation à variance minimale parmi les estimateurs construits à partir d une combinaison linéaires des observations, Les paramètres à estimer peuvent être définis par l utilisateur. Pour satisfaire ces objectifs, nous avons proposé une nouvelle carte de contrôle (la carte L) s appuyant sur des L-statistiques, particulièrement adaptées aux cas des procédés non normaux. Le choix des paramètres à estimer Le choix du paramètre de localisation peut être sujet à discussion lorsque la population n est pas symétrique puisque la tendance centrale de la loi n a plus de signification. Nous avons donc proposé de définir ce paramètre selon le critère de la perte au sens de Taguchi. Nous avons montré que le paramètre moyenne permettait de minimiser la perte au sens de Taguchi dans le cas d une fonction perte symétrique. Dans le cas contraire, le calcul nécessite la connaissance de la loi de distribution des observations. Ce cas de figure ne rentre donc pas dans le cadre non paramétrique que nous nous sommes fixés. Construction d une carte L Le calcul des coefficients du L-estimateur de Lloyd nécessite la connaissance de la matrice de covariance des statistiques d ordre. Nous avons montré expérimentalement qu une quarantaine d échantillons étaient nécessaires pour que les coefficients de cette matrice soient dans le voisinage de leurs valeurs asymptotiques. Cependant la durée d une telle période de référence peut être rédhibitoire pour certaines productions.

182 Nous avons donc proposé deux procédures de démarrage de la carte L permettant de réduire la période de référence pour piloter au plus tôt : La première méthode concerne plus particulièrement les procédés à évolution lente. Elle consiste à faire évoluer les coefficients du L-estimateur de la moyenne vers les coefficients optimaux au fur et à mesure de l acquisition d informations sur le procédé. La seconde méthode s avère particulièrement intéressante lorsque le volume de données est faible. On procède à l acquisition d au moins 20 observations sur une période stable pour constituer une population empirique. A partir de ces données on calcule par une méthode bootstrap les statistiques nécessaires à la construction du L-estimateur des moindres carrés. Performances de la carte L L étude de la carte L a mis en évidence un certain nombre de caractéristiques intéressantes : Le tracé des estimations est peu bruité par rapport à celui de la moyenne, ce qui permet de détecter plus facilement d éventuelles tendances du procédé. La POM de la carte L est toujours inférieure à celle de la carte de Shewhart lorsque les limites de contrôle sont placées à ±3s L-estimateur de la cible. Malgré la faible robustesse du L-estimateur de Lloyd aux valeurs extrêmes, la dégradation de ses performances dans le cas d une modification de la distribution des observations n entraîne pas un comportement défavorable. Le biais du L-estimateur de position et de dispersion s avère en effet négligeable et les modifications de la population sont détectées au même titre que les autres causes spéciales. En outre, nous avons proposé une extension de la carte L en appliquant une procédure CUSUM aux estimations du L-estimateur des moindres carrés. Cette carte s avère plus sensible que la carte CUSUM standard et possède encore de bonnes performances quand l efficacité relative de la moyenne par rapport au L-estimateur est de l ordre de 0.8. Néanmoins cette approche n est pas la seule possible. On peut aussi envisager de construire d autres cartes comme les cartes EWMA. Les limites de la carte L Bien que le modèle non paramétrique de localisation échelle décrive un grand nombre de lois, nous avons montré que celui-ci n était pas adapté aux lois de défaut de forme. En effet, les paramètres de localisation et d échelle n ont plus la même signification lorsque la distribution de la population évolue. Application industrielle L étude de presses à injecter multi-empreintes a mis en évidence la forte non normalité des critères étudiés. Nous avons montré dans ces cas que la carte L était particulièrement intéressante puisqu elle détecte plus rapidement les dérives du procédé et permet des réglages plus précis.

183 A l opposé, le suivi d un tour multibroche a révélé contre toute attente que la loi de distribution des observations pouvait être assimilée à une loi normale. Dans ce cas, les coefficients du L-estimateur étant très proches de 1/n les performances de la carte L sont équivalentes à celles de la carte de Shewhart. L utilisation de la carte L est donc sans risque si la non normalité d un procédé n a pas été vérifiée. Perspectives Avant d énumérer les aspects de la recherche qu il nous semble important de développer pour compléter ces premiers résultats, nous rappellerons les principales motivations de nos travaux. Les conventions CIFRE ont en effet pour vocation de favoriser le transfert technologique et les échanges d idées, souvent trop ponctuels, entre le milieu universitaire et le milieu industriel. Ainsi un travail important reste à réaliser pour la diffusion auprès des industriels des méthodes présentées dans ce mémoire. Ce travail de diffusion doit également s accompagner d un développement d outils informatiques permettant l application des ces nouveaux concepts. Le travail du chercheur a la particularité de n être jamais terminé, ce qui rend ce métier si passionnant. Certains aspects importants de notre travail restent en effet à développer. Le premier sujet de recherche découle des limites constatées lors de l application des cartes L dans le cas des défauts de forme. Il serait en effet intéressant de proposer une méthode pour piloter les procédés dont la loi évolue en fonction du paramètre de localisation. C est le cas de nombreux critères unilatéraux. Un second sujet concerne la vérification de l optimalité du L-estimateur des moindres carrés sur des procédés non stationnaires. On peut par exemple envisager une approche adaptative du calcul des coefficients du L-estimateur. On peut aussi envisager une vérification régulière de la validité des coefficients par rapport à la loi de distribution des dernières observations. Les méthodes bootstrap ainsi que la construction d intervalle de confiance sur les statistiques bootstrapées peuvent selon nous apporter une réponse intéressante à ce type de problème. Enfin, une étude portant sur l application des cartes L dans le cas des petites séries permettrait de connaître les limites de la méthode dans un contexte où le volume d informations est particulièrement faible. Ce travail représente la deuxième contribution du Laboratoire de Logiciels pour la Productique (LLP/CESALP) dans l action de recherche pour la Maîtrise Statistique des Procédés, après les travaux de Mr Maurice PILLET sur les petites séries. Il est le fruit d une étroite collaboration entre les sociétés ODS Europe, FOCAL industrie et le laboratoire LLP/CESALP.

184 Annexe 1 Les notations mathématiques Statistiques d ordre X 1, X 2,, X n Variables aléatoires indépendantes. X ( 1 ), X ( 2 ),, X ( n) Variables aléatoires ordonnées. x 1, x 2,, x n Observations indépendantes. x ( 1 ), x ( 2 ),, x ( n) Observations ordonnées. x( 1: n), x( 2 : n),, x( n: n) Observations ordonnées d un échantillon de taille n. X n Vecteur de n observations de la variable X P( X ) Fonction de répartition de la variable X Pn( X ) Fonction de répartition empirique p( X ) Densité de probabilité de la v.a. X F r x f r x F r :n x f r :n x Fonction de répartition de la statistique d ordre X(r) Densité de probabilité de la statistique d ordre X(r) Fonction de répartition de la statistique d ordre X r:n Densité de probabilité de la statistique d ordre X r:n

185 m r : n E X r : n ( ) Espérance d une statistique d ordre ( k) m r : n E X k r: n Moment d ordre k d une statistique d ordre m rs : n E X r : n X s : n Statistique classique m X Espérance de la variable X. 2 s X VAR ( X ) Variance de la variable X s XY COV( X, Y ) Covariance des variables X et Y ER m, X Efficacité relative de m par rapport à X. ERA m, X Efficacité relative asymptotique de m par rapport à X. x p p-quantile d une loi de probabilité.

186 Annexe 2 Développements mathématiques Les courbes de Johnson Afin de déterminer les courbes de Johnson, on applique les relations correspondant au type de courbe choisi. Ces fonctions dépendent des paramètres m, n et p établis à partir des p-quantiles de la distribution de la population. Courbes non bornées (mn/p 2 > 1) Equation z=g h sinh 1 x e λ Détermination des paramètres h=2 z { cosh 1[ 1 2 m p n p ]} 1 1{ ] 1} g=h sinh n p m [ p 2 m p n p 1/2 1

187 λ=2 p m p n p 1/2[ 1 m p n p 2 m p n p 1/2 ] 1 2 e= x z x z 2 p n p m p [ 2 m p n 1 p ] 2 Courbes bornées (mn/p 2 < 1) Equation z=g h ln x e λ e x Détermination des paramètres { cosh 1 1/2 } 1 h=z 1 2 [ 1 p m 1 p n ] 1{ g=h sinh p n p m [ 1 p m 1 p 1/2 n ] [ 4 2 pp 1 mn ] 1 } }1/2 λ= p {[ 1 p m 1 p n 2 4 ] 2 pp mn 1 1 e= x z x z λ 2 2 p p n p m [ 2 pp 1 mn ] 1

188 Courbes log-normales (mn/p 2 = 1) Equation z=g h ln x e Détermination des paramètres h= 2 z ln m/ p g=h ln e= x z x z 2 m/ p 1 p m/ p 1/2 p m/ p 1 2 m/ p 1

189 Construction du L-estimateur des moindres carrés de Lloyd Introduction Nous allons dans cette annexe justifier la construction de l'estimateur des moindres carrés. Rappelons tout d abord quelques résultats concernant la méthode des moindres carrés généralisés. Les moindres carrés généralisés Considérons le modèle linéaire multiple suivant Y Xb u où = : y 1 Y M est appelée variable d intérêt. y n u 1 M u= est un vecteur aléatoire modélisant les variations de Y. u n b 1 M b= est le vecteur des paramètres que l on cherche à estimer par les moindres carrés. b =[ n x 11 L x 1n ] X M O M est une matrice contenant des variables dites «exogènes» non aléatoires. x m1 L x mn 2 On suppose les conditions suivantes satisfaites: E( u) 0 et V( u) s I n Estimer les paramètres b par les moindres carrés consiste à minimiser l influence de la variable aléatoire u. On cherche la statistique b ( b 1 b n ) qui minimise S ( b) S( b1 bn ) ui Ce qui revient à calculer : n Min i=1 m Y i b j X ji 2 j=1 n i 1 2.

190 S(b) s écrit sous forme vectorielle : t S( b) ( Y bx ) ( Y bx ) t t t t t Y Y 2b X Y b X Xb On dérive S(b) par rapport à chacun des paramètres du vecteur b. On obtient alors le système des équations normales : t t 2 X Y 2 X X b 0 D où l estimateur des moindres carrés ordinaires : b= X t X 1 X t Y Application à un échantillon ordonné Reprenons maintenant le problème posé par Lloyd. On écrit l'expression de l'espérance des statistiques d'ordre X(r) sous forme vectorielle E [ X r ]=m p.e s p α où a est le vecteur des α r et e est un vecteur avec des composantes unitaires. On note = x X 1 M x n e= 1 M α= α1 M 1 α n On peut réécrire l équation précédente sous la forme E X où q= m s A=[ 1 α 1 ] et M M 1 α n A q La matrice de covariance de X est donnée par : COV X =s 2 W est une matrice (nxn) des éléments rs On a alors le modèle linéaire suivant : { X =A q u E u = 0 V u =V X =s 2 où u représente la composante aléatoire de X.

191 Ce modèle est dit général car V ( u) s 2 W W étant une matrice définie positive, il existe une matrice M(n,n) régulière telle que : M t M W 1 On peut alors multiplier par M la relation : X A.q u MX MA q Mu En opérant le changement de variable : Z=MX T=MA et v=mu { on a : E v =0 V v =MV u M t =s 2 I n Z=Tb+v est donc un modèle linéaire multiple ordinaire et on connaît l estimateur des moindres carrés ordinaires de q. q= T t T 1 T t Z A t M t MA 1 A t M t MX A t 1 A 1 A t 1 X Une estimation du vecteur q au sens des moindres carrés généralisés est donnée par : q= A t 1 A 1 A t 1 X La variance des estimateurs est donnée par : Var [ m ]=s p 2 Var [ s ]=s p 2 α t α det A t 1 A e t e det A t 1 A

192 Construction du L-estimateur de Bovik Introduction Ainsi, la sortie Y k d'un L-filtre est donnée par une combinaison linéaire des statistiques d'ordre x(j) avec des coefficients réels notés C j (où j=1..n). n Yk C j x( j) (1) j 1 Si on généralise cette notion en définissant une fonction, on obtient un NL-filtre ; la fonction ayant éventuellement un caractère non linéaire. F : Â Â Telleque:Y k =F x 1 x 2 Optimisation des coefficients Dans notre étude, nous ne nous intéressons qu'aux L-estimateurs ou L-filtres dont l'intérêt est de pouvoir déterminer de manière relativement simple un jeu de coefficients optimaux au sens de l'erreur quadratique moyenne d'estimation, en tenant compte de la forme de la distribution du bruit. L'application de ces L-estimateurs reste néanmoins réduite aux distributions symétriques. Si le procédé est stationnaire, nous pouvons modéliser les mesures par X k =s k +B k, où s k est une constante (position du procédé liée aux causes spéciales ) et B k est un bruit blanc centré ayant une densité de probabilité symétrique (dispersion due aux causes communes). Pour un ensemble de mesures consécutives, les statistiques d'ordre vérifient: x(j)=s k +B(j) où B(j) est la j ème statistique d'ordre du bruit. On en déduit que l'estimation peut s'écrire : ( ) Y s C C B j k k j j La symétrie de la distribution du bruit nous amène à traiter un cas assez particulier car d'une part l'espérance des réalisation de la variable aléatoire associée au bruit est nulle, E B 0., et d'autre part les coefficients de pondération du L-estimateur sont symétriques du fait de la structure des L- filtres. C C j 1 j n j

193 on a alors E Y s C C E B j s C k k j j ( ) k j j j Une condition suffisante pour obtenir un biais nul est E Yk sk, ce qui implique que la somme des coefficients C doit être égale à 1. Si on utilise un vocabulaire propre au traitement du signal, on dit que le L-filtre a un gain statique unitaire. On peut évaluer les performances de l'estimateur sans biais en calculant sa variance. Var [Y k ]=E [ Y k E Y k 2 ]=E [ Y k s k 2 ] E [ j j C j B j p j C p B p ] C j E [ B j B p ] C p p Cette dernière peut s'écrire sous forme vectorielle: t Var Y C R C (2) k où t C= C 1 LC n est le vecteur des coefficients pondérateurs du L-estimateur et R est la matrice de corrélation de bruit ordonné telle que R E B( j) B( p) jp L'expression de la variance d'un L-estimateur met en évidence que son efficacité est conditionnée par le bon choix des coefficients C. Pour calculer les coefficients optimaux nous allons nous appuyer sur deux critères que l'on essayera d'optimiser. D'une part nous souhaitons avoir la somme des coefficients C la plus proche possible de 1 : C j 1 j Et d'autre part nous voulons minimiser la variance de l'estimateur Var Y Introduisons tout d'abord le vecteur unité e tel que t e= 1 L1 k t C R C. Pour optimiser les deux critères que l'on s'est fixé, nous allons minimiser la fonctionnelle suivante : j C, λ = t CRC λ 1 t C e Afin de déterminer pour quelles valeurs des coefficients la fonctionnelle trouve son minimum, nous allons calculer les dérivées partielles de par rapport aux coefficients c 1...c n.

194 [ n = c 1 j=1 { j M j n c n = j=1 n R j1 c j p=1 n R jn c j p=1 n R 1p c p λ=2 R 1 k c k λ k=1 n R np c p λ=2 R nk c k λ k=1 Le vecteur des dérivées partielles peut donc s'écrit j c 1 M ]=2. RC λe j c n La fonctionnelle admet un minimum absolu lorsque les dérivées partielles s'annulent. Pour connaître les coefficients C nous cherchons donc à résoudre le système d'équation : { 2 RC λe= 0 t e C=1 Les solutions sont : l 2 e R t 1 e et C 1 R e 1 e R e t Les coefficients optimaux des L-estimateurs sont donc calculés à l'aide de la relation : C 1 R e 1 e R e t

195 Etude de capabilité dans le cas d une loi de défaut de forme Loi normale sous-jacente de moyenne nulle Dans le cas d une loi de défaut de forme f d, nous savons que le rapport entre la moyenne et l écart type de f d ne peut pas être inférieur à une valeur qui correspond au cas où la moyenne de la loi normale sous-jacente est centrée sur zéro. Nous allons donc calculer ce rapport pour une loi normale sous-jacente de moyenne nulle. Soit l expression de la loi de défaut de forme : La moyenne de la loi de défaut de forme est alors x 2 2 f d x =2 e x³0} {} 2 p m= x f d x dx= 2 = p Nous calculons également l écart type de la loi de défaut de forme : E x 2 = x 2 f d x dx=1 0 s= E X 2 E X 2 = 1 2 = p D où la valeur limite du rapport m/s. m s = 2 = p 2 La Norme AFNOR NF E propose de définir la dispersion telle que D=5s. Nous pouvons vérifier dans ce cas que la dispersion couvre 99.74% de la population. 5 s 0 f d x dx=

196 Calcul de la dispersion de la loi de défaut de forme en fonction de sa moyenne et son écart-type Le calcul de la dispersion de la loi de défaut de forme n étant pas aisé, les normes fournissent généralement cette information sous forme de tableau en fonction d un paramètre facilement estimable. La Norme AFNOR E fournit ces donnée en fonction du rapport m/s. m/s Dispersion à 99.73% m/s Dispersion à 99.73% m/s Dispersion à 99.73%

197 Annexe 3 Démonstrations Optimalité des estimateurs Calcul des bornes de Frechet dans le cas d une loi normale. Démonstration On suppose une variable aléatoire X qui suit une loi normale N(m,s). x m 2 f x = e 2 s 2 s 2 p Nous cherchons à calculer la bornes de Frechet pour une statistique T n qui est une estimateur du paramètre m. On calcule l information de Fisher I m =E [ m Log f x, m ] 2 I m = 1 x m 2 2 s e 2 dx = 1 s 3 2 p - s 2 On peut alors calculer la borne de Frechet pour une statistique T n utilisant un échantillon de taille n.

198 B F = 1 I n m = 1 n. I m = s2 n La moyenne empirique est donc une estimateur efficace de m puisque V X = s2 n =B F Programme Maple restart : with(linalg) : f :=(x)->exp(-(((x-mu)/sigma)^2)/2)/(sigma*sqrt(2*pi)) ; information de Fisher g :=unapply(simplify(diff(log(f(x,mu)),mu$2)),(x,mu)) ; i :=int(-g(x,mu)*f(x),x=-infinity..infinity) ; Borne de Frechet frechet :=evalf(1/(n*i)) ; Calcul des bornes de Frechet dans le cas d un mélange de lois Nous avons comparé les performances du L-estimateur des moindres carrés aux bornes de Frechet pour deux méthodes d échantillonnage (l échantillonnage aléatoire et l échantillonnage séquentiel). Le procédé Le procédé que nous avons simulé se constitue d une population stratifiée composée de 6 lois normales (voir chapitre ). N(0,1) N(5.5,1) N(5,1) N(5,1) N(-3.2,1) N(-3.5,1)

Plan II-1. Généralités II-1-1. Définitions et principes II-1-2. Mise en place

Plan II-1. Généralités II-1-1. Définitions et principes II-1-2. Mise en place SPC 1 Plan II-1. Généralités II-1-1. Définitions et principes II-1-2. Mise en place II-2-1. Définitions II-1-2. Capabilité machine et capabilité procédé II-2-3. Ppm 2 II-1. GénéralitG ralités Définitions

Plus en détail

TECHNIQUES STATISTIQUES

TECHNIQUES STATISTIQUES TECHNIQUES STATISTIQUES, enseignant à l'institut d'administration des Entreprises, Université Nancy 2 SOMMAIRE 1. Introduction 3 2. Contrôle statistique des lots 3 2.1 Champ d'application 3 2.2 Niveau

Plus en détail

SIMDI - Simulateur de tournage

SIMDI - Simulateur de tournage SIMDI - Simulateur de tournage «Les élèves pilotent un processus de fabrication dans le temps réduit d une formation» Objectifs du simulateur «Appliquer la Maîtrise Statistique des procédés (MSP/SPC)»

Plus en détail

Programme de Première

Programme de Première BAC TECHNO STAV 66 I. Algèbre Programme de Première Objectif 1 - Effectuer de manière autonome des calculs numériques ou algébriques, résoudre des équations ou inéquations en vue de résoudre des problèmes

Plus en détail

Qualité en production

Qualité en production Daniel DURET et Maurice PILLET Qualité en production De l ISO 9000 à Six Sigma Troisième édition Éditions d Organisation, 1998, 2001, 2005 ISBN : 2-7081-3388-8 Sommaire INTRODUCTION... 17 Première partie

Plus en détail

Ecole Nationale Supérieure d Arts et Métiers Meknès

Ecole Nationale Supérieure d Arts et Métiers Meknès Ecole Nationale Supérieure d Arts et Métiers Meknès EFFECTUE AUPRES D IMACAB Du 01/07/02 Au 05/08/02 Préparé par : Encadré par : CHADMI ISSAM M.HABTI Année Universitaire: 2001/2002 Ensam-Méknes - 1 - imacab

Plus en détail

LA MÉTHODE S.P.C. (STATISTICAL PROCESS CONTROL)

LA MÉTHODE S.P.C. (STATISTICAL PROCESS CONTROL) 1GM Sciences et Techniques Industrielles Page 1 sur 5 Productique - Cours Génie Mécanique Première LA MÉTHODE S.P.C. (STATISTICAL PROCESS CONTROL) Née aux USA, la méthode S. P. C. est traduite le plus

Plus en détail

Le tolérancement inertiel appliqué en décolletage

Le tolérancement inertiel appliqué en décolletage Le tolérancement inertiel appliqué en décolletage Mondialisation, augmentation du coût de l énergie et des matières, pressions sur les coûts. Les entreprises doivent évoluer dans un contexte changeant

Plus en détail

Révision de statistiques

Révision de statistiques IUP SID M1 UPS TOULOUSE Maîtrise statistique des procédés 2005/2006 Révision de statistiques Exercice 1 Révisions sur la lecture de tables. 1. Soit U une v.a. normale centrée réduite. Calculer P(U < 2),

Plus en détail

- Mobiliser les résultats sur le second degré dans le cadre de la résolution d un problème.

- Mobiliser les résultats sur le second degré dans le cadre de la résolution d un problème. Mathématiques - classe de 1ère des séries STI2D et STL. 1. Analyse On dote les élèves d outils mathématiques permettant de traiter des problèmes relevant de la modélisation de phénomènes continus ou discrets.

Plus en détail

MATHÉMATIQUES CYCLE TERMINAL DE LA SÉRIE ÉCONOMIQUE ET SOCIALE ET DE LA SÉRIE LITTERAIRE CLASSE DE PREMIÈRE

MATHÉMATIQUES CYCLE TERMINAL DE LA SÉRIE ÉCONOMIQUE ET SOCIALE ET DE LA SÉRIE LITTERAIRE CLASSE DE PREMIÈRE Annexe MATHÉMATIQUES CYCLE TERMINAL DE LA SÉRIE ÉCONOMIQUE ET SOCIALE ET DE LA SÉRIE LITTERAIRE CLASSE DE PREMIÈRE L enseignement des mathématiques au collège et au lycée a pour but de donner à chaque

Plus en détail

11. Evaluation de la qualité des essais

11. Evaluation de la qualité des essais 11. Evaluation de la qualité des essais L évaluation de la qualité méthodologique d un essai thérapeutique est une tâche difficile [117]. L essai thérapeutique contrôlé randomisé est considéré comme étant

Plus en détail

Cartes de contrôle aux mesures

Cartes de contrôle aux mesures Cartes de contrôle aux mesures 1 Une introduction à la maîtrise statistique des processus Deux objets ne sont jamais rigoureusement identiques. Quelles que soient les techniques utilisées pour fabriquer

Plus en détail

Relation entre deux variables : estimation de la corrélation linéaire

Relation entre deux variables : estimation de la corrélation linéaire CHAPITRE 3 Relation entre deux variables : estimation de la corrélation linéaire Parmi les analyses statistiques descriptives, l une d entre elles est particulièrement utilisée pour mettre en évidence

Plus en détail

Chapitre 3 RÉGRESSION ET CORRÉLATION

Chapitre 3 RÉGRESSION ET CORRÉLATION Statistique appliquée à la gestion et au marketing http://foucart.thierry.free.fr/statpc Chapitre 3 RÉGRESSION ET CORRÉLATION La corrélation est une notion couramment utilisée dans toutes les applications

Plus en détail

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 2013 2014 MATHS/STATS. 1 Généralités sur les tests statistiques 2

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 2013 2014 MATHS/STATS. 1 Généralités sur les tests statistiques 2 UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 2013 2014 Master d économie Cours de M. Desgraupes MATHS/STATS Document 4 : Les tests statistiques 1 Généralités sur les tests

Plus en détail

Leçon 12. Qualité. de définir les avantages et inconvénients de chaque type de contrôle,

Leçon 12. Qualité. de définir les avantages et inconvénients de chaque type de contrôle, Leçon 12 Qualité L'objectif principal de la leçon est de connaître et de comprendre les principaux types de contrôle mis en place pour assurer la qualité des produits et des processus. A l'issue de la

Plus en détail

L essentiel sur les tests statistiques

L essentiel sur les tests statistiques L essentiel sur les tests statistiques 21 septembre 2014 2 Chapitre 1 Tests statistiques Nous considérerons deux exemples au long de ce chapitre. Abondance en C, G : On considère une séquence d ADN et

Plus en détail

LA QUALITE, L ASSURANCE DE LA QUALITE ET LA CERTIFICATION ISO 9001

LA QUALITE, L ASSURANCE DE LA QUALITE ET LA CERTIFICATION ISO 9001 LA QUALITE, L ASSURANCE DE LA QUALITE ET LA CERTIFICATION ISO 9001 I/ HISTORIQUE DE LA QUALITE La qualité est un souci permanent de l homme depuis longtemps. Jusqu au XIX ème siècle, c est l ère artisanale

Plus en détail

L'Analyse de l'aptitude d'un Procédé à l'aide de MINITAB (I)

L'Analyse de l'aptitude d'un Procédé à l'aide de MINITAB (I) Résumé L'Analyse de l'aptitude d'un Procédé à l'aide de MINITAB (I) Keith M. Bower, M.S. L'utilisation d'indices d'aptitude tels que les valeurs C p, C pk, et Sigma" est très répandue au sein de l'industrie.

Plus en détail

Comment se servir de cet ouvrage? Chaque chapitre présente une étape de la méthodologie

Comment se servir de cet ouvrage? Chaque chapitre présente une étape de la méthodologie Partie I : Séries statistiques descriptives univariées (SSDU) A Introduction Comment se servir de cet ouvrage? Chaque chapitre présente une étape de la méthodologie et tous sont organisés selon le même

Plus en détail

Chapitre 8 ANALYSE DES SÉRIES CHRONOLOGIQUES

Chapitre 8 ANALYSE DES SÉRIES CHRONOLOGIQUES Statistique appliquée à la gestion et au marketing http://foucart.thierry.free.fr/statpc Chapitre 8 ANALYSE DES SÉRIES CHRONOLOGIQUES Nous abordons dans ce chapitre l analyse de données statistiques particulières

Plus en détail

1998.02 Composition d un portefeuille optimal. Dinh Cung Dang

1998.02 Composition d un portefeuille optimal. Dinh Cung Dang 199802 Composition d un portefeuille optimal Dinh Cung Dang Docteur en gestion de l IAE de Paris Ingénieur Conseil Résumé : Dans ce travail, le risque est défini comme étant la probabilité de réaliser

Plus en détail

MÉTHODES ET STATISTIQUES POUR LIRE UN ARTICLE

MÉTHODES ET STATISTIQUES POUR LIRE UN ARTICLE MÉTHODES ET STATISTIQUES POUR LIRE UN ARTICLE Forum HH 05.02.2013 Ghislaine Gagnon Unité HPCI Qualitatif ou quantitatif? Les 2 méthodes peuvent être utilisées séparément ou en conjonction - le qualitatif

Plus en détail

STATISTIQUES. Cours I : Test d hypothèses. Télécom Physique Strasbourg Module 2101. Fabrice Heitz. Octobre 2014

STATISTIQUES. Cours I : Test d hypothèses. Télécom Physique Strasbourg Module 2101. Fabrice Heitz. Octobre 2014 Télécom Physique Strasbourg Module 2101 STATISTIQUES Cours I : Test d hypothèses Fabrice Heitz Octobre 2014 Fabrice Heitz (Télécom PS) Statistiques 2014 1 / 75 Cours I TESTS D HYPOTHÈSES Fabrice Heitz

Plus en détail

Méthodes Statistiques Appliquées à la Qualité et à la Gestion des Risques - Le Contrôle Statistique

Méthodes Statistiques Appliquées à la Qualité et à la Gestion des Risques - Le Contrôle Statistique Méthodes Statistiques Appliquées à la Qualité et à la Gestion des Risques - Le Contrôle Statistique Jean Gaudart Laboratoire d Enseignement et de Recherche sur le Traitement de l Information Médicale jean.gaudart@univmed.fr

Plus en détail

La survie nette actuelle à long terme Qualités de sept méthodes d estimation

La survie nette actuelle à long terme Qualités de sept méthodes d estimation La survie nette actuelle à long terme Qualités de sept méthodes d estimation PAR Alireza MOGHADDAM TUTEUR : Guy HÉDELIN Laboratoire d Épidémiologie et de Santé publique, EA 80 Faculté de Médecine de Strasbourg

Plus en détail

11 OSMOLARITÉ, MULTIPLES SOURCES DE VARIATION

11 OSMOLARITÉ, MULTIPLES SOURCES DE VARIATION 11 OSMOLARITÉ, MULTIPLES SOURCES DE VARIATION Dans cette étude de cas nous nous retrouvons face à des données dont la variabilité court terme est très différente de celle à long terme. Les cartes de contrôle

Plus en détail

Le suivi de la qualité. Méthode MSP : généralités

Le suivi de la qualité. Méthode MSP : généralités Le suivi de la qualité La politique qualité d une entreprise impose que celle maîtrise sa fabrication. Pour cela, elle doit être capable d évaluer la «qualité» de son processus de production et ceci parfois

Plus en détail

ENTREPÔTS ET MAGASINS

ENTREPÔTS ET MAGASINS Michel Roux ENTREPÔTS ET MAGASINS Tout ce qu il faut savoir pour concevoir une unité de stockage Cinquième édition, 1995, 2001, 2003, 2008, 2011 ISBN : 978-2-212-55189-1 2 LES PHASES DE SIMULATION DE VALIDATION

Plus en détail

TABLE DES MATIÈRES. Bruxelles, De Boeck, 2011, 736 p.

TABLE DES MATIÈRES. Bruxelles, De Boeck, 2011, 736 p. STATISTIQUE THÉORIQUE ET APPLIQUÉE Tome 2 Inférence statistique à une et à deux dimensions Pierre Dagnelie TABLE DES MATIÈRES Bruxelles, De Boeck, 2011, 736 p. ISBN 978-2-8041-6336-5 De Boeck Services,

Plus en détail

SUJET INÉDIT 1. Dossier 1. Charges et choix d une unité d œuvre 4 points 45 minutes CHAPITRES 1 et 4

SUJET INÉDIT 1. Dossier 1. Charges et choix d une unité d œuvre 4 points 45 minutes CHAPITRES 1 et 4 SUJET INÉDIT 1 La société Coupe & Shampoing Coupe & Shampoing est un salon de coiffure indépendant. Afin de faire face à la concurrence de salons de coiffure franchisés, son dirigeant, Kamel, aimerait

Plus en détail

Probabilités et Statistiques. Chapitre 1 : Statistique descriptive

Probabilités et Statistiques. Chapitre 1 : Statistique descriptive U.P.S. I.U.T. A, Département d Informatique Année 2008-2009 Probabilités et Statistiques Emmanuel PAUL Chapitre 1 : Statistique descriptive 1 Objectifs des statistiques. Il s agit d étudier un ou plusieurs

Plus en détail

Conditions d application des méthodes statistiques paramétriques :

Conditions d application des méthodes statistiques paramétriques : Conditions d application des méthodes statistiques paramétriques : applications sur ordinateur GLELE KAKAÏ R., SODJINOU E., FONTON N. Cotonou, Décembre 006 Conditions d application des méthodes statistiques

Plus en détail

2 Probabilités conditionnelles. Événements indépendants

2 Probabilités conditionnelles. Événements indépendants 2 Probabilités conditionnelles. Événements indépendants 2.1 Probabilité conditionnelle Soient A et B deux événements tels que P(B) > 0. Soit alors P(A B), la probabilité que A se réalise, B étant réalisé.

Plus en détail

Examen d accès - 1 Octobre 2009

Examen d accès - 1 Octobre 2009 Examen d accès - 1 Octobre 2009 Aucun document autorisé - Calculatrice fournie par le centre d examen Ce examen est un questionnaire à choix multiples constitué de 50 questions. Plusieurs réponses sont

Plus en détail

Le bootstrap expliqué par l exemple

Le bootstrap expliqué par l exemple Le bootstrap expliqué par l exemple 1 Le bootstrap expliqué par l exemple 1. Les concepts du bootstrap 2. Des variantes adaptées au contexte 3. Comparaison des différentes méthodes 4. Les cas sensibles

Plus en détail

Précision d un résultat et calculs d incertitudes

Précision d un résultat et calculs d incertitudes Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................

Plus en détail

Exploitation et analyse des données appliquées aux techniques d enquête par sondage. Introduction.

Exploitation et analyse des données appliquées aux techniques d enquête par sondage. Introduction. Exploitation et analyse des données appliquées aux techniques d enquête par sondage. Introduction. Etudes et traitements statistiques des données : le cas illustratif de la démarche par sondage INTRODUCTION

Plus en détail

Le programme de mathématiques Classes de première STI2D STL

Le programme de mathématiques Classes de première STI2D STL Journée de l inspection 15 avril 2011 - Lycée F. BUISSON 18 avril 2011 - Lycée J. ALGOUD 21 avril 2011 - Lycée L. ARMAND Le programme de mathématiques Classes de première STI2D STL Déroulement de la journée

Plus en détail

UNE ESTIMATION DU PARC AUTOMOBILE À L AIDE DES DURÉES DE VIE DES VÉHICULES

UNE ESTIMATION DU PARC AUTOMOBILE À L AIDE DES DURÉES DE VIE DES VÉHICULES UNE ESTIMATION DU PARC AUTOMOBILE À L AIDE DES DURÉES DE VIE DES VÉHICULES François JEGER Le parc de véhicules automobiles en service vieillit de trois mois par an depuis 1993 : la durée de vie médiane

Plus en détail

Appliquer la maîtrise statistique des processus (MSP/SPC)

Appliquer la maîtrise statistique des processus (MSP/SPC) Maurice PILLET Professeur des Universités IUT Annecy Université de Savoie, Laboratoire LISTIC Ancien élève de l'ecole Normale Supérieure de CACHAN Appliquer la maîtrise statistique des processus (MSP/SPC)

Plus en détail

NOTE SUR LA MODELISATION DU RISQUE D INFLATION

NOTE SUR LA MODELISATION DU RISQUE D INFLATION NOTE SUR LA MODELISATION DU RISQUE D INFLATION 1/ RESUME DE L ANALYSE Cette étude a pour objectif de modéliser l écart entre deux indices d inflation afin d appréhender le risque à très long terme qui

Plus en détail

MÉTHODES NUMÉRIQUES ET INCERTITUDES EN TERMINALE SCIENTIFIQUE ARTICULATION ENTRE MATHÉMATIQUES ET PHYSIQUE

MÉTHODES NUMÉRIQUES ET INCERTITUDES EN TERMINALE SCIENTIFIQUE ARTICULATION ENTRE MATHÉMATIQUES ET PHYSIQUE MÉTHODES NUMÉRIQUES ET INCERTITUDES EN TERMINALE SCIENTIFIQUE ARTICULATION ENTRE MATHÉMATIQUES ET PHYSIQUE Adeline DUCATÉ Professeur de physique chimie Lycée Marcel Pagnol, avenue de la Terrasse, 91205

Plus en détail

Maîtrise Statistique des Procédés (MSP) Statistical Process Control (SPC)

Maîtrise Statistique des Procédés (MSP) Statistical Process Control (SPC) Maîtrise Statistique des Procédés (MSP) Statistical Process Control (SPC) Plan Qu est-ce que la qualité? Qu est-ce que la MSP/le SPC? Variabilité Loi Normale Cartes de contrôle Capabilités Application

Plus en détail

LA PROGRAMMATION LINEAIRE : UN OUTIL DE MODELISATION

LA PROGRAMMATION LINEAIRE : UN OUTIL DE MODELISATION LA PROGRAMMATION LINEAIRE : UN OUTIL DE MODELISATION Dans les leçons précédentes, nous avons modélisé des problèmes en utilisant des graphes. Nous abordons dans cette leçon un autre type de modélisation.

Plus en détail

CALCUL SCIENTIFIQUE. 1 Erreur absolue et erreur relative 2. 2 Représentation des nombres sur ordinateur 3

CALCUL SCIENTIFIQUE. 1 Erreur absolue et erreur relative 2. 2 Représentation des nombres sur ordinateur 3 MTH1504 2011-2012 CALCUL SCIENTIFIQUE Table des matières 1 Erreur absolue et erreur relative 2 2 Représentation des nombres sur ordinateur 3 3 Arithmétique flottante 4 3.1 Absorption........................................

Plus en détail

Première STMG1 2014-2015 progression. - 1. Séquence : Proportion d une sous population dans une population.

Première STMG1 2014-2015 progression. - 1. Séquence : Proportion d une sous population dans une population. Première STMG1 2014-2015 progression. - 1 Table des matières Fil rouge. 3 Axes du programme. 3 Séquence : Proportion d une sous population dans une population. 3 Information chiffrée : connaître et exploiter

Plus en détail

MATHÉMATIQUES ET SCIENCES HUMAINES

MATHÉMATIQUES ET SCIENCES HUMAINES MATHÉMATIQUES ET SCIENCES HUMAINES B. MARCHADIER Dépendance et indépendance de deux aléas numériques images Mathématiques et sciences humaines, tome 25 (1969), p. 2534.

Plus en détail

CENTRE DE POLITIQUE ET D ADMINISTRATION FISCALES

CENTRE DE POLITIQUE ET D ADMINISTRATION FISCALES ORGANISATION DE COOPÉRATION ET DE DÉVELOPPEMENT ÉCONOMIQUES MÉTHODES DE DÉTERMINATION DES PRIX DE TRANSFERT JUILLET 2010 Avertissement: Ce document, préparé par le Secrétariat de l OCDE, n a pas de valeur

Plus en détail

Programme de l enseignement obligatoire commun de mathématiques Cycle terminal de la série sciences et technologies du management et de la gestion

Programme de l enseignement obligatoire commun de mathématiques Cycle terminal de la série sciences et technologies du management et de la gestion Programme de l enseignement obligatoire commun de mathématiques Cycle terminal de la série sciences et technologies du management et de la gestion L enseignement des mathématiques au collège et au lycée

Plus en détail

CAPTEURS - CHAINES DE MESURES

CAPTEURS - CHAINES DE MESURES CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,

Plus en détail

Rédaction : Julie Croteau, Laboratoire de recherche sur la performance des entreprises

Rédaction : Julie Croteau, Laboratoire de recherche sur la performance des entreprises Les normes qualité et les PME : éviter la surqualité Éditorial InfoPME est publié par le Laboratoire de recherche sur la performance des entreprises (LaRePE) Institut de recherche sur les PME Université

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

ORDRE DE RÉACTION : MÉTHODES DE

ORDRE DE RÉACTION : MÉTHODES DE ORDRE DE RÉACTION : MÉTHODES DE RÉSOLUTION Table des matières 1 Méthodes expérimentales 2 1.1 Position du problème..................................... 2 1.2 Dégénérescence de l ordre...................................

Plus en détail

Management qualité Réflexions et Prescriptions essentielles (Extraits VAE Alain THEBAULT 2013)

Management qualité Réflexions et Prescriptions essentielles (Extraits VAE Alain THEBAULT 2013) Management qualité Réflexions et Prescriptions essentielles (Extraits VAE Alain THEBAULT 2013) 1 Le Système qualité La cartographie des processus, qui se situe entre le manuel qualité et les procédures

Plus en détail

Sylvie Guessab Professeur à Supélec et responsable pédagogique du Mastère Spécialisé en Soutien Logistique Intégré des Systèmes Complexes

Sylvie Guessab Professeur à Supélec et responsable pédagogique du Mastère Spécialisé en Soutien Logistique Intégré des Systèmes Complexes Préface Toute personne est un jour confrontée à devoir prendre une décision, qu il s agisse de l étudiant qui réfléchit à son orientation académique, du chercheur qui doit privilégier une option scientifique

Plus en détail

CI n 1 La démarche qualité

CI n 1 La démarche qualité TGM Sciences et Techniques Industrielles Pédagogique page 1 sur 4 Productique Secteur Production Génie Mécanique Terminale Ph10 a dresser b percer CI n 1 La démarche qualité COMPÉTENCES TERMINALES ATTENDUES

Plus en détail

Le montant des garanties constituées aux fins du STPGV est-il excessif?

Le montant des garanties constituées aux fins du STPGV est-il excessif? Le montant des garanties constituées aux fins du STPGV est-il excessif? Kim McPhail et Anastasia Vakos* L e système canadien de transfert des paiements de grande valeur (STPGV) sert à effectuer les paiements

Plus en détail

3.7. Les sondages dans la révision (6 septembre 1996) 91

3.7. Les sondages dans la révision (6 septembre 1996) 91 c est-à-dire des relations qui sont inattendues ou contradictoires avec des éléments probants obtenus par d autres voies, le réviseur devra procéder à leur étude. Cette étude commencera habituellement

Plus en détail

Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée.

Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée. ANALYSE 5 points Exercice 1 : Léonie souhaite acheter un lecteur MP3. Le prix affiché (49 ) dépasse largement la somme dont elle dispose. Elle décide donc d économiser régulièrement. Elle a relevé qu elle

Plus en détail

Séances 5 et 6 4-530-03. La gestion de la qualité. Gestion des opérations et de la logistique

Séances 5 et 6 4-530-03. La gestion de la qualité. Gestion des opérations et de la logistique Gestion des opérations et de la logistique Séances 5 et 6 4-530-03 La gestion de la qualité 2011, Service d enseignement de la Gestion des Opérations et de la Logistique, HEC Montréal. Points importants

Plus en détail

CHAPITRE 3 LA MAITRISE STATISTIQUE DES PROCEDES MSP

CHAPITRE 3 LA MAITRISE STATISTIQUE DES PROCEDES MSP CHAPITRE LA MAITRISE STATISTIQUE DES PROCEDES Chap. Plan du cours Objectifs généraux Comprendre les concepts Qualité, en apprécier l intérêt fondamental pour l entreprise industrielle. Appliquer l outil

Plus en détail

TABLEAU 5 Nombre moyen (et écarts types) de mots produits selon le niveau scolaire et les trois conditions de révision

TABLEAU 5 Nombre moyen (et écarts types) de mots produits selon le niveau scolaire et les trois conditions de révision Dans ce tableau, si le chercheur ne s intéresse pas aux notes item par item mais simplement à la note globale, alors il conservera seulement les première et dernière colonnes et calculera des statistiques

Plus en détail

Leçon 5. Systèmes de gestion à recomplétement périodique et stock de sécurité

Leçon 5. Systèmes de gestion à recomplétement périodique et stock de sécurité CANEGE Leçon 5 Systèmes de gestion à recomplétement périodique et stock Objectif : A l'issue de la leçon l'étudiant doit être capable : dans le cadre des calendriers d approvisionnement à recomplètement

Plus en détail

Contrôle de processus industriels complexes et instables par le biais des techniques statistiques et automatiques

Contrôle de processus industriels complexes et instables par le biais des techniques statistiques et automatiques Contrôle de processus industriels complexes et instables par le biais des techniques statistiques et automatiques Florina Babus To cite this version: Florina Babus. Contrôle de processus industriels complexes

Plus en détail

Principe des tests statistiques

Principe des tests statistiques Principe des tests statistiques Jean Vaillant Un test de signification est une procédure permettant de choisir parmi deux hypothèses celles la plus probable au vu des observations effectuées à partir d

Plus en détail

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry Outils mathématiques pour le datamining http://wwwelsewarefr/univevry Géométrie Distance Distance entre parties Matrice de variance/covariance Inertie Minimisation Probabilités Définition Théorème de Bayes

Plus en détail

Fonctions homographiques

Fonctions homographiques Fonctions homographiques On donne ci-dessous deux définitions des fonctions homographiques, et on montre que ces deux définitions sont équivalentes. On décrit la courbe représentative d une fonction homographique.

Plus en détail

Modélisation stochastique des données à partir d essais sur matériaux. Pr. Denys Breysse Université Bordeaux 1

Modélisation stochastique des données à partir d essais sur matériaux. Pr. Denys Breysse Université Bordeaux 1 Modélisation stochastique des données à partir d essais sur matériaux Pr. Denys Breysse Université Bordeaux 1 Hasard cause fictive de ce qui arrive sans raison apparente ou explicable (Petit Robert). Ce

Plus en détail

11. Tests d hypothèses (partie 1/2)

11. Tests d hypothèses (partie 1/2) 11. Tests d hypothèses (partie 1/2) MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v1) MTH2302D: tests d hypothèses 1/30 Plan 1. Introduction 2. Hypothèses et erreurs 3. Tests d hypothèses

Plus en détail

Elma m l a ki i Haj a a j r a Alla a Tao a uf u i f q B ur u kkad a i i Sal a ma m n a e n e Be B n e a n b a d b en e b n i b i Il I ham

Elma m l a ki i Haj a a j r a Alla a Tao a uf u i f q B ur u kkad a i i Sal a ma m n a e n e Be B n e a n b a d b en e b n i b i Il I ham Exposé: la technique de simulation MONTE-CARLO Présenté par : Elmalki Hajar Bourkkadi Salmane Alla Taoufiq Benabdenbi Ilham Encadré par : Prof. Mohamed El Merouani Le plan Introduction Définition Approche

Plus en détail

Les indices à surplus constant

Les indices à surplus constant Les indices à surplus constant Une tentative de généralisation des indices à utilité constante On cherche ici en s inspirant des indices à utilité constante à définir un indice de prix de référence adapté

Plus en détail

NORME INTERNATIONALE D AUDIT 530 SONDAGES EN AUDIT

NORME INTERNATIONALE D AUDIT 530 SONDAGES EN AUDIT Introduction NORME INTERNATIONALE D AUDIT 530 SONDAGES EN AUDIT (Applicable aux audits d états financiers pour les périodes ouvertes à compter du 15 décembre 2009) SOMMAIRE Paragraphe Champ d application

Plus en détail

CLASSIFICATION PARTICULAIRE DE L AIR

CLASSIFICATION PARTICULAIRE DE L AIR 0305010 CLASSIFICATION PARTICULAIRE DE L AIR SOMMAIRE 1 ÉLÉMENTS GÉNÉRAUX... 1.1 Référentiels normatifs... 1. Norme ISO 14 644-1... CLASSES PARTICULAIRES... 3.1 Paramètres à définir... 3. Classes particulaires

Plus en détail

L'APPROCHE EXPERIMENTALE EN RECHERCHE: introduction aux statistiques.

L'APPROCHE EXPERIMENTALE EN RECHERCHE: introduction aux statistiques. L'APPROCHE EXPERIMENTALE EN RECHERCHE: introduction aux statistiques 1 BUTS DU COURS : se familiariser avec le vocabulaire statistique o variable dépendante, variable indépendante o statistique descriptive,

Plus en détail

Contributions à la maîtrise statistique des processus industriels multivariés

Contributions à la maîtrise statistique des processus industriels multivariés UNIVERSITE d ANGERS Contributions à la maîtrise statistique des processus industriels multivariés Soutenue par: Teodor TIPLICA Directeur de thèse: Mr. Alain BARREAU Co-encadrant de thèse: Mr. Abdessamad

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

L essai de Psy.D. (18 crédits) Définition et balises

L essai de Psy.D. (18 crédits) Définition et balises L essai de Psy.D. (18 crédits) Définition et balises politique adoptée par le CECS le 6 novembre 2002 Suite à l adoption par le Comité des études de cycles supérieurs en psychologie du projet de modification

Plus en détail

Tension d alimentation : V CC. i C R C R B

Tension d alimentation : V CC. i C R C R B Chapitre 4 Polarisation du transistor bipolaire à jonction 4.1 Le problème de la polarisation 4.1.1 Introduction Dans le chapitre 3, nous avons analysé un premier exemple de circuit d amplification de

Plus en détail

Thèse de doctorat de sciences de gestion axe finance, présentée par Mohamed Ali KHALDI

Thèse de doctorat de sciences de gestion axe finance, présentée par Mohamed Ali KHALDI Thèse de doctorat de sciences de gestion axe finance, présentée par Mohamed Ali KHALDI Sujet : Impact des mécanismes de gouvernance sur la création et la répartition de la valeur partenariale Thèse soutenue

Plus en détail

Analyse abstraite de missions sous PILOT

Analyse abstraite de missions sous PILOT Analyse abstraite de missions sous PILOT Damien Massé EA 3883, Université de Bretagne Occidentale, Brest damien.masse@univ-brest.fr Résumé Nous étudions la possibilité de réaliser un analyseur par interprétation

Plus en détail

Fonction polynôme du second degré : Forme canonique

Fonction polynôme du second degré : Forme canonique Fonction polynôme du second degré : Forme canonique I) Introduction. Soit g(x) = a(x - s)²+h. Toute fonction polynôme du second degré peut s écrire sous cette forme. Le passage de la forme développée à

Plus en détail

Mathématique - Cours Filière STAV 2014-2015 Centre de Formation aux Métier de la Montagne Marine Estorge

Mathématique - Cours Filière STAV 2014-2015 Centre de Formation aux Métier de la Montagne Marine Estorge Mathématique - Cours Filière STAV 2014-2015 Centre de Formation aux Métier de la Montagne Marine Estorge Le programme se compose ainsi : Rappels collège/seconde Partie STAV 1/3 Partie STAV 2/3 Partie STAV

Plus en détail

Concours de recrutement interne PLP 2009

Concours de recrutement interne PLP 2009 Concours de recrutement interne PLP 2009 Le sujet est constitué de quatre exercices indépendants. Le premier exercice, de nature pédagogique au niveau du baccalauréat professionnel, porte sur le flocon

Plus en détail

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke www.fundp.ac.be/biostats Module 140 140 ANOVA A UN CRITERE DE CLASSIFICATION FIXE...2 140.1 UTILITE...2 140.2 COMPARAISON DE VARIANCES...2 140.2.1 Calcul de la variance...2 140.2.2 Distributions de référence...3

Plus en détail

Item 169 : Évaluation thérapeutique et niveau de preuve

Item 169 : Évaluation thérapeutique et niveau de preuve Item 169 : Évaluation thérapeutique et niveau de preuve COFER, Collège Français des Enseignants en Rhumatologie Date de création du document 2010-2011 Table des matières ENC :...3 SPECIFIQUE :...3 I Différentes

Plus en détail

Baccalauréat S Nouvelle-Calédonie 17 novembre 2014

Baccalauréat S Nouvelle-Calédonie 17 novembre 2014 Durée : 4 heures Baccalauréat S Nouvelle-Calédonie 17 novembre 2014 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats Les trois parties A, B et C sont indépendantes Une fabrique de desserts glacés

Plus en détail

Réseau SCEREN. Ce document a été numérisé par le CRDP de Bordeaux pour la. Base Nationale des Sujets d Examens de l enseignement professionnel.

Réseau SCEREN. Ce document a été numérisé par le CRDP de Bordeaux pour la. Base Nationale des Sujets d Examens de l enseignement professionnel. Ce document a été numérisé par le CRDP de Bordeaux pour la Base Nationale des Sujets d Examens de l enseignement professionnel. Campagne 2013 Ce fichier numérique ne peut être reproduit, représenté, adapté

Plus en détail

La démarche " 6 σ " LURE 9/6/2000-

La démarche  6 σ  LURE 9/6/2000- LURE 9/6/2000- I- Introduction II - Historique III - Rappels de statistiques IV - Méthode d'amélioration des processus V - Mise en oeuvre I- Introduction - : Qu'est- ce- que " 6 σ ": une notion statistique

Plus en détail

Simulations de Monte Carlo en finance : Pricer d option

Simulations de Monte Carlo en finance : Pricer d option Emma Alfonsi, Xavier Milhaud - M2R SAF Simulations de Monte Carlo en finance : Pricer d option Sous la direction de M. Pierre Alain Patard ISFA - Mars 2008 . 1 Table des matières 1 Introduction 4 2 Un

Plus en détail

Statistiques industrielles Management de la production et de la qualité

Statistiques industrielles Management de la production et de la qualité Statistiques industrielles Management de la production et de la qualité Francois.Kauffmann@unicaen.fr Université de Caen Basse-Normandie 9 novembre 2015 Francois.Kauffmann@unicaen.fr UCBN MSP 9 novembre

Plus en détail

Université René Descartes Faculté de Pharmacie - Master Professionnel Dimension Économique des Produits de Santé 14 décembre 2005

Université René Descartes Faculté de Pharmacie - Master Professionnel Dimension Économique des Produits de Santé 14 décembre 2005 Université René Descartes Faculté de Pharmacie - Master Professionnel Dimension Économique des Produits de Santé 14 décembre 2005 Prise en Compte de l Incertitude dans l Évaluation des Technologies de

Plus en détail

Collection les mémentos finance dirigée par Jack FORGET. Gestion budgétaire. Prévoir et contrôler les activités de l entreprise.

Collection les mémentos finance dirigée par Jack FORGET. Gestion budgétaire. Prévoir et contrôler les activités de l entreprise. Collection les mémentos finance dirigée par Jack FORGET Gestion budgétaire Prévoir et contrôler les activités de l entreprise Jack FORGET Éditions d Organisation, 2005 ISBN : 2-7081-3251-2 Chapitre 3 Optimiser

Plus en détail

Chapitre 9 ANALYSE MULTIDIMENSIONNELLE

Chapitre 9 ANALYSE MULTIDIMENSIONNELLE Statistique appliquée à la gestion et au marketing http://foucart.thierry.free.fr/statpc Chapitre 9 ANALYSE MULTIDIMENSIONNELLE L analyse des données multidimensionnelles regroupe un ensemble de méthodes

Plus en détail

Activité Intitulé de l'activité Volume horaire

Activité Intitulé de l'activité Volume horaire Informations de l'unité d'enseignement Implantation IPL Cursus de Bachelier en chimie Introduction à la statistique C1110 Cycle 1 Bloc 1 Quadrimestre 2 Pondération 1 Nombre de crédits 4 Nombre d heures

Plus en détail

La gestion des ventes.

La gestion des ventes. I. La prévision des ventes. A. Principe. La gestion des ventes. Elle consiste à déterminer les ventes futures à la fois en quantité et en valeur en tenant compte des tendances et contraintes imposées à

Plus en détail

Support du cours de Probabilités IUT d Orléans, Département d informatique

Support du cours de Probabilités IUT d Orléans, Département d informatique Support du cours de Probabilités IUT d Orléans, Département d informatique Pierre Andreoletti IUT d Orléans Laboratoire MAPMO (Bât. de Mathématiques UFR Sciences) - Bureau 126 email: pierre.andreoletti@univ-orleans.fr

Plus en détail

Novembre 2013. Regard sur service desk

Novembre 2013. Regard sur service desk Novembre 2013 Regard sur service desk édito «reprenez le contrôle grâce à votre service desk!» Les attentes autour du service desk ont bien évolué. Fort de la riche expérience acquise dans l accompagnement

Plus en détail