Contrôle de processus industriels complexes et instables par le biais des techniques statistiques et automatiques

Dimension: px
Commencer à balayer dès la page:

Download "Contrôle de processus industriels complexes et instables par le biais des techniques statistiques et automatiques"

Transcription

1 Contrôle de processus industriels complexes et instables par le biais des techniques statistiques et automatiques Florina Babus To cite this version: Florina Babus. Contrôle de processus industriels complexes et instables par le biais des techniques statistiques et automatiques. Engineering Sciences. Université d Angers, 008. French. <tel > HAL Id: tel Submitted on 1 Nov 010 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

2 Université d Angers Année 008 N 960 Contrôle de processus industriels complexes et instables par le biais des techniques statistiques et automatiques Thèse de doctorat Spécialité : Sciences de l ingénieur ECOLE DOCTORALE D ANGERS Présentée et soutenue publiquement le 15 décembre 008 À l Institut des Sciences et Techniques de l Ingénieur d Angers par Florina BABUS Devant le jury ci dessous : Ioan BACIVAROV Examinateur Professeur à l Université Polytechnique de Bucarest Alain BARREAU Président Professeur à l université d Angers Zohra CHERFI Rapporteur Professeur à l Université de Technologie de Compiègne Abdessamad KOBI Examinateur Professeur à l Université d Angers Mihai POPESCU Rapporteur Professeur à l Université Polytechnique de Bucarest Teodor TIPLICA Examinateur Maître de conférences à l Université d Angers Directeurs de thèse : Abdessamad KOBI et Ioan BACIVAROV Co-encadrant : Teodor TIPLICA Laboratoires: LASQUO, LAboratoire en Sûreté de fonctionnement, QUalité et Organisation EUROQUAL, Laboratoire en Qualité, Fiabilité et Techniques informatiques ED 363

3

4 Remerciements Le travail présenté dans ce mémoire a été réalisé au sein du LAboratoire en Sûreté de fonctionnement, QUalité et Organisation, LASQUO, ISTIA Angers, dirigé par Abdessamad Kobi. Je tiens à lui adresser mes remerciements pour ses conseils précieux et son implication dans mes travaux en tant que directeur de thèse. J adresse mes sincères remerciements à Ioan Bacivarov pour son soutien et pour la qualité de ses conseils. C est grâce à son encadrement pendant mon DEA au sein du Laboratoire EUROQUAL que je me suis dirigé vers ces travaux de recherche, et je lui resterai très reconnaissante. Je remercie vivement Teodor Tiplica pour sa disponibilité, pour son support et pour la qualité de nos relations de travail. Ses compétences dans le domaine de MSP dont il m a fait part, ses idées et ses conseils ont contribué de façon incontournable à l avancement de mes travaux de recherche. Je suis très reconnaissante à Mme. Zohra CHERFI d avoir accepté d être rapporteur de ces travaux et de participer au jury. Son expérience et sa notoriété dans la fiabilité et la qualité industrielle m honorent de sa présence. Je remercie chaleureusement M. POPESCU, d avoir accepté d être rapporteur de ce travail et de participer au jury. Je voudrais adresser mes vifs remerciements à M. Alain Barreau pour avoir accepter d être le président de jury. Sa présence me fait beaucoup d honneur et je lui suis reconnaissante. Je remercie également tous les professeurs du laboratoire LASQUO pour les précieux renseignements qu ils m ont apportés et tous les membres du Département Qualité et Organisation de ISTIA pour la bonne ambiance de travail qu ils m ont offert. C est avec plaisir que j ai passé mes quatre années des recherches auprès de mes collègues de laboratoire. Les souvenirs de notre équipe me resteront toujours au cœur et je leurs remercie fortement pour ces années passés ensemble. Je remercie profondément ma famille qui malgré la distance m a toujours soutenue dans tous mes projets. Leur appui m a aidé à dépasser tous les moments difficiles dans mon travail et je leur suis très reconnaissante. J adresse un merci spécial à mon fiancé, Eric MENARD, qui n a pas hésité à m aider avec ses conseils et avec son soutien dans l aboutissement de mes travaux.

5

6 Je dédie cette thèse à la mémoire de mon père.

7

8 Table des matières Introduction générale... 1 Chapitre I. Etat de l art sur l incidence de la non normalité dans la MSP Généralités... 5 L incidence de la non normalité dans la MSP. Principales approches La famille des lois de Burr.... Les familles de lois de Johnson et de Pearson La méthode de re-échantillonnage de Bootstrap Les cartes de contrôle avec des paramètres variables Synthèse des méthodes de traitement de données non gaussiennes Chapitre II : Contributions aux nouvelles démarches dans la MSP des processus non gaussiennes Introduction Processus non gaussiens - quelques exemples Une catégorie de processus représentés par des distributions non gaussiennes. Tolérances géométriques et variations de formes Distributions asymétriques. La loi de Rayleigh Méthodes d estimation du paramètre de la loi de Rayleigh Quelques particularités de la loi de Rayleigh. Domaines d incidence Application des cartes de contrôle avec paramètres variables pour les lois des distributions asymétriques La conception d une carte VP pour la loi de distribution de Rayleigh Les cartes de contrôle basées sur l estimation des quantiles Mise en place de la méthode pour la loi de distribution de Rayleigh Analyse critique sur la pertinence d utilisation des cartes de contrôle non gaussienne dans la pratique d inspection de la coaxialité Etude de cas I : le déréglage intervient soit sur la variable X soit sur la variable Y Etude de cas II : le déréglage intervient sur les deux variable, X et Y Etude de cas III : Les variables X et Y ne sont pas indépendantes, étude d une carte de contrôle multi variée... 94

9 4 Conclusions Chapitre III : Contributions au contrôle des processus par le biais des modèles intégrés APC/MSP Introduction Le contrôle automatique de processus L intégration des techniques MSP et APC Contributions à l amélioration des modèles de contrôle APC MSP Le modèle intégré de Gultekin Propositions d amélioration de la détection des faibles déréglages pour le modèle intégré de Gultekin : l intégration d une carte de contrôle de type EWMA Propositions d amélioration de la détection des faibles déréglages pour le modèle intégré de Gultekin : l intégration d une carte de contrôle de type VP Conclusions sur nos propositions d amélioration de la détection des faibles déréglages pour le modèle intégré de Gultekin Le réacteur de Tennessee Eastman. Généralités Proposition d amélioration. L intégration d une carte de contrôle dans le schéma du réacteur de Tennessee Eastman Mise en place de l algorithme proposé. Résultats et interprétations Conclusions. Perspectives Conclusions générales Annexe 1 : Eléments de contrôle automatique A1.1 Notions élémentaires des systèmes automatique A1. Cadre mathematique uitlisé dans l automatique A1.3 Principe de fonctionnement d un régulateur automatique A1.4 Précisions sur l implémentation du modèle intégré dans le model Simulink Multiloop_Mode3.mdl : Références

10 Introduction générale Dans l environnement économique - industriel actuel, face à la concurrence ardue et à la demande des produits performants pour des coûts réduits, les entreprises accordent une place de choix à leur système de management par la qualité. Une attention spéciale est accordée ces dernières années au système de management visant la qualité totale, TQM 1, qui englobe, entre autres, de techniques de contrôle de fabrication permettant d assurer le fonctionnement optimal d un processus industriel (stabilité, variabilité minimale, robustesse, respect des contraintes prévues dans le cahier des charges, etc.). Ceci permet à l entreprise d atteindre un niveau de contrôle satisfaisant de son processus de fabrication en parfait accord avec les différents standards ou normes qualité. On peut citer par exemple la norme ISO9001V000 pour la conception, le développement et la production, la norme ISO9004 pour l'amélioration de la performance, ou bien des normes spécifiques à un secteur d'activité ou à un produit, comme la norme ISO TS dans l'automobile, la norme EN 9100 dans l'aéronautique et la norme ISO pour les dispositifs médicaux, etc. Le contexte général dans lequel s inscrivent les travaux développés dans ce mémoire est le contrôle des processus industriels. Plus particulièrement, nous nous sommes intéressés aux processus industriels complexes (processus présentant des caractéristiques distribuées selon des distributions non-gaussiennes, processus instables en boucle ouverte et par conséquent régulés par des régulateurs PID, PI ou PD et plus généralement par toute technique relevant du contrôle automatique de processus). De manière générale, il est considéré que le contrôle de processus intègre quatre grands champs d application et de recherche : l identification de l ensemble des variables permettant de détecter le plus rapidement et le plus facilement les fautes intervenues au cours du fonctionnement d un processus. 1 TQM= Total Quality Management 1

11 la détection des fautes, qui consiste à mettre clairement en évidence l apparition de la faute à l aide de l ensemble de variables retenues à l étape d identification. le diagnostic de processus, qui consiste à établir la nature de la faute détectée à l étape de détection. la reconfiguration du système, qui suppose à ramener le processus dans des conditions opérationnelles nominales ou de le modifier afin de réduire, voir annuler, l impact de la faute sur la qualité du produit fabriqué. Dans ce contexte la MSP (Maîtrise Statistique de Processus) fournit les techniques de base d identification et de la détection et permet des prévisions temporelles sur le comportement des processus. Presque toutes les démarches existantes à l heure actuelle dans le domaine du contrôle statistique de processus sont basées sur l hypothèse de normalité des caractéristiques contrôlées, alors que dans bon nombre de situations industrielles ce n est pas toujours le cas (l inspection de certaines caractéristiques géométriques des pièces mécaniques, les mesures de la rugosité, concentricité ou coaxialité, la durée de vie de composants électroniques, le suivi d une caractéristique au caractère continu, comme par exemple la concentration d une substance chimique, les mesures de positions pour des systèmes asservis, par exemple le positionnement de la pante de lancement de missiles dans l aéronautique, etc.). Le sujet de non normalité de processus constitue le point de départ des travaux présentés dans ce mémoire. L objectif principal de nos travaux de recherche a été d avancer des nouvelles propositions d amélioration du contrôle statistique des processus non gaussiens à partir d une étude bibliographique orientée vers l identification des démarches et travaux effectuées dans le domaine. Comme il est connu dans la MSP, le suivi des caractéristiques est basé sur l échantillonnage des données réelles afin de construire une image de leur comportement temporel pour pouvoir détecter et prévenir les situations critiques. La loi de distribution normale est ainsi devenue un modèle statistique représentatif pour la plupart des processus qui permettent le prélèvement d échantillons des tailles suffisantes. Cependant il existe des situations quand le contrôle individuel est exigé (quand il est indispensable de mesurer une caractéristique à tout instant), ou tout simplement quand le prélèvement par échantillonnage n est pas possible (suivi des caractéristiques continues du domaine chimique, électronique, automatique, le cas des productions petites séries, etc.).

12 Dans ces situations il est impératif d établir des techniques spéciales de contrôle, car l utilisation des outils classiques de MSP fondées sur le modèle de la loi normale, peut entraîner des graves conséquences. L augmentation du taux des fausses alertes (qui, par exemple, est déterminée par l utilisation de la carte de contrôle de Shewhart pour une population distribuée asymétriquement) peut conduire à l abandon du contrôle par le biais des techniques MSP, et implicitement à des pertes financières. Une détection insatisfaisante des situations hors contrôle ou une interprétation erronée de la capabilité de processus peuvent engendrer des mauvais diagnostics et des décisions incorrectes, ce qui finalement se reflète dans des coûts de contrôle élevés, des délais et des déficits dans la qualité des productions. Le contrôle des processus non gaussiens présente ainsi une importance pratique majeure et nécessite une analyse rigoureuse. Notre motivation à aborder ce sujet de recherche a été également soutenue par le manque des approches MSP destinées aux processus non gaussiens. Cependant, nous avons identifié une autre direction de recherches, aussi nouvelle qu importante au cadre de contrôle des processus complexes et instables, respectivement l amélioration de contrôle automatique par le biais des méthodes de la MSP. Le deuxième objectif des travaux présentés dans ce mémoire est d analyser la problématique d intégration des outils des domaines de l APC (Automatic Process Control) et de la MSP au sujet d amélioration du contrôle des processus complexes et instables. Généralement un procédé instable est un procédé pour lequel des paramètres comme la moyenne et/ou la variance changent dans le temps. De tels procédés peuvent arriver plus ou moins rapidement dans des situations critiques (caractérisées par la mise en danger de la sécurité des opérateurs ou la fabrication des produits non conformes), ce qui finalement conduit invariablement à l arrêt du procédé. Pour éviter ce genre des situations, souvent en pratique on stabilise le procédé à l aide de moyens automatisés comme par exemple les régulateurs PI, PD ou PID, selon le type de caractéristique analysée. Dans le domaine du contrôle de processus, l utilisation conjointe des techniques issues de la MSP et de l APC est d un très grand intérêt pratique. Tandis que les techniques de détection de type MSP permettent à faire des prévisions et améliorent le contrôle long terme, les méthodes automatiques assurent un contrôle ponctuel, local, contribuant d une manière fondamentale à la stabilité du procédé. Néanmoins, le diagnostic de processus, qui exige naturellement les étapes d identification et de détection, implique l exploration conjointe des outils de contrôle statistique et automatique. 3

13 Les modèles automatiques assurent la stabilité du processus autour d une valeur de référence ainsi qu un bon fonctionnement pour une période délimitée, et sans l intervention humaine. Il existe toutefois des situations quand seul le modèle automatique peut ignorer des petites variations autour d une valeur de référence (par exemple les variations de la composition d une substance chimique soumise dans le temps aux diverses réactions, autour de sa valeur cible, les variations des mesures fournies par des capteurs de position dans les bancs de tests de l aéronautique, etc.). Il est également important de pouvoir prévoir l évolution du comportement d un système pendant un période étendue de fonctionnement. La détection des petites variations autour d une moyenne du processus automatique, ainsi que le diagnostic et les prévisions sur son comportement long terme pourraient être améliorée avec des outils de la MSP, tels qu une carte de contrôle. Cependant l analyse statistique de ces variations apparaissant autour d une valeur de référence conduit souvent à des caractéristiques particulières (une tendance linéaire, un échelon, etc.) et on retrouve la nécessité de contrôle des caractéristiques non gaussiennes. En conséquence, l amélioration des techniques de contrôle statistique pour les distributions non gaussiennes implique l amélioration du contrôle par les modèles intégrés. L idée d utilisation conjointe des ces deux domaines dans le contrôle des processus complexes présente aussi l avantage de l originalité, car le sujet n a pas encore été abordée dans le monde de recherche français. L esprit des travaux présentés dans ce mémoire porte sur deux directions de recherche définies comme par la suite: le développement des nouvelles méthodes de contrôle pour les processus non gaussiens et l intégration des méthodes de la MSP et d APC dans le contrôle des processus complexes et instables. Le chapitre I de ce mémoire aborde l incidence de la non normalité au cadre de la MSP et représente l état de l art sur les différents travaux dans le domaine du contrôle statistique de processus non gaussiens. Le chapitre II réunit l ensemble de nos travaux et les résultats expérimentaux concernant la conception d une carte de contrôle pour les caractéristiques aux distributions asymétriques. Enfin le chapitre III regroupe nos travaux au sujet de l intégration des modèles APC et MSP dans le contrôle des processus complexes et instables. L intérêt pratique de l intégration de ces deux techniques est argumenté par le biais des deux exemples pratiques et des résultats de nos simulations expérimentales. Nos conclusions et perspectives sont présentées dans la partie finale de ce mémoire. 4

14 Chapitre I. Etat de l art sur l incidence de la non normalité dans la MSP 1 Généralités Pour mieux comprendre l objectif de nos recherches au sujet de l amélioration des techniques de la MSP dans le contrôle des processus non gaussiens, une brève introduction dans le domaine de MSP s impose, avec la présentation de ses techniques les plus représentatives. Le fondateur du concept de MSP (Maîtrise Statistique de Processus) a été Walter Shewhart (Bell Laboratories, les années 30), le parent de la carte de contrôle X [Shewhart, 1931]. Le constructeur d automobiles Ford complète le concept de MSP avec sa méthode de calcul pour les indicateurs de capabilité. Il est aujourd hui considéré un des principaux promoteurs de la MSP. La maîtrise statistique des processus occupe une place de choix parmi les outils de contrôle statistique de la qualité (CSQ). Elle regroupe un ensemble de méthodes statistiques permettant de surveiller et d améliorer un processus de production. D après Maurice Pillet [Pillet, 00] «La MSP représente une des marches importantes permettant d améliorer la qualité et la fiabilité des produits par une plus grande maîtrise de procédés». Plus généralement, le but de la MSP est de surveiller l évolution temporelle d un processus et de détecter les changements qui peuvent affecter ses performances, donc de mettre le procédé industriel sous contrôle. Pour un procédé industriel complexe, les facteurs responsables de l apparition des déréglages peuvent être réunis sous le nom de 5M du procédé (Machine, Main d œuvre, Matière, Méthodes, Milieu). En conséquence, la réduction de la variabilité nécessite une analyse rigoureuse de 5M. Cette analyse implique d établir les limites naturelles et les intervalles de tolérance (pour décider sur l acceptation ou le refus d un lot des produits), d évaluer la capabilité du processus, de suivre les paramètres de procédés en utilisant des outils adaptés (les cartes de contrôle), etc. On parle alors de stabilité du procédé, de la conformité avec les spécifications, de la capabilité, de la performance, etc. 5

15 Maurice Pillet [Pillet, 00] considère que le domaine de la MSP présente trois objectifs principaux: Donner aux opérateurs un outil de pilotage de la machine Formaliser la notion de capabilité d un moyen de production Faire le tri entre les situations ordinaires et les situations extraordinaires qui nécessitent une action La MSP est fondée sur le concept d état stable. Il est indispensable de bien connaître ce concept pour utiliser correctement la méthode. Un système stable est un système qui a les performances prévisibles, puisque les données sont distribuées de façon aléatoire avec une dispersion constante autour d une moyenne invariable dans le temps. Au contraire un système instable est absolument imprévisible. Le jugement sur la stabilité entraîne deux approches différentes et complémentaires [La Jaune et la Rouge, 001]: a) Système instable: Stratégie d action intensive pour identifier le plus tôt possible les causes d instabilité, puis les éliminer autant que possible, ou au moins y remédier. b) Système stable: Stratégie de veille pour détecter des signes éventuels d instabilité. Il est possible également dans un tel système de déplacer la moyenne et de diminuer la variabilité, pour des raisons économiques. Des problèmes existent aussi bien dans un système stable que dans un système instable, mais dans le premier cas ils sont imputables au système lui-même, alors que dans le second ils sont imputables aux événements particuliers. Dans ce contexte, la MSP est considéré le plus souvent comme un ensemble d outils statistiques: cartes de contrôle, indicateurs de capabilité. Pourtant la notion de MSP n a pas eu toujours de signification claire pour les ingénieurs. Ils associent souvent la MSP avec le contrôle prédictif, avec le contrôle adaptatif, ou avec le contrôle proportionnel - intégral dérivé. Le qualiticien associe la MSP à la mise en place d une carte de contrôle : tant que la caractéristique suivie évolue entre les deux limites de contrôle, on considère que le processus est sous contrôle (stable, maîtrisé). Pour le statisticien le problème est souvent posé sous forme d un test d hypothèse: l hypothèse H 0 (hypothèse nulle) qui traduit le fonctionnement 6

16 normal du processus et l hypothèse H 1 (hypothèse alternative) qui représente le déréglage ou le défaut sur une des caractéristiques du processus. Les cartes de contrôle sont des outils graphiques utilisés pour le suivi de la production qui permettent la détection des causes spéciales de disfonctionnement. Il existe à l heure actuelle deux catégories principales des cartes de contrôle : les cartes de contrôle par mesures, destinées au traitement des données au caractère quantitatif et les cartes de contrôle par attributs, destinées au traitement des paramètres non mesurables. Ces derniers sont des paramètres qui ne peuvent pas être exprimés par une mesure physique, tel qu un diamètre, un poids, une température, etc., mais elles sont généralement décrites en utilisant des indicateurs qualitatifs, qui dans la plupart des cas prennent deux valeur seulement (bon/mouvais, conforme/non conforme, succès/échec). Le sujet de nos recherches porte sur les cartes de contrôle par mesures. La mise en place des cartes de contrôle se réalise à partir d échantillonnage (dans les situations usuelles on préfère extraire au minimum 0 échantillons de taille 4 ou 5), les données ainsi collectées étant soumises à une analyse rétrospective pour déterminer les situations hors contrôle. Les performances des cartes de contrôle sont évaluées en termes de POM 0 (Période Opérationnelle Moyenne sous contrôle) et POM 1 (Période Opérationnelle Moyenne hors contrôle). La POM 0 est le nombre moyen d échantillons prélevés d un processus souscontrôle, jusqu'à ce qu un point sur la carte de contrôle dépasse la limite de contrôle. Elle traduit, donc, la fréquence des fausses alertes. La POM 1 représente le nombre moyen d échantillons que l on doit prélever dès l apparition d une cause assignable jusqu à sa détection sur la carte de contrôle. Figure 1.1 : Carte de contrôle par mesures 7

17 Les cartes de contrôle classiques (comme la carte ( X, R) de Shewhart ou les cartes EWMA et CUSUM) traitent le cas uni-varié (une seule caractéristique est surveillée). À mesure qu on prélève des échantillons on obtient une image graphique de l évolution du processus (figure 1.1). Pour simplifier, on considère que le processus est sous contrôle si les points sont entre les limites de contrôle. Si on aperçoit un point qui est situé à l extérieur des limites de contrôle (LIC - limite de contrôle inférieure, LSC-limite de contrôle supérieure, voir figure 1.1), le processus n est plus sous contrôle et il faut intervenir pour remédier à cet aspect. L intervalle de tolérance spécifié par l utilisateur n a rien à voir avec l intervalle de variation naturelle d un processus. En effet, l intervalle de variation naturelle représente la différence entre LSC et LIC qui se calculent en fonction de la carte de contrôle choisie. Dans le cas d une carte de contrôle de Shewhart, pour une distribution normale cette différence correspond à l intervalle de six écarts-type, symétrique par rapport à la valeur centrale et couvre une surface graphique d approximatif 99,73% de la population. La notion de tolérance traduit les exigences de performance imposées par l utilisateur. Malgré la facilité de mise en place et la détection rapide des grands déréglages de la moyenne du processus (plus d un écart type de la distribution des mesures suivies), la carte de contrôle de Shewhart est relativement insensible aux petits déréglages. Pour les procédés continus, souvent le déréglage du processus peut être lent et progressif. Pour ce type des déréglages une détection plus rapide est nécessaire afin d agir avant que le processus ne s écarte fortement de la valeur cible. L augmentation de la taille d échantillon paraît la première mesure à prendre, mais souvent cette mesure entraîne des coûts et de délais de temps supplémentaires. Pour palier les inconvénients de la carte X de Shewhart [Shewhart, 1931], des modèles de plus en plus complexes ont été développés. Parmi les plus connus nous citons la carte de contrôle CUSUM (Cumulative Sum) proposée par Pages [Pages, 1954], qui repose sur la représentation du cumul des écarts du processus par rapport à sa valeur cible, ou la carte de contrôle EWMA (Exponentially Weighted Moving Averages) [Roberts, 1959] qui considère l historique de l évolution de la caractéristique suivie. L avantage majeur de ces cartes est la détection rapide des déréglages de faible amplitude de la moyenne du processus. Pour plus d informations sur l application de ces outils nous recommandons les travaux de Box et Luceno [Box et Luceno, 1997] ou Annadi et al. [Annadi et al., 1995] pour la carte CUSUM et respectivement les travaux de Lucas et Sacucci [Lucas et Saccucci, 1990], Mongomery [Montgomery, 1991], ou Zhang [Zhang, 006], pour la carte EWMA. Souvent l analyse d un processus complexe comporte la surveillance des plusieurs caractéristiques et l étude des liens entre plusieurs variables. Il existe actuellement plusieurs 8

18 types des cartes de contrôle multi variés, conçues de manière analogue avec les cartes uni variées, mais qui prennent en compte des éventuelles corrélations existantes entre les variables du processus. Des nombreux auteurs comme M. Pillet [Pillet, 00], Montgomery [Montgomery et al., 1994], [Montgomery, 1996], ainsi que Kano [Kano et al., 004], Mac Gregor [MacGregor et Kourtl, 1995], Qiu [Qiu et Hawkins, 001], Yoo [Yoo et al., 006] ou Choi [Choi et al., 006] ont conduit leurs travaux vers les méthodes d amélioration des cartes de contrôle multi variés, et d autres comme Kurti [Kurti, 006], Chan [Chan et al., 004], Mastrangelo [Mastrangelo et al., 1996] ont proposés différentes techniques statistiques pour des systèmes multi variables. L essentiel de nos travaux porte sur l amélioration du contrôle des caractéristiques non gaussiennes et nous avons choisi d avancer nos recherches sur la voie de la détection univariée. Les outils traditionnels de la MSP uni -varié sont fondés sur l hypothèse de normalité de la caractéristique suivie. Dans leur application pratique, trois situations distinctes génératrices des problèmes ont été identifiées [Duclos, 1997] : 1) Le processus présente des points hors les limites spécifiées sur la carte de contrôle (figure1.1) ) Le processus n est pas centré sur la valeur cible (figure 1.3) 3) Le processus n est pas capable, il n est pas adroit à répondre aux performances spécifiées par l intervalle de tolérance (figure 1.4). Figure 1.: Prélèvement des données, Image d un processus sous contrôle 9

19 Précisément, si la loi de distribution des données est une loi de Gauss (figure 1.3) et la courbe n est pas centrée sur la valeur cible, même si les mesurés prélevées se retrouvent entre les limites de contrôle, elles sont dispersées loin de la valeur souhaitée (cible). Figure 1.3: Image d un processus non centré Pour le modèle d une loi normale de distribution, l état stable signifie que les données soient centrées sur la valeur cible (la moyenne pour une loi de Gauss), et que les causes spéciales des variations soient identifiées et éliminées. Figure 1.4: Processus non capable. LTI et LTS sont, respectivement, les limites inferieure et supérieure de tolérance du processus Pour avoir une image correcte de la dispersion globale, on a besoin de faire la distinction entre les variations naturelles et celles dues à un réglage. Les cartes de contrôle répondent au problème d identification des causes (communes et spéciales) intervenant dans chaque étape d un procédé. Cependant elles permettent de réaliser des prévisions à long terme sur les processus surveillés. 10

20 Le pilotage par les cartes de contrôle comporte quelques étapes élémentaires: le prélèvement des échantillons, la représentation et l interprétation graphique des données collectées, l application des tableaux de décision pour vérifier les réglages et pour générer les produits «hors spécifications». Cependant, comme on l a déjà souligné, dans la plupart des processus le prélèvement par échantillonnage permet d émettre l hypothèse de normalité. Plus l échantillon est important, plus la distribution des moyennes d échantillons se rapproche d une loi de Gauss, dont la fonction de densité de probabilité exprimée par la relation : f( x) 1 1 e x µ = σ σ π où f représente la fonction de densité de probabilité des moyennes d échantillons, µ est la moyenne des données collectées et σ est la variance des données collectées. Pour argumenter, considérons une suite: X,..., (1.1) 1, X X n des variables aléatoires indépendantes ayant la même loi de distribution (espérance µ et variance σ). A partir de cette suite, définissons deux nouvelles variables: S n = X 1 + X X n et X1 M + X + X n Sn =.. = n n (1.) Avec les expressions de leurs espérances mathématiques, respectivement: E( S n ) = nµ, E (M ) = µ (1.3) La variance de M est: V ( M ) = σ / n (1.4) Prenons la variable centrée réduite : Z n S n nµ = (1.5) σ n Dans la théorie statistique, quel que soit t R, la fonction de répartition définie par: 11

21 correspond à : F ( t) = P( Z t) (1.6) n n < z 1 t Fn ( t) = e dz π, quand n (1.7) L équation décrite dans 1.7 est l expression de la fonction de répartition de la loi normale centrée et réduite, N (0; 1). Par conséquence, les méthodes classiques de MSP développées sur l hypothèse du modèle de la loi normale de distribution s appliquent correctement pour les caractéristiques contrôlées distribuées suivant la loi normale ou pour les productions où le contrôle par échantillonnage est permis, à condition que la taille d échantillons soit suffisamment grande. Car même si la distribution d une population de base est autre que la loi normale, la distribution des moyennes d échantillons, à partir d une certaine taille, va suivre une loi normale de distribution. Figure 1.5. L aspect de la distribution des moyennes d une population non normale, pour différents tailles d échantillons 1

22 Comme on peut voir dans la figure 1.5 pour une loi asymétrique, dans le cas d échantillonnage avec de petites tailles (n= 1, 3), la distribution des moyennes reste asymétrique alors qu à partir des tailles d échantillons plus grandes on retrouve une forme de plus en plus proche d une distribution normale. En effet, si pour des tailles suffisantes d échantillons on peut appliquer une carte de contrôle classique, ces méthodes s avèrent inefficaces quand la distribution des données contrôlées est non normale (contrôle individuel, par exemple). Comme nous l avons précisé dans la partie introductive de ce mémoire, le contrôle des processus complexes doit, naturellement, commencer par l identification des paramètres critiques. Le pilotage par la carte de contrôle adéquate et le calcul de la capabilité du procédé seront ensuite conduits par une observation continue, comme décrit dans le schéma d optimisation (figure 1.6) proposé par Maurice Pillet [Pillet, 00]. Nous avons identifié sur ce schéma les étapes les plus susceptibles d être affectées par la non normalité de certaines caractéristiques ou paramètres du processus. On peut voir sur la figure 1.6 que la décision sur la non normalité des caractéristiques suivies n affecte pas seulement le choix des méthodes de contrôle adéquates (sur le schéma c est l étape de calcul des limites de contrôle et calcul de la capabilité, etc.) mais aussi la mise en place des cartes de contrôle (étape de «la mise sous contrôle de processus»). Evidement, l observation continue du procédé permet de lancer d hypothèses sur la nature des données considérées. La carte de contrôle et la méthode de calcul des indicateurs de capabilité seront choisies en fonction de ces hypotheses. Si les hypothèses de normalité ne sont pas satisfaites, les limites de contrôle traditionnelles ne resteront plus valables. Pour exemplifier considérons l hypothèse H 0 qui correspond au fonctionnement correct (sans faute/déréglage) d un processus distribué normalement et considérons l hypothèse H 1 qui correspond au processus affecté par un déréglage. Evidement, dans le suivi des moyennes par une carte de contrôle, les limites LCI et LCS doivent prendre en compte les risques associés à ces deux hypothèses. Ainsi il existe toujours un risque de rejeter l hypothèse H 0 alors que le processus fonctionne correctement (risqueα ) et il existe toujours un risque d accepter l hypothèse H 0 alors qu il y a un déréglage de la moyenne du processus (risque β ). 13

23 Loi normale? Loi normale? Figure 1.6: Schéma complexe d optimisation de processus, Maurice Pillet [Pillet, 00] Les valeurs des risques α et β sont déterminées facilement sur la surface graphique couverte par la loi normale (figure 1.7). Ces représentent respectivement la probabilité de se retrouver en dehors des limites de contrôle pour la même moyenne du processus (risqueα ) et la probabilité de se retrouver à l intérieur des limites de contrôle conditionnée par l apparition d un déréglage de la moyenne (risque β ). 14

24 Figure 1.7. Les tests d hypothèse sur la loi normale Avec la valeur du risque α définie, on peut fixer convenablement les limites de contrôle, en respectant un nombre souhaité de fausses alarmes. Les valeurs les plus usuelles utilisées dans la pratique MSP sont LCI = µ 3 σ, LCS = µ + 3σ (où µ est la moyenne et σ l écart type des moyennes d échantillons contrôlées) qui assurent un risque α de seulement 0.007, équivalent d un POM 0 de 370 échantillons. Cependant, il est simple d imaginer que si la loi de distribution n est pas normale, des erreurs peuvent être commises facilement quand on applique le test d hypothèse. Comme on peut voir dans la figure 1.8, assumer la normalité dans une situation quand la loi de distribution n est pas normale, peut engendrer des graves conséquences dans les décisions sur la carte de contrôle adéquate et dans le jugement sur la capabilité de notre processus. Pour une loi normale et une loi de Rayleigh de même moyenne et de même écart type, les risques α et β ne sont pas les mêmes (figure 1.8) et les limites de contrôle classiques ne peuvent plus rester valables. Prenons par exemple le cas du contrôle individuel. Si le risque alpha est interprété comme dans le cas d une loi normale, couvrant deux surfaces symétriques par rapport à la moyenne, le nombre des fausses alertes sera augmenté. Cependant, si la tendance centrale ne correspond pas à la moyenne des observations, il est évident que les 15

25 déréglages de très petite amplitude ne seront facile à détecter avec les limites classiques de contrôle. Figure 1.8. Les tests d hypothèse quand la loi de distribution est non normale (Rayleigh) et on assume la normalité Les risques α et β associés au test d hypothèse doivent être calculés par rapport à la loi réelle de distribution et non pas comme dans le cas d une loi normale. Cela implique d étudier la fonction de distribution et ses paramètres afin de déterminer les limites de contrôle les plus appropriées. Le développement des nouvelles limites de contrôle en fonction de la spécificité des données, par le biais du calcul des probabilités et des quantiles associées, représente une partie de nos contributions aux méthodes de contrôle pour les processus non gaussiens et se retrouvent dans le chapitre II de ce mémoire. Les limites de contrôle que nous allons proposer sont des limites idéales de contrôle, et leur développement nécessite la connaissance a priori de la distribution des données. Dans une vision globale de la MSP, seule l application d une carte de contrôle ne suffit pas dans le contrôle des caractéristiques, car des prévisions pertinentes ne pourraient être faites sans une analyse statistique adéquate de la nature des distributions des données à contrôler. 16

26 Le statisticien utilise des tests d adéquation, qui s effectuent à partir d un échantillon des données et permettent de déterminer si les prévisions sur les données réelles ont été correctes. Le problème peut être mis sous la forme d un test d hypothèse de la manière suivante : L hypothèse nulle, H 0, correspond à : H 0 : F= F 0 (1.8) Cependant l hypothèse alternative, H 1, se traduit par: H 1 : F<> F 0 (1.9) où F est la fonction de répartition inconnue de la population sous - jacente et F 0 est la fonction de répartition présumée. On rejette l hypothèse nulle si la distribution empirique n est pas suffisamment proche de la distribution présumée. Les règles de rejet ou d acceptation dépendent du test utilisé. Pour l adéquation à la loi normale de distribution, parmi les plus usuels nous citons tests de Shapiro Wilk, le test d Anderson Darling, le test de χ et le test de Kolmogorov Smirnoff. Basé sur un principe simple, le test du Shapiro-Wilk est le plus facile à manier et il est recommandable pour les échantillons de petites dimensions (3 < n < 50). Pour les données de grande taille, il est recommandable d utiliser d autres tests plus robustes, comme par exemple le test d Anderson Darlington. On note également le test de Kolmogorov Smirnoff, qui est souvent employé pour tester l adéquation à une loi de distribution non gaussienne. Son avantage vient de la méthode de calcul basée sur la fonction de répartition de données, mais son inconvénient est représenté par la difficulté de le mettre en place, car souvent il nécessite un très grand volume de calcul. Le test de χ est également souvent utilisé dans la pratique mais son aire d application peut être limité par la quantité des données disponibles quand les critères de son application ne sont pas respectés (nombre des classes imposées, largeur des classes, etc.). Pour plus d information sur l application de chaque de ces tests d adéquation nous recommandons Militaru [Militaru, 001] ou Fournier [Fournier et al., 006]. Ces tests statistiques sont utilisés souvent dans l étape préliminaire à l application des méthodes de MSP et entraînent les décisions sur le choix des outils MSP le plus adéquates à la nature des données à contrôler. 17

27 En manque de méthodes de contrôle statistique appropriées aux différentes formes de distributions prises par les données réelles, les relations mathématiques entre ces distributions sont souvent exploitées pour estimer des paramètres dans des conditions particulières, qui permettent d appliquer des méthodes de contrôle existantes. Dans nos démarches nous abordons ces relations entre les différentes lois de distributions, car la plupart des approches non - gaussiennes existantes dans la MSP les utilisent comme cadre mathématique de base. Dans la section suivante nous allons explorer le sujet de la non normalité dans la MSP à travers diverses approches identifiées au cours de nos recherches bibliographiques. L incidence de la non normalité dans la MSP. Principales approches. La tendance d industriels de nos jours vers la qualité totale et vers l hypothétique «zéro défauts», implique une amélioration continue des techniques de conception pour réduire autant que possible les variations et les effets «imprévus» dans la qualité de leurs produits finaux [Bacivarov, 005]. Dans la plupart des processus industriels, on souhaite contrôler tous les paramètres de procédé, mais ces paramètres ne sont pas tous identifiables. On se limite donc, en règle générale, au suivi de quelques paramètres considérés comme critiques. Il existe à l heure actuelle plusieurs méthodes step forward ou step backward pour trouver l ensemble des variables de procédé qui permettent la détection d erreurs. Nous avons montré dans la section I ( figure 1.6) que la non normalité affecte plusieurs étapes dans la mise en place des méthodes de la MSP, à partir de l étape du calcul des limites de contrôle, l étape d étude de l efficacité des cartes de contrôle, l étape de détection des causes spéciales, ou bien l étape d étude de la capabilité du processus. Malheureusement on retrouve dans la réalité industrielle une grande catégorie des processus qui n obéissent pas à des lois de distributions normales. Des données provenant des différents domaines d activité sont mieux représentées par une autre loi de distribution que la loi normale, exemple : des caractéristiques comme une dimension, les phénomènes d arrondi, de concentricité, de perpendicularité, de parallélisme, coaxiaux et de rétrécissement. Nous rappelons également les données au caractère économique : les durées d attente des clients ou les délais de payes des factures, le nombre des défectueux dans la manufacture, la contamination de particules (chimie), l inductance ou les effets d éléments parasites dans un 18

28 schéma électrique, toutes ces caractéristiques sont décrites par des lois non normales de distribution. Souvent les réactions chimiques peuvent être représentées par la distribution logistique, le nombre des défauts dans la manufacture par la distribution de Poisson, tandis que les phénomènes mécaniques tels que les défauts coaxiaux sont mieux représentées par une loi de distribution de Rayleigh [Souvay, 1999] ou par la distribution valeurs extrêmes [Stanard, 001]. Même si le problème est débattu depuis longtemps, il existe à l heure actuelle peu de méthodes qui répondent vraiment au problème du contrôle statistique des caractéristiques non gaussiennes. Et, comme on l a déjà précisé, souvent l approximation grossière par la loi de distribution normale peut conduire aux graves erreurs d interprétation et de décision ce qui finalement affecte la qualité globale du processus étudié. Dans la MSP des caractéristiques non gaussiennes nous avons identifié trois catégories des problèmes : une première catégorie est liée à l estimation pertinente de la capabilité des processus engendrant des caractéristiques non normales. Les indicateurs de capabilité seront les premiers affectés par la non normalité, car on ne peut pas obtenir les vraies valeurs en considérant l intervalle de «6 sigma» comme dans le cas d une loi normale, alors que la distribution réelle est différente. On peut ici rappeler les travaux de L. Guidez [Guidez. et al., 1997] sur la capabilité des procédés non normaux, ou de Surajit Pal [Pal, 005] qui intègre la distribution lambda généralisé dans le calcul des indicateurs de capabilité. D autres études ont été avancées par S. E. Somerville et D. C. Montgomery [Somerville et Montgomery, 1997]. Ils analysent les PPM de non conformité pour les distributions t de Student, gamma, Weibull etc., tandis que d autres tiennent à signaler les risques induits dans le calcul des indicateurs de capabilité des processus non normaux [Pillet, 00]. Le problème d étude de la capabilité des processus non gaussiens a été traité avec le même intérêt par Pierre Souvay [Souvay, 1999] ou D. Grau [Grau, 006]. Les deux autres catégories des problèmes générés par la non normalité concernent la détection des disfonctionnements. Deux situations distinctes sont déterminées ici, en fonction de la nature des distributions des données soumises à l étude. Il existe des méthodes non paramétriques, approches générales qui ne nécessitent pas d informations sur les paramètres Parts Per Million 19

29 de la distribution représentative et il existe des méthodes paramétriques quand certains paramètres de la distribution sont connus et des approches sur mesures sont avancées. Dans la littérature statistique, la nécessité de nouvelles démarches pour traiter les processus non gaussiens se manifeste constamment. Pour la catégorie des approches non paramétriques plusieurs auteurs ont avancé des travaux sur les cartes de contrôle en proposant des méthodes générales d estimation, comme par exemple l estimation de Bootstrap, etc. Nous rappelons les travaux de Phillipe Castagliola [Castagliola, 1999], qui portent sur l élaboration des modèles des cartes de contrôle pour les lois non normales, ou de Wheeler and Chambers qui étudient l effet de la distribution des mesures sur le taux d observations en dehors des limites de contrôle [Wheeler and Chambers, 199]. Dans le même contexte nous retrouvons les démarches avancées par P. Castagliola [Castagliola, 1996], [Castagliola, 1998] et P. Sauvay [Souvay, 1999]. Mayer [Mayer et al., 004] intègrent les processus Markov avec des modèles mathématiques pour le calcul des limites de contrôle dans le cas uni varié. D autres auteurs analysent également les effets de la non normalité sur le risque α lié aux tests d hypothèses [Duclos, 1997]. Quant aux approches paramétriques il existe différentes techniques qui aident à l analyse d une population de données de nature inconnue. Pour déterminer la valeur d un certain paramètre de la population étudiée les plus usuelles sont les techniques d estimation ponctuelle ou par des intervalles de confiance, à partir de l échantillonnage de cette population. Nous rappelons les techniques d estimation de moindre carrées à partir d un échantillon ordonné [Lloyd, 195]. A base de ces techniques la robustesse de l estimateur L a été étudiée dans le cas des populations non normales [Duclos, 1997]. D une manière plus générale un tel estimateur comporte à minimiser le paramètre β d un modèle décrit par l équation: Y =β +ε (.1) où Y représente la sortie du système étudié, et ε est l erreur induite. Dans certaines situations, précisément dans le cas des distributions asymétriques, le choix de la médiane d une population considérée comme estimateur de β est pertinente pour minimiser ε. A ce sujet Emmanuel Duclos [Duclos, 1997] développe une carte de contrôle basée sur la statistique L et réalise une synthèse des méthodes de contrôle existantes dans le domaine non gaussien. 0

30 Une autre méthode d estimation connue dans le domaine non gaussien est la méthode Jaknife introduite en 1958 par J.W.Tukey [Tukey, 1958], qui permet de déterminer de manière artificielle l intervalle de confiance à un seuil de signification choisi d une statistique inconnue. La méthode consiste dans l extraction des sous échantillons des données à partir d un échantillon complet. La méthode de Jaknife est de plus en plus utilisée du fait de sa robustesse et de sa précision dans l estimation. Dans le contrôle statistique des distributions paramétriques on retrouve souvent la nécessité d analyser les différentes relations existantes entre les différentes lois de distributions. Des estimations adaptées peuvent être ainsi incluses dans le développement des outils MSP, comme une carte de contrôle non gaussienne. Nous citons les travaux de Norman L. Johnson [Johnson et al., 1994] qui étudie les distributions discrètes et continues, aussi pour le cas uni-varié comme pour le cas multi-varié, et fait une analyse de leurs caractéristiques: moments principaux, domaines d application, relations avec différents autres loi de distribution. Ses travaux représentent un instrument d exception, détaillé et complet, pour la bonne compréhension des relations existantes entre différentes lois de distribution. A titre d exemple, à partir de la distribution de χ [Johnson et al., 1994] on peut obtenir les principaux paramètres d une loi de distribution de Rayleigh. Les lois de distribution de χ et de Weibull ayant un caractère générale, offrent, dans des cas particuliers, des informations importantes sur les paramètres des plusieurs autres distributions: la loi normale, la loi de Gamma, la loi t de Student, la loi de distribution F de Ficher, la loi de Rayleigh. Dans le même contexte, des transformations de nature probabiliste, d autres auteurs comme P. Castagliola, et F. Tsung [Castagliola et Tsung, 005], Mayers et Montgomery, [Mayers et Montgomery, 1997], ou Jearkpaporn [Jearkpaporn et al., 003] étudient les distributions non normales, telles que la loi log-normale, la loi de Gamma ou la loi de Weibull. Cependant les transformations qui relient différentes distributions sont également utilisées dans les démarches concernant la capabilité la capabilité des processus non gaussiens. Nous citons ici les travaux de Surajit Pal [Pal, 005] qui propose la distribution lambda généralisé, pour calculer les indicateurs de capabilité d un processus industriel non gaussien. L avantage de son approche par rapport aux méthodes classiques d approximation (les courbes de Johnson ou Pearson [Clements, 1989]) réside dans la simplicité des calculs. La démarche de Surajit Pal [Pal, 005] est représentative pour une vaste catégorie des défauts de forme du domaine mécanique: concentricité, conicité, asymétrie, dépassement. 1

31 Différents ouvrages abordent également la mise en place des cartes de contrôle et l étude de la capabilité, notamment les travaux de Castagliola P. [Castagliola, 1999], [Castagliola, 1996], Pyzdek Th. [Pyzdek, 1995], Montgomery D.C. [Montgomery, 1996], [Somerville et Montgomery, 1997] ainsi que P. Souvay [Souvay, 1999] nous ont servi comme références dans nos travaux sur le contrôle MSP des processus non gaussiens. A partir de différents modèles d amélioration qui ont été proposés ces dernières années, et selon les critères définis auparavant nous avons distingué quatre directions de recherche dans les travaux sur les processus non gaussiens. Suivant ces quatre directions, nous allons réaliser par la suite un classement et une analyse critique des démarches les plus signifiantes dans la MSP pour des processus non normaux..1 La famille des lois de Burr Une première méthode abordée dans le monde scientifique est une méthode paramétrique fondée sur la famille des lois de Burr. La fonction algébrique de Burr a la propriété de décrire un grand nombre de distributions et s utilise avec succès pour déterminer les limites dissymétriques d une carte de contrôle. Une loi de Burr est définie par une fonction continue, f(x), avec une fonction de répartition de la forme générale: F c k ( x) = 1 (1 + x ) (.) où c>0 et k>0 sont paramètres de fonction. La spécificité de la méthode consiste dans l exploration directe de la fonction de répartition F(x), contrairement à la plupart des démarches au sujet des lois de distribution non gaussiennes qui étudient la fonction de probabilité de distribution (notée ici f(x)). La fonction de répartition de Burr décrite par la relation. satisfait l équation différentielle : ' F ( x) = F( x)[1 F( x)] g( x) (.3) La solution pour cette équation différentielle a été développée par Duclos [Duclos, 1997]:

32 ' ' g( x) = F ( x) / F( x) + F ( x) /[1 F( x)] (.4) Après l intégration de cette fonction, nous obtenons la fonction G(x) : G( x) = ln{ F( x) /[1 F( x)]} (.5) La fonction de Burr s obtient après quelques artifices mathématiques (intégration, exponentiel) et est exprimée en fonction de G(x): G '( x)exp( G ( x)) f x) = ( { 1+ exp( G ( x)) } 1 (.6) L idée générale dans la mise en œuvre de cette méthode est de calculer les quatre premiers moments cumulatifs de la distribution des moyennes d une population empirique. Les moments cumulatifs centraux s obtiennent avec la relation.7: M k + a k x a x k = [ 1 F( x)] dx F( x) dx (.7) Avec les moments d ordre trois et quatre calculés, nous associons notre population réelle à la courbe de Burr la plus représentative, selon le tableau des coefficients de Burr. Les limites de contrôle seront déterminées avec les p - quantiles de l inverse de la fonction de répartition de type Burr [Yourstone et Zimmer, 199]. La méthode de Burr est une méthode générale qui s applique avec succès spécialement quand les limites de contrôle sont placés à ± 3σ par rapport à l estimateur considéré [Duclos, 1997], [Yourstone et Zimmer, 199]. Le calcul des quatre premiers moments de la population empirique nécessite un échantillon d au moins observations. Cependant, pour éviter l instabilité des résultats souvent on est contraints d utiliser des grandes tailles de données. De même, nous considérons que l hypothèse de base de la méthode, selon laquelle deux distributions ayant les mêmes valeurs des quatre premiers moments sont identiques, est trop relative et n est pas exclusive. L utilisation de la fonction de Burr dans le suivi et contrôle des mesures par le biais des cartes de contrôle devient un sujet délicat quand les limites de contrôle ne sont pas symétriques. 3

33 Plusieurs auteurs se sont intéressés à la méthode de Burr, nous citons Yourstone et Zimmer [Yourstone et Zimmer, 199] et Duclos [Duclos, 1997], qui proposent la distribution de Burr pour déterminer les limites des cartes de contrôle non - symétriques, ou Castagliola [Castagliola, 1996], qui intègre cette technique dans ses études sur la capabilité des processus non-normaux. Pour d autres, [Lin et Chou, 005a], [Chen, 004], la technique s avère intéressante pour l évaluation des paramètres des certaines distributions non normales (bêta, gamma). Ils l ont également inclus dans l étude des cartes de contrôle multi-varié [Chen, 004]. Dans ses travaux sur la non-normalité, Duclos [Duclos, 1997] analyse les avantages et les inconvénients de la méthode de Burr. La manipulation de la fonction cumulative au lieu de la fonction de densité de probabilité représente un avantage de cette méthode, car de point de vue pratique elle est plus accessible. Cependant le choix de la fonction positive la plus adéquate, g(x), peut être difficile, et conséquemment l association avec la fonction de répartition cumulative appropriée ainsi que le calcul des quatre premiers moments peuvent devenir compliqués. Pour améliorer à cet aspect, une alternative à la méthode basée sur les moments a été proposée par Philippe Castagliola [Castagliola, 1996]. Ainsi pour un échantillon, x 1, x,..., xn, de variables supposées indépendantes, qui proviennent d une population de données représentée par une distribution F(x), l auteur propose l expression de la fonction empirique de distribution, F e (x) pour l échantillon ordonnée: x [ 3 ], x [ 4 ],..., x [ n ] décrite dans l équation.8:. Cette fonction est 0, x < x [3 ] F e ( x ) = k / n, x [ k ] x x[ k + 1], k>3 (.8) 1, x x [n ] 4

34 La fonction de répartition correspondante, de type Burr, s obtient en appliquant la méthode des moindres carrés sur les couples{ x[ k ], Ge ( x[ k ])}, k = 1,,..., n 1, la fonction discrète G e (x), étant remplacée par le polynôme d ordre r, G r (x). L avantage de la méthode du Castagliola réside dans la simplicité des calculs de la proportion de non conformités. Même si les problèmes générés par le calcul des moments sont éliminés, les contraintes de cette approche sont liées à la nature croissante de la fonction g(x). Elle doit être croissante et nécessite un ordre impair du polynôme G r (x) [Duclos, 1997], [Castagliola, 1996]. Bien que la méthode de Burr a représenté un pas en avant vers l amélioration du contrôle des processus non gaussiens, nous avons identifié certaines contraintes et inconvénients qui limiteront le domaine d application de la méthode. La première contrainte est liée à l approche basée sur les moments, où l estimation de loi normale de distribution des moyennes oblige à une taille élevée d échantillons (théorème limite centrale). Quand le contrôle est individuel ou pour les petits séries l utilisation de cette méthode peut générer des graves erreurs d interprétation dans le traitement des données. Au même temps, une fois satisfaite la condition de normalité de la distribution des moyennes, nous considérons pertinent d appliquer les outils classiques de contrôle, comme une carte de Shewhart, sans avoir besoin de parcourir toutes les étapes de calcul des moments et d ajustement vers la courbe de Burr la plus appropriée. Quant à la méthode basée sur la fonction empirique proposée par Castagliola, il est évident que le choix du polynôme impair G(x) reste une limitation pour son applicabilité. Nous considérons que la méthode est plus flexible que celle basée sur l estimation des moments, elle ne nécessite plus d estimations de paramètres, et en omettant les calculs liés au polynôme représentatif, elle se rapproche d une méthode non paramétrique de contrôle.. Les familles de lois de Johnson et de Pearson Introduite par Clements [Clements, 1989] pour le calcul des indicateurs de capabilité, la méthode paramétrique des familles de lois de Pearson est fondée sur le calcul des quatre premiers moments des données expérimentales : la moyenne, l écart type et les moments d ordre trois et quatre (coefficient d asymétrie et d aplatissement). 5

35 D une manière similaire à la méthode de Burr, les coefficients d asymétrie et d aplatissement sont déterminés à partir d un échantillon d au moins 0 observations expérimentales. Les probabilités associées sont calculées dans les tableaux de la loi de Pearson réduite (sous l hypothèse d une moyenne, µ = 0, et l écart type, σ = 1) [Clements, 1989]. La méthode s applique dans l étude de la capabilité des processus qui impliquent de grandes tailles de données. L indice de capabilité de processus est calculé comme rapport entre l intervalle de tolérance et la variabilité du processus : LTS LTI Cˆ p = (.9) p p s i LTS M M LTI C ˆ pk = min ; (.10) ps M M pi où p i est la limite inférieure et p s la limite supérieure d intervalle de dispersion (l intervalle p s -p i est l équivalent des 6 écarts type dans le cas d une loi normale). LTS et LTI représentent respectivement les limites de tolérance supérieure et inférieure, et M représente la médiane, comme estimateur de la tendance centrale de la population. L alternative à la méthode basée sur la loi de Pearson est la famille des lois de Johnson. Elle présente l avantage de synthétiser trois formes représentatives des courbes qui modélisent les observations réelles. Cette méthode transfère n importe quelle loi de distribution continue vers une loi de distribution normale centrée réduite. La méthode offre une plus grande liberté pour le choix de la courbe qui caractérise le mieux la population étudiée. Les paramètres de ces courbes sont estimés par le calcul des p - quantiles d un échantillon nécessitant un minimum de 100 observations. Le choix de la courbe de Johnson est déterminé par les tests de type Slifker Shapiro [Duclos, 1997]. Les trois formes standard des courbes de Johnson sont respectivement : les courbes non bornées, S u, quand l ensemble des données réelles est défini sur un intervalle infini, les courbes bornées, S b, qui couvrent les distributions définies sur un intervalle ouvert, et les courbes de type log normal, S L, qui incluent les défauts de forme [Pyzdek, 1995]. Les trois fonctions de transformation associées sont décrites dans les équations : 6

36 x ε : Γ( x, λ, ε ) = sinh (.11) λ S b 1 S u x ε : Γ( x, λ, ε ) = ln (.1) λ + ε x S L x ε : Γ( x, λ, ε ) = ln (.13) λ Une fois la variable x identifiée et associée à la courbe de Johnson adéquate, les p quantiles seront calculés à partir des tableaux des valeurs caractéristiques. La transformation vers la variable centrale réduite, z, prend la forme: z = γ + η Γ( x, λ, ε ) (.14) où ε, λ, η, γ sont les paramètres de position et d échelle. L ensemble d équations de ces paramètres pour les trois formes des courbes de Johnson a été décrit par Emmanuel Duclos [Duclos, 1997]. Des exemples intégrant les familles des courbes de type Pearson ou Johnson se retrouvent dans les travaux de Thomas Pyzdek [Pyzdek, 1995], Philippe Castagliola [Castagliola, 1999], Chen et Cheng [Chen et Cheng, 005], ou Surajit Pal [Pal, 005] qui s est préoccupé par de phénomènes mécaniques tels que l asymétrie et la conicité. De même, la méthode est explorée par Pearn et Chen, [Pearn et Chen, 1997] qui appliquent le modèle de Pearson dans l étude de la capabilité d un processus de fabrication des condensateurs électrolytiques, et par Pearn et al [Pearn et al., 00] qui analysent les indicateurs de performances dans le domaine de l électronique. Il y a aujourd hui des programmes informatiques (par exemple le logiciel Statistica) qui intègrent les transformations de Johnson ou Pearson. A partir des informations disponibles pour l échantillon des observations réelles, l ordinateur peut chercher la meilleure famille Johnson et calculer les paramètres adéquats. Le principal avantage des familles de courbes de Pearson ou de Johnson est leur facilité d application. Cependant, malgré la gamme plus large d applicabilité, l estimation des p quantiles nécessite souvent le prélèvement d un grand nombre d observations, ce qui peut représenter un inconvénient de point de vue économique dans le contrôle des processus. 7

37 .3 La méthode de re-échantillonnage de Bootstrap Introduite par Efron [Efron, 1979], la technique de Bootstrap est constamment utilisée dans l estimation non paramétrique d une statistique d intérêt. Le principe d échantillonnage répété avec remise dans l échantillon d origine s applique même pour un nombre restreint des données et permet de construire un intervalle de confiance. Répandue dans la théorie d estimation des paramètres pour des populations inconnues, la méthode présente une grande utilité dans les démarches concernant les méthodes de contrôle pour des distributions non gaussiennes. L algorithme de mise en place comporte quelques étapes principales. Sans la connaissance à priori de la population à étudier, on extrait un échantillon indépendant de dimension < =100. Sur cet échantillon on effectue des prélèvements répétés de taille N (N<100), avec la remise dans l échantillon de base. Pour chaque prélèvement la statistique d intérêt est calculée, par exemple la moyenne, l écart type, etc. Après un nombre suffisamment des itérations (au moins 1000 répétitions [Efron, 1979]), on obtient une approximation fiable de la statistique «bootstrapée». Selon la nature des observations soumises à l étude, on identifie la méthode de Bootstrap standard ou naïf, le Bootstrap par les p quantiles et le Bootstrap à biais corrigé par les p quantiles [Duclos, 1997]. Considérons la mesure statistique T à estimer, et son intervalle de confiance, 1 α. La méthode de Bootstrap standard fournit les limites de l intervalle de confiance de manière classique, avec les p-quantiles d une loi normale centrée et réduite : E( T * * ) ± σ ( T ) (.15) ξ1 α / * * où E( T ), σ ( T ) représentent la moyenne et l écart type de l ensemble des réalisations de la statistique considérée, T. ξ représente la p-quantile de la loi normale réduite pour une probabilité : p = 1 α /. Au contraire, le Bootstrap par les p-quantiles construit l intervalle de confiance à partir de la statistique d ordre de la mesure considérée (T ). Le Bootstrap à biais corrigé par les p- quantiles tient compte d un éventuel décentrage des distributions des réalisations obtenues, et 8

38 considère les probabilités des limites supérieure et inférieure de l intervalle de confiance [Duclos, 1997]. Phillipe Castagliola a réalisé une étude sur le Bootstrap basé sur les p quantiles dans l estimation des limites de contrôle pour les cartes non symétriques [Castagliola, 1999]. Du fait de sa généralité, la méthode de Bootstrap est largement utilisée dans la MSP des processus non gaussiens. La méthode peut fournir des bonnes approximations des grandeurs spécifiques, comme par exemple les indicateurs de capabilité C p, C pk et C pm [Duclos, 1997], [Castagliola, 1999]. Un schéma simplifié de la mise en place de la méthode de Bootsrtrap (figure.1) est proposé par Emmanuel Duclos [Duclos, 1997], qui inclut dans ses travaux une classification des principaux algorithmes de type Botstrap et présente leur implication dans la MSP des processus non normaux. La méthode a ressuscité l intérêt des différents auteurs qui l ont inclus dans leurs démarches. Elle s avère robuste dans l estimation d un écart type, d un intervalle de confiance ou bien du biais d un estimateur pour des populations non gaussiennes. Dans une synthèse des méthodes statistiques utilisées dans le domaine médicale, l auteur A. R. Henderson [Henderson, 005] décrit la technique de re-échantillonnage basée la méthode de Jakniffe [Tukey, 1958], qui se retrouve aux origines de la méthode de Bootstrap. Cette technique est utile pour l approximation du biais des estimateurs à partir des sous échantillons. Henderson [Henderson, 005] propose la méthode de Bootstrap pour le calcul de l intervalle de confiance de la statistique L dans le cas uni varié, et suggère son utilisation dans l analyse statistique des populations non-gaussiennes. Une étude détaillée de la méthode de Bootstrap contenant une panoplie d applications pratiques est réalisée par M. Chernick dans sont guide d application pour les praticiens [Chernick, 1999]. 9

39 Figure.1 : La méthode de Bootstrap Plusieurs exemples ont retenus notre attention, car par rapport aux méthodes décrites auparavant la méthode de Bootstrap est plus souvent rencontrée dans la MSP et les domaines de son applicabilité sont très variés. Les études avancées sur cette méthode appuient précisément sur la généralité et la vulgarité de la méthode. Nichols et Padgett [Nichols et Padgett, 006] utilisent le Bootstrap par les p-quantiles dans la construction des cartes de contrôle non paramétriques. Leurs études portent sur les défaillances d un processus de fabrication de fibre de carbone, défaillances dont la distribution est caractérisée par la loi de Weibull. Th. Harris [Harris, 004] et Mudelsee et Alkio [Mudelsee et Alkio, 006] encouragent l utilisation de la méthode de Bootstrap dans l estimation des erreurs de nature non-gaussienne qui affectent les systèmes automatiques. 30

40 Dans le domaine médical la méthode s applique dans les estimations nécessaires dans la surveillance et le traitement des maladies cardiovasculaires. Wisnowski, Simpson et Montgomery [Wisnowski et al., 003] appliquent la méthode de Bootstrap pour obtenir des modèles acceptables de prédictions des erreurs. D autres combinent la technique dans leurs études sur l efficacité des tests d hypothèse pour une loi de distribution de Rayleigh, ou de Weibull [Baklizi, 005]. Vernaat M.B. [Vernaat et al., 003], Teyarachakuèl S. [Teyarachakuèl et al., 006], etc. s intéressent aux cartes de contrôle pour les caractéristiques non gaussiennes et comparent les limites de contrôle obtenues par la méthode de Bootstrap avec celles des cartes classiques de Shewhart, pour des observations individuelles, ou avec des nouvelles méthodes [Vernaat et al., 003]. Les exemples les plus représentatifs de l application de la méthode dans la MSP des processus non gaussiens sont les travaux de Philippe Castagliola et d Emmanuel Duclos [Castagliola, 1999], [Duclos, 1997]. Tandis que P. Castagliola, [Castagliola, 1999], propose des nouvelles limites de contrôle basées sur le Bootstrap par les p-quantiles, E. Duclos [Duclos, 1997] s intéresse au calcul des indicateurs de capabilité pour les distributions inconnues. Destinée aux procédés à évolution rapide, la technique de Bootstrap nécessite l échantillonnage aléatoire. Toutefois, pour que l échantillon de base soit représentatif de la population étudiée, le procédé doit être stable pendant la période d analyse. La méthode s applique avec plus de succès aux données de grande taille où la stabilité ne pose pas trop de problème. Il est confortable de disposer d au moins 1000 échantillons qui s obtiennent facilement par la remise dans l échantillon original. Néanmoins la méthode nécessite des moyens de calcul relativement puissants et cela peut représenter un inconvénient dans son application..4 Les cartes de contrôle avec des paramètres variables Nous analysons les cartes de contrôle avec paramètres variables comme un nouveau concept dans le contrôle de processus non gaussiens. L idée d utiliser des paramètres dynamiques, qui changent au cours de l application des cartes de contrôle et en fonction de l évolution du processus, est apparue comme une alternative intéressante pour la mise sous contrôle statistique des distributions non gaussiennes. 31

41 Les bases de ce concept ont été introduites par Costa [Costa, 1999], qui a développé les formules de calcul pour ce qu on appelle, respectivement, les coefficients de contrôle et les coefficients d avertissement. Les limites d avertissement, délimitant une zone plus restreinte autour de la valeur cible par rapport aux limites de contrôle, sont introduites. L approche de Costa [Costa, 1999] est construite sous l hypothèse de normalité, respectivement d état initial stable pour le processus étudié. Les probabilités associées aux différentes positions possibles pour la variable surveillée sont déterminées à l aide des chaînes de Markov. Costa considère comme connus une partie de paramètres intervenant dans le calcul des limites de contrôle et d avertissement, et met en place les formules de calcul pour les autres paramètres, qui restent inconnus. Les promoteurs de l application des cartes avec paramètres variables sont Lin Y.C. et Chou C.Y. [Lin et Chou, 005a], [Lin et Chou, 005b], qui développent des limites de contrôle et testent ces types de cartes également pour la loi normale, pour la loi de distribution de Gamma, et pour la distribution t de Student. Le fonctionnement d une carte de contrôle des moyennes, de type paramètre variable est illustré par le schéma dans la figure.. L algorithme de mise en œuvre est basé sur l échantillonnage et n est pas compliqué. Figure. : La méthode de paramètres variables 3

42 En principe si la valeur observée est située dans la zone proche de la valeur cible, nous utilisons des échantillons de petites taille, n 1 et de grandes intervalles de prélèvements, h 1, ainsi qu un large domaine pour le choix du coefficient de contrôle, k 1 (figure., cas A). Au contraire, s il y a un signe d instabilité, la valeur mesurée se retrouve entre les limites mais elle ne se situe pas si proche de la cible, nous appliquons une deuxième catégorie de paramètres (cas B), qui impose des échantillons plus grands, de taille n, des petits intervalles de prélèvement (h ) et une gamme retreinte pour le choix du coefficient de contrôle (k ). Une carte de contrôle construite de telle manière, comportera trois régions principales, comme il est indiqué dans la figure.3. On note avec µ 0 la moyenne du processus dans l état stable. Les limites de contrôle se calculent avec les formules : UCL µ + k i = 0 i σ ni (.16) LCL σ ni i = µ 0 ki (.17) Respectivement : UWL i = µ + σ (.18) 0 i w n i où i=1;. LWL σ ni i = µ 0 wi (.19) Tant que la valeur portée sur la carte de contrôle (la moyenne d échantillon prélevé dans notre cas) est situe dans la zone centrale, les limites de contrôle sont calculées à base de la configuration A (figure.). Si la valeur se situe dans la zone d avertissement, nous utilisons pour le prochain prélèvement les paramètres de la configuration B (figure.). Si la valeur est dans la zone d action, le processus est considéré hors contrôle et des mesures correctives seront nécessaires. 33

43 UCL i Cas B Zone d action µ 0 UWL i Cas A Zone centrale LWL i LCL i Zone d avertissement Zone d action Figure.3 : La carte de contrôle X aux paramètres variables La probabilité de se situer dans la zone centrale se calcule à l aide des paramètres de contrôle k 1,, le paramètre n 0 (la taille du premier échantillon, dans l état stable) et h 0 (intervalle de prélèvement pour le départ dans l état stable). Ces paramètres sont considérés comme connus a priori. On leurs attribue les valeurs usuelles comme dans l application des cartes de contrôle classiques X (par exemple 4, 5 pièces par échantillon, l intervalle d échantillonnage d une heure). Les indicateurs de performance classiques sont remplacés par d autres, car nous n avons plus une dimension constante de l échantillon prélevé. Par ailleurs, Lin Y.C. et Chou C.Y., [Lin et Chou, 005b], proposent AATS (Adjusted Average Time to Signal) qui représente l intervalle de temps entre l apparition d une cause spéciale et la détection de la situation hors contrôle correspondante. De même, l indicateur ANSS (Average Number of Samples to Signal) estime le nombre moyen d échantillons successifs jusqu'à l apparition de la situation hors contrôle. Un autre indicateur, ANOS (Average Number of Observations to Signal) représente le nombre d observations individuelles jusqu'à l apparition de la situation hors contrôle. Finalement le ATS (Average Time to Signal) est utilisé pour estimer l intervalle de temps du début du processus et jusqu'à l apparition de la situation hors contrôle. Pour comparer les performances de la carte VP dans le cas des distributions de Gamma et t de Student, Lin Y.C. et Chou C.Y., [Lin et Chou, 005b] fixent la valeur d ATS à une valeur constante (la valeur classique du POM de 370, associé aux hypothèses de départ de 34

44 normalité). Les indicateurs ainsi obtenus indiquent une meilleure performance dans le cas où plusieurs paramètres de la carte de contrôle varient en même temps. Leurs résultats sont nettement supérieurs aux valeurs obtenues dans le cas où un seul paramètre est variable, par exemple, seulement la dimension de l échantillon. Par rapport aux tendances déjà existantes dans la MSP, de varier un seul paramètre de la construction des cartes de contrôle, comme la dimension d échantillon, ou bien l intervalle de prélèvement, les cartes de Lin et Chou [Lin et Chou, 005b] qu on les a appelé cartes avec paramètres variables (ou cartes VP), réalisent un bon compromis entre les performances de détection et le taux de fausses alarmes. Ce fait a suscité notre intérêt pour évaluer leurs performances dans l étude d autres lois de distributions. Etant donné que la technique de paramètres variables est une technique relativement nouvelle, il existe à l heure actuelle peu d approches sur ce sujet. Certains auteurs l ont introduit dans leurs démarches, nous citons Chen [Chen, 004], Lin et Chou [Lin et Chou, 005a], Chou, Chen et Liu [Chou et al., 001a], ou bien Chou, Li et Wang [Chou et al., 001b]. Ils manifestent leur intérêt pour la variation des paramètres définissant une carte de contrôle et intègrent la famille de loi de Burr pour l identification des différentes populations non gaussiennes abordés dans leurs travaux. La carte de contrôle VP a retenu toute notre attention, du fait de sa généralité, et de sa facilité de mise en œuvre. Les résultats fournis dans le cas d une loi de distribution non-gaussienne comme celle de Gamma ou t de Student [Lin et Chou, 005b] nous encouragent à élargir son champ d application pour d autres lois de distribution. Nous avons cherché au même temps des améliorations concernant les hypothèses de départ et l aspect paramétrique. Nos nouvelles propositions ainsi que les résultats de nos travaux seront décrits en détail dans le chapitre II. 35

45 3 Synthèse des méthodes de traitement de données non gaussiennes Comment on a pu remarquer au cours de nos recherches, la littérature est peu riche dans approches spécifiques au contrôle des caractéristiques non gaussiens. Nous avons auparavant identifié et classifié quatre principales directions saisies dans les travaux des différents auteurs portant sur le contrôle MSP des données non gaussiennes. Dans le tableau 3.1 sont regroupées les avantages et les inconvénients de ces méthodes. Les deux premières (la méthode des familles de Burr et la méthode des familles de Johnson et Pearson) sont des méthodes paramétriques comportant l approximation des distributions réelles avec une famille théorique de distribution, comme la famille de courbes de Burr, ou les courbes de Johnson. Cette approximation est basée sur le calcul de premiers quatre moments de la distribution empirique, et présente l inconvénient d une plage réduite d application. Les contraintes concernent la nécessité d une quantité importante des données pour l estimation des grandeurs d intérêt afin de se rapporter au modèle théorique. Par ailleurs ces méthodes, dans des conditions adéquates, ont fournit des bonnes résultats, meilleurs que les méthodes classiques, dans le contrôle des certaines processus non gaussiennes et précisément dans l estimation de leur capabilité, comme il a été prouvé pour les courbes de Johnson [Pyzdek, 1995]. Cependant, il existe un intervalle d erreur assez élevé de cas à cas, et en fonction de la méthode utilisée. Si on pense à l estimation des moments par la méthode de Burr, a partir d un échantillon de 0 observations, il est indispensable d avoir également une analyse du risque d erreur associé à cette estimation. Les étapes et les calcules à suivre pour se rapprocher des modèles théoriques sont parfois mathématiquement complexes et dans la pratique on préfère toujours appliquer une méthode de contrôle directement sur les données empiriques, sans avoir besoin de les transformer. Une deuxième catégorie des méthodes proposées dans la MSP pour des processus non gaussiennes ont plutôt un caractère non paramétrique, et présentent plus d intérêt de point de vue pratique. Ainsi nous avons noté l estimation de type Boostrap, qui, même si n est pas proprement dit une méthode de contrôle, intervient souvent dans d estimations nécessaires pour le développement des limites de contrôle d une population inconnue [Castagliola, 1999] ou dans l approximation des indicateurs de la capabilité [Duclos, 1997]. 36

46 La méthode présente une grande généralité dans la théorie d estimation et peut être exploitée dans tous les contextes non paramétriques. La précision d intervalles de confiance, peut servir, par exemple à l application d un test d hypothèse (teste de Khi deux, pour populations non gaussienne etc.). Nous considérons que la méthode d estimation de Boostrap ne doit pas être ignorée, est son intégration dans les démarches sur le contrôle des caractéristiques non gaussiennes reste encore à explorer. Enfin, au cadre des méthodes non paramétriques de contrôle nous avons défini les cartes de contrôle aux paramètres variables. Parmi les quatre types des méthodes discutées, la carte de contrôle avec paramètre variable présente un intérêt spécial. C est grâce à son caractère général et à la facilité de mise en place que cette méthode est applicable pour toutes les lois de distribution. Son principal apport concerne la détection des très petit déréglages autour de la valeur de référence, et les résultats obtenus dans le cas d une loi de distribution de Gamma mais également dans le cas d une loi normale, dépassent les performances offertes par les méthodes non paramétriques. La méthode étant relativement nouvelle dans la MSP, nous avons choisi de diriger nos recherches vers l élargissement de son applicabilité. A base de leur efficacité prouvée dans le contrôle des certaines caractéristiques asymétriques [Lin et Chou 005b], nous avons ainsi avancé l analyse de l adéquation de la méthode VP pour cette classe des distributions. Nos travaux incluant des particularisations et des simulations pratiques, ainsi que le jugement des performances de la méthode VP en comparaison avec d autres méthodes, seront développés dans le chapitre II. 37

47 Tableau 3.1. Classification des méthodes existantes dans la MSP des processus non gaussiens. Méthode Courbes de Burr Les familles des lois de Pearson et de Johnson Méthode de Bootsrap Méthode de paramètres variables (VP) Utilisation Construction des cartes de contrôle Etude de la capabilité Paramétrique Non paramétrique Domaine d application Lois non normales uni modales et multi modales Lois non normales uni modales et asymétriques Toutes les lois de distribution Lois de distribution asymétriques Avantages Décrit un grand nombre de distributions parmi lesquelles celles dissymétriques Facilité de mise en place Fiable pour un nombre retreint d observations Une vaste application due à la nature paramétrique Peut être combinée avec d autres techniques (les p quantiles pour fournir des limites de contrôle satisfaisantes) Utilisation «in line» et facilité de mise en place Permet l exploration et l intégration d autres techniques ( Burr, Bootstrap) Inconvénients Nombre très élevé des observations empiriques Difficultés en à choisir la fonction cumulative de distribution Parfois il est nécessaire de prélever un nombre très important d observations Moyennes de calcul puissantes nécessaires au re - échantillonnage Contraint liées aux hypothèses de départ, méthode peu explorée 38

48 Chapitre II : Contributions aux nouvelles démarches dans la MSP des processus non gaussiennes 1 Introduction Comme nous l avons déjà précisé, les méthodes de contrôle statistique font partie intégrante du système qualité pour une large catégorie de processus industriels. Elles sont des outils performants intervenant de l étape de conception, dans les procédures d inspection ou bien directement dans l étape de production afin de réduire la variabilité des caractéristiques ou d améliorer l évolution temporelle vers des performances souhaitées et demandées par des cahiers des charges. Dans le premier chapitre de ce mémoire nous avons réalisé un tour d horizon sur les inconvénients majeurs dans le contrôle des processus qui présentent des distributions non gaussiennes ainsi que sur les solutions MSP existantes. Dans une classification primaire, les lois de distribution non gaussiennes peuvent être partagées selon l allure de la courbe représentative en lois de distribution symétriques (comme par exemple la loi de distribution uniforme, la loi t de Student etc.) et lois de distribution asymétriques qui incluent la distribution F, Gamma, Rayleigh etc. Certaines auteurs classifient encore la catégorie des distributions asymétriques en asymétriques positives et négatives [Chung et al., 007]. Nous introduisons dans ce chapitre une catégorie de procédés ou l incidence des lois de distributions non normales est évidente et la nécessité de développement des techniques MSP spécifiques impérative. Il s agit de processus d inspection des pièces mécaniques et des variations de formes intervenues par rapport aux spécifications. Dans ces procédés la plupart des caractéristiques sont non gaussiennes et présentent une tendance asymétrique. Les sections de ce chapitre sont destinées à définir la direction prise par nos recherches sur la MSP des processus non gaussiennes. Tout d abord nous allons présenter quelques exemples des processus caractérisés par des lois de distributions non normales. Nous allons par la suite aborder la classe de lois de distribution asymétriques par le biais des phénomènes mécaniques normalisés ISO. Nous avons choisi d avancer nos études sur la loi de distribution de Rayleigh, représentative pour la description des certains défauts de forme qui seront discutés par la suite. 39

49 Dans notre choix nous sommes également motivés par un manque d informations sur cette distribution relativement nouvelle, alors que son applicabilité dans les domaines d importance comme l aéronautique est déjà mentionnée à partir des années 1999 [Sauvay, 1999]. Le but de ces travaux est de trouver une meilleure méthode de contrôle valable pour une classe assez large de distributions qui pourrait aussi résoudre des problèmes d inspection intervenus dans les productions industrielles. Par la suite de ce chapitre nous allons proposer deux méthodes de contrôle pour la catégorie de distributions asymétriques. Une première est la carte de contrôle avec des paramètres variables (section ) qui a eu comme point de départ les travaux de Lin et Chou [Lin et Chou, 005a]. L autre est une carte de contrôle bâtie sur la distribution de Rayleigh, dont les limites seront calculées a l aide des p-quantiles (section 3). L analyse de ces méthodes et la comparaison avec les cartes de contrôle traditionnelles seront complétées par des exemples de simulations numériques. Bien évidement, les solutions de contrôle proposées dans ce mémoire ne sont pas testées sur toutes les lois asymétriques existantes. Cependant les résultats obtenus ouvrent un chemin nouveau de recherche et prouvent l existence des outils de contrôle plus performants que les cartes de contrôle classiques, et plus adéquats à une classe des distributions non gaussiennes. Les conclusions et les perspectives de nos travaux au sujet des méthodes de contrôle pour les distributions asymétriques seront présentées dans la dernière partie de ce chapitre. 1.1 Processus non gaussiens - quelques exemples Généralement, dans l analyse d une série de données statistiques les premières indications sur la non normalité sont fournies par les paramètres représentatifs : moyenne, écart type, etc. La loi de distribution normale étant une loi symétrique, elle est caractérisée par l égalité entre les principales mesures de la tendance centrale: µ =M d =M 0 (1.1) où µ représente la moyenne arithmétique du processus étudie, M d est la médiane et M 0 est le mode. Il existe des situations quand le paramètre de position ne correspond plus à la 40

50 moyenne statistique de la population étudiée. Par exemple pour une distribution uni modale et étirée à droite (figure 1.1), nous obtenons l inégalité 1.. µ M d M 0 (1.) Figure 1.1 : Principaux paramètres d une loi asymétrique uni modale Dans la pratique, l ensemble d observations peut être caractérisé par une de ces mesures, dépendantes de la nature des observations étudiées. La moyenne arithmétique de l échantillon est très simple à interpréter et souvent utilisée comme estimateur de la tendance centrale de la population. Cependant, la médiane est préférable comme estimateur de la tendance centrale, notamment pour les distributions asymétriques qui comportent des observations aberrantes [Duclos, 1997]. Dans la catégorie des distributions asymétriques on retrouve la variable décrivant la circularité d une pièce mécanique (figure.1), qui se calcule comme la différence entre le diamètre du cercle inscrit et celui du cercle circonscrit. C est un exemple représentatif pour ce qu on appelle dans la mécanique un «défaut de forme» [Souvay, 1999]. Dans la même catégorie des défauts on trouve également les rugosités, les planéités, etc. Considérons les variables Rmin et Rmax qui sont distribuées selon une loi normale, ainsi que leur différence: z = R max R. Dans une représentation dans un système orthogonal d axes min (figure 1..) la variable z prend, naturellement, que des valeurs positives. 41

51 z = R max R min (1.3) R max R min Figure 1.: Le défaut de forme En supposant que Rmax et Rmin présentent un même écart type ( σ n ), la variable z sera n distribuée selon N( µ, σ ). Pour les valeurs positives de la variable z, l expression pour la loi n de défaut de forme s exprime par l expression 1.4. [Souvay, 1999] [Duclos, 1997] : f ( z) = σ n 1 e π 1 z µ n σ n + e 1 z+ µ n σ n, z 0 (1.4) La moyenne et la variance de la loi de défaut de forme sont données par: µ = σ n e π ( µ / σ ) n n µ (1.5) n ( 1 Φ( µ / σ )) n n σ = µ n + σ n µ (1.6) La non normalité se manifeste également dans les critères de position d une certaine caractéristique autour d un point central. Dans la mécanique ce sont les phénomènes coaxiaux. Ces défauts sont décrits d une manière appropriée par une loi de distribution de Rayleigh [Duclos, 1997], [Castagliola, 1999], [Souvay, 1999]. Les phénomènes coaxiaux 4

52 présentent un impact majeur dans plusieurs domaines comme l aéronautique, l automobile, l électronique, mécanique, etc. Par ailleurs les distributions non normales, et notamment celles asymétriques, ont une incidence constante dans les domaines chimique, des semi-conducteurs, automatique, dans la conception des bancs de test ou d essai à destination industrielle, etc. Dans la métallurgie, les fabrications d alliages fournissent souvent des distributions non gaussiennes. Thomas Pyzdek [Pyzdek, 1995], le fondateur du concept six sigma et l auteur des nombreuses études sur les processus non normaux, définit trois principaux facteurs qui restent à l origine de la non-normalité des données. Ils sont, respectivement, le comportement humain, l inspection des résultats et les lois physiques. Tous les facteurs responsables de la non normalité des données sollicitent une très claire compréhension de fonctionnement du processus avant de développer le plan d amélioration de la qualité. Le comportement humain se manifeste quand le facteur humain influence d une manière perceptible les mesures destinées à caractériser un processus réel. Les erreurs intervenant dans l inspection des résultats, peuvent également constituer une source de non-normalité des données. Le phénomène connu sur le nom de perpendicularité, souvent rencontré dans le domaine de l aéronautique, est un facteur générateur des distributions non gaussiennes [Pyzdek, 1995]. Le phénomène de non-normalité induite par une loi physique reste incontrôlable pour le facteur humain : la force de la pression du vent sur les bâtiments, ou sur les ailes d un avion, le temps de survie des patients après les transplants, l intolérance au glucose. Néanmoins des lois non normales touchent tous les domaines (économique, industriel, construction, manufacture, médicale, géotechnique, hydrologie, transports et même la musique [Grigoriu, 1995]). Pour mettre en évidence l influence des lois physiques sur la distribution des caractéristiques d un processus, Th. Pyzdek [Pyzdek, 1995], propose un exemple du domaine de la métallurgie, l étude d un processus de fabrication d un alliage métallique. L alliage de zinc fer analysé s obtient quand le matériel de base arrive à la température du zinc fondu. Une fois la couche d alliage formée, le zinc pur commence à s accumuler. Si la région de contact est déplacée avant d obtenir la température limite, le zinc ne va pas adhérer au métal de base. La distribution des mesures effectuées sur la couche de l alliage est non-gaussienne (figure 1.3). 43

53 Figure 1.3 : Distribution de mesures de l épaisseur pour la couche d alliage zinc/ fer[pyzdek, 1995] Dans l analyse des différentes caractéristiques de nature non gaussienne, les travaux de Th. Pyzdek [Pyzdek, 1995] appuient sur la mise en pratique de la méthode des familles de Johnson. Un autre exemple est l étude des données provenant des mesures d'une opération de cisaillement(figure 1.4). Figure 1.4 : Analyse de la capabilité des données non normales, Pyzdek [Pyzdek, 1995] Les spécifications réclament une dimension spécifique entre 10 unités et 3 unités. L analyse avec la carte X réclame un processus sous contrôle et la carte R par 6 sous-groupes à 5 44

54 unités par sous-groupe ne signale aucune pièce hors de tolérance. Les résultats des mesures fournissent une distribution bornée et asymétrique. L alternative proposée par Pyzdek consiste dans l application des courbes de Johnson de type S [Pyzdek, 1995]. L indicateur de capabilité ainsi obtenu, C = 1. 48, permet d espérer à 100 b % des valeurs réels dans l intervalle de tolérance spécifié (figure 1.4). D autres exemples de non normalité tiennent des systèmes automatiques. Ainsi G. Falkovich [Falkovich et al., 004] étudie un système de transmission optique sous l influence des différents réglages (le filtrage, la modélisation en phase, techniques in line). Les petites déviations remarquées dans le système étudié provoquent des graves erreurs dans l estimation de la réponse de la transmission. Cela impose une analyse statistique rigoureuse des caractéristiques non-gaussiennes qui affectent le processus. Pour certains phénomènes, tels que les réponses dynamiques des systèmes non-linéaires aux excitations aléatoires, une mixture des lois normales doit être prise en compte pour mieux le décrire (figure 1.5). Nous citons un processus de déformation d un système physique soumis à l action d une force stationnaire [Grigoriu, 1995]. p 0.3 f(x) x - 0 Figure 1.5: La déformation du processus pour un système non-linéaire, [Grigoriu, 1995] Dans notre étude sur les différentes sources de données non normales nous avons noté que si on souhaite appliquer des techniques de contrôle statistique, la forme de la distribution des données observées est un facteur décisif. Cela est valable dans tous les domaines cités, tels que la mécanique, l économie, la médicine, l électronique, manufacture, l aéronautique. Considérons une situation particulière d un système automatique, le système de freinage d une automobile. On peut regarder la fréquence d arrêt des roues comme le signal de sortie 45

55 du système dont l entrée (ou consigne), est représentée par l action sur la pédale. Pour ce système nous associons comme causes aléatoires toutes les situations habituelles qui nécessitent le freinage (un feu, l agglomération constatée pendant une durée déterminée). Cependant les causes spéciales sont des phénomènes incontrôlables (la fatigue du chauffeur, la glace sur la chaussée, l apparition inattendue d un obstacle). La fréquence d apparition de ces dernières causes n est pas aléatoire et peut conduire à une distribution non-gaussienne de la sortie du système considéré. Ainsi le système de freinage sera actionné régulièrement pour les situations habituelles, mais également aux moments précis et inattendus, ce qui va induire des arrêts spontanés. Sur un graphique de représentation de la fréquence d arrêts, cela se traduit par des sauts autour de la valeur cible, correspondants aux moments ou les phénomènes incontrôlables se manifestent (facteur bruit du système). Généralement, même si les perturbations qui affectent un système sont aléatoires, donc présentent une distribution gaussienne, il y a des situations dans lesquelles la réponse du système ne suit plus une loi de distribution de Gauss. L analyse statistique de ces caractéristique est impossible avec les méthodes classiques connues (cartes de contrôle par moyennes, X, ou par étendues, R). Il en résulte le besoin des techniques destinées à maîtriser et améliorer le comportement des caractéristiques réelles des processus qui ne s encadrent pas dans les limites du modèle idéal de la loi normale. 1. Une catégorie de processus représentés par des distributions non gaussiennes. Tolérances géométriques et variations de formes Dans les domaines d importance majeure de nos jours, comme le domaine de l automobile, de l aéronautique, de l électronique et de semi-conducteurs, les demandes de tolérances de plus en plus exigeantes sur des surfaces de plus en plus petites imposent un contrôle rigoureux des dimensions spécifiques. Ce contrôle implique des systèmes de métrologie adaptés mais aussi une bonne interprétation de mesures collectées. Les variations de forme en dehors des limites d acceptation peuvent induire des effets indésirables au niveau des propriétés mécaniques, chimiques ou optiques de pièces ainsi que 46

56 dans leurs durées de vie (due au frottement, à une forte vitesse de rotation, ou à l usure par exemple). Il existe à l heure actuelle des appareils de mesure de plus en plus évolués et précis qui intègrent des modules informatiques pour l analyse des données collectées. La plupart de ces logiciels malheureusement implémentent des méthodes MSP classiques, qui sont élaborées sur l hypothèse de lois normales de distribution. Or, pour la plupart des défauts de forme étudiés dans la mécanique, tel qu une cylindricité, une concentricité ou une circularité, etc., la loi de distribution représentative est non gaussienne. Même si l appareil de mesure est le plus performant au niveau de la précision, une information erronée concernant la variation des données, parfois de dimensions micrométriques, conduira à une décision erronée et engendra de graves conséquences. La mise en œuvre d une carte de contrôle générale pour les variations de forme pourrait améliorer visiblement la procédure d inspection dans les productions des pièces aux géométries particulières, notamment cylindriques ou circulaires qui sont spécifiques aux domaines de l automobile et de l aéronautique. Pour une meilleure compréhension du sujet abordé dans ce chapitre, le fil conducteur de nos travaux implique davantage une présentation générale des principaux phénomènes intervenus dans la mécanique des pièces. Pour plus de documentation nous citons les manuels des spécifications géométriques de produits (GPS Geometry Product Specification) pour les grands producteurs, comme Renault («Cotisations ISO»), où sont décrits les principaux défauts de géométrie ainsi que les terminologies associées. Les normes internationales telles que ISO 488 :1996, ISO 487 :1997, NF EN ISO :1999, le projet ISO 1101 : 001, «Tolérançement Géométrique Généralité», ISO 1101 : 004, etc. établissent des termes généraux et des références et définissent le concept de GPS. Ainsi la zone de tolérance est définie comme «une portion d espace de géométrie parfaite, devant contenir l élément réel et dont les frontières dépendent de la caractéristique tolérançant : la forme, l orientation, la position ou le battement» (ISO 1101 : 001). Subséquemment les paramètres descriptifs de la forme, de l orientation ou du battement nécessitent doivent impérativement respecter la tolérance de conception prescrite. Nous allons analyser les paramètres de forme et en particulier ceux qui décrivent les profilés aux géométries circulaires, rondes ou cylindriques. Parmi les plus populaires de ces paramètres nous citons le paramètre de circularité, de concentricité, où bien de coaxialité. La circularité des pièces est définie comme la différence minimale (R max -R min ) entre les rayons des cercles concentriques inscrit et circonscrit du profil (figure 1.6). C est la différence entre 47

57 le profil d une pièce cylindrique et un cercle géométrique véritable [Zani, 004], [TEC EASE INC., 005]. Figure 1.6. Circularité et zone de tolérance de la circularité Le centre de référence est le centre d un cercle obtenu par la méthode de moindres carrés ou par le calcul du minimum de la somme des carrés des écarts avec le profil de la pièce, ou par le biais du cercle maximal inscrit dans le profilé de mesure d une alésage ou le cercle minimal circonscrit du profilé présentant la plus faible différence radiale [Zani, 004]. Le modèle statistique associé à la circularité est décrit dans le chapitre I de ce mémoire (section.). La loi de distribution représentative est connue sur le nom de loi de distribution défaut de forme [Pillet, 1993], [Duclos, 1997]. Une caractéristique mécanique aussi importante que représentative dans nos études porte le nom de coaxialité, spécifique aux pièces de forme cylindrique et répandue notamment dans le domaine des connecteurs de l aéronautique. Dans une terminologie plus générale la coaxialité est connue sous deux formes distinctes (figure 1.7.), la coaxialité ISO et la coaxialité DIN [Taylor Hobson Ltd.]. 48

58 Figure 1.7. Coaxialité ISO et coaxialité DIN [Taylor Hobson Ltd.] La coaxialité ISO correspond au diamètre d un cercle égal à deux fois la distance qui sépare le centre du profil de la section circulaire ou du cylindre par rapport à l axe de rotation de référence déterminé comme étant l axe central du second cylindre [Zani, 004]. La coaxialité DIN est définie par le diamètre égal à deux fois la distance qui sépare sur un même plan perpendiculaire à l axe de rotation, le centre du cercle évalué par rapport au centre du cercle de référence, et qui enferme totalement le centre des plans qui forment les axes du cylindre en cours d'évaluation (figure 1.7). Le paramètre est décrit par le symbole normalisé ISO :, et souvent il est identifié avec le paramètre de concentricité, ce qui dans la vision. de certains producteurs n est pas toujours correct [TEC EASE INC., 005]. Pour obtenir la mesure de coaxialité il faut mesurer deux sections circulaires afin d établir l axe de référence, puis mesurer la section du cylindre à évaluer. Dans la figure 1.8 il est illustré un exemple de mesure des variations de ce paramètre au cadre d intervalle de tolérance spécifié. Les instruments de mesure actuels, tels que les appareils à contact, sont de plus en plus performants et capables de mesurer plusieurs paramètres (la circularité, la planéité, le battement, etc.) avec une précision de l ordre du micron. Les mesures ainsi collectées sont transférées par intervalles réguliers vers un module informatique afin d être analysées. A condition d être utilisés correctement et dans des conditions atmosphériques et physiques adéquates, les appareils de mesure assurent la meilleure résolution des données acquises. Dans ces conditions, un problème réel dans la conception de telles pièces reste d améliorer le 49

59 processus d inspection de leurs caractéristiques géométriques par une interprétation correcte des modèles statistiques associés. Figure 1.8. La mesure de la coaxialité [TEC EASE INC., 005] Tous les dispositifs de contrôle de la coaxialité peuvent contrôler également les caractéristiques de concentricité. Pour cette raison, les concepteurs et les ingénieurs parfois choisissent de contrôler la concentricité comme paramètre représentatif. Malheureusement, la concentricité ignore la taille, l'arrondi et la forme cylindrique des pièces. Elle exige une ligne médiane (figure 1.8) désignée par l utilisateur. Néanmoins dans tous les processus de conception la mesure de la concentricité ne suffit pas, car les paramètres de taille, d arrondi et de forme cylindrique ne peuvent pas être ignorés [TEC EASE INC., 005]. Une analyse rigoureuse s impose, donc, de la géométrie des profilés étudiées, afin de bien choisir le paramètre à surveiller. Différents tests d adéquation sur les jeux de mesures de ces paramètres permettent d établir avec une marge d erreur minimale, la nature de leur distribution représentative [Baklizi, 005], [Militaru, 001]. Toutefois ces tests nécessitent un nombre plus ou moins élevé d observations, et on ne dispose pas toujours de la quantité d informations requise. Malgré cela, il est prouvé que le nombre des mesures nécessaires à la rejection de l hypothèse nulle pour la distribution normale este dans la plupart de cas très réduit [Fournier et al., 006]. Pour les distributions qui modélisent les paramètres de forme mentionnés, soit une loi de distribution log normale, demi normale, ou une loi de Rayleigh., il existe certaines 50

60 propositions de méthodes destinées à établir les limites de contrôle adéquates à leur nature asymétrique ou uni modale, à l aide des principaux paramètres statistiques associés. En dehors des méthodes déjà discutées dans le chapitre I, comme la loi de distribution de Burr [Yourstone et Zimmer, 199], ou la famille des distributions de Johnson [Clements, 1989], la famille des distributions de lambda généralisée, GLD (Generalized Lambda Distribution), s avère efficace dans la modélisation d une large catégorie de distributions [Fournier et al., 006]. Les limites de contrôle sont ainsi établies par le biais de quantiles et de calcul des quatre paramètres des GLD. Une alternative attirante concerne le développement d une méthode non paramétrique et plus générale de calcul des limites de contrôle. Cela dispenserait l utilisateur de la tâche du test d adéquation. Toutefois il est difficile d imaginer une solution général valable de contrôle qui ne tient pas compte au moins des relations existantes entre les différentes lois des distributions. Dans la figure 1.8, la zone de tolérance de 0.3 unités s adresse aux écarts mesurés entre la ligne médiane dévoilée dans les plans d axes des deux cylindres et l axe de référence. Supposons que l appareil de mesure est parfaitement réglé et étalonné, des échantillons de données mesurées seront soumis à l analyse pour la détection des pièces non conformes aux spécifications. Il a été démontré que la mesure de la coaxialité peut être décomposée selon les deux directions d axes d un système cartésien, ce qui conduira à deux variables indépendants [Sauvay, 1999], correspondant respectivement aux mesures sur les deux axes, l abscisse, X, et l ordonnée, Y. Comme il est décrit dans le chapitre I, les deux variables ainsi obtenues seront identiquement distribuées d après une loi normale de distribution, de moyenne 0 et d écart type σ [Sauvay, 1999]. Les mesurés des variations de la coaxialité suivent une loi de distribution de Rayleigh, dont le paramètre de forme peut être facilement calculé à partir de la décomposition d après les axes X, Y. Dans cette optique, une approche détaillée sur les propriétés de transformation existantes entre la loi de Rayleigh et la loi normale seront introduites dans ce mémoire. Cette approche théorique nous servira pour une meilleure compréhension des relations existantes et pour certains calculs nécessaires dans nos démarches. Par ailleurs, dans la pratique seule une méthode MSP performante, impliquant la stabilité des mesures suivies et une bonne détection des pièces hors contrôle, est intéressante. La maîtrise statistique du processus d inspection de la coaxialité comporte la détection des variations hors contrôle par rapport à l intervalle de tolérance exigé (par exemple 0. 3 unités 51

61 dans la figure 1.3). Par conséquent, il n est pas économique à construire des cartes de contrôle pour les deux variables composant la mesure de coaxialité, qui sont normal distribuées. Cela paraît une solution assez simple car les cartes classiques pourraient facilement être mises en place. Cependant l utilisateur ne dispose pas des spécifications en termes de limites de tolérance pour de telles variables. L analyse des variables suivant les deux directions du système cartésien nécessitait le double des moyennes de contrôle et serait consommatrice de temps. Il pourrait alors être intéressant d appliquer une carte de contrôle avec des limites adéquates sur les mesures réelles des écarts de coaxialité. La particularité à mentionner sur les processus d inspection des paramètres mécaniques est le fait que les mesures sont, dans presque tous les cas, positives. Par conséquent, les lois de distributions seront uni - bornées, dont les données ne sont pas obligatoirement symétriques autour d une valeur centrale. Les variations de symétrie seront plus précisément les mieux décrites par une loi de distribution log normale, les variations de la coaxialité par une loi de distribution de Rayleigh, etc. [Sauvay, 1999], [Duclos, 1997]. Pour offrir une image d ensemble sur l incidence des distributions non gaussiennes et asymétriques dans les différents processus réels, quelques exemples des caractéristiques de différentes provenances avec les lois de distributions représentatives sont réunis dans le tableau 1.1 : Type de caractéristique/défaut Données financières Temps de défaut Durée de vie des composants, fatigue Nombre des défauts de manufacture Réactions chimiques Propriétés mécaniques de matériel (en général) Coaxialite, concentricité Variations de symétries Loi de distribution Log normale Gamma Weibull, Valeur extrême Poisson Logistique Valeur extrême Rayleigh, Valeur extrême Log normale Tableau 1.1 : Les lois de distributions représentatives pour quelques caractéristiques non gaussiennes Nous avons choisi d avancer nos travaux sur les problèmes des tolérances géométriques et des variations de forme, et précisément dur l amélioration des méthodes de contrôle de la caractéristique de la coaxialité. 5

62 Nous allons présenter par la suite quelques propriétés générales des distributions bornées unilatéral ou asymétriques avec en particulier la description des propriétés probabiliste de la distribution de Rayleigh. Nos propositions d améliorations des méthodes MSP pour les distributions non gaussiennes et asymétriques seront présentées dans les sections Distributions asymétriques. La loi de Rayleigh Sous le nom des distributions bornées unilatéral, ou asymétriques nous réunissons les distributions pour lesquelles les valeurs sont toutes supérieures à une valeur inférieure finie. Pour les processus d inspections décrits antérieurement, cette valeur inférieure est fixée à zéro, car les mesures des variations sont toutes positives. Dans cette situation, la distribution de mesures ne reste plus symétrique par rapport à une valeur cible centrale, comme dans le cas de la distribution normale. Dans cette catégorie, on peut citer la loi de distribution log normale, la distribution de gamma, la distribution de valeur extrême, ou la distribution de Weibull, etc. Ces lois de distribution interviennent dans la description des caractéristiques pour des domaines variées, tels que dans le domaine électronique, médical, chimique et de l automobile. Si, par exemple, dans l étude des tolérances d ajustement et de la capabilité d un processus de réalisation d un alésage le modèle d une loi normale tronquée est suffisamment représentatif [Sweet et Tu, 006], les variations de coaxialité ou de symétrie impliquent une loi de distributions de Rayleigh, où de défaut de forme [Sauvay, 1999]. A ses origines, la loi de Rayleigh apparaît souvent pour décrire le bruit en sortie de certains récepteurs. Elle a été introduite pour la première fois par Lord Rayleigh (1880) pour les problèmes intervenus dans le domaine acoustique. Une première forme de sa densité de probabilité est introduite par l auteur Miller dans les années 1964 pour représenter la densité de probabilité des distances entre l origine et les points d un espace euclidien, dans le domaine atomique/chimie moléculaire (étude de résonance et de changement des spectres dans la dispersion des électrons). La densité de probabilité de type Rayleigh est un cas particulier des lois de distributions classiques, telle que la loi de distribution de χ, la loi de Weibull ou la loi normale, dans des conditions particulières et bien définies. Ainsi une première forme générale a été obtenue à partir de la loi chi-deux, χ [Johnson et al., 1994]. La loi de Chi-deux avec N degrés de liberté à une fonction densité de probabilité de la forme : 53

63 p χ v x N 1 1 ( x) =, x 0 N N e x Γ( ) (1.7) où Γ() est la fonction gamma. La loi de Rayleigh représente, en effet, un cas particulier de la loi Chi-deux, pour N=. Pour démontrer la relation de transition, considérons l espace euclidien N-dimensionnel ( Y Y, Y,..., ) 1, 3 Y N, avec Y i, variables indépendantes identiquement distribuées d après une loi de distribution normale, N (0, σ ). Introduisons une nouvelle variable, X, définie par : X = N Y i = 1 i (1.8) La densité de probabilité la nouvelle variable, X, a l expression : p X ( x, N, σ ) = (σ ) N Γ ( N ) e ( x σ ) x N 1, x > 0, σ > 0 (1. 9) Cette forme générale, (1. 9), est connue dans la littérature sous le nom de «la distribution Chideux avec N degrés de liberté et le paramètre d échelle σ». La fonction exprimée par (1.9) est uni modale de mode : N 1σ. Dans la figure 1.9 est illustrée la densité de probabilité de la loi de Rayleigh pour différents valeurs de son paramètre de forme, σ. On remarque la tendance d aplatissement de la courbe, à mesure que le paramètre σ augmente, ce qui est normal compte tenu de la variation directement proportionnelle de l écart type de la distribution de Rayleigh, par rapport à son paramètre d échelle, σ (voir tableau 1.). A partir de la forme générale de la loi de Rayleigh (équation 1.9), pour différentes valeurs du N nous pouvons également obtenir les expressions d autres densités des probabilités connues, parmi lesquelles la distribution de Rayleigh. Ainsi pour N=1 la relation (1. 9) devient : 54

64 1 x (σ ), x> 0, σ > 0 σ π e, (1.10) Figure 1.9 : La densité de probabilité de Rayleigh, p x ( x ), pourσ = 0.5 : 3 ce qui représente la densité de probabilité demi - normale, un cas particulier de la loi normale tronqué [Johnson et al., 1994]. Pour N=3 nous obtenons la forme : 3 x p ( x,3, σ) = ( ), > 0, σ > 0 3 σ x X e x, (1.11) σ π qui est la fonction densité de probabilité de Maxwell- Boltzmann. Pour N= on obtient la forme la plus connu de la loi de Rayleigh, qui est une loi continue avec la fonction densité de probabilité : x /σ p ( ) = x x x e, x 0, σ > 0 σ (1.1) Avec la formule (1. 6), la fonction de répartition pour une loi de Rayleigh est exprimée par la relation suivante: 55

65 x FX ( x) = 1 e σ,0 x, σ> 0, (1.13) Méthodes d estimation du paramètre de la loi de Rayleigh Les principales caractéristiques statistiques de la loi de distribution de Rayleigh peuvent être facilement exprimées en fonction de son paramètre de forme, σ. Leurs expressions se retrouvent dans le tableau 1.. En ce qui concerne l estimation du paramètre σ, différentes méthodes ont été proposées. Notamment la méthode de maximum de vraisemblance et particulièrement les méthodes d estimation linéaires sont le plus fréquemment adoptées [Johnson et al., 1994], [D. Kundu et al., 004]. La méthode BLUE (Best Linear Unbiased Estimation), par exemple, proposée par Norman [Johnson et al., 1994] est basée sur la construction d une statistique d ordre, X ' ' r+ X r+ ' n 1... X s avec r et s, respectivement, la plus petite et la plus grande observation omise à cause des contraintes expérimentales. Par le biais de la méthode généralisée de moindres carres, il obtient l estimateur BLUE pour σ d une loi de distribution de Rayleigh, qui prend la forme: où : ' ',..., ' = ( Xr+ 1, Xr+ Xn s ) T Σ Σ T Χ, = E[ Χ] 1 n s ' σ = α * T Χ= X i 1 i (1.14) α i= r + a1 α α 1, Σ= ( ) σ 1 Var Χ, a i sont des paramètres avec des σ valeurs standard [Johnson et al., 1994], et la variance de l estimateur BLUE est : * Var ( σ ) = σ T (1.15) 1 α α Σ 56

66 Statistique Le Mode La Médiane Expression N 1σ = σ σ log 4= σ ' r r r Le moment d ordre r = E [ ] = Γ( r + 1) La moyenne La variance Le coefficient d asymétrie (skewness ) Le coefficient d aplatissement ( kurtosis) µ r X σ E [ X ] = σ π 5331σ 1. σ π Var ( X) = (4 ) σ β ( X ) = 1 ( π 3) ( 4 π ) π ( 3 3 ) β ( X ) = π ( 4 π ) Tableau 1. : Les expressions des principaux paramètres statistiques de la distribution de Rayleigh Une autre méthode d estimation, ABLUE (Asymptotique Best Lineair Unbiased Estimation) considère k statistiques d ordre, λ, λ,..., λ, [Johnson et al., 1994]. L estimateur ABLUE 1 k s exprime par : k = b ** ' σ ix [ n ] (1.16) λ + 1 i i= 1 où b i est un paramètre standard, introduit par Johnson et al.[johnson et al., 1994]. Essayons de détailler pour le paramètre σ d une distribution de Rayleigh, la méthode d estimation de maximum de vraisemblance, connue aussi comme MLE (Maximum Likelihood Estimation). Pour un échantillon X,..., distribuée selon la loi de Rayleigh, on a : L n n X i i = 1 σ σ i= 1 ( X1 X,..., X n; ) = 1 n X i e 1, X X n, de la population, (1.17) σ Le MLE du paramètre σ est donné dans la relation (1. 18): 57

67 ˆ σ = 1 n X n i i=1 1 (1.18) L intervalle de confiance de σ est : [Johnson et al., 1994] : n ˆ σ χ n,1 α, n ˆ σ n, α χ (1.19) où χn, α et χ n,1 α sont les quantiles de la distribution Chi - deux avec n degrés de liberté Quelques particularités de la loi de Rayleigh. Domaines d incidence Comme nous avons déjà souligné, la loi de Rayleigh est une distribution Chi-deux avec deux degrés de liberté et avec un paramètre échelle, σ >0. La loi de Rayleigh est définie par une variable : x + 1 x R = (1.0) où x 1 et x sont des variables aléatoires normales centrées réduites. On peut également obtenir sa fonction de probabilité à partir de la particularisation de la loi de Weibull. Une variable aléatoire X suit la loi de Weibull de paramètres β > 0, λ> 0 si elle est absolument continue et admet pour densité : f( x) = βλ e λx β x β 1 f ( x) = 0, x < 0, x 0 (1.1) Pour les paramètres β =, λ= 1/ on retrouve la loi de distribution de Rayleigh. 58

68 Les relations de transfert entre la distribution de Rayleigh et d autres lois de distribution peuvent intervenir dans les démarches statistiques qui concernent la loi de Rayleigh, mais elles sont applicables seulement dans des conditions particulières. Ce rappel sur les transformations possibles et sur les liens entre la distribution de Rayleigh et d autres modèles statistiques est destiné à élargir la vision sur ses principales propriétés qui serviront dans nos prochaines démarches. Ayant ses bases dans le domaine de transmission réception, la distribution de Rayleigh a été obtenue en analysant les signaux bruits en bande étroite définis par Rice dans le journal «Bell Laboratories» ( ). La variable de type Rayleigh caractérisait l amplitude de l enveloppe du bruit associé au processus de transmission des signaux. Dès nos jours l application de la loi de Rayleigh ne se limite pas au domaine de la transmission. Certains auteurs se sont intéressés de près à la loi de Rayleigh et l ont utilisé dans leurs démarches. D. Kundu, par exemple, [D. Kundu et al., 004], considère que la distribution de Burr de type X introduite par Padgett est une distribution de Rayleigh généralisée. A partir des simulations de type Monte Carlo, il analyse les méthodes d estimation pour le paramètre de loi de Rayleigh. D autres [Hu et Lin, 000] utilisent la distribution de Rayleigh avec le paramètre σ = 1afin d étudier les couples des variables identiquement distribuées selon une loi normale. La distribution de Rayleigh est suggérée également dans l inspection de la propreté d un processus de production du domaine aérospatiale où le phénomène de coaxialité demande de l investigation, ou bien pour des problèmes de symétrie [Woodward, 1997], ainsi que les études sur la fiabilité des systèmes mécatroniques [Mihalache et al., 005]. C est grace à son incidence dans les procédures d inspection des caractéristiques géométriques décrites ci dessus, que nous l avons intégré dans nos propositions d amélioration des méthodes de contrôle statistique des caractéristiques non gaussiennes. Dans ce contexte deux nouvelles méthodes de contrôle seront proposées par la suite de ce chapitre. Une premiere est la carte de contrôle aux paramètres variables et la seconde est une méthode théorique basée sur l estimation des quantiles associées à la distribution étudiée. L application de ces méthodes pour la loi de distribution de Rayleigh sera présentée par la suite de nos travaux. 59

69 Application des cartes de contrôle avec paramètres variables pour les lois des distributions asymétriques A partir des travaux de Lin et Chou [Lin et Chou, 005b], qui ouvrent le chemin de recherche sur la carte de contrôle aux paramètres variables, nous nous sommes intéressés à explorer cette méthode pour les processus représentés par des lois des distributions asymétriques ou unilatérales bornées. Pour cette catégorie des lois de distribution nous n avons pas identifié pendant nos recherches une méthode MSP qui répond vraiment aux problèmes de détection des petits déréglages autour d une valeur centrale, ou qui assure un contrôle adapté pour les productions petite série ou celles où le contrôle individuel (pièce par pièce) est exigé. Alors qu il s agit de leurs incidence dans des processus d inspection, où les erreurs de contrôle de dimensions parfois d ordre micrométrique peuvent entraîner des répercussions graves dans les secteurs majeurs de l industrie (aéronautique, automobiles, semi-conducteurs, etc.), la mise au point des méthodes de contrôle plus exigeantes est impérative. Grâce aux résultats obtenues par Lin et Chou [Lin et Chou, 005b] pour une distribution Gamma et Student, nous espérons de prouver les performances de la méthode, précisément dans la détection des petits déréglages dans le cas d une loi de distribution asymétrique, comme la loi de distribution de Rayleigh. Le principe de la carte de contrôle X avec paramètres variables (pour plus simplicité elle sera notée la carte VP- Variable Parameter) est basé sur les travaux de Costa [Costa, 1999], qui s intéresse sur le calcul des probabilités d observations réelles de se retrouver dans différentes zones par rapport à la valeur cible. Les approches de Lin et Chou [Lin et Chou, 005a], [Lin et Chou, 005b] utilisent l algorithme de Costa dans la construction d une carte de contrôle qui présente la particularité de pouvoir varier tous les paramètres représentatifs. Généralement dans la pratique, la construction d une carte de contrôle réclame trois paramètres essentiels. Ce sont respectivement la taille d échantillon prélevé, l intervalle de prélèvement, et les limites de contrôle calculées à l aide des coefficients spécifiques, choisis selon le cas. Pour simplifier nous appelons ces coefficients «coefficients de contrôle». 60

70 Le principe de fonctionnement de la carte VP est décrit en détail dans le chapitre I de ce mémoire. Dans une première étape nous avons réalisé une analyse du protocole de mise en place de la carte VP pour les distributions analysées. Par le biais des simulations numériques (de type Monte Carlo) nous avons vérifié en pratique les résultats obtenus par ces auteurs pour les distributions Gamma et Student. Le module de simulation nous servira également pour une première évaluation de l application de la carte VP pour la distribution de Rayleigh. Nous avons identifié dans les approches existantes un manque d analyse quantitative à propos des configurations des paramètres choisis pour expérimenter les cartes VP. Les résultats ne sont pas complètement analysés et comparés avec des valeurs de référence, ce qui relativise leur utilité. En conséquence nous essayons par la suite répondre également au problème d interprétation des résultats du contrôle par cartes VP, en introduisant des nouveaux indicateurs de performances et en analysant les résultats obtenus par rapport aux méthodes connues..1 La conception d une carte VP pour la loi de distribution de Rayleigh Nous détaillons dans cette section les étapes de conception d une carte de contrôle aux paramètres variables pour la distribution de Rayleigh. La plupart des études sur les cartes de contrôle avec des paramètres variables comportent la variation d un seul des trois paramètres représentatifs. Pour contrôler les moyennes de populations non normales il a été montré qu une bonne solution est la variation d'un ou plusieurs paramètres [Chou et al. 001b], [Lin et Chou, 005b]. Ainsi on change d un prélèvement à l autre soit la taille d échantillon, soit la dimension d intervalle de prélèvement, soit les limites de contrôle. Une meilleure méthode est de combiner la variation de la taille d échantillons avec des intervalles de prélèvement variables et des coefficients de contrôle variables. Le principe, introduit par Costa Costa [Costa, 1999], est simple et il est basé sur la variation entre deux valeurs possibles des trois paramètres intervenant dans la construction d une carte de contrôle : la taille d échantillon, l intervalle de prélèvement et les limites de contrôle. Nous notons ces paramètres représentatifs par T i pour les intervalles de prélèvements et N i pour les tailles d échantillons. En ce qui concerne les limites, elles sont déterminées comme décrit par les relations.1,., à l aide des coefficients K i et W i qui son respectivement les coefficients de contrôle et 61

71 d avertissement qui délimiteront respectivement la zone centrale et la zone d avertissement [Lin et Chou, 005b]. Sous l hypothèse d état initial stable, le première échantillon est prélevé avec des valeurs classiques de ces paramètres, comme pour l application d une carte de Shewhart [Lin et Chou, 005b]. Conséquemment, dans nos calculs l indice i (T i, N i, K i, W i ) est compris entre 0 et qui corresponde aux trois valeurs possibles prises par ces paramètres de contrôle. Pour les échantillons suivant le premier prélèvement, l une parmi les deux catégories des paramètres correspondants aux zones délimitées sur la carte de contrôle, sera utilisée. Pour exemplifier, supposons µ 0 la moyenne et s0 l écart type d une population soumise à l étude. Considérons a priori qu elle suit une loi de distribution de Rayleigh et que, dans une étape initiale le processus est stable et il n y a pas des causes assignables qui peuvent influencer la nature de nos données. Sous ces hypothèses, définissons comme Lin et Chou [Lin et Chou, 005b] la région centrale limitée par les coefficients W 1, et la région d'avertissement décrite par les coefficients de contrôle, K 1,. Pour les deux tailles d échantillons, N 1 et N, les limites de contrôle et d avertissement son calculées avec les formules ci dessous, rappelées dans le chapitre I: LCL UCL i i = µ 0 K = µ 0 + K i i s 0 N s 0 N i i (.1) LWL UWL i i = µ 0 W = µ 0 + W i i s 0 N s 0 N i i (.) où i= 1,, correspondant aux deux valeurs des paramètres de contrôle. Dans la figure.1 est illustré le schéma bloc de la mise en place de la carte de contrôle VP proposée. En considérant que les mesures surveillées sont échantillonnées à partir de l état stable du processus nous devons établir les conditions d échantillonnage pour le départ. Nous associons typiquement à N 0, la taille du premier échantillon prélevé, la valeur classique de 5 observations. A partir de cette valeur on se rapproche d une loi normale quand on représente la distribution des moyennes d une loi de Rayleigh. 6

72 L intervalle de prélèvement, T 0, est égal à l unité de temps de production et nous assignons la valeur 3 au coefficient K 0 car l hypothèse de processus stable pour le départ permette l application d une carte de Shewhart [Lin et Chou, 005a]. La moyenne et l écart type seront estimés pour le premier prélèvement. La carte VP a été appliquée pour différentes valeurs du paramètre de forme de la loi de Rayleigh, σ : σ = 0.5, 1, 1.5,,.5, 3. Le premier échantillon étant considéré sous contrôle, nous associons pour le départ les limites de contrôle associées au cas le plus favorable (cas A décrit dans le diagramme.3, chapitre I), quand il n y a pas de signes d instabilité dans le processus : LCL = 0 = LCL1, UCL0 UCL1 LWL = 0 = LWL1, UWL0 UWL1 (.3) L algorithme figuré dans le diagramme.1 décrit l application de notre carte de contrôle. Il a été implémenté dans un module de logiciel Matlab qui serve à calculer le nombre moyen des échantillons des différentes tailles, avec et sans déréglage de la moyenne de la distribution de données. Nos résultats sont obtenus par le biais des simulations de type Monte Carlo. Nos conditions expérimentales consistent en a générer des données théoriques suivant une distribution de Rayleigh. Ces données en pratique sont associées aux mesures prélevées au cours d un processus continu (par exemple les mesures de la coaxialité en temps réel dans la production des cylindres mécanique). Notre processus est considéré stable pour le départ. Les différents scénarios d évolution (l apparition des défauts) sont générés par des modules de calcul dédiés. On étudie la rapidité de détection d un défaut avec la méthode des cartes de contrôle aux paramètres variables en comparant ses performances avec celles d une carte de contrôle classique telle qu une carte de contrôle de Shewhart. Pour une interprétation appropriée des performances des cartes VP pour la loi de distribution de Rayleigh, nous utilisons un grand nombre des simulations de l algorithme ( ) en considérant approximativement observations par simulation. De point de vue statistique cela permettra une estimation cohérente (moyenne et écart type) pour la valeur de chaque indicateur analysé : intervalle de temps ou nombre d observations avant la détection, etc. 63

73 Figure.1 : Schéma bloc d application des cartes VP pour une distribution de Rayleigh En pratique, seulement quelques paramètres de contrôle sont choisis et connus par l utilisateur Costa [Costa, 1999]. Le reste est déterminé par le biais d une approche théorique basée sur les probabilités associées aux données sous l étude, de se retrouver dans les différentes régions de la carte de contrôle. Subséquemment, les paramètres N 0, T 0, K 0, N 1, T, N, K 1 sont les paramètres connus, tandis que les paramètres T 1, K, W 1 et W seront déterminés avec les formules: 64

74 T0 ( N T = 1 N1) T ( N N N 0 0 N ) 1 (.4) K 1φ( K0 )( N N1 ) φ( K1 = φ N0 N1 )( N N ) 0 (.5) W i 1 φ ( K )( 0) = i N N N N φ [ ], i = 1, ( N N ) 1 (.6) Dans les relations (. 4) (.6) φ(x) représente la loi normale centrée réduite [Costa, 1999]. Dans ce contexte quelques précisions seront nécessaires concernant le choix des valeurs des paramètres variables. Conformément à la démarche de Costa [Costa, 1999], qui a établit le critère du choix de ces paramètres, quand le processus vient de commencer (ou quand il est remis en marche juste après la détection d une cause assignable), la taille du premier échantillon est aléatoire et peut être fixé par l utilisateur (c est N 0 ). Tant que le processus est sous contrôle, il existe toujours une probabilité p 0 pour la taille d échantillon d être petite, et une probabilité 1- p 0 d être grande (figure.). Figure. : Le chois des paramètres de la carte VP. Carte de contrôle avec taille d échantillons variable pour le départ d état stable 65

75 La probabilité p 0 est donnée par : p = P[ Z < Wi Z < K i ], i 1, (.7) 0 = où Z est une variable distribuée selon la loi normale centrée réduite. Dans le design des cartes VP on doit normalement déterminer huit paramètres : (N 1, N ), (T 1, T ), (K 1, K ) et, respectivement, (W 1, W ). Avec la probabilité p 0 ces paramètres vont satisfaire les relations : N + ( = N (.8) 1 p0 N 1 p0 ) 0 T + ( = T (.9) 1 p0 T 1 p0 ) 0 P Z > K ] p + P[ Z > K ](1 p ) = P[ Z > ] (.10) [ K 0 Où la valeur de N 0 est choisie comme 4, 5 (valeurs classiques, d une carte X de Shewhart qui peuvent être employée pour le départ dans l état stable). L intervalle de temps T 0 est une unité de production est la valeur de K 0 est fixée généralement à 3 ou bien à Il reste à définir les paramètres qui sont à varier et les paramètres déterminés par le calcul, avec les équations Costa [Costa, 1999] montre qu il est préférable de fixer les valeurs des paramètres (N 1, N ), T et K 1, pour les raisons suivantes : Les valeurs de N et T dépendent du temps nécessaire à prélever une observation, ainsi le choix de (N 1, N ) permet d éviter les erreurs d approximation vers le plus proche entier, qui interviennent dans le calcul à base des probabilités. Comme le rôle de la carte VP est la détection des très faibles déréglages de la moyenne du processus, il est préférable d utiliser des valeurs très grandes pour K 1, qui peuvent pratiquement assurer un risque des fausses alarmes de zéro (K 1 >=4) Avec ce raisonnement, les valeurs des paramètres (W 1, W ) T 1 et K seront calculées avec les relations Quant à l évaluation des performances d une carte de contrôle aux 66

76 paramètres variables, Costa [Costa, 1999] ou Lin [Lin et Chou, 005b] proposent des indicateurs développés à base des approches statistiques de Mongomery [Montgomery, 1997]. Ainsi, à partir de l hypothèse que le temps entre l apparition des causes spéciales suit une loi de distribution exponentielle, Costa [Costa, 1999] propose un algorithme basé sur les chaines de Markov pour déterminer le temps de détection comme fonction du paramètre de la loi exponentielle [Costa, 1999]. Cet intervalle de temps est équivalent au temps d apparition d un déréglage de la moyenne du processus de la forme δ = ks, µ = µ 0 + δ, avec µ 0 et s la moyenne et l écart du départ, dans l état stable. D'autre part, la méthode théorique d estimation des performances proposée par Costa ne nous a semblé pas la plus appropriée au jugement d efficacité de la carte VP car les conditions initiales de cette approche présentent différentes contraintes. Dans bon nombre des cas l hypothèse de distribution normale ou d état stable ne sont pas respectées. De même, on ne peut pas se limiter à calculer les performances d une carte VP en utilisant uniquement les moyennes d échantillons prélevés, sans une interprétation réelle du nombre d observations prélevées. Afin de mieux interpréter les résultats de notre analyse, et de pouvoir comparer les performances des différentes cartes de contrôle nous introduisons deux nouveaux indicateurs appelés NO 0 et respectivement NO 1. NO 0 représente le nombre moyen d observations avant l apparition d une première alerte fausse tandis que NO 1 correspond au nombre moyen d observations avant la détection d un certain déréglage. L utilisation des indicateurs de performances NO 0 et NO 1 permet d avancer une analyse pertinente des résultats obtenus, car on ne dépend plus des tailles variables d échantillons. Afin d évaluer les performances en détection de la carte VP nous avons généré dans la moyenne des données étudiées des déréglages de différents amplitudes (figure.3), exprimés par : δ = ks, µ = µ 0 + δ (.11) où k = 0.5 3, µ 0 est la moyenne du processus dans l état initial stable, et respectivement µ et s sont la moyenne et l écart type courants, calculés pendant le prélèvement. Comme attendu, sous l effet des déréglages introduits (figure.3), la courbe de densité de probabilité de Rayleigh est visiblement aplatie, car la variance augmente avec le déréglage, l aire délimitée restant unitaire. 67

77 Figure.3. : La distribution de Rayleigh sans déréglages et avec différents déréglages, δ ; k = A partir des travaux de Lin et Chou [Lin et Chou, 005b] nous avons considéré nécessaire de réaliser une analyse quantitative des combinaisons possibles des tailles d échantillons, N 1 et N. Les auteurs cités ont prouvé que les cartes de contrôle avec des paramètres variables améliorent la détection des déréglages très petites de la moyenne du processus en employant une taille N 1 très petite et une taille N très grande. Nous considérons qu une explication supplémentaire est nécessaire pour argumenter notre choix de contrôle avec les tailles variables des échantillons. De point de vue statistique, pour une taille d échantillon de 1, le contrôle sera fait sur la loi de distribution de base (asymétrique). Plus la taille d échantillon est grande, plus on se rapproche de la loi normale de distribution pour les moyennes. En conséquence, pour une loi asymétrique, le contrôle avec des échantillons de petites tailles (N 1 ) laisse passer plusieurs faux signaux du coté de la limite supérieure de contrôle, étant donnée que en réalité la limite inférieure est zéro. Ces faux signaux ne seront pas interprétés comme des faux signaux par ensemble, ils seront repris dans le contrôle avec la taille plus grande (N) qui est fait sur une loi normale de distribution et les limites de contrôle dans ce cas sont symétriques par rapport à la moyenne. Nous nous sommes intéresses également au risque de ne pas détecter un vrai déréglage, qui pourrait être signalé par les limites d avertissement (le contrôle avec la taille N 1 ) et ne sera pas détecté avec les limites de contrôle (le contrôle avec la taille N ). Cet aspect nous l avons analysé par le biais des risques alpha associées a deux paires des limites de contrôle, ce qui a conduit au développement d une nouvelle carte de contrôle qui 68

78 combine la théorie des quartiles avec le principe des cartes VP. Cette carte de contrôle sera introduite dans la section 4 de ce chapitre. Concernant l application de la carte VP, comme elle a été introduite par Lin et Chou [Lin et Chou, 005b], nous avons souligné dans l état de l art certaines inconvénients liés au choix de la meilleure configuration des tailles d échantillons N 1, N. Rappelons que les auteurs analysent la configuration des paramètres à fixer : N 1 =, N =, K 1 =6, T =0.1, dans les conditions d un processus continu avec l état initial stable. Cette carte de contrôle offre des bons résultats pour la loi de Gamma, mais les auteurs n ajoutent pas d explications ni de justification de ce choix. Dans le cas d une loi de Rayleigh, nous avons réalisé une étude des toutes configurations possibles de ces paramètres. Notre étude est faite par le biais des simulations de type Monte Carlo et applique le principe des plans d expériences pour les paramètres NO 0 et NO 1 obtenus, en fonction de toutes les combinaisons des valeurs des paramètres N 1, N, K 1, T, comme indiqué dans le tableau.1. Paramètre N 1 N K 1 T Intervalle des valeurs [1 ; 4] [6 ; ] [4, 5, 6] [0.01, 0.05, 0.1, 0.] Tableau.1 : Les valeur des paramètres a fixer avant l application de la carte VP Le choix de ces valeurs s inscrit dans les critères décrites auparavant et les intervalles présentés dans le tableau.1 couvrent une gamme des valeurs suffisante pour nous permettre d estimer l évolution des paramètres calculés correspondants (T 1, W 1, K, W ) et aussi des termes NO 0, NO 1 de résultats expérimentaux. La valeur du facteur K 1 qui sert à définir les limites de contrôle a été choisie pour assurer un risque des fausses alertes pratiquement égal à zéro pour les prélèvements avec la taille N. La région de contrôle couvre l ensemble des valeurs possibles pour notre série des données. Durant le prélèvement avec des échantillons de grandes tailles on y retrouve la loi de distribution normale et cela élimine le risque des fausses alertes (en dehors de la région de contrôle). Nous avons fait varier les différentes valeurs des paramètres désignés dans le tableau.1. Pour plus de pertinence de nos résultats expérimentaux nous avons retenu les configurations des paramètres de la carte VP qui assurent un NO 0 égal ou proche des valeurs les plus usuelles 69

79 (le nombre moyen des fausses alertes, après 500 simulations). Ce sont les valeurs inscrites dans les normes d application d une carte de Shewhart individuelle : 370, 500 et respectivement 1000 observations avant l apparition d un signal hors contrôle. Les hypothèses de nos simulations de type Monte Carlo considèrent une population de observations, provenant d un processus d inspection de la coaxialité d une pièce cylindrique. Afin de mieux manipuler les paramètres «intervalle de prélèvement», on doit définir la «production» hypothétique, c est à dire le nombre des pièces inspectées par unité de temps. Ce nombre nous l avons calculé à partir de la valeur du NO 0 souhaitée, en suivant la logique suivante : Pour arriver à détecter un signal hors contrôle il faudrait utiliser au moins une fois chacune des deux valeurs de l intervalle de prélèvement, T 0 et T 1. Supposons qu un seul échantillon de chaque taille suffirait pour qu après 370 observations, un signal hors contrôle soit détecté. La production minimale devrait alors être égale à 370 divisé par la somme des T 0 et T 1. Compte tenu de la formule de calcul de T 1 (voir tableau.), nous avons estimé cette somme autour de la valeur de. unités de temps. En conséquence, si l on veut obtenir une fausse alerte après chaque 370 observations, une valeur pertinente pour l estimation de la production est de maximum 170 observations/unité de temps. En suivant la même logique on peut considérer un maximum de 30 observations/unité de temps pour le cas d un NO 0 égal à 500 observations, ou un maximum de 455 observations/unité de temps pour le cas d un NO 0 égal à 1000 observations. La valeur de 170 suffit pour l analyse des trois cas de figure mentionnés. Bien évidement le choix des valeurs des intervalles de prélèvement dépendant fortement de la valeur de la production per unité de temps, il est préférable dans la pratique de les choisir en fonction de la production réelle, donc de transformer les valeurs de T 1, T en nombre des pièces. Notre étude reste purement théorique mais l algorithme des cartes VP testé ici peut s adapter à toute production réelle. Prenant en compte toutes ces contraintes, l analyse avec des plans d expérience nous a fournit les configurations des paramètres d une carte VP qui, pour les valeurs de NO 0 définies, assurent la meilleure détection des différentes déréglages. Ainsi pour un NO 0 de 370 observations les meilleures configurations des paramètres contiennent les couples des valeurs (N 1 =1, N =8) ou (N1=1, N =9), avec K 1 supérieur ou égal à 4 et T inferieur ou égal à 0.. En variant les paramètres K 1 et T nous avons retenu la configuration : N 1 =1, N =8, K 1 =6, T =0., comme la plus efficace de point de vue détection des défauts ainsi que la plus économique de point de vue pratique. La taille de 8 70

80 observations par échantillons assure bien une distribution normale des moyennes des prélèvements à partir d une loi de Rayleigh, comme nous l avons signalé dans le chapitre I (Chapitre I, Section 1). Avec un K 1 =6 on évite les dépassements inutiles des limités supérieures ou inferieures de contrôle tandis que la valeur de T =0. assure un contrôle renforcé dans la région d avertissement sans le risque d une grande concentration des prélèvements, qui en réalité nécessitait des coûts supplémentaires de contrôle. En effet toutes les autres valeurs de T (tableau.1) nous ont conduit aux pratiquement les mêmes résultats, avec les mêmes valeurs des paramètres de configuration. Dans le cas d un NO 0 =500 observations nous avons remarqué une tendance inverse proportionnelle des valeurs de K 1 et N. Ainsi pour un K 1 très large (K 1 =6) la valeur de N est de 11 observations, pour K 1 =5, on retrouve N =1 observations et pour un K 1 =4, N =13 observations. Avec le même raisonnement comme dans le cas de NO 0 =370, nous recommandons pour le cas NO 0 =500 observations la configuration des paramètres : N 1 =1, N =11, K 1 =6, T =0.. En suivant les mêmes principes, dans le cas ou l on souhait avoir un NO 0 de 1000 observations avant la première fausse alerte, la combinaison idéale trouvée par le biais des plans d expérience comporte les valeurs suivantes: N 1 =, N =10, K 1 =5, T =0.. Par la suite nous appellerons respectivement la configuration I de paramètres la configuration qui comporte : N 1 =1, N =8, K 1 =6, T =0.,(NO 0 =370), la configuration II pour N 1 =1, N =11, K 1 =6, T =0. (NO 0 =500) et la configuration III pour N 1 =, N =10, K 1 =5, T =0. (NO 0 =1000). Les valeurs correspondantes des paramètres calculées pour ces trois configurations des paramètres sont regroupées dans le tableau.. Configuration T 1 W 1 K W I II III Tableau. : Les paramètres calculés pour les trois plus performantes configurations des paramètres applicables pour une loi de Rayleigh Dans nos calculs nous avons tenu compte des formules de la moyenne et de l écart type d une loi de Rayleigh en fonction du paramètre de forme (appelé usuellement σ pour une 71

81 distribution de Rayleigh). Pour éviter les confusions avec l écart type nous appelons ce paramètre b (voir tableau 1. de ce chapitre). Nos avons également considéré les hypothèses du contrôle individuel (pièce par pièce). Pour ces trois configurations des paramètres, les résultats de nos simulations numériques (500 de simulations de type Monte Carlo pour un set d observations de taille observations) sont inclus dans les tableaux.3.5. Nous avons comparés ces résultats avec les résultats d une carte de Shewhart classique: les premières valeurs sont les valeurs normées d une carte de Shewhart et les deuxièmes sont les valeurs obtenus en théorie, quand les limites classiques s appliqueraient sur une loi de Rayleigh, sans connaissance de la nature de loi de distribution. Cartes VP Cartes Shewhart L amplitude du déréglage NO Err(NO) Valeurs normes Application sur loi de Rayleigh de b= , , , , ,3 1, , 1, ,06 Tableau.3 : Les valeurs de NO 0 et de NO 1 obtenues par simulations pour la configuration I de paramètres de contrôle Cartes VP Cartes Shewhart L amplitude du déréglage NO Err(NO) Valeurs normes Application sur loi de Rayleigh de b= , , , , , , ,07 Tableau.4 : Les valeurs de NO 0 et de NO 1 obtenues par simulations pour la configuration II de paramètres de contrôle 7

82 Cartes VP Cartes Shewhart L amplitude du déréglage NO Err(NO) Valeurs normes Application sur loi de Rayleigh de b= , , , , , , ,11 Tableau.5 : Les valeurs de NO 0 et de NO 1 obtenues par simulations pour la configuration III de paramètres de contrôle Les limites de contrôle de type Shewhart s appliquent en suivant l approche classique : calcul de la moyenne et de l écart type des données, réduction à la forme centré réduite et calcul du risque beta associé à l apparition des différentes déréglages. Il est évident que pour l analyse illustrée ci-dessus, les résultats d une carte de Shewhart restent les meilleurs. En conséquence les limites de la carte de Shewhart pourraient s appliquer sans problèmes dans le cas d une loi de Rayleigh de paramètre b=1. Cependant nous l avons supposé que la loi de distribution n est pas connue, or la question qui se pose est si la carte de Shewhart pourrait s appliquer avec le même succès sur n importe quelle forme d une loi de distribution de Rayeigh. Dans le tableau suivant quelques cas particuliers de l application d une carte de Shewhart sur les différentes formes d une loi de distribution de Rayleigh indiquent des valeurs de NO 1 complètement différents de cas à cas : 73

83 Valeurs de la période de détection avec les limites de Shewhart pour L amplitude du différents paramètres de loi de Rayleigh déréglage/paramètre de loi b=1 b= b= ,00 370,00 370, ,47 09,11 78, , 78,47 151, ,19 31,4 78,47 1,9 14, 4,08.5 1,6 7,7 3,79 3 1,06 4,19 14, Tableau.6 : Les valeurs de NO 0 et de NO 1 pour l application d une carte de Shewhart pour différentes formes de la distribution de Rayleigh On voit bien que dans le cas d une loi de Rayleigh de paramètre b= 3 les valeurs de détection d une carte de Shewhart sont beaucoup plus mauvaises par rapport aux résultats fournis par la méthode de cartes VP. Cartes VP Cartes Shewhart L amplitude du déréglage NO Err(NO) Valeurs normes Application sur loi de Rayleigh de b= , , Tableau.7 : Les valeurs de NO 0 et de NO 1 pour une loi de Rayleigh de paramètre b=3 Comme on peut voir dans les tableaux.3.5, si on se rapporte aux valeurs des normes pour les cartes de contrôle classiques de Shewhart (NF X06-031), les cartes VP offrent des résultats satisfaisants pour cette étude de cas, précisément dans la détection des petits déréglages. Au même temps, nos valeurs pour l application de la carte VP sont obtenues par simulations numériques de type Monte Carlo et les erreurs (écarts type de nos résultats sur

84 simulations) sont considérables. Pour résoudre cet aspect nous avons réalisé une étude de l intervalle de confiance dans lequel on retrouve 95% de ces valeurs. Supposons que les moyennes sur les 500 simulations sont distribuées selon la loi normale, les limites supérieure et inférieure de l intervalle de confiance (IC) à 95% seront calculées avec les quartiles Z α/ de la loi normale centrée réduite, en respectant la relation : X Zα / Err ( X )/ n NO X + Zα / Err ( X )/ n (.1) où α/ est égal à 0.05 (c est le risque alpha correspondant au seuil fixé, 95%), X est la moyenne de NO obtenue empiriquement et Err ( X ) son écart type, et n est le nombre total des simulations (500). Dans la figure.4 nous avons illustré graphiquement la comparaison entre les performances de la carte VP (configuration I des paramètres de contrôle) et celles de la carte de Shewhart : NO0 Comparaison VP/Shewhart pour POM0= Shew hart pour b=3 VP ,5 1,0 1,5,0,5 3,0 amplitude déréglage Figure.4 : Les performances de la carte VP pour la configuration I de paramètres de contrôle Pour l étude de cas présente on peut affirmer avec une précision de 95% que dans le cas d une loi de Rayleigh de paramètre égal à 3, la carte VP détecte les différentes déréglages plus rapidement qu une carte de contrôle de Shewhart. La même conclusion dans le cas d un risque alpha plus réduit. C est qui relève notre analyse également les configurations II et III des cartes VP, correspondantes aux valeurs POM0=500 75

85 et POM0 =1000, pour la distribution de Rayleigh de paramètre 3. Dans les deux cas mentionnés la carte VP détecte plus vite que celle de Shewhart : 500 Comparaison VP/Shew hart pour POM0= Shew hart pour b=3 VP NO ,5 1,0 1,5,0,5 3,0 amplitude déréglage Figure.5 : Les performances de la carte VP pour la configuration II de paramètres de contrôle 1000 Comparaison VP/Shew hart pour POM0= Shew hart pour b=3 VP NO ,5 1,0 1,5,0,5 3,0 amplitude déréglage Figure.6 : Les performances de la carte VP pour la configuration III de paramètres de contrôle Si pour le paramètre de loi égal à 1 la carte de Shewhart pouvait s appliquer sans problèmes sur une loi de Rayleigh, quand ce paramètre change la méthode de cartes VP donne des meilleurs résultats. Dans le tableau.8 nous avons illustré les résultats de notre analyse comparative pour les paramètres de loi et 3 : 76

86 Analyse des distributions de Rayleigh de parametre et 3 POM0=370 amplitude déréglage VP Limite sup IC Limite inf IC Normes Shewhart pour b=3 Shewhart pour b= 0 37,95 383,86 36,03 370,00 370,00 370,00 POM0=500 0,5 157,96 168,90 147,01 155,00 79,00 09,11 1,0 3,90 35,40 30,41 44,00 15,00 78,47 1,5 10,63 11,16 10,10 15,00 78,00 31,4,0 6, 6,36 6,07 6,30 4,00 14,,5 5,36 5,44 5,9 3,0 4,00 7,7 3,0 5,05 5,07 5,0,00 14,00 4,19 amplitude déréglage VP Limite sup IC Limite inf IC Normes Shewhart pour b=3 Shewhart pour b= 0 499,79 513,93 485,65 500,00 500,00 500,00 POM0=1000 0,5 196,70 11,47 181,93 63,08 370,74 74,99 1,0 4,90 46,39 39,41 90,96 196,88 99,60 1,5 13,15 13,90 1,40 34,9 99,60 38,65,0 7,7 7,48 7,06 14,81 5,9 16,97,5 5,76 5,86 5,66 7,3 8,97 8,43 3,0 5,3 5,39 5,5 4,11 16,97 4,7 amplitude déréglage VP Limite sup IC Limite inf IC Normes Shewhart pour b=3 Shewhart pour b= , ,07 975, , , ,00 0,5 385,94 415,55 356,33 49,78 717,08 517,16 1,0 8,8 90,06 75,58 157,17 360, 173,5 1,5 0,40 1,87 18,93 55,10 173,5 6,69,0 9,00 9,47 8,53,19 86,78 5,74,5 6,04 6, 5,86 10,5 45,93 11,99 3,0 5,6 5,34 5,17 5,41 5,74 6,31 Tableau.8 : Comparaison de la détection des déréglages avec la carte VP et avec la carte de Shewhart pour une loi de distribution de Rayleigh de paramètre égal à 3 Rappelons que dans le cas présenté ci dessous l utilisation des valeurs d une carte de Shewhart (valeurs normées) est impropre, car elle a été développée pour une loi de distribution symétrique (la loi normale de distribution). Dans notre cas la loi étant asymétrique il est clair que l application des limites classiques (symétriques) n est pas adéquate. Nous avons ensuite supposé que les limites classiques de Shewhart sont appliquées ( UCL=µ + 3s, LCL=µ 3s ) sans avoir a priori réalisé un test d adéquation à la loi normale 0 0 (c est souvent le cas dans l industrie). Tandis que pour le paramètre de loi de Rayleigh égal à 1 la carte de Shewhart détecte mieux les différentes déréglages, quand ce paramètre change la carte avec paramètre variable est plus adaptée. 77

87 Dans cette section nous avons accompli une analyse de la mise en place de la carte de contrôle VP pour la loi de distribution de Rayleigh. Parmi les avantages de cette méthode nous citons la facilité de mise en place et son caractère non paramétrique car nous n avons pas besoin de connaître la distribution des données a priori. La perspective d une bonne détection des très faibles déréglages encourage l exploration de la méthode et permet d espérer à son amélioration vers la mise en place pour la catégorie des processus d inspection introduite dans ce chapitre. Plusieurs aspects doivent être pris en compte pour le choix d une configuration optimale, à partir des conditions liées aux coûts, performances souhaitées, et après une analyse des plusieurs combinaisons possibles entre les paramètres variés. Pour avancer dans notre analyse nous avons considéré toutes les configurations possibles de ces paramètres. Ainsi, en utilisant la technique des plans d expérience nous avons identifié trois configurations des paramètres les plus performantes pour la loi de distribution de Rayleigh. En ce qui suit nous allons introduire pour comparaison la méthode de contrôle théorique, «idéale», qui est basée sur l estimation des quartiles. Nos recherches seront ainsi dirigées vers le développement d une méthode de contrôle plus appropriée aux distributions asymétriques, la méthode basée sur l estimation des quartiles, qui va servir au même temps pour le jugement correct des performances de la carte VP. Après la description de cette méthode et sa mise en place pour la distribution de Rayleigh, une étude comparative sera détaillée, ainsi qu une étude critique sur la nécessité du contrôle statistique d après une variable distribué selon la loi de Rayleigh. 3 Les cartes de contrôle basées sur l estimation des quantiles Nous considérons par la suite un contexte paramétrique, quand la distribution des données réelles est connue et ses principaux paramètres (la moyenne, les moments, etc.) peuvent être déterminés. En analysant les caractéristiques de la loi de probabilité, on peut calculer les performances théoriques de la détection des déréglages induites dans la moyenne de cette distribution, à partir d une valeur donnée pour la période d apparition des fausses alertes (risque alpha). Cette valeur peut être une valeur désirée en pratique, dépendant du processus étudié, où plus précisément dans notre analyse, la valeur empirique de NO 0, obtenue par simulation des cartes 78

88 de contrôle VP. Cela permettra d analyser les performances en détection des méthodes proposées, pour un même taux des fausses alertes. Dans notre approche les limites de contrôle sont calculées à base des probabilités statistiques de l'incidence fausse d'alarme et respectivement de la période de détection pour de petits ou grands décalages de la moyenne. Nous proposons par la suite la méthode des quantiles pour une loi de Rayleigh. Les indicateurs utilisés pour le jugement des performances de contrôle expriment le nombre moyen d observations avant l apparition de la fausse alerte, NO 0 et avant la détection d un déréglage, NO 1 et permettront l analyse raisonnable des résultats offerts par d autres méthodes de contrôle, telle que la carte VP où une carte de contrôle individuel classique. 3.1 Mise en place de la méthode pour la loi de distribution de Rayleigh Dans un processus d inspection mécanique, supposons un set de mesures du paramètre de coaxialité. Notons avec x, la variable statistique qui représente ces mesures. Sachant que la loi de distribution représentative de la variable x est une loi de distribution de Rayleigh [Sauvay, 1999], les limites de notre carte de contrôle théorique sont développées à base de la relation existante entre les paramètres d une loi normale et ceux d une loi de Rayleigh (voir le tableau 1, section 1.3 de ce chapitre). Considérons, par exemple, que nous souhaitons assurer entre les limites de contrôle approximativement un pourcentage de 99.73% de la distribution de x, quand le processus est sous contrôle. Les positions rectangulaires seront deux variables indépendantes et distribuées après une loi normale, N( µ N, b). Nous notons le paramètre de forme de la loi de Rayleigh avec b, afin d éviter les confusions qui pourraient être générées entre ce paramètre, (qui généralement est noté avec σ ) et les différents écarts type intervenus dans nos calculs. Nous notons également µ R la moyenne et σ R l écart type de la loi de distribution de Rayleigh. Conformément à la figure 3.1 et en tenant compte de la relation entre la moyenne µ R de la distribution de Rayleigh et son paramètre de forme (tableau 1.), nous avons : µ R = π b 1.5 b (3.1) Respectivement : 79

89 σ R = π b b (3.) où le paramètre de forme, b, est égal àσ, l écart type de la loi normale correspondante N (figure 3.1). Afin d établir les limites de contrôle pour la variable considérée, x, nous calculons la probabilité statistique d avoir 99.73% de sa distribution dans l intervalle [0, UCL], où 0 représente la limite inférieure (les mesures contrôlées sont positives) et UCL (Upper Control Limit) est la limite supérieure de contrôle, qui reste à déduire. b=1,,3 Figure 3.1 : La relation entre la distribution normale représentant les coordonnées polaires et la distribution de Rayleigh (étude du paramètre de coaxialité) p ( 0 x UCL ) = (3.3) UCL 0 f ( x) dx UCL = 0 x σ N e x b dx = 1 e UCL b (3.4) En remplaçant l égalité 3. dans l équation 3.4, l expression de la limite de contrôle supérieure sera : UCL= b= 5.5σ R (3.5) 80

90 Les limites de contrôle théoriques pour la loi de Rayleigh seront ainsi : LCL = 0 UCL = 5.5 σ R (3.6) Ce sont les limites de contrôle théoriques quand on souhaite avoir un risque des fausses alertesα = 0, 007, ce qui dans un contrôle individuel correspond à un nombre des 370 d observations avant l apparition de la fausse alerte. Nous allons par la suite généraliser cet algorithme pour obtenir les formules des limites de contrôle idéales pour n import quelle valeur du risqueα. Selon la théorie statistique, la probabilité des observations de se retrouver en dessus de la limite supérieure de contrôle correspond à : p ( 0 x UCL ) = 1 α (3.7) où α représente le risque associé à l apparition des fausses alertes. La formule 3.7 est valable pour toute loi de distribution asymétrique et bornée à gauche en zéro (les valeurs des observations sont positives). Avec les nouveaux indicateurs nous pouvons alors écrire : α = 1/ NO (3.7) 0 Cependant, il existe un risque, β, associé à la probabilité de ne pas détecter un déréglage alors qu il a été intervenu dans la moyenne de notre processus. 1 β = 1/ NO (3.8) 1 A partir de la fonction de répartition d une loi de Rayleigh (expression 3.4) la limite de contrôle supérieure peut s exprimer en fonction du risqueα, selon la formule 3.9 : UCL = b 1 ln( α ) (3.9) 81

91 Considérons qu un déréglage est intervenu ainsi que la moyenne, µ R0 de la loi de base soit déréglé, le déréglage ayant l amplitude : δσ R0 où σ R0 est l écart type avant l apparition de déréglage et δ = Les valeurs affectées par le déréglage suivront une loi de distribution de Rayleigh de même écart type comme dans l état initial, et de moyenne µ R1, exprimée par la relation π µ = µ + δσ = µ + δ b R1 R0 R R0 (3.10) D ici on a l expression de la nouvelle moyenne, comme fonction de paramètre b : π π µ = b + δ b R 1 (3.11) La nouvelle variable crée après le déréglage est une variable distribuée selon la loi de Rayleigh, de moyenne µ R1 et d écart typeσ R1. Notons avec b 1 le paramètre de cette nouvelle distribution de Rayleigh. La fonction densité de probabilité de notre variable s exprime dans ces conditions par: f R 1 ( x ) = b x 1 e x b 1 (3.1) D où on peut obtenir l expression du risque β : β = P ( x < UCL µ = µ 1 ) = 1 R R e UCL b1 (3.13) Avec les relations 3.7 et 3.8 et en remplaçant l expression de UCL dans la relation 3.9, on obtient l expression de NO 1, l intervalle de détection, en fonction du risque α et conséquemment, comme fonction de NO 0 : NO b 1 b1 b 1 = = NO 0 b1 α (3.14) 8

92 A base des propriétés du paramètre de loi Rayleigh (tableau 1.1) cherchons maintenant à exprimer la relation entre le paramètre de distribution avant le déréglage, b, et celui de la distribution après le déréglage, b 1. π Sachant que µ 1 1 b R = et en tenant compte de la relation 3.11 nous allons trouver le rapport b : b 1 b (3.15) b 1 1 = δ 1 π Pour plus de simplicité nous allons noter ce rapport avec f (δ ). Avec la relation 3.14 nous pouvons maintenant établir la relation entre le taux de fausses alertes, NO 0 et la rate de détection, NO 1 comme une fonction du coefficient de déréglage, δ (relation 3.16). NO = 1 ( δ ) NO 0 f ( δ ) (3.16) Cette expression permet d évaluer les performances idéales en détection, à partir d un taux de fausses alertes, NO 0 souhaité. Pour illustrer, nous avons fixé comme valeur de NO 0 la valeur classique de 370 observations, considérant le contrôle individuel. Les valeurs idéales de détection des différentes déréglages de la moyenne d une variable distribuée selon Rayleigh seront celles incluses dans le tableau 3.1. Coefficient de déréglage, δ NO ,13 1 1, ,41 4,11.5 3,03 3,4 Tableau 3.1 : La détection avec la carte théorique basée sur les quantiles, pour un taux de fausses alertes NO 0 =370 On peut voir toute de suite que les valeurs sont très petites, ce qui suggère une détection rapide même pour les déréglages de très faible amplitude. Cependant il est pertinent de faire 83

93 une analyse comparative entre les résultats fournis par le contrôle avec une carte de type VP et ces valeurs idéales. La valeur 370 de NO 0 traduit un risque des fausses alertes de qui est une valeur usuelle pour le contrôle avec les méthodes classiques. Les formules établies par les relations 3.15 et 3.16 assurent les valeurs les plus performantes de NO 1 en fonction du taux des fausses alertes souhaité (NO 0 ). Conséquemment nous considérons que les limites de contrôle décrites par la relation 3.6 peuvent être mises en place comme limites idéales de contrôle pour la distribution de Rayleigh pour n importe quelle valeur de NO 0. Nous avons repris, pour exemplifier, les valeurs obtenues avec la carte VP pour les configurations I-III des paramètres. Pour ces configurations de paramètres les intervalles de détection par ensemble étaient acceptables, et en plus, pour un risque très réduit d incidence des fausses alertes, ils étaient meilleurs que les périodes de détection d une carte de contrôle individuelle de Shewhart pour la distribution normale. Dans les tableaux on peut analyser les performances de la carte VP par rapport aux valeurs théoriques idéales pour un risque alpha égal à 0.007, à 0.00 et à respectivement. Valeur du coefficient NO 1 de déréglage, δ Carte de contrôle VP Méthode théorique Simulations numériques ,956 41,13 1 3,904 1, ,68 6,41 6,16 4,11.5 5,364 3,03 3 5,048,4 Tableau 3. : Comparaison entre la méthode empirique et la méthode théorique, à base d un taux des fausses alertes, NO 0 =370 84

94 Valeur du coefficient NO 1 de déréglage, δ Carte de contrôle VP Méthode théorique Simulations numériques ,70 49,70 1 4,9 14, ,15 7,04 7,7 4,41.5 5,76 3,1 3 5,3,56 Tableau 3.3 : Comparaison entre la méthode empirique et la méthode théorique, à base d un taux des fausses alertes, NO 0 =500 Valeur du coefficient NO 1 de déréglage, δ Carte de contrôle VP Méthode théorique Simulations numériques ,94 76,84 1 8,8 19, ,4 8,76 9 5,1.5 6,04 3,66 3 5,56,85 Tableau 3.4 : Comparaison entre la méthode empirique et la méthode théorique, à base d un taux des fausses alertes, NO 0 =1000 Conformément aux tableaux , la méthode basée sur les quartiles offre les meilleurs résultats dans toutes les situations sans exception. Par ailleurs les résultats de l application de la carte VP ont été obtenus par voie empirique et ils doivent être rapportés à un intervalle de confiance déterminé par les écarts types (erreurs) associés, tandis que la méthode des quartiles est exacte. Les travaux que nous avons réalisés dans ces dernières sections ont portés sur le développement des deux méthodes de contrôle statistique pour une distribution de Rayleigh, qui est applicable dans les procédures d inspection de la coaxialité. Une première méthode, non paramétrique, est la carte de contrôle aux paramètres variables. Elle présente l avantage d offrir une bonne détection des petites déréglages, mais induit le risque des couts élevés lorsqu on doit détecter des déréglages importantes. Visiblement, un 85

95 avantage majeur de cette méthode est le fait qu elle ne nécessite pas la connaissance a priori de la distribution. On peut espérer l appliquer pour une catégorie des mesures réelles et positives susceptible d avoir une distribution à tendance unilatérale, avec la certitude que la détection des différentes déviations sera plus rapide que celle d une carte de contrôle de Shewhart. La deuxième méthode de contrôle est plutôt une approche théorique, et peut offrir un support pour la vérification des outils de contrôle pour des processus complexes qui sont susceptible d être affectés par déréglages des amplitudes variables. Une contrainte apparente est son caractère paramétrique, car la connaissance de la distribution des mesures est impérative. Cela peut être résolu par le biais d un test d adéquation adéquat aux mesures à contrôler. Cette approche peut représenter un référentiel MSP pour le jugement des performances des nouvelles méthodes proposées pour les distributions non gaussiennes. Dans nos démarches concernant le contrôle d un processus d inspection de la coaxialité, nous avons analysé une variable abstraite, suivant une distribution de Rayleigh et la question évidente concerne son applicabilité dans la pratique, pour l inspection des défauts de la coaxialité. Lorsque l inspection des deux composantes de cette variable (respectivement les mesures suivant les deux axes du système cartésien) pourrait être mise en place, a quoi ça peut servir alors une méthode de contrôle pour la distribution de Rayeigh? La section suivante est destinée à analyser cette problématique et traite le cas du contrôle par composante de la variable de la coaxialité. 3. Analyse critique sur la pertinence d utilisation des cartes de contrôle non gaussiennes dans la pratique d inspection de la coaxialité La question qui semble naturelle dans le contrôle statistique des mesures de la coaxialité est pourquoi ne pas appliquer une carte de contrôle classique sur chaque des deux mesures selon les axes du système orthogonal, sachant que ces mesures sont représentées par deux lois de distribution normales? Nous avons décrit dans la section 1.1 le principe d inspection de la caractéristique de coaxialité (figure 1.3). Une fois l axe de référence, A, établie, la variable de coaxialité est obtenue comme une résultante des ces deux mesures selon les directions horizontale et verticale du système d axes. 86

96 Dans la figure 3. nous avons noté avec X et respectivement Y les variables représentants les deux mesures composantes de la mesure de coaxialité. Notons avec R la variable représentante de ces mesures, qui est distribuée selon la loi de Rayleigh. Figure 3. : L inspection de la coaxialité. Décomposition d une variable de Rayleigh. Les variables X et Y étant deux variables normalement distribuées, la variable R est déterminée par la relation 3.18 : R = X + Y (3.17) La problématique abordée dans cette section est l utilité de la mise en place d une carte de contrôle pour la variable composée, R, dans les conditions où cette variable est abstraite et le déréglage intervenu à un moment donné dans le recueil des mesures peut survenir selon l axe horizontale, selon l axe verticale, où bien selon les deux axes, verticale et horizontale. Dans ces conditions le contrôle statistique de la variable X où Y avec une carte de Shewhart par exemple, pourrait résoudre le problème du contrôle des défauts de la coaxialité, car on peut identifier et remédier directement le problème, par composants de la variable R. Un premier argument qui contrevient au contrôle indépendant de ces deux variables, X et Y est le fait que les spécifications finales concernent la coaxialité (dans la figure 3., la tolérance s adresse au paramètre de la coaxialité et non à une des mesures composantes). En conséquence les résultats du contrôle par composantes devraient en tout cas être transposés dans des résultats concernant une seule variable, celle de la coaxialité. Un autre inconvénient du contrôle individuel peut concerner les coûts de mise en place car on applique deux cartes de contrôle en lieu d une seule. 87

97 Tous ces éléments doivent prises en compte avant de choisir la méthode la plus adéquate, et ceci nous a déterminé à réaliser une analyse comparative entre le contrôle statistique d une variable de Rayleigh et le contrôle statistique de ses composantes. Nous imaginons deux situations possibles : le déréglage est intervenu soit sur la variable X, soit sur la variable Y le déréglage affecte les deux variables, X et Y 3..1 Etude de cas I : le déréglage intervient soit sur la variable X soit sur la variable Y Considérons que l on applique une des cartes de contrôle classique sur les variables X et Y qui suivent une loi normale : X N(0,1) Y N (0,1) (3.18) où 1 représente le paramètre de la loi de distribution de Rayleigh descriptive de la variable R. Nos hypothèses considèrent que les mesures suivant les deux directions peuvent être transformées pour que le contrôle soit réalisé sur les variables centré réduites, X et Y. Considérons le contrôle individuel de ces composants et considérons que le déréglage intervenu est de taille k = δb, b étant au même temps l écart type de la loi normale avant le déréglage, et δ est le coefficient de déréglage. Si le déréglage affecte seulement une des deux variables X ou Y, nous pouvons exprimer l impact de ce déréglage sur la variable de la coaxialité (distribuée Rayleigh). Supposons que la variable X a souffert un déréglage k, la nouvelle variable représentant les mesures selon l axe horizontale sera : X 1 = X + k. De même, si on considéré que le problème est intervenu dans les mesures sur l axe verticale, on va obtenir une nouvelle variabley 1 = Y + k. La nouvelle variable de coaxialité sera notée avec R 1 et est exprimées dans la relation 3.19 : 1 = X 1 Y R + On peut maintenant calculer le déréglage induit dans la variable de coaxialité : (3.19) 1 R = kx k R + 88

98 (3.0) Naturellement, la nouvelle variable, R 1 a un paramètre b 1 différent de paramètre b (de la variable R). Avec les expressions de l espérance et de la variance probabiliste, nous allons exprimer la relation entre ce nouveau paramètre de loi, b 1 et le paramètre b, avant le déréglage : E [ R R ] = E[ R ] E[ R ] = E[kX + ] (3.1) 1 1 k Comme : E [ kx ] = ke[ X ] = 0 (3.) Il en résulte d ici que: 1 R ] (3.3) E [ R = k Au même temps on peut déterminer l espérance mathématique des variables R 1 et R via les formules du tableau 1. section 1.3, qui expriment les relations entre le paramètre de loi de Rayleigh, son espérance et son écart type : π 4 π E [ R1 ] = E [ R1 ] var[ R1 ] = b1 + ( ) b1 = b π 4 π E = [ R ] = E [ R] var[ R] = b + ( ) b b 1 (3.4) Avec les relations 3.4 on obtient la relation entre les paramètres b et b 1 en fonction du déréglage k sur une des deux variables composantes de R : b (3.5) b 1 1 = 1 k 1+ b Dans notre analyse nous préférons garder les mêmes indicateurs des performances définis dans la section 3.1 de ce chapitre, respectivement NO 0 pour le taux des fausses alertes et NO 1 pour la rate de détection. Si on tient compte des relations 3.15 et 3.16 développées dans la section 3.1 on peut exprimer l intervalle de détection comme une fonction de NO 0 et de la taille du déréglage intervenu. 89

99 NO k 1+ = 0 b NO (3.6) Les valeurs ainsi obtenues sont théoriques, représentant les valeurs idéales pour la détection, dans les conditions établies (déréglage sur une des composantes de la variable de Rayleigh). Pour simplifier, nous étudions pour toutes les deux situations présentées le cas où la valeur du paramètre b est égale à 1, mais l analyse pourrait être généralisée aux différentes valeurs de b. Ainsi, comme les deux variables X et Y sont normales centrées réduites, et b=1, le paramètre k représente l amplitude du déréglage et sera égale à δ (écart type de loi normale égal à 1) et l expression du taux de détection sera : NO 1 = NO k (3.7) Nous avons comparé les valeurs théorique obtenues pour NO 1 avec la relation 3.7, avec les valeurs qui pourraient être obtenues suite à l application d une carte de contrôle classique (Shewhart, EWMA, CUSUM) directement sur la variable X (ou Y) qui était affecté par le déréglage(tableau 3.5). Valeur du coefficient de déréglage, δ Contrôle de la NO 1 Contrôle sur une des variables composantes, X ou Y variable R (méthode théorique) Carte de contrôle de Shewhart Carte de contrôle EWMA Carte de contrôle CUSUM , ,5 8,8 1 51, ,6 9, , , 5, 7,18 6,3 3,3 3,3.5 4,19 3,,38,9 3,93 1,78 1,7 Tableau 3.5 : Comparaison entre le contrôle d une variable Rayleigh et le contrôle par composante X ou Y. La valeur de NO 0 est égale à 370 observations. Les valeurs de NO 1 pour le contrôle des variables X/Y sont les valeurs de POM 1 trouvées dans les normes pour le contrôle individuel par le biais des cartes de Shewhart, EWMA et respectivement CUSUM. D après les valeurs du tableau 3.5 on voit bien que les valeurs idéales pour le contrôle de la variable de la coaxialité (à l exception de la détection d un déréglage détaille 0.5) sont 90

100 proches des valeurs offertes dans le contrôle classique par composante X/Y, sans jamais les atteindre. Cela suggère une détection plus rapide de la faute génératrice du défaut de la coaxialité, si on contrôle à la fois les mesures effectuées selon les deux axes du système orthogonal. La carte EWMA est la plus adéquate si on veut en plus détecter les plus petits déréglages sur une de ces deux composantes (figure 3.3). Figure 3.3 : Comparaison entre le contrôle d une variable Rayleigh et le contrôle par composante X ou Y. Il reste un seuil point à résoudre, celui de transfert des résultats d une carte de contrôle appliquée sur une des variables X/Y et les spécifications attribuées à la variable R de la coaxialité. Sans indications précises sur les limites de tolérance selon la direction horizontale ou verticale, le jugement seulement sur les variables X où Y ne sera pas raisonnable. La valeur de NO 1 déterminée par voie théorique pour un déréglage d amplitude 0.5 signifie qu un petit déréglage sur une des deux mesures composantes, est presque imperceptible sur la résultante, R, ce qui est normal si on regarde l expression de la variable R (une valeur très baisse d une des deux composantes peut être compensée par une valeur plus grande de l autre). Au même temps, ce déréglage sur une des composantes ne conduit toujours pas à un déréglage de la mesure de la coaxialité et le processus risque d être arrêté sans que la caractéristique soit hors contrôle. 91

101 3.. Etude de cas II : le déréglage intervient sur les deux variable, X et Y Nous avons analysé les répercussions sur la distribution de résultante R dans le cas où seule une variable X ou Y présente une faute. Nous avons trouvé que le contrôle par variable composante est plus efficace, les pré requis étant d une part l application des deux cartes de contrôle au lieu d une et d autre part le risque d augmentation des fausses alertes (car le déréglage sur la composante n a pas toujours un impact réel sur la variable résultante). Imaginons maintenant que les deux variables sont affectées par un déréglage de taille k = δb, avec b=1, l écart type des variables X, Y( X, Y N(0,1) ). Les nouvelles variables seront : X = X + k Y = Y + k 1 1 (3.8) De la même manière comme dans notre première étude, on exprime par le biais des grandeurs mathématiques, la relation entre la variable de Rayleigh, avant et après l apparition de ces déréglages : 1 R = k( X + Y ) R + k 1 R ] = ke[ X ] + ke[ Y ] + E[ k ] E [ R = k (3.9) La relation entre les paramètres de loi Rayleigh, b avant le déréglage et b 1 après le déréglage, devient : b 1 (3.30) b 1 = k 1+ b Comme nous avons considéré le cas de b=1 il résulte l expression suivante pour l intervalle de détection, NO 1 : 1 1 NO 0 1 NO = + k (3.31) 9

102 Dans le tableau 3.6 nous avons inclus la comparaison entre les valeurs théoriques déterminées avec la relation 3.31 et les valeurs normées d un contrôle individuel sur une des deux composantes de R, a partir d un NO 0 =370. Valeur du coefficient de déréglage, δ Contrôle de la NO 1 Contrôle d une des deux variables composantes, X ou Y variable R (méthode théorique) Carte de contrôle de Shewhart Carte de contrôle EWMA Carte de contrôle CUSUM , ,5 8,8 1 19,4 44 9,6 9, , , 5, 3,6 6,3 3,3 3,3.5,6 3,,38,9 3 1,81 1,78 1,7 Tableau 3.6 : Comparaison entre le contrôle d une variable Rayleigh et le contrôle par composante X ou Y, quand les deux variables sont déréglées On peut déjà remarquer que dans ce cas, sauf si le déréglage est très petit sur les deux composants (k=0.5), les valeurs de NO 1 sont très semblables dans le cas d un contrôle par variable composée, R, comme dans le cas d un contrôle par composante. A partir d amplitude 1 du déréglage les valeurs théoriques de contrôle uni variable se rapprochent des valeurs obtenues avec la carte EWMA optimale, et on peut voir dans la figure 3.4, que pour des déréglages plus signifiantes, (amplitude 3) les valeurs de détection théoriques sont les meilleures. Si on prend en considération le fait que, pour arriver au même résultats obtenus dans le contrôle sur R, les deux variables X et Y doivent être contrôlées et que cela nécessite l application des deux cartes de contrôle avec le prélèvement et les couts associés, nous estimons que la méthode directe de contrôle sur la variable de la coaxialité est plus économique. 93

103 Figure 3.4 : Comparaison entre le contrôle d une variable Rayleigh et le contrôle par composante X ou Y. cas d un déréglage généré sur toutes les deux composantes Toutefois il faut spécifier que les valeurs normées données dans les tableaux 3.5 et 3.6 pour les trois cartes de contrôle traditionnelles, sont les valeurs optimales. Dans le cas d une carte de contrôle de type EWMA ou CUSUM ces valeurs sont obtenues pour différents paramètres de la carte et n est pas pour une même configuration. Dans la pratique pour arriver à ces valeurs évidement on doit changer la carte de contrôle selon la taille du déréglage à détecter, ce qui n est pas toujours très confortable Etude de cas III : Les variables X et Y ne sont pas indépendantes, étude d une carte de contrôle multi variée Les deux études précédentes considèrent que les deux variables, X, Y sont indépendantes. Par contre, si entre les deux variables existe une corrélation, le déréglage d une des deux va entraîner de changements dans les valeurs de l autre, et aussi dans la variable de coaxialité. Dans une dernière étape de notre étude analytique nous avons étudié cet aspect par le biais d une carte de contrôle de type T de Hotteling qui tient compte d éventuelle corrélation entre les variables composantes X et Y. Nous avons considéré les deux situations possibles, quand seulement une des variables X ou Y est affectée par une déréglage, et respectivement quand les deux variables, X et Y sont 94

104 affectées par un déréglage. Les valeurs de NO 1 et NO 0 pour la carte de Hotteling ont été obtenus par simulations de type Monte Carlo. Dans le tableau 3.7 nous avons retenu les valeurs de détection d une carte T de Hotteling quand le déréglage est survenu seulement sur une des deux variables composantes de la variable de la coaxialité. Les valeurs de NO 1 obtenues pour les trois différentes valeurs du coefficient de corrélation, δ sont comparées avec celles obtenues avec une carte de Shewhat, EWMA ou CUSUM T appliquées directement sur la variable affectée et aussi avec les taux de détection d une carte basée sur les quartiles, appliquée sur la variable, R, de la coaxialité. L amplitude du déréglage, δ La carte de contrôle individuelle de Shewhart NO 1 Contrôle des deux variables composantes, X et Y avec la carte T de Hotteling, pour le coefficients de corrélation, δ : T δ = 0.1 T δ 6 T =0. δ = 0. 8 T Méthode des quartiles sur la variable R La carte EWMA La carte CUSUM NO 0 =370 NO 0 =37,8 NO 0 =383 NO 0 =371 NO0=370 NO 0 =370 NO 0 = ,97 159,05 95,98 191,80 6,5 8, ,5 39,806 17,68 51,54 9,6 9, ,648 11,684 4,41 16,16 5, 5, 6,3 9,674 4,77 1,948 7,18 3,3 3,3.5 3, 4,74,316 1,64 4,19,38,9 3,43 1,49 1,054,93 1,78 1,7 Tableau 3.7 : Le contrôle avec la carte T de Hotteling quand seulement une des deux variables, X ou Y, est affectée par un déréglage Nous pouvons facilement remarquer que les valeurs fournies par la carte de Hotteling ne sont pas les plus satisfaisantes. La seule situation où la détection avec la carte multi variée est plus rapide est quand il existe une forte corrélation entre les deux variables, X et Y, ( δ = 0. 8), et T quand le déréglage survenu sur une de ces composant est important ( >1.5 écarts type). Une des cartes traditionnelles, EWMA ou CUSUM, reste la plus efficace. Cependant nous devrons tenir compte dans leur application de deux contraintes possibles : 95

105 Par précaution dans la pratique est préférables d appliquer deux cartes de contrôle traditionnelles sur les deux variables X et Y, même si le déréglage est survenu seulement sur une des ces composantes. En effet en réalité l utilisateur ne peut pas savoir quelle est la composante affectée Si on choisit d appliquer la carte EWMA ou CUSUM, la corrélation possible entre les variables X et Y est ignorée ce qui entraîne des fautes dans l interprétation de leurs résultats Considérons maintenant le cas où les deux variables composantes de la coaxialité sont affectées par un déréglage et il existe une certaine corrélation entre ces variables. Selon les valeurs du tableau 3.8 on voit que la détection devient lente avec la carte multi variée, ce qui n est pas étonnant car certaines déréglages induites sur une des variables, X, Y, peut compenser un déréglage existent sur l autre composante. Les coûts associés à la mise en place des deux cartes traditionnelles ainsi que la corrélation sont dans ce cas des inconvénients. En plus, pour la deuxième situation la détection avec la carte de contrôle basée sur les quartiles est plus rapide (comparatif avec le cas où une seule des variables composantes est déréglée). Par contre, avec la carte théorique on ne peut pas juger sur l éventuelle corrélation existante. L avantage majeur de la carte théorique reste que dans les conditions d une faible corrélation elle s applique directement sur la variable de la coaxialité et pratiquement réduit les coûts de prélèvement par deux. Les résultats de cette analyse comparative entre le contrôle sur la variable de coaxialité et le contrôle par composante de la variable de coaxialité montrent que le choix de la méthode de contrôle des mesures de la coaxialité ne doit pas être fait au hasard. Si on souhaite réaliser le contrôle le moins économique (c est à dire directement sur la variable de la coaxialité), une analyse des données empiriques est impérative dans un premier temps, pour établir la loi de distribution, et ses paramètres représentatifs. Avec ces informations le contrôle par le biais d une carte de contrôle théoriques sera le plus efficace. 96

106 L amplitude du déréglage, δ La carte de contrôle individuelle de Shewhart NO 1 Contrôle des deux variables composantes, X et Y avec la carte T de Hotteling, pour le coefficients de corrélation, δ : T δ = 0.1 T δ 6 T =0. δ = 0. 8 T Méthode des quartiles sur la variable R La carte EWMA La carte CUSUM NO 0 =370 NO 0 =380 NO 0 = 367 NO 0 =354 NO 0 =370 NO 0 =370 NO 0 = ,47 6,70 5,14 113,39 6,5 8, ,9 108,15 15,51 19,4 9,6 9, ,9 45,55 50,08 6,17 5, 5, 6,3 11,34 0,1 3,94 3,6 3,3 3,3.5 3, 5,15 9,69 11,94,6,38,9 3 3,0 5,63 6,50 1,81 1,78 1,7 Tableau 3.8 : Le contrôle avec la carte T de Hotteling quand toutes les deux variables, X et Y, sont affectées par un déréglage Dans la situation où les conditions pratiques ne permettent pas de déterminer la nature de la distribution des mesures réelles (trop peu des données, les tests d adéquation ne fournirent pas une distribution représentative, etc.) nous encourageons la mise en place de la carte de contrôle aux paramètres variables qui détecte mieux les plus petits déréglages. Une carte classique comme la carte d EWMA pourrait également fournir des résultats satisfaisants, s il n existe pas de corrélation et si l on choisit de contrôler individuellement les deux composantes de la variable de coaxialité, X et Y. Concernant l aspect pratique de la mise en place des outils présentés, nous considérons que le plus économique est d appliquer une carte basée sur les quartiles, si entre les deux variables n existe pas de corrélation, où elle n est pas très forte, et une carte multi variée de Hotteling quand il existe une forte corrélation entre les deux composantes de la variable sous étude. 97

107 4 Conclusions Dans ce chapitre nous avons avancé des nouvelles propositions d améliorations pour le contrôle statistique des distributions asymétriques. Dans un premier temps nous avons étudié l application des cartes de contrôle avec paramètres variables. L'avantage principal de la méthode est représenté par la généralité de son application pour une grande classe de distributions, incluant les distributions normales. En outre, la méthode appliquée selon les indications de Lin et Chou [Lin et Chou, 005a], [Lin et Chou, 005b] est non paramétrique et en conséquence son application en pratique ne nécessite pas de connaissances de la nature des caractéristiques étudiées. Dans un premier temps nous avons souhaité tester les performances de cette carte pour la classe des distributions asymétriques. Pour cela, nous avons vérifié de manière empirique (simulations Monte Carlo) les résultats obtenus avec la théorie des chaînes de Markov [Lin et Chou, 005b] pour une distribution normale, pour une distribution de Gamma et pour une distribution t de Student [Lin et Chou, 005b]. Les résultats obtenus avec le modèle de Lin et Chou [Lin et Chou, 005b] étant tout a fait satisfaisants nous ont encouragé à continuer nos recherches pour élargir le champ d application des cartes VP. Nous avons choisi d analyser la méthode pour des lois asymétriques qui interviennent souvent dans les processus d inspections des pièces mécaniques des domaines de l aéronautique et de l automobile. Une présentation de quelques caractéristiques dimensionnelles représentées par des lois non gaussiennes qui sont spécifiques à ces processus, est incluse dans la première partie de ce chapitre. Nous avons étudié en particulier la loi de distribution de Rayleigh qui est représentative dans la description des variations de coaxialité. Nous avons réalisé une analyse par le biais des plans d expérience, afin de retrouver les meilleures configurations des paramètres à choisir dans l application des cartes VP. Cependant la carte de contrôle basée sur les variations des paramètres, seule, ne nous fournit pas les plus satisfaisants résultats pour la loi de Rayleigh, car la généralisation des trois configurations des paramètres étudiées est hasardeuse. Les résultats de nos simulations numériques ont laissé de la place aux discussions sur les conditions du choix des valeurs des paramètres fixes et variés introduites par Lin et Chou. Pour avoir des termes pertinents de comparaison, dans une deuxième étape de nos travaux nous avons développé une méthode théorique, que nous l avons appelle méthode des 98

108 quantiles. Celle-ci est basée su le calcul des limites de contrôle idéales à partir d un risque souhaité des fausses alertes. Cette approche permet de juger les performances d une carte de type VP aussi que les résultats de n importe quelle autre carte de contrôle, car les valeurs obtenues tiennent compte de la distribution étudiée et peuvent être considérées comme des valeurs de référence. Cette méthode peut être développée pour toutes les lois de distribution, normale et non normales. Concernant l application de la carte VP nos prévisions de départ sur la mutualisation de l application de la carte VP pour une classe des distributions (toutes les distributions asymétriques par exemple) ont été contredîtes. En effet la méthode de quantile offre des meilleurs résultats que la méthode VP pour une distribution de Rayleigh. Cependant, en fonction de processus et des ses contraints économiques, la méthode peut être choisie en pratique pour sa rapidité de détection des petits déréglages. Une perspective intéressante a été d analyser toutes les configurations possibles des paramètres qui interviennent dans la construction d une carte de contrôle VP pour la distribution de Rayleigh. Les configurations plus performantes ont été discutées dans la section de ce chapitre. Un autre problème soumis à la discussion par rapport a l inspection et au contrôle des mesures de coaxialité a été le choix de la variable à contrôler dans la pratique. Nous avons inclus dans la section III de ce chapitre une analyse critique sur les avantages et les inconvénients du contrôle de la variable distribuée selon la loi de Rayleigh versus le contrôle de chaque des deux composantes de ce variable. La deuxième carte de contrôle que nous avons développée pour la loi de Rayleigh est une méthode paramétrique, basée sur l hypothèse de connaissance de la loi de distribution des données ainsi que des propriétés probabilistes de cette distribution. Cette méthode offre les résultats idéaux pour le contrôle individuel (pièce par pièce), et peut être utilisée comme référence dans la classification des résultats fournis par d autres méthodes de contrôle. Bien que le développement théorique des limites de contrôle est complexe et peut nécessiter beaucoup d analyse statistique, nous soutenons fortement les travaux futures pour la conception de ce type des cartes de contrôle pour d autres lois non gaussiennes. Pour résumer, les travaux présentés dans ce chapitre ont porté sur le développement des nouvelles méthodes de contrôle des distributions asymétriques. Nous avons souhaité développer une méthode non paramétrique valable pour toute une classe de distributions, où en particulier pour une catégorie des mesures avec une tendance unilatérale (par exemples toutes les mesures intervenues dans les inspections des pièces mécaniques). 99

109 Nos résultats expérimentaux complétés par des développements théoriques montrent qu on ne peut pas développer une méthode générale de contrôle. Les cartes classiques de Shewhart peuvent s appliquer sans problèmes et offrent des résultats satisfaisants pour une seule forme de la distribution de Rayleigh. Les cartes de contrôle basées sur les quantiles offrent les valeurs de référence dans la détection des défauts d une loi de Rayleigh. Les cartes VP sont plus faciles à appliquer en pratique et donnent des bons résultats pour plusieurs formes de la distribution de Rayleigh. Enfin l analyse de certains liens entre les différentes distributions non gaussiennes, et l étude de leurs propriétés statistiques viennent améliorer les méthodes paramétriques, en établissant des valeurs de référence qui permettent l analyse correcte des résultats empiriques. Les perspectives d une continuation des travaux sur le sujet abordé dans ce chapitre devraient inclure une application pratique et un retour d expérience pour un processus d inspection d une pièce mécanique. Il est également intéressant d investiguer les méthodes proposées cidessous pour une autre loi de distribution, telle que la distribution lognnormale, ou la loi de Weibull. 100

110 Chapitre III : Contributions au contrôle des processus par le biais des modèles intégrés APC/MSP 1 Introduction Les systèmes industriels de nos jours sont de plus en plus automatisés et de plus en plus complexes (plusieurs caractéristiques, distribution non gaussienne, corrélation, ). Il est donc primordial de concevoir et de développer des techniques capables de diagnostiquer l état du système à tout moment, et de pouvoir régler les paramètres pour assurer le bon fonctionnement et surtout l insensibilité aux différentes perturbations. Dans la littérature, on trouve plusieurs techniques permettant d assurer la stabilité du système et le réglage de paramètres. Selon les communautés scientifiques, ces techniques sont répertoriées dans des termes différents (Diagnostic, Accommodation aux défauts, Sûreté de Fonctionnement, Fiabilité des systèmes, Théorie de la commande, Reconfiguration, Ingénierie robuste, ). Les techniques du contrôle automatique de processus font partie intégrante de ces concepts. Elles sont devenues au fil des années des outils incontournables dans le domaine de la production et de la conception en particulier en qualité et sûreté de fonctionnement. Ces outils permettent d assurer la stabilité de système et d atteindre les performances souhaitées même en présence des perturbations (robustesse). Néanmoins la nécessité de performance et stabilité de ces systèmes pour des périodes entendues de fonctionnement conduit à l intégration des techniques spécifiques de MSP. Les modèles de contrôle intégrés APC (Automatic Process Control)/MSP (Maîtrise Statistique des Processus) suscitent l intérêt de plus en plus souvent. Malgré cela il existe à l heure actuelle peu de démarches dédiées à l étude des performances offertes par ces modèles. Pour un système réel, qui généralement est soumis aux différents facteurs perturbateurs au cours de son fonctionnement, la simple utilisation des modèles déterministes automatisés n est pas suffisante, car souvent elles resteront insensibles aux perturbations ou déréglages apparus au parcours du fonctionnement (une fois la correction automatique appliquée, le fonctionnement est considéré normal). 101

111 L intégration des méthodes statistiques, comme superviseur du fonctionnement des schémas automatiques, élimine ces risques en assurant un contrôle prévisionnel afin de rendre le système plus robuste [Elsayed et al., 1995], [Gultekin et al., 00], [Gob et al., 1999]. Dans ce chapitre nous allons étudier la problématique de l intégration des modèles de contrôle APC et MSP. Après une brève révision des notions et des techniques de base du domaine automatique de contrôle, quelques modèles représentatifs seront discutés et deux études de cas seront introduites. Nos propositions d amélioration des systèmes intègres seront ainsi conduites sur deux modèles de contrôle automatique pour deux processus continus. Nous proposons des nouveaux modèles intégrés de contrôle pour ces processus, dont les résultats seront présentés par le biais des simulations numériques. Nous utiliserons la terminologie anglophone de techniques d APC (Automatique Process Control), car nous n avons pas encore aperçu un autre acronyme adopté en France. Au contraire, du fait de son apparition relativement récente, le domaine est connu dans la plupart d ouvrages sous l abréviation d APC. Le contrôle automatique de processus Comme nous l avons déjà mentionné dans la partie introductive, les procédés industriels sont soumis à des perturbations inhérentes, déterminées par des facteurs externes (la température ambiante, la pression atmosphérique etc.) ou à des perturbations internes (dysfonctionnements, déréglages d un appareil de mesure). Quelque soit le problème réel intervenu dans le fonctionnement d un système, il doit être transposé dans un modèle d optimisation bien choisi. Ayant en vue que le comportement des systèmes physiques réels est loin d être idéal, l automaticien cherche toujours à améliorer son comportement à l aide des lois mathématiques qui modélisent différentes variables caractéristiques pour le processus étudié (le bruit, la consigne, la sortie). Dans une interprétation plus générale sous le nom de APC on trouve des techniques et méthodes utilisées pour concevoir des modèles de contrôle automatique de processus. Dans ce domaine, un système ou un processus est vu comme un ensemble des relations entre les grandeurs d entrées (causes) et les grandeurs de sorties (effets) [Larminat, 1993]. 10

112 Un système causal standard peut être représenté sous forme graphique, très simplement, comme dans la figure.1. Un exemple classique de système standard est un moteur de courant continu (électromécanique) où l entrée est la tension d alimentation et la sortie est la position angulaire du rotor, θ [Larminat, 1993]. Selon différentes valeurs pour la tension d alimentation, on obtient différentes valeurs à la sortie (les effets). Perturbations externes Processus Sorties (effets) Figure.1 Système causal standard Dans l étude comportementale d un système il faut bien définir la notion de l état du système [Larminat, 1993], [Noura et al., 1996]. Le modèle le plus souvent utilisé par l automaticien est le modèle en boucle fermée, dans lequel le signal de la sortie est injecté à l entrée. L objectif principal de l automatique est celui d élaborer les lois de commande qui ont comme but de modéliser le signal de consigne afin d obtenir le signal de commande, u(t). Selon le nombre des grandeurs de commande il existe des systèmes uni variés ou multi variés. Le processus ainsi commandé nécessite une modélisation mathématique afin de réduire autant que possible l influence entre les perturbations inhérentes et la réponse finale. L objectif secondaire de l automatique est de contrôler l écart entre la sortie et la consigne du processus. Le modèle en boucle fermée réalise également une compensation de l effet des perturbations sur la sortie du processus. De manière générale un système automatique intègre deux parties : une partie «commande» qui élabore les lois mathématiques qui modélisent la référence et fournissent le signal de commande, et une partie «opérationnelle», qui contient le processus même, et modélise les 103

113 grandeurs d entrée (la commande) et les perturbations afin de minimiser leurs impact sur l écart de la sortie (figure.): Partie de commande Partie opérationnelle (Processus) Sortie Figure. : Les principales composantes du système automatique Le support mathématique utilisé par l automaticien comporte des systèmes d équations différentielles, linéaires ou non linéaires, qui expriment les sorties par une forme linéaire des variables d état et des variables d entrée. L analyse mathématique des systèmes algébriques induit des notions primaires comme la réponse indicielle, la réponse impulsionnelle, etc. Dans l intégration des méthodes de contrôle et de prévision spécifiques à la MSP dans un schéma automatique, quelques techniques spécifiques au domaine d automatique nécessitent à être définies. Ainsi une technique courante dans l APC est la commande par retour d état qui consiste à estimer ou reconstruire l état du système afin de ramener la sortie du système à la valeur souhaitée de la consigne. L accommodation aux défauts comporte le pilotage du système en élaborant des lois de commande afin de s accommoder aux perturbations. La reconfiguration c est la technique nécessaire pour modifier la loi de commande afin d obtenir les mêmes performances du système dans la présence de perturbations comme dans le cas du fonctionnement normal (sans défaillance). Nous citons également les techniques du filtrage qui consistent à déterminer des estimateurs de variable du système lorsque l environnement présente des perturbations aléatoires. Pour la bonne compréhension de la mise en place de ces techniques nous indiquons les travaux de P. Borne [Borne et al., 199], H.Noura [Noura et al., 1996] ou Larminant [Larminant, 1993]. 104

114 Dans un schéma classique d asservissement en boucle fermée (figure.3), le rôle central est détenu par un bloc de commande qui génère le signal de commande u(t). La sortie du processus sert de signal d entrée dans le bloc de commande. référence Bloc de commande u(t) Processus sortie y(t) sortie Figure.3 : Schéma en boucle fermée Généralement le bloc de commande (figure.3) contient un régulateur qui a comme signal d entrée l écart défini par la différence entre le signal de sortie, y(t), et le signal référence, r(t). En ce qui concerne l état du système, son expression mathématique la plus générale est décrite par les équations suivantes : x& = f ( x, u, t) y = h( x, u, t) (.1) où le vecteur x représente l état du système, u le signal de commande, t la variable temporelle, et y la sortie du système. Dans ce contexte, une étape essentielle dans l étude des systèmes automatiques concerne le choix du modèle le plus représentatif pour l analyse du système réel soumis à l étude. L analyse des spectres des signaux d entrée-sortie dévoile trois configurations possibles de systèmes (figure.4). Entrée gaussienne Système linéaire Réponse gaussienne Entrée non gaussienne Système linéaire Réponse non gaussienne Entrée gaussienne /non gaussienne Système non linéaire Réponse non gaussienne Figure.5 : Classement des systèmes d après la nature des signaux d entrée et de sortie 105

115 Dans le cas le plus général les systèmes linéaires sont fréquemment utilisés pour décrire un système non linéaire, dans deux situations possibles et distinctes : une première situation comporte le traitement direct des systèmes non linéaires par l intermédiaire des systèmes linéaires. C est le cas des systèmes à non linéarité séparable, pour lesquels, les modèles linéaires offrent de bons résultats. Ils ignorent les petites non - linéarités dans l'hypothèse des mouvements négligeables (cas des systèmes oscillants à un degré de liberté) ; au contraire la deuxième situation est le traitement indirect des systèmes linéaire par le biais des systèmes linéaires en procédant à la linéarisation du système non linéaire. Pour les lecteurs intéressés de la conception des systèmes automatiques nous recommandons les ouvrages de P. Borne, Larminant où Noura [Borne et al., 199], [Larminant, 1993], [Noura et al.,1996]. Les modèles automatiques élaborent ainsi des lois mathématiques qui tiennent compte de la variable d état du système et établissent les relations du transfert entre l état du système, les données d entrée et de sortie et les perturbations intervenues au cours de son fonctionnement. A partir du modèle classique en boucle fermée (figure.3), différents schémas représentatifs peuvent être développés, selon la nature du système et en tenant compte des facteurs perturbateurs qui peut l affecter pendant son fonctionnement. Perturbations Perturbations w 1 (t) w (t) r(t) z(t) Régulateur u(t) Processus y(t) y(t) Figure.5 : Schéma de principe d APC Sur le schéma de figure.5 sont illustrés les perturbations qui peuvent intervenir dans différents blocs composants du système. Dans ce contexte, le contrôle automatique doit minimiser l impact des perturbations w 1 (t) et w (t) sur la sortie du processus et implicitement sur l écart z(t). Il faut donc chercher l ensemble de lois mathématiques qui caractérisent le régulateur afin d obtenir un transfert minimum entre les perturbations totales. 106

116 L élément essentiel du bloc de commande, est le régulateur. Ce régulateur résout 90% des problèmes d asservissement et de régulation [Larminant, 1993]. On retrouve les modèles PID dans différentes applications réelles car ils assurent le meilleur compromis entre la stabilité et la vitesse de réponse des systèmes. Les schémas automatiques d asservissement et de régulation interviennent dans de systèmes uni variés (les asservissements de positions, la régulation de la température d un four, etc.) mais aussi dans des systèmes multi variés et plus complexes où la problématique la plus prégnante est de maîtriser toutes les variables du modèle représentatif du système. Les processus de production continue du domaine de la chimie [Tsung, 1999], le réacteur Tenneasse Eastmen [McAvoy et Ye, 1994], les processus de fabrication chez les usines Shell [Vlachos et al., 00], ainsi que les processus fabrication des semi-conducteurs [Tsung et Shi, 1999] comportent des modèles automatiques multi variés et complexes développés a partir des techniques de PID décrites ci dessus. En spécial pour ces systèmes avec un nombre élevé des variables qui peuvent avoir des fluctuations incontrôlables, l intérêt est porté vers l intégration des méthodes capables de maîtriser les changements non souhaités de chaque variable participante au fonctionnement du processus. Certains modèles réunissent la configuration proportionnelle intégrée, PI, avec des modèles ARMA (1,1) dans le contrôle de type MMSE (Minimum Mean Squared Error) [Jiang et Tsui, 00]. Cependant les outils de contrôle statistiques, tel qu une carte de contrôle de type EWMA, interviennent d une façon systématique dans les applications automatiques pour interpréter le fonctionnement d un correcteur de type PID [Tsung et Apley, 00], [Argon et Elsayed, 00], [Apley et Jianjun, 001]. Cela suscite l intérêt de plus en plus manifesté vers la rapprochement et l intégration des performances offertes par les techniques de MSP et d APC [Elsayed et al., 1995], [Box et al., 1997]. Nous nous sommes intéressés précisément au sujet de l intégration des outils de contrôle spécifiques à la MSP, comme une carte de contrôle, dans les structures de contrôle d APC. Pour pouvoir entrer plus en détails sur les possibilités d améliorer le comportement des schémas de contrôle automatique par le biais des techniques MSP, nous considérons nécessaire d expliciter quelques notions propres au domaine d APC. Une succincte présentation des principales notions du contrôle automatique, du support mathématique utilisé ainsi que du principe de fonctionnement d un régulateur automatique se retrouvent dans l Annexe 1 de ce mémoire. 107

117 Nos travaux portant sur l intégration des différentes techniques statistiques dans les schémas automatiques ont été stimulés également par l apparition des certaines démarches qui signalant les possibilités d amélioration de contrôle automatique par l intégration des outils spécifiques. Dans ce contexte nous citons les travaux de C. Pereira [Pereira et al., 000] qui réalise une analyse des systèmes automatiques linéaires et non linéaires et combine les réseaux neuronaux avec l application des modèles non linéaires de contrôle. L impact de la non normalité dans les systèmes automatiques a été étudié par G. Falkovich [Falkovich et al., 004] qui analyse les techniques de filtrage et de modélisation en phase. Il étudie la stabilité d un système qui modélise une transmission en fibre optique gouvernée par les équations non linéaires de Schrodinger. Les outils de contrôle de la MSP et celles d APC sont considérés comme complémentaires par plusieurs auteurs qui joignent les performances ponctuelles des modelés automatiques avec le contrôle long terme par le biais des outils statistiques comme les cartes de contrôle [Elsayed et al., 1995], [Gultekin et al., 00], [Jiang et Tsui, 00]. Dans la section suivante nous allons présenter la problématique d intégration des outils APC avec des techniques spécifiques au domaine MSP ainsi que les directions prises par nos travaux concernant ce sujet. ********* 3 L intégration des techniques MSP et APC Comme décrit auparavant le sujet de nos travaux de recherche porte sur les processus industriels représentant des systèmes complexes dont le comportement est déterminé par des nombreux paramètres internes (qui font partie du processus même) ou externes. Certains parmi ces paramètres sont non maîtrisés car ils sont méconnus ou incontrôlables. De ce fait, les caractéristiques d un produit sont dispersées et peuvent être hors tolérances. Plus la dispersion (la variabilité) du procédé est grande, plus le pourcentage des produits nonconformes est élevé. Quant au contrôle d une ou plusieurs caractéristiques d un processus réel, on peut facilement l interpréter comme étant la réalisation d un simple test d hypothèse. Supposons la variable aléatoire X de moyenne µ et de variance σ², qui représente une certaine 108

118 caractéristique de processus. Cette caractéristique doit respecter certaines spécifications (des tolérances) et en particulier elle doit être le plus proche possible de la cible, µ 0. Les déréglages par rapport à la valeur cible s expriment souvent sous forme des multiples unités d écart type, µ 1 = µ 0+ δ, où δ représente le déréglage en nombre d écarts - type. Ce dernier peut être de différentes natures: un saut de moyenne (positif ou négatif), une dérive, une valeur aberrante etc. Comme nous l avons déjà précisé dans le chapitre I de ce mémoire, les tests d hypothèse induisent deux risques d erreur: risque α connu dans la statistique aussi sous le nom de risque de première espèce, et risque β, le risque de deuxième espèce (voir figure 3.1). L efficacité du test le résultat d un compromis entre ces deux risques d erreur. Pour une carte de contrôle l efficacité est mesurée généralement par la Période Opérationnelle Moyenne 0 POM 0 (ARL 3 0 ) et la Période Opérationnelle Moyenne 1 POM 1 (ARL 4 1 ) [Shewhart, 1931]. En pratique, la POM 0 doit être la plus grande possible et la POM 1 la plus petite possible. Figure 3.1 risque α et β Une étape assez importante du contrôle de processus est bien entendu le choix de la caractéristique ou des caractéristiques à suivre. Ce choix doit être le plus pertinent et le plus représentatif du fonctionnement d un processus. A.Kobi [Kobi, 004] a introduit deux approches distinctes qui élucident le problème du suivi des caractéristiques. 3 Average Run Length : 4 Average Run Length : = 1 ARL0 α ARL1 = 1 1 β 109

119 La première, l approche directe ou approche MSP, consiste à surveiller directement la mesure de la caractéristique considérée à travers une carte de contrôle adéquate. Par contre, la deuxième approche, l approche indirecte, est basée sur la génération des résidus et le suivi de ces résidus en utilisant soit des cartes de contrôle, soit d autres techniques statistiques (test de Khi-deux, test de Student, test de Fisher, etc.). Ces résidus, écart entre la mesure et l estimation, sont élaborés à partir des modèles plus ou moins sophistiqués selon la complexité du processus étudié (corrélation ou non, linéaire ou non), on peut citer ici les travaux de Patton et Frank [Patton et Frank, 000], Gertler [Gertler, 1998], Basseville et Nikiforov [Basseville et Nikiforov, 00]. La première approche, figure 3., est plus facile à expliquer et à interpréter pour un opérateur. En effet, ce dernier récupère directement, à l aide d un moyen de mesure, la valeur correspondante à la caractéristique suivie (poids, diamètre, température, etc.). Il suffit alors de reporter cette valeur sur la carte de contrôle adéquate. Cette approche permet ainsi de prendre des décisions et des actions correctives ou préventives directement sur le processus suivi. X Processus Y Y LSC LIC t Figure 3. Approche directe Par contre, l inconvénient majeur de cette approche est le fait que la mesure (la valeur observée) peut être entachée d erreurs, ce qui peut induire des décisions erronées. Certains auteurs tels qu Abraham [Abraham, 1977], Kanazuka [Kanazuka, 1986] se sont intéressés à ce problème et aux conséquences de ces erreurs sur l efficacité de la carte de contrôle et sur le diagnostic que l on peut prendre. Dans la pratique, pour pallier à ce problème, il faut réaliser au préalable une étude complète de capabilité (capabilité des moyens de contrôle et étalonnage des appareils de mesure). En ce qui concerne la deuxième approche, figure 3.3, elle est intéressante quand tout le processus de surveillance est automatisé. 110

120 X Processus Y e = Y Ŷ e LSC LIC Modèle Ŷ t Figure 3.3 Approche indirecte Et comme les résidus suivent dans la majorité des cas une distribution normale, le suivi de ces résidus est assez facile en utilisant une carte de contrôle ou un test statistique. Par contre, s il y a présence d un défaut, l opérateur n a pas d indication sur l origine du défaut : défaut processus ou défaut modèle. En plus, dans le cas d un changement au niveau des paramètres ou du processus, le modèle mathématique peut être inadapté. Une autre différence entre ces deux approches se situe au niveau du domaine d application. Au début, la MSP a été développée pour les processus de production (fabrication) de pièces unitaires (systèmes discrets) alors que l approche indirecte est plutôt axée sur les processus continus (l industrie de la chimie par exemple). On constate néanmoins, depuis un certain temps, que des travaux utilisant la MSP ont été réalisés avec succès pour les processus continus. Depuis quelques années, plusieurs auteurs se sont intéressés à ces deux approches. On peut citer par exemple les travaux de Box [Box et al., 1997], Montgomery [Montgomery et al., 1994] qui ont présenté les avantages et les inconvénients entre un asservissement de type PID et les techniques de la MSP. Tsung [Tsung et al., 1999] et Jiang [Jiang et al., 00] ont élaboré une procédure de surveillance (carte de contrôle) basée sur les principes du correcteur PID pour les données corrélées. Janakiram et Bert Keats [Janakiram et Keats, 1998] ont proposé de combiner ces deux approches dans le cas d un système industriel hybride, pendant que Ruhhal [Ruhhal et al., 000] les étudient en présence d une perturbation de type saut de moyenne. D autres recherches ont intégré des outils comme les statistiques bayésiennes (Rao [Rao et al., 1995] ), les systèmes experts (Dagli [Dagli, 1988], Tsacle [Tsacle et Aly, 1996]), la logique floue (Wright et Ralston [Wright et Ralston, 1994]) etc. Enfin, on peut noter que la MSP est utilisée de façon presque systématique dans les entreprises manufacturières et de plus en plus dans les entreprises de service : Wardell et Candia [Wardell et Candia, 1996] pour la 111

121 satisfaction des patients d un hôpital et Corbett et Pan [Corbett et Pan, 00] pour évaluer les performances environnementales. De même on constate ces dernières années l utilisation des cartes de contrôle dans les domaines de la maintenance et de la fiabilité : Cassady [Cassady et al., 000], Sun [Sun et al., 001], Xie [Xie et al., 00]. Sur les techniques APC et MSP existe ainsi des opinions variées mais on rencontre fréquemment la nécessité de combiner les techniques de ces deux grands domaines afin d obtenir les meilleures performances d un processus. Le contrôle automatique suppose toujours l existence d un modèle qui fournit toutes les informations sur les performances et les réglages imposés, en fonction de l ensemble de facteurs qui affectent le processus. L intégration des méthodes automatiques et statistiques semble naturelle car les deux domaines visent le contrôle et l amélioration du fonctionnement des processus. Reste le problème d une meilleure collaboration entre les deux domaines afin d augmenter les performances du contrôle. Malgré le nombre relativement restreint de démarches scientifiques, les idées avancées par Elsayed [Elsayed et al., 1995], Argon et Elsayed [Argon et Elsayed, 00], ou Gultekin [Gultekin et al., 00] édifient un cadre favorable à l étude de cette problématique. Une fois le sujet abordé, on retrouve différents modèles qui traitent l adjonction APC/MSP. E.A. Elsayed [Elsayed et al., 1995] considère que l origine des techniques de APC se retrouve dans l industrie de processus continus tandis que l origine des techniques de MSP se retrouve dans l industrie des processus discrets. Ils traitent des modèles de l industrie chimique qui incluent aussi des techniques statistiques. Greg Carr [Carr, 1999] combine une carte EWMA avec les blocs PLC destinés au calcul on - line des différentes mesures, la moyenne, l écart type etc. Wei Jiang et Kwork Leung Tsui [Jiang et Tsui, 00] présentent des propriétés importantes de contrôle MMSE (Minimum Mean Squared Error) et de PI (Proportionnel Intégral) basé sur un modèle ARMA - AutoRegressive Moving Average. Dongfeng Shi [Dongfeng et Tsung, 003] proposent le schéma d implémentation APCM (Adaptive Principal Component Monitoring) performant aussi pour les systèmes SISO (single input - single output) que pour les systèmes MIMO (multiple input - multiple output). Un schéma hypothétique d intégration APC/MSP suppose tout d abord l existence d un modèle APC destiné au contrôle des relations entre les entrées et les sorties du système. C est un contrôle «court terme», local, car il n influence pas le comportement long terme du processus. 11

122 D une manière complémentaire, les techniques de MSP permettent à l utilisateur de faire de prévisions et de tenir le processus sous contrôle pour une période plus grande. Il existe déjà des schémas basés sur ce principe de complémentarité introduite par des auteurs comme M. Gultekin.[Gultekin et al., 00], S.O. Duffuaa [Duffuaa et al., 004]. Le modèle «Tenneesse Eastman Process» représente un bon exemple au sujet de l intégration des techniques statistiques de contrôle dans les modèles automatiques [Chen et al., 1998], [Sriniwas et Arkun, 1997], [Bakshi, 1998]. Argon et Elsayed [Argon et Elsayed, 00] intègrent le principe des cartes de contrôle de type EWMA dans le contrôle d un processus de production de semi-conducteurs. Les variations d épaisseur de la couche de SIO produite par le phénomène d oxydation sont analysées. Les cartes EWMA offrent des estimations pertinentes et agissent à surveiller la production de manière automatique. Nous citons également les travaux de Box [Box et al., 1997] et de Montgomery [Montgomery et al., 1994], [Montgomery, 1996], portées sur les avantages et les inconvénients de la combinaison des techniques MSP avec un asservissement de type PID. Nous introduisons le concept de complémentarité comme hypothèse de départ dans l intégration APC/MSP (figure 3.4). Le fonctionnement d un schéma APC/MSP comporte deux étapes essentielles : d abord les techniques APC sont appliqués pour les réglages et la maîtrise des variations entre les entrées et sorties du modèle dans une deuxième étape, les sorties du modèle automatique peuvent être surveillées avec des techniques de MSP (les cartes EWMA, CUSUM, etc.) afin de détecter et d éliminer les causes spéciales, voir figure 3.4 d autres variables du modèle, comme le facteur bruit, etc. pourraient également être soumises au contrôle statistique Dans le modèle de contrôleur introduit par M. Gultekin [Gultekin et al., 00], par exemple, qui sera détaillé dans la section 4 de ce chapitre, les cartes de contrôle améliorent visiblement le comportement du système face aux perturbations identifiées durant son fonctionnement. 113

123 Surveillance et suivi statistique MSP Système de commande Paramètres de réglage PROCESSUS Capteurs Sortie Rétroaction ou Reconfiguration Robustesse Figure 3.4 : Schéma de principe pour la combinaison de techniques MSP et APC Les hypothèses expérimentées considèrent quelques perturbations possibles, connues, et le bruit associé de nature gaussienne. Les cartes de contrôle classique déterminent facilement les petites déréglages dans la moyenne du processus. A partir de cette approche nous avons identifié quelques améliorations possibles respectivement de vérifier la robustesse du système face à d autres perturbations hypothétiques ou de tester des cartes de contrôle plus adéquates pour la détection des différents déréglages intervenant dans le système. Avant de passer à l expérimentation pratique des modèles intégrés APC/MSP nous pouvons préjuger que les performances comportementales d un processus seront améliorées par l utilisation commune des outils spécifiques de la MSP et des modèles automatiques [Kobi, 004]. Comme nous l avons illustré dans la figure 3.4, l intégration de ces deux techniques conduit évidemment à une amélioration comportementale du processus, les variations sont réduites et le processus est plus performant que dans le cas ou ces techniques s appliquent séparément. Les exemples existantes dans la littérature [Elsayed et al., 1995], [Gultekin et al., 00], [Gob et al., 1999], utilisent des techniques de la MSP classiques, comme une carte de Shewhart ou la carte de type EWMA, pour la surveillance des paramètres du modèle automatique. Sujet longtemps disputé au cadre de la MSP, la non normalité des données apparaît comme un défi aussi pour les automaticiens. Implicitement le sujet de non normalité au cadre des 114

124 schémas intégrés MSP/APC confère un plus d originalité aux démarches suivies dans ce mémoire. Au fur et à mesure de l exposition de nos travaux sur l intégration des techniques de la MSP et d APC, l aspect de non normalité sera également abordé, et les performances des schémas intégrés MSP/APC seront interprétées. 4 Contributions à l amélioration des modèles de contrôle APC MSP Nous avons signalé précédemment (chapitre I) les quatre étapes couvertes par le contrôle des processus complexes. Ce sont respectivement la détection, l identification et le diagnostic de faute et la reconfiguration. La détection de faute consiste à déterminer en temps réel si les conditions opérationnelles du processus sont anormales à cause de la défaillance ou la dégradation d un équipement, etc. L identification de faute se traduit par l identification des variables (paramètres) de processus permettant de diagnostiquer le mieux le type de faute survenu. L objectif ici est de focaliser l attention des opérateurs et des ingénieurs sur le sous-système le plus pertinent pour le diagnostic de faute afin d éliminer le plus efficacement possible l effet de la faute. Le diagnostic consiste à préciser quelle faute s est produite, autrement-dit quelle est la cause à l origine d une situation hors-contrôle détectée. Le diagnostic de faute est essentiel pour contrecarrer ou éliminer la faute. La reconfiguration du processus, appelée aussi intervention, consiste à éliminer l effet de la faute. Dès nos jours, l augmentation de la complexité des processus industriels génère des difficultés accrues au niveau de la modélisation physique du procédé analysé et par conséquent au niveau du contrôle. La mise au point des modèles informatisés et intégrés de management pour de situations anormales basés sur des mécanismes collaboratrices est évidement une action indispensable dans ce contexte. Ces modèles doivent être bâtis sur une architecture permettant aux agents physiques (opérateurs, ingénieurs, agents de maintenance, etc.) de coopérer avec des agents fonctionnels (systèmes de décision assistés par ordinateur) par le biais de services fournis par les agents d interfaçage [Yang et Lu, 000]. Comme nous l avons déjà souligné, il existe dans la littérature peu de démarches sur l intégration des outils MSP-APC. Sur les deux domaines les opinions ont été toujours 115

125 variées. Les techniques de MSP sont utilisées dans le contrôle de la variation naturelle d un processus (processus discrets) où le but est de produire des composants individuels avec le moins possible des variations. APC est basé sur un modèle mathématique afin de garder le processus stable. Dans cette situation, les processus ont la moyenne ajustable en permanence. APC donne une solution à court terme pour l amélioration des variations de la valeur cible. MSP assure une solution à long terme en ce qui concerne la surveillance et le contrôle des variations du processus. Pour mieux raisonner l importance de ce sujet, nous présentons par la suite deux exemples de processus réels comportant l intégration des méthodes de contrôle de la MSP et d APC ainsi que nos propositions d améliorations. 4.1 Le modèle intégré de Gultekin Nous avons choisi comme modèle représentatif pour l intégration des techniques MSP et APC le modèle développé par Gultekin [Gultekin, 000] qui provient du domaine de la chimie. Grâce à un schéma compréhensible et explicite il nous a servi comme base de recherche sur le sujet de l intégration MSP/ APC. L auteur définit un schéma de contrôle pour un processus continu de fabrication d une substance chimique. A partir des ingrédients nécessaires à la réaction chimique et au travers trois réacteurs identiques et un régulateur de type PID, la sortie du modèle est représentée par la concentration souhaitée de la substance chimique (figure 4.1). Dans chaque réacteur les conditions atmosphériques sont identiques (pression, température) et la densité est considérée constante pendant la période de fonctionnement du procédé. 116

126 Figure 4.1 : Le modèle du réacteur chimique de Gultekin Le réactant est soumis à une réaction chimique de premier ordre dans chaque réacteur. De ces réactions résulte le liquide. Les équations mathématiques décrivant les transformations du processus considéré sont décrites dans les formules : dy1( t) ( k1 + ) y1( t) = y0 ( t) (4.1) dt k k dy ( t) ( k1 + ) y ( t) = y1( t) (4.) dt k k dy3 ( t) ( k1 + ) y3 ( t) = y3 ( t) (4.3) dt k k où les y i (t), (i=1,, 3) représentent les concentrations de réactant dans chacun des trois réacteurs exprimés en kg mol/m 3. y 0 est, respectivement la concentration de départ à l entrée du premier réacteur, et représente la sortie du contrôleur PI affectée par l ensemble des perturbations d entrée, d e (t)= d d (t) + d r (t). Les conditions initiales sont : y 0) = y (0) = (0) (4.4) 1( y3 La sortie du système est en effet le signal y(t)=y 3 (t) et la référence pour la sortie, r(t)=0. Les paramètres de réaction, k 1 et k, sont les mêmes pour chaque réacteur, k 1 =0.5min -1 et, respectivement, k =min. La sortie du contrôleur sera noté c(t) et est décrite par la fonction : 117

127 1 c( t) = K C ( e( t) + e( t) dt) τ I (4.5) où e(t) est l erreur de sortie, K C =30 représente le gain du contrôleur et ζ i =5min est la constante d intégration. Généralement pour un modèle automatique, le modèle mathématique associé et le signal d entrée du système sont considérés connus ce qui permet de déterminer la sortie du système. Pourtant, autour d un système réel il existe toujours des perturbations aléatoires qui peuvent induire des variations dans la sortie du système. Pour le modèle de Gultekin ces variations sont attribuées aux deux sources distinctes: les perturbations aléatoires sur l entrée du système et respectivement les erreurs de mesure, qui se traduisent comme des perturbations aléatoires sur la sortie du système. Dans le schéma décrit dans les figures 4..a 4..d nous avons illustré la réponse indicielle du système pour différentes amplitudes de la perturbation de sortie (point de mesure). Nous pouvons remarquer facilement que l effet des perturbations aléatoires d entrée peut être diminué à travers le système et leur impact sur la sortie peut être imperceptible. Par contre, les erreurs de mesure agissent directement sur la sortie, et leur effet sera automatiquement transféré dans la réponse du système. Figure 4..a : La sortie du système avec un signal d entrée de type échelon d amplitude unitaire 118

128 Figure 4..b : La sortie du système affecté par la perturbation de sortie de variance 10-7 Figure 4..c : La sortie du système affecté par la perturbation de sortie de variance 10-4 Il est évident que l identification du signal échelon à la sortie du système est affectée progressivement par la perturbation de sortie de différentes variances (figures 4..a 4..b). Cela implique une analyse très rigoureuse des perturbations aléatoires dans la sortie car elles ne doivent pas dépasser l amplitude des signaux aléatoires ou déterministes de l entrée. Si l amplitude du signal erreur de mesure est grande, l effet des perturbations d entrée risque d être non identifié. 119

129 Figure 4..d : La sortie du système affecté par la perturbation de sortie de variance 10 - Gultekin [Gultekin et al., 00] détermine le taux de reproduction du signal perturbateur d entrée, dans la sortie du système étudié. Ainsi un signal d entrée de variance σ sera aperçu à la sortie avec la variance σ, comme indiquent les figure 4.3.a 4.3.c. A partir d une approche déterministe concernant le comportement du système dans le domaine temporel, et sous l hypothèse des deux types possibles des perturbations d entrée (échelon et rampe), l auteur identifie les perturbations les plus représentatives qui affectent le modèle [Gultekin et al., 00]. Figure 4.3.a : Une erreur d entrée de variance 0.5 détermine une variance en sortie de 7.5x

130 Figure 4.3.b : Une erreur d entrée de variance 1 détermine une variance du sortie de.9x10-5 Figure 4.3.c : Une erreur d entrée de variance détermine une variance du sortie de 5.8x10-5 A partir d une approche déterministe concernant le comportement du système dans le domaine temporel, et sous l hypothèse des deux types possibles des perturbations d entrée (échelon et rampe), l auteur identifie les perturbations les plus représentatives qui affectent le modèle [Gultekin et al., 00]. Dans la boucle de rétroaction les paramètres du processus et du contrôleur sont généralement connus. Ainsi les réglages effectués sur l entrée du système ont un effet déterministe sur la sortie, qui peut être calculé. En outre, la sortie du système peut être déterminée, mais les 11

131 perturbations d entrée ne sont pas connues et ne peuvent pas être directement mesurées. Si le processus est affecté seulement par des causes communes de variation (erreur de mesure et perturbation aléatoire d'entrée), la sortie est considéré comme naturelle. Par contre, les perturbations déterministes (telles qu un déréglage en rampe ou un échelon) dans l entrée du système représentent des causes assignables et leur impact sur le processus doit être identifiée après la détection. Dans ce contexte la détection avec les cartes de contrôle de la MSP est la solution adéquate qui élimine le risque de propagation d erreurs au parcours d une période étendue de fonctionnement. L algorithme de fonctionnement de schéma APC/MSP introduite par Gultekin comporte trois étapes principales : une première étape est la détection de la perturbation avec les cartes de contrôle, suivie par l identification de la perturbation et de l intervalle de temps affecté à cette perturbation, et l étape finale est une action corrective appliquée au système pour remédier aux effets perturbateurs. L auteur propose l utilisation d un certain nombre de systèmes parallèles avec le système actuel, non perturbé. Ces systèmes identifient et traitent les différents types de perturbations qui pourraient affecter le processus (figure 4.4.). Les cartes de contrôle MSP surveillent la différence (résidus) entre deux signaux : la sortie du système réel, soumis aux perturbations inhérentes, et la sortie du système en parallèle, qui modélise la moyenne du processus réel, sous l action des différents déréglages identifiés (saut de la moyenne, déréglages en rampe, etc.). Quand un signal est apparu sur la carte de contrôle, le système en parallèle correspondant est mise en place pour remédier à la perturbation modélisée. Les perturbations susceptibles d intervenir dans le processus décrit dans la figure 4.1 ont été identifiées comme des petits déréglages autour de la moyenne, de type échelon, rampe où impulsion. Parmi les possibles déréglages mentionnées précédemment, seule la détection des perturbations de type échelon a été analysée par Gultekin [Gultekin et al., 00]. Ainsi les cartes de contrôle individuelles de Shewhart intégrées dans le modèle agissent comme un superviseur sur la sortie de la boucle de rétroaction du modèle. Le délai entre le système parallèle et le système réel est pris en compte. Les données étant corrélées, les performances des cartes de contrôle sont analysées en termes d ATFS (Average Time to First Signal) qui représente la période moyenne de temps (sur de multiples simulations), jusqu au premier signal hors contrôle. 1

132 Figure 4.4 : Le modèle de systèmes en parallèle proposé par Gultekin[Gultekin et al,. 00] En absence de déréglage et en présence d une erreur de mesure de type bruit blanc de variance 5x10E-7, la valeur de ATFS trouvé par M. Gultekin était de 6100 secondes. Cette valeur étant obtenue dans l état stable du processus, elle servira comme référence pour 13

133 l évaluation des performances de la carte de contrôle de Shewhart dans la détection de différentes perturbations. Les performances de détection d un déréglage d entrée du système de type échelon et de différentes amplitudes sont indiquées dans le tableau 4.1 : Amplitude du déréglage échelon Le pourcent de détection (%) ATFS /variance de ATFS (seconds) / / / /1 Table 4.1 : Les performances en détection du schéma intégré APC/MSP de Gultekin[Gultekin et al., 00] Dans nos travaux, le modèle des trois réacteurs (figure 4.1) a été implémenté à l aide du module Simulink (Matlab 07). L auteur de l analyse citée auparavant, Mme Mudge Gultekin, avait utilisé pour ses simulations le logiciel C++. Nous avons tout d abord construit le schéma du processus sous Simulink et retrouvé les résultats de Gultekin par le biais des simulations numériques. Les conditions de nos simulations ont été identiques aux celles utilisées par Gultekin : -un bruit aléatoire de variance 0.5 associé au système réel qui est aperçue dans la sortie du système comme un signal de variance 7.5E -6 ; -une erreur de mesure de variance 5E -7 ; Malgré les échanges avec l auteur des travaux mentionnés, nous n avons pas pu reconstituer un modèle Simulink qui fournit exactement les mêmes valeurs de détection comme celles de référence. Notre modèle Simulink retenue présente ainsi les résultats les plus proches possible des valeurs de référence conformément au tableau ci-dessous : Amplitude du déréglage échelon ATFS : Résultats de référence ATFS : Résultats Simulink (Gultekin C++) Table 4. : Comparaison des résultats du modèle Simulink avec les résultats de référence 14

134 Une fois le déréglage détecté, le système en parallèle correspondant sera mis en action pour remédier à ses effets. Face aux déréglages de type échelon (pour toutes les quatre amplitudes testées), la stabilité long terme du processus est garantie. Parmi les déréglages possibles identifiés dans le cadre du modèle de Gultekin [Gultekin et al., 00] certaines sont de très faibles amplitudes (exemple l échelon d amplitude 0.5) et d autres, tel qu un déréglage en rampe ne sont pas étudiés. Nous remarquons dans un premier temps que notre schéma Simulink offre des meilleures performances de détection des petits déréglages. Cependant notre intérêt ne porte pas sur la validation d un modèle existant mais sur la possibilité d améliorer ce modèle afin de mieux traiter l incidence de tout petits déréglages de la moyenne du processus. A partir de notre modèle Simulink nous allons par la suite proposer l utilisation d une carte de contrôle EWMA où d une carte de type VP intégrées dans le modèle du système, afin d étudier la détection des très faibles déréglages. Les résultats de nos applications expérimentales seront décrits par la suite Propositions d amélioration de la détection des faibles déréglages pour le modèle intégré de Gultekin : l intégration d une carte de contrôle de type EWMA L idée d intégration des cartes de type EWMA dans le contrôle automatique a été introduite par Argon et Elsayed [Argon et Elsayed, 00] qui utilisent le principe des cartes EWMA dans la détection des petites variations autour de la moyenne dans l industrie de semiconducteurs. Nous proposons d améliorer la détection des différents déréglages de faible amplitude pour le schéma en parallèle introduite par Gultekin, en utilisant la carte de contrôle EWMA. Le schéma des trois réacteurs de Gultekin est facile à manipuler et le modèle Simulink que nous lui avons associé permet d analyser les signaux de sortie du système indépendamment, avec la carte de contrôle souhaitée (figure 4.5). Ainsi nous avons mis au point un programme Matlab qui, pendant les simulations, récupère la sortie du système et l analyse avec différentes cartes de contrôle. 15

135 Figure 4.5 : Système intégré MSP/APC de Gultekin Le remplacement des cartes individuelles de type Shewhart par les cartes EWMA devrait naturellement conduire à une meilleure détection des faibles déréglages. Cependant, pour que la comparaison soit pertinente, nous devrons tenir compte dans le choix des paramètres de la carte EWMA (λ et L), du taux réduit des fausses alertes assuré par la carte de Shewhart. Ainsi la valeur du paramètre L devrait rester proche de 3 pour ne pas avoir trop de fausses alarmes et la valeur de λ, comprise entre 0 et 1, doit assurer la plus rapide détection d un faible déréglage. En fixant comme objectif qualité un ATFS proche de la valeur de 6100 secondes nous avons analysé plusieurs configurations des cartes de contrôle EWMA appliquées sur la sortie du système de Gultekin. Nous avons considéré le contrôle individuel, à chaque instant (seconde) la valeur du signal sortie du système décrit dans la figure 4.5 est comparée avec les limites de la carte de contrôle EWMA. Les résultats de nos simulations sont inclus dans le tableau 4.3 : 16

136 ATFS : Résultats Simulink Amplitude du déréglage échelon EWMA (L=.8, λ=0.7) EWMA (L=.8, λ=0.8) EWMA (L=.8, λ=0.9) EWMA (L=.9, λ=0.7) EWMA (L=.9, λ=0.8) EWMA (L=.9, λ=0.9) Tableau 4.3 : La carte de EWMA pour le modèle intégré APC/SPC de Gultekin. On voit bien que la plupart de ces configurations assurent une meilleure détection des faibles déréglages (d amplitude 0.5 et 0.5) que la carte de Shewhart, tout en assurant un faible risque des fausses alarmes. Dans la pratique, les cartes EWMA (L=.8, λ=0.7) et EWMA (L=.8, λ=0.8), par exemple, peuvent assurer une détection rapide de tous les déréglages de taille 0.5 à 1. Si l on compare avec les résultats de M. Gultekin, la carte EWMA (L=.8, λ=0.7) détecte 0 secondes plus vite que la carte de Shewhart un déréglage d amplitude 0.5, et secondes plus vite que la carte de Shewhart un déréglage de 0.5. Evidemment la détection des déréglages plus grandes (0.75 et 1) est ralentie (si on se rapporte aux résultats de Gultekin) avec la carte EWMA (L=.8, λ=0.7), mais les valeurs sont meilleures que les valeurs de détection que nous avons obtenu pour une carte de Shewhart. De même, la carte EWMA avec le paramètre λ égal à 0.9 détecte très facile les déréglages de faible amplitude et en plus présente le taux le moins élevé des fausses alertes (ATFS 599 secondes). En raison des conditions identiques de simulations (même logiciel - Simulink) nous considérons pertinent de poursuivre notre analyse en se rapportant aux valeurs de la carte de Shewhart, telles que nous les avons obtenues. Dans les figures 4.6 et 4.7 nous avons comparé les performances de la carte EWMA (L=.8, λ=0.7) et de la carte de Shewhart dans la détection d un déréglage d amplitude

137 Figure 4.6 : Détection d un déréglage échelon d amplitude 0.5 avec EWMA et Shewhart Figure 4.7 : L efficacité de la carte EWMA(L=.8, λ=0.7) dans la détection d un déréglage de taille

138 La carte EWMA (L=.8, λ=0.7) est beaucoup plus rapide dans la détection (1 secondes). Comme signalé par Gultekin, le système soumis à notre étude est en réalité susceptible d être affecté par des très faibles déréglages. En utilisant la carte EWMA ces déréglages seront identifiés plus rapidement et les mesures correctives seront apportées plus vite qu en utilisant une carte de contrôle classique de Shewhart Propositions d amélioration de la détection des faibles déréglages pour le modèle intégré de Gultekin : l intégration d une carte de contrôle de type VP Nous continuons nos recherches sur les possibles améliorations du modèle de Gultekin concernant la détection des faibles déréglages, par l intégration d une carte avec des paramètres variables, VP. Comme décrit dans le chapitre II de ce mémoire, cette carte de contrôle est adaptée pour la détection des très faibles déréglages pour les lois de distribution non normales mais également pour les lois normales, car en effet l application des cartes VP ne nécessite pas la connaissance a priori de la loi de distribution. Nous avons tout d abord recherché les configurations des paramètres (notamment tailles d échantillons N 1 et N ) qui nous permettent de se rapprocher du taux des fausses alertes obtenu avec les cartes individuelles de Shewhart. Ces valeurs sont faciles à déterminer si on tient compte des relations entre les valeurs de N 0, N 1, N, T 0, T 1, T, K 0, K 1, K. Ces relations introduites par Lin et Chou [Lin et Chou, 005b] se retrouvent sous une forme plus générale dans les travaux de Magalhäes et al. [Magalhäes et al., 006] au sujet de l utilisation des cartes de contrôle des moyennes et étendues avec paramètres variables. Pour rappel, N 0, N 1, N, sont les tailles d échantillons, T 0, T 1, T sont les intervalles de prélèvement et K 0, K 1, K les coefficients de contrôle correspondant respectivement à l état initial stable, à la zone centrale et à la zone d avertissement sur une carte de contrôle aux paramètres variables (voir la section.4 du chapitre I de ce mémoire). Selon Magalhäes et al. [Magalhäes et al., 006], les relations entre ces paramètres se traduisent par le système d équations 4.6 : 19

139 . N P + N ( P = N ) T P + T ( P = T ) 0 0 (4.6) α1( α 1) P 0 + α ( α )(1 P0 ) = α 0 ( α 0 ) Pour l étude présentée ici, P 0 est la probabilité d échantillonnage avec des petites tailles quand le processus est sous contrôle et α i (i=0, 1, ) est la probabilité d un point d être hors les limites de contrôle, définies avec les coefficients K i sur la carte de contrôle VP. Ainsi nous pouvons choisir les valeurs d une partie de ces paramètres et déduire les valeurs du reste des paramètres, pour une valeur souhaitée du taux des fausses alertes. Nous avons cherché à déterminer les configurations des paramètres assurant un ATFS d approximativement 6100 secondes pour le contrôle du signal sortie du système de Gultekin. Pour les raisons déjà décrites dans nos applications des cartes VP (chapitre II), nous avons choisi les valeurs des paramètres fixes de manière suivante : N 0 =5, T 0 =1 et K 0 =3 (valeurs normes cartes classiques, pour l état initial stable), K 1 =6 (grande intervalle de contrôle afin de réduire le risque des fausses alertes) et T =0.05 (l intervalle de prélèvement petit pour la zone d avertissement). En variant les tailles d échantillons N 1 et N et en utilisant les relations 4.6 on retrouve un taux des fausses alertes de 6100 pour toute combinaison de N 1 =5 et N 6 (qui théoriquement correspond à un P 0 égal à 1). De point de vue économique nous avons retenu la valeur du N de 6 observations par échantillon. La valeur du T 1 sera égale à 1 et la valeur du K tend vers 0 (la valeur de P 0 impose des limites de contrôle très serrées quand l observation se trouve dans zone d avertissement). Les résultats de l application de la carte VP avec la configuration des paramètres ainsi déterminés, sont inclus dans le tableau 4.4. Comme attendu, la détection de déréglages très petits est plus efficace avec les cartes VP qu avec les cartes de Shewhart. Pour la configuration choisie, si un déréglage d amplitude 0.5 affecte la moyenne du processus de Gultekin, les cartes VP le détectent 7 secondes avant la carte de Shewhart. 130

140 La carte de control VP versus la carte de contrôle individuelle de Shewhart Carte de contrôle de Shewhart Carte de contrôle de type VP Le taux des fausses alarmes (secondes) Temps de détection (secondes), pour une amplitude de déréglage de : Tableau 4.4 : La carte de contrôle de type VP dans le modèle APC/MSP de Gultekin. Cependant, si on compare ces résultats avec les résultats de détection d une carte EWMA on voit bien que cette dernière est préférable dans le cas du processus de Gultekin. Car la carte d EWMA assure également une bonne détection des déréglages de taille plus importante, plus rapide qu une carte de Shewhart. Ce n est pas le cas des cartes VP Conclusions sur nos propositions d amélioration de la détection des faibles déréglages pour le modèle intégré de Gultekin Nous avons regroupé les performances obtenues pour chaque type de carte de contrôle testé avec notre modèle Simulink pour le schéma intégré de Gultekin (figure 4.8). Parmi les trois cartes de contrôle testées, les cartes de contrôle de Shewhart, EWMA (L=.8, λ=0.9) et VP ont des performances proches, à l exception de la détection d un déréglage de très petite amplitude (0.5). La carte EWMA (L=.8, λ=0.8) assure une meilleure détection pour tous les déréglages, le seul pré requis dans son utilisation est le taux des fausses alertes plus élevé que les deux autres cartes. Les différences entre les performances des cartes de contrôle présentées ici peuvent sembler insignifiantes (d ordre 7 seconds, par exemple). Cependant le processus de Gultekin provient d un domaine (chimie) où les plus petites déviations de la valeur souhaitée pour la concentration d une substance peuvent avoir des effets dramatiques. 131

141 Dans ces circonstances, sur l ensemble des outils étudiés dans ce paragraphe, nous recommandons la carte EWMA (L=.8, λ=0.8), qui malgré un risque sensiblement plus élevé des fausses alertes, est la plus adaptée pour la détection des déréglages des différents tailles qui pourraient affecter le processus de Gultekin SWH VP EWMA (L=.8, λ=0.9) EWMA (L=.8, λ=0.8) ,5 0,5 0,75 1 SWH VP EWMA (L=.8, λ=0.9) EWMA (L=.8, λ=0.8) Figure 4.8 : L efficacité pour la détection de différentes cartes de contrôle intégrées dans le modèle APC/MSP de Gultekin Pour conclure, nous avons voulu dans un premier temps rendre plus compréhensible le sujet d intégration des modèles automatiques avec les outils SPC, précisément avec les cartes de contrôle. Le modèle introduit par Gultekin nous a ouvert le chemin des recherches vers l amélioration de l association de ces deux outils : APC et SPC. Après avoir reconstitué le modèle proposé par Gultekin dans un autre environnement que celui d origine (Simulink) nous avons proposé le remplacement de la carte de contrôle de type Shewhart, afin d améliorer la détection des petits déréglages, imminentes dans le processus chimique analysé. Il est évident que les outils introduits dans le chapitre précédent, les cartes VP, peuvent aussi améliorer les performances d un schéma APC. La méthode étant non paramétrique elle 13

142 s applique sans risque pour n importe quelle caractéristique et pour n importe quel type de déréglage susceptible d affecter le processus. Par contre pour l étude du processus de Gultekin on a été obligés d imposer un taux très réduit des fausses alertes, le même comme pour la carte de Shewhart. Avec cette contrainte, la méthode VP nous fournit des bons résultats uniquement pour la détection du déréglage le plus faible susceptible d affecter le processus. Nous avons trouvé qu une configuration de carte EWMA serait plus adaptée pour l intégration dans le modèle automatique du processus. L étude de ce schéma simple et nos résultats expérimentaux nous mènent à conclure que l intégration des outils MSP dans les schémas automatiques de contrôle présente une grande importance pratique. Ces outils peuvent contribuer d une manière évidente à la réduction de la variabilité des caractéristiques, à des meilleures décisions et conséquemment à l amélioration de la qualité finale des caractéristiques contrôlées automatiquement. Nous voulons par la suite diriger notre recherche vers les processus réels et plus complexes qui pourraient être améliorés par l intégration de ces deux outils. Nous avons choisi pour l étude un réacteur chimique dont le schéma de fonctionnement, dû à sa complexité (une multitude des caractéristiques, tendances d instabilité en boucle fermé, etc.), est continuellement investigué. Tout d abord nous allons introduire une courte description du mode de fonctionnement et du schéma associé au processus, qui est connu dans le monde industriel sous le nom de processus Tennessee Eastman TEP (Tennessee Eastman Process). Nous allons ensuite proposer un schéma qui intègre des méthodes MSP dans le schéma du modèle automatique associé. 133

143 4. Le réacteur de Tennessee Eastman. Généralités Le problème de TEP provient d'une plate-forme chimique réelle appartenant à la compagnie Eastman. Le processus instable, non-linéaire et en boucle ouverte est affecté par beaucoup de perturbations inconnues. Le plus grand défi de la communauté de contrôle de processus est la conception d un système de commande robuste et capable de maîtriser tous les problèmes induits par la multitude des fautes constatées dans le processus. Il existe à l heure actuelle différentes représentations du processus TEP et des modèles de simulations. A partir de la simulation originale élaborée par les membres de la compagnie Eastman dans le langage Fortran, les chercheurs de l Université de Washington ont développé un code plus convivial sous Matlab, accessible pour l étude à tout utilisateur Internet. Bien que dans la littérature il existe beaucoup de variantes du modèle de commande de TEP, le plus populaire est celui établit par McAvoy et Ye en 1994 [McAvoy et Ye, 1994]. Ce modèle a une structure décentralisée de commande avec des boucles de régulation en cascade et a été mis en application comme sous Matlab/Simulink par le groupe de contrôle du processus au département du génie chimique (figure 4.9). Le schéma comporte 4 unités principales : un réacteur biphasé exothermique, un séparateur, un décolleur et un compresseur centrifuge. Le processus est piloté à l aide de 41 variables de processus et 1 variables qualitatives relatives au produit fini sont suivies également. Huit substances chimiques sont utilisées par le processus : les substances A, C, D et E sont les réactants (gazeux), B est un contaminant inerte, G et H sont les produits désirés, et F est un sous-produit. Un mélange gazeux arrive dans le réacteur où il est fortement mélangé. 134

144 Figure 4.9 : Schéma de TEP basé sur la stratégie de contrôle de McAvoy Dans le réacteur (figure 4.10), quatre réactions irréversibles exothermiques interviennent dans la phase de vapeur. Ces sont décrites par les équations : 4.6 : Ag + Cg + Dg G liq Ag + Cg + Eg H Ag + Eg F liq liq (4.6) 1.5Dg Fliq où g et liq indiquent l état gazeux respectivement liquide du produit. 135

145 Figure 4.10 : Principe du réacteur de TEP Le réacteur est refroidi par un faisceau de tubes submergé dans la phase liquide du réacteur, traversé par l eau de refroidissement. Les réactions décrites dans 4.6 comportent un catalyseur appartenant à la phase liquide du réacteur, avec un apport énergétique négligeable. Les deux phases, liquide et gazeuse sont bien mélangées à l aide d un agitateur et on peut considérer que les deux sont à tout moment en équilibre de phase. L écoulement sous la forme de vapeur est conduit par la différence de pression entre le réacteur et le séparateur liquide/vapeur, la vitesse d'agitateur et la position de la tige de la valve agissant par la suite à la commande des leurs signaux de contrôle, dont les valeurs d équilibre sont connus. Une multitude des perturbations affectent le processus TEP. Les spécialistes du management de la qualité de Tennessee Eastman essaient de minimiser les pertes de l entreprise provoquées par la présence de fautes dans différents points de fonctionnement du modèle. On délimite sur le schéma 4.9 les perturbations de sortie, traduites par la variation du taux de production de ± 15%, les changements de taux des gazes A/C dans le flux d alimentation 4, ainsi que le changement du pourcentage de produit B dans le flux d alimentation 4. Les principaux objectifs du contrôle de TEP sont alors de maintenir les variables de processus aux valeurs désirées, de réduire au minimum la variabilité du taux de produit et des réactifs 136

146 d'alimentation qui ne présentent pas une rétention significative, de rattraper rapidement les perturbations induites par les changements de mélange de produit. L'effusion d'alimentation qui implique les produits D, E, A, ou A+C, l écoulement de vapeur du décolleur, le déversement d'eau de refroidissement de réacteur et de condensateur, la vitesse d'agitateur, le taux de production, la pression dans le réacteur sont quelques unes des contraintes induites par les variables manipulées. Tian et Hoo [Tian et Hoo, 005] identifient sept modes de fonctionnement possibles du TEP, déterminées par trois rapports de masse différents des produits G/H (tableau 4.5). Mode de fonctionnement Rapport de masse G/H Taux de production (faute11), kg h -1 0,1 50/ G/7038 H 10/ G/1669 H 3 90/ G/1111 H 4 50/50 taux maximum de production 5 10/90 taux maximum de production 6 90/10 taux maximum de production Tableau 4.5 : modes de fonctionnement de TEP, (Tian et Hoo, 005) Le mode 0 est un mode de fonctionnement de base. Les modes 1-3 sont des états de fonctionnement aux frais d'exploitation minimum, pour trois différents rapports de masse de G/H. Les modes 4-6 sont des modes de fonctionnement au taux maximum de production d après les trois rapports de masse de G/H. Il est impératif, donc, d optimiser également les transitions entre les différents modes de fonctionnement du processus [Tian et Hoo, 005]. Face au nombre considérable des fautes, les modèles de conception de TEP font appel de plus en plus souvent aux techniques statistiques d optimisation. En effet la MSP est intégrée dans le management de l entreprise de Eastman à partir des modèles conceptuels récents (000) qui espèrent diminuer la quantité d'acide déchargée à l'usine dans le traitement des eaux résiduelles. Dans l effort de réduire la quantité totale de carbone organique déchargé, les stratégies statistiques du contrôle du processus visent l amélioration de la commande, de surveillance et de décharge. Les nouveaux équipements qui emploient la MSP améliorent la production et réduisent les pertes. Actuellement l acide est récupéré et l'eau réutilisé. Du fait de la complexité du problème, le monde de recherche s est également préoccupé par l optimisation du TEP. Différents modèles de conception intègrent des stratégies simples de commande qui s appuient sur des boucle multiples de type SISO (Single Input Single Output), 137

147 ou de commande dynamique de type matriciel (DMC Dynamic Matrix Command). Ces approches comportent un degré élevé de difficulté induite par le choix des points de réglages optimaux. En outre la dynamique de processus génère des non linéarités qui affectent l optimisation de la conception linéaire du système. Certaines auteurs [Kano et al., 000], ont effectué une étude comparative des performances des différentes méthodes sur des données de simulations et sur des données issues du TEP. Chen G. et al. [Chen G. et al., 1998] ont proposé une méthode de contrôle statistique basée sur l utilisation conjointe de l ACPM et du PLS pour la détection de faute au cadre du réacteur TEP. Ils ont démontré que dans certaines situations le contrôle statistique est plus efficace (plus faible variation de la composition du produit) que le correcteur PID, car il détecte et compense plus rapidement les perturbations non-mesurées dans la composition du flux d entrée dans le réacteur. Ils ont conclu qu une méthode de contrôle statistique multivariée devrait chapoter un système de contrôle traditionnel (PID) afin d améliorer les performances du procédé. Chiang et al. [Chiang et al., 004] ont abordé également le problème du diagnostic des fautes difficiles à discriminer dans le cadre du TEP. Il s agit, notamment, de la faute 4 (saut en échelon de la température de l eau dans le circuit de refroidissement du réacteur), la faute 9 (variation aléatoire de la température du constituant D) et la faute 11 (variation aléatoire de la température de l eau dans le circuit de refroidissement du réacteur). Ces trois fautes sont difficiles à séparer car elles se superposent dans l espace des variables (il s agit des observations qui appartiennent à des classes différentes mais ayant des valeurs similaires pour les variables descriptives). Dans ce cas, les classificateurs utilisés traditionnellement dans le cadre de l apprentissage supervisé ont une complexité structurelle importante ce qui se traduit par une capacité de généralisation faible et un taux d erreur de classification significatif pour des données qui n ont pas participé au processus d apprentissage. La conception des classificateurs a abouti avec la validation de transformations locales. Ils ont une complexité structurelle moindre et une meilleure efficacité pour la classification des nouvelles observations [Kulkarni et al., 005]. Les performances de l analyse discriminante de Fisher et de l algorithme de classification nommé SVM (Support Vector Machines) dont une dérivée est le PSVM (Proximal Support Vector Machines) sont comparées dans ce contexte [Chiang et al., 004]. Dans le même contexte Sriniwas et Arkun [Sriniwas et Arkun, 1997] utilisent un contrôleur nommé MPC (Model Predictive Controller) pour le contrôle du TEP. Le MPC agit en tant que 138

148 superviseur d une structure des correcteurs PID de bas niveau dont l objectif majeur est de stabiliser le fonctionnement du TEP. Le MPC (figure 4.1) dicte les consignes aux correcteurs PID afin d obtenir la réponse souhaité au niveau du produit. MPC Point de Consigne de processus Consigne de D et E L eau de refroidissement D E Valve de recyclage du compresseur Boucle PID & contrôleur Processus TEP Taux de production de G/H Taux de production Pression réacteur Niveau réacteur Figure 4.1 : Schéma de surveillance MPC (Sriniwas et Arkun, 1997) L avantage principal de ce contrôleur MPC proposé [Sriniwas et Arkun, 1997] réside dans sa simplicité car, par exemple, avec seulement deux sorties contrôlées il permet d accomplir les transitions entre les produits souhaités. Le fait d utiliser les correcteurs PID de niveau bas offre la possibilité d utiliser des méthodes linéaires d identification du modèle de processus car, ce dernier subi moins de perturbations et des instabilités de nature non-linéaire. Sriniwas et Arkun [Sriniwas et Arkun, 1997] montrent que le MPC bâti sur une architecture de modèle de type entrée-sortie, présente des bonnes performances en boucle fermée et est tout à fait capable d atteindre les objectifs de contrôle imposés. Dans la figure 4.13 sont illustrées les performances en boucle fermée obtenues par l implémentation d une stratégie MPC à l état partagé qui réalise la transition entre le mode 0 et le mode de fonctionnement du TEP [Tian et Hoo, 005]. 139

149 Figure 4.13 : Le contrôle de transition entre les modes 0 et de fonctionnement avec MPC (Tian et Hoo, 005) Les lignes interrompues figurent les trajectoires de référence. Les diagrammes correspondent respectivement, du haut en bas, à : la pression dans le réacteur et dans le séparateur (haut), la pression dans le décolleur et le pourcentage de produit G (images milieu), le taux de production et le coût d opération (bas). 140

150 La stratégie de Tian et Hoo [Tian et Hoo, 005] conduit aux résultats satisfaisants pour la réponse du réacteur ainsi que pour la pression du décolleur. Cependant les coûts augmentent atteignent d une valeur de $183.8/h après 1 heures tandis que le taux de production arrivé a la performance de.73 m 3 /h dans le mode de fonctionnement Proposition d amélioration. L intégration d une carte de contrôle dans le schéma du réacteur de Tennessee Eastman Nous avons choisi pour l étude le model proposé par Ricker [Ricker, 1996] basé sur le modèle en boucle ouverte introduit par Downs et Vogel [Downs et Vogel, 1993]. Ce modèle comporte 1 variables d état et 41 sorties. Avec les entrées, les sorties, les perturbations et les variables décrites par McAvoy et Ye [McAvoy et Ye, 1994] nous avons tout d abord étudié les réponses du système pour toutes les 0 perturbations possibles. L étude en boucle ouverte des 41 variables de sortie dévoile une forte instabilité du système sous l action des différentes perturbations. En revanche, le modèle «multiloop» introduit par Ricker stabilise les sorties par l intégration des blocs PID correspondants. Le modèle en boucle fermée que nous étudions ici correspond au mode 3 de fonctionnement du processus et inclut un dépassement additionnel qui réduit le pourcentage de réutilisation de la valve quand le liquide réfrigérant de séparateur va au-dessus de 90%. Si ceci n'est pas fait, la valve de liquide réfrigérant sature et le système perd la commande du niveau de réacteur (pour le code Matlab associé voir les fichiers : Mode_3_Init.m, Multiloop_Mode3.mdl, introduits par Ricker). Nous avons étudié le comportement en boucle fermé des 41 variables de sortie de ce modèle. Pour avancer notre analyse, nous avons pris un cas simple de modèle uni varié (les éventuelles corrélations entre les variables sont ignorées). Selon notre hypothèse chaque caractéristique parmi les 41 pourrait être surveillée avec une carte de contrôle uni varié, indépendamment des autres caractéristiques. Notre proposition consiste dans la conception d un modèle similaire avec celui de Gultekin, qui introduit un module supplémentaire de control avec les outils MSP pour chacune des 41 caractéristiques de sorties. On peut obtenir ainsi un système en parallèle, qui, au signal envoyé par la carte de contrôle, commute le contrôle vers le bloc de commande additionnel qui agit sur l erreur consigne/sortie différemment, en fonction du signal reçu. 141

151 L idée de base est de déterminer le plus vite possible les différentes tendances d une caractéristique qui finalement sera stabilisée par le retour en boucle fermée, mais après une période oscillatoire. Il est évident que cette période (temps de montée) ainsi que l amplitude des oscillations sont désirées les plus petits possibles pour que les valeurs de notre caractéristique qualité soient proches de la valeur cible. Les cartes de contrôle facilitent l identification du moment d apparition des tendances ou variations de la caractéristique étudiée et permettront d agir pour l amélioration des paramètres de bloc PID afin de stabiliser le mieux la réponse. Pour exemplifier, nous avons étudié la caractéristique de pression du réacteur, qui est suspecté d être trop sensible aux variations. Nous soulignons que les étapes de notre démarche peuvent être à tout moment appliquées sur chacune des 40 autres variables de sortie du réacteur. Dans la figure 4.14 nous avons illustré le modèle conceptuel d intégration des outils MSP dans le schéma automatique de contrôle de la caractéristique pression. On peut facilement imaginer que la mise en place d un tel système pour chacune des autres variables de sortie peut se faire indépendamment sans affecter le fonctionnement global du système. Sur le schéma de figure 4.14 le module intégré MSP (la carte de contrôle) effectue l analyse de la caractéristique avec une carte de contrôle. Si un signal hors contrôle est reçu, les paramètres du contrôleur PID associé à la caractéristique étudiée seront changés, et le nouveau contrôleur sera appliqué, qui fonctionne en parallèle avec le système de base. Ce nouveau contrôleur est illustré dans le nouveau bloc de commande (figure 4.14). La valeur de référence est la valeur cible de la pression (valeur souhaitée). Le bloc de décision prendra en compte l état des signaux reçus sur la carte de contrôle : si le bloc MSP indique l état stable le commutateur sera sur la position zéro et le signal pression sera transféré dans le bloc de commande initial. S il y a des signaux hors contrôle le bloc additionnel contenant le nouveau contrôleur PID sera activé. Les paramètres du nouveau contrôleur seront définis en fonction du temps de détection sur la carte de contrôle (le calcul de ces paramètres est détaillé dans la section 4..). Dans ce second cas le commutateur changera la position et transféra le signal pression dans le nouveau bloc de commande. L avantage principal de notre approche réside dans la facilité de mise en place mais aussi dans la possibilité de contrôle «on line». 14

152 Figure 4.14 : Proposition d un schéma intégré pour l amélioration des variations de la caractéristique pression du réacteur TE Le changement dans le bloc de commande (le calcul des paramètres du nouveau PID) sera réalisé en continu, en fonction des réponses du bloc MSP. Les deux outils, APC et MSP correspondent en permanence pendant toute la durée de fonctionnement du processus. Dans notre algorithme d intégration MSP/APC deux étapes sont distinguées : la première concerne l application de la carte de contrôle la plus adaptée afin déterminer le plus vite possible les variations de la pression la deuxième consiste en trouver la correspondance entre le moment de détection d une tendance (un signal hors contrôle) est les paramètres du contrôleur PID, pour pouvoir décider sur lequel on peut mieux agir pour optimiser la réponse 143

Système de diffusion d information pour encourager les PME-PMI à améliorer leurs performances environnementales

Système de diffusion d information pour encourager les PME-PMI à améliorer leurs performances environnementales Système de diffusion d information pour encourager les PME-PMI à améliorer leurs performances environnementales Natacha Gondran To cite this version: Natacha Gondran. Système de diffusion d information

Plus en détail

La voix en images : comment l évaluation objectivée par logiciel permet d optimiser la prise en charge vocale

La voix en images : comment l évaluation objectivée par logiciel permet d optimiser la prise en charge vocale La voix en images : comment l évaluation objectivée par logiciel permet d optimiser la prise en charge vocale Stéphanie Perriere To cite this version: Stéphanie Perriere. La voix en images : comment l

Plus en détail

statique J. Bertrand To cite this version: HAL Id: jpa-00237017 https://hal.archives-ouvertes.fr/jpa-00237017

statique J. Bertrand To cite this version: HAL Id: jpa-00237017 https://hal.archives-ouvertes.fr/jpa-00237017 Quelques théorèmes généraux relatifs à l électricité statique J. Bertrand To cite this version: J. Bertrand. Quelques théorèmes généraux relatifs à l électricité statique. J. Phys. Theor. Appl., 1874,

Plus en détail

TABLE DES MATIERES. C Exercices complémentaires 42

TABLE DES MATIERES. C Exercices complémentaires 42 TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence

Plus en détail

Sur le grossissement des divers appareils pour la mesure des angles par la réflexion d un faisceau lumineux sur un miroir mobile

Sur le grossissement des divers appareils pour la mesure des angles par la réflexion d un faisceau lumineux sur un miroir mobile Sur le grossissement des divers appareils pour la mesure des angles par la réflexion d un faisceau lumineux sur un miroir mobile W. Lermantoff To cite this version: W. Lermantoff. Sur le grossissement

Plus en détail

Compte-rendu de Hamma B., La préposition en français

Compte-rendu de Hamma B., La préposition en français Compte-rendu de Hamma B., La préposition en français Badreddine Hamma To cite this version: Badreddine Hamma. Compte-rendu de Hamma B., La préposition en français. Revue française de linguistique appliquée,

Plus en détail

L indice de SEN, outil de mesure de l équité des systèmes éducatifs. Une comparaison à l échelle européenne

L indice de SEN, outil de mesure de l équité des systèmes éducatifs. Une comparaison à l échelle européenne L indice de SEN, outil de mesure de l équité des systèmes éducatifs. Une comparaison à l échelle européenne Sophie Morlaix To cite this version: Sophie Morlaix. L indice de SEN, outil de mesure de l équité

Plus en détail

Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence

Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence Gwenole Fortin To cite this version: Gwenole Fortin. Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence. 2006.

Plus en détail

Précision d un résultat et calculs d incertitudes

Précision d un résultat et calculs d incertitudes Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................

Plus en détail

Comment se servir de cet ouvrage? Chaque chapitre présente une étape de la méthodologie

Comment se servir de cet ouvrage? Chaque chapitre présente une étape de la méthodologie Partie I : Séries statistiques descriptives univariées (SSDU) A Introduction Comment se servir de cet ouvrage? Chaque chapitre présente une étape de la méthodologie et tous sont organisés selon le même

Plus en détail

Résumé des communications des Intervenants

Résumé des communications des Intervenants Enseignements de la 1ere semaine (du 01 au 07 décembre 2014) I. Titre du cours : Introduction au calcul stochastique pour la finance Intervenante : Prof. M hamed EDDAHBI Dans le calcul différentiel dit

Plus en détail

THESE. présentée à L ECOLE SUPERIEURE D INGENIEURS D ANNECY (ESIA) UNIVERSITE DE SAVOIE. par. Emmanuel DUCLOS. pour obtenir le

THESE. présentée à L ECOLE SUPERIEURE D INGENIEURS D ANNECY (ESIA) UNIVERSITE DE SAVOIE. par. Emmanuel DUCLOS. pour obtenir le THESE présentée à L ECOLE SUPERIEURE D INGENIEURS D ANNECY (ESIA) UNIVERSITE DE SAVOIE par Emmanuel DUCLOS pour obtenir le DIPLÔME DE DOCTEUR DE L UNIVERSITE DE SAVOIE spécialité : Electronique - Electrotechnique

Plus en détail

AGROBASE : un système de gestion de données expérimentales

AGROBASE : un système de gestion de données expérimentales AGROBASE : un système de gestion de données expérimentales Daniel Wallach, Jean-Pierre RELLIER To cite this version: Daniel Wallach, Jean-Pierre RELLIER. AGROBASE : un système de gestion de données expérimentales.

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

Comptabilité à base d activités (ABC) et activités informatiques : une contribution à l amélioration des processus informatiques d une banque

Comptabilité à base d activités (ABC) et activités informatiques : une contribution à l amélioration des processus informatiques d une banque Comptabilité à base d activités (ABC) et activités informatiques : une contribution à l amélioration des processus informatiques d une banque Grégory Wegmann, Stephen Nozile To cite this version: Grégory

Plus en détail

Le suivi de la qualité. Méthode MSP : généralités

Le suivi de la qualité. Méthode MSP : généralités Le suivi de la qualité La politique qualité d une entreprise impose que celle maîtrise sa fabrication. Pour cela, elle doit être capable d évaluer la «qualité» de son processus de production et ceci parfois

Plus en détail

CAPTEURS - CHAINES DE MESURES

CAPTEURS - CHAINES DE MESURES CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,

Plus en détail

LA QUALITE, L ASSURANCE DE LA QUALITE ET LA CERTIFICATION ISO 9001

LA QUALITE, L ASSURANCE DE LA QUALITE ET LA CERTIFICATION ISO 9001 LA QUALITE, L ASSURANCE DE LA QUALITE ET LA CERTIFICATION ISO 9001 I/ HISTORIQUE DE LA QUALITE La qualité est un souci permanent de l homme depuis longtemps. Jusqu au XIX ème siècle, c est l ère artisanale

Plus en détail

Conseil économique et social

Conseil économique et social NATIONS UNIES E Conseil économique et social Distr. GÉNÉRALE ECE/CES/GE.20/2008/3 12 février 2008 FRANÇAIS Original: ANGLAIS COMMISSION ÉCONOMIQUE POUR L EUROPE CONFÉRENCE DES STATISTICIENS EUROPÉENS Réunion

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Annexe commune aux séries ES, L et S : boîtes et quantiles

Annexe commune aux séries ES, L et S : boîtes et quantiles Annexe commune aux séries ES, L et S : boîtes et quantiles Quantiles En statistique, pour toute série numérique de données à valeurs dans un intervalle I, on définit la fonction quantile Q, de [,1] dans

Plus en détail

Introduction au datamining

Introduction au datamining Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des

Plus en détail

Les Champs Magnétiques

Les Champs Magnétiques Les Champs Magnétiques Guillaume Laurent To cite this version: Guillaume Laurent. Les Champs Magnétiques. École thématique. Assistants de prévention, Paris, France. 2014, pp.31. HAL Id:

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire

Plus en détail

3 - Sélection des fournisseurs... 4. 4 Marche courante... 5. 4.1 Conditionnement Transport... 5. 4.2 Livraison... 5

3 - Sélection des fournisseurs... 4. 4 Marche courante... 5. 4.1 Conditionnement Transport... 5. 4.2 Livraison... 5 1 SOMMAIRE 1 Introduction... 3 2 Principes... 3 3 - Sélection des fournisseurs... 4 4 Marche courante... 5 4.1 Conditionnement Transport... 5 4.2 Livraison... 5 4.3 - Garantie qualité / Conformité... 5

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Réseau SCEREN. Ce document a été numérisé par le CRDP de Bordeaux pour la. Base Nationale des Sujets d Examens de l enseignement professionnel.

Réseau SCEREN. Ce document a été numérisé par le CRDP de Bordeaux pour la. Base Nationale des Sujets d Examens de l enseignement professionnel. Ce document a été numérisé par le CRDP de Bordeaux pour la Base Nationale des Sujets d Examens de l enseignement professionnel. Campagne 2013 Ce fichier numérique ne peut être reproduit, représenté, adapté

Plus en détail

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE UE4 : Biostatistiques Chapitre 3 : Principe des tests statistiques d hypothèse José LABARERE Année universitaire 2010/2011 Université Joseph Fourier de Grenoble - Tous droits réservés. Plan I. Introduction

Plus en détail

Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN

Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN Table des matières. Introduction....3 Mesures et incertitudes en sciences physiques

Plus en détail

ASSURER LA QUALITE DES RESULTATS D ESSAI ET D ETALONNAGE Assuring the quality of test and calibration results

ASSURER LA QUALITE DES RESULTATS D ESSAI ET D ETALONNAGE Assuring the quality of test and calibration results ASSURER LA QUALITE DES RESULTATS D ESSAI ET D ETALONNAGE Assuring the quality of test and calibration results Soraya Amarouche Armelle Picau Olivier Pierson Raphaël Deal Laboratoire National de Métrologie

Plus en détail

Intérêt du découpage en sous-bandes pour l analyse spectrale

Intérêt du découpage en sous-bandes pour l analyse spectrale Intérêt du découpage en sous-bandes pour l analyse spectrale David BONACCI Institut National Polytechnique de Toulouse (INP) École Nationale Supérieure d Électrotechnique, d Électronique, d Informatique,

Plus en détail

Intelligence précoce

Intelligence précoce Les données de procédé constituent une mine d informations très utiles pour l entreprise Geoff Artley Le secteur du raffinage est aujourd hui soumis à forte pression financière : amputation des marges,

Plus en détail

Table des matières. I Mise à niveau 11. Préface

Table des matières. I Mise à niveau 11. Préface Table des matières Préface v I Mise à niveau 11 1 Bases du calcul commercial 13 1.1 Alphabet grec...................................... 13 1.2 Symboles mathématiques............................... 14 1.3

Plus en détail

Rares sont ceux d entre nous qui, lors

Rares sont ceux d entre nous qui, lors Solutions PROGICIELS DE CONTRÔLE STATISTIQUE SPC : BIEN IDENTIFIER LE BESOIN AVANT DE CHOISIR Choisir un progiciel de Maîtrise Statistique des Procédés (MSP) ou de la qualité d une fabrication (SQC) n

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Dessin assisté par ordinateur en lycée professionnel

Dessin assisté par ordinateur en lycée professionnel Dessin assisté par ordinateur en lycée professionnel Bernard Dauga To cite this version: Bernard Dauga. Dessin assisté par ordinateur en lycée professionnel. Bulletin de l EPI (Enseignement Public et Informatique),

Plus en détail

Le WACC est-il le coût du capital?

Le WACC est-il le coût du capital? Echanges d'expériences Comptabilité et communication financière Dans une évaluation fondée sur la méthode DCF, l objectif premier du WACC est d intégrer l impact positif de la dette sur la valeur des actifs.

Plus en détail

Système de management H.A.C.C.P.

Système de management H.A.C.C.P. NM 08.0.002 Norme Marocaine 2003 Système de management H.A.C.C.P. Exigences Norme Marocaine homologuée par arrêté du Ministre de l'industrie, du Commerce et des Télécommunications N 386-03 du 21 Février

Plus en détail

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU $SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU Fabien FIGUERES fabien.figueres@mpsa.com 0RWVFOpV : Krigeage, plans d expériences space-filling, points de validations, calibration moteur. 5pVXPp Dans le

Plus en détail

Modélisation et simulation du trafic. Christine BUISSON (LICIT) Journée Simulation dynamique du trafic routier ENPC, 9 Mars 2005

Modélisation et simulation du trafic. Christine BUISSON (LICIT) Journée Simulation dynamique du trafic routier ENPC, 9 Mars 2005 Modélisation et simulation du trafic Christine BUISSON (LICIT) Journée Simulation dynamique du trafic routier ENPC, 9 Mars 2005 Plan de la présentation! Introduction : modèles et simulations définition

Plus en détail

CONVENTION ASSURANCE QUALITÉ (QAA) FONCTION NÉGOCIANT

CONVENTION ASSURANCE QUALITÉ (QAA) FONCTION NÉGOCIANT 1. Préambule 1.1 Généralités La présente convention d assurance qualité (QAA) définit les exigences posées aux fournisseurs REHAU en matière d assurance qualité. La QAA REHAU constitue des règles destinées

Plus en détail

Contrôle par commande prédictive d un procédé de cuisson sous infrarouge de peintures en poudre.

Contrôle par commande prédictive d un procédé de cuisson sous infrarouge de peintures en poudre. Contrôle par commande prédictive d un procédé de cuisson sous infrarouge de peintures en poudre. Isabelle Bombard, Bruno da Silva, Pascal Dufour *, Pierre Laurent, Joseph Lieto. Laboratoire d Automatique

Plus en détail

Item 169 : Évaluation thérapeutique et niveau de preuve

Item 169 : Évaluation thérapeutique et niveau de preuve Item 169 : Évaluation thérapeutique et niveau de preuve COFER, Collège Français des Enseignants en Rhumatologie Date de création du document 2010-2011 Table des matières ENC :...3 SPECIFIQUE :...3 I Différentes

Plus en détail

Cours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012 LES STATISTIQUES INFERENTIELLES

Cours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012 LES STATISTIQUES INFERENTIELLES LES STATISTIQUES INFERENTIELLES (test de Student) L inférence statistique est la partie des statistiques qui, contrairement à la statistique descriptive, ne se contente pas de décrire des observations,

Plus en détail

Sur la transformation de l électricité statique en électricité dynamique

Sur la transformation de l électricité statique en électricité dynamique Sur la transformation de l électricité statique en électricité dynamique E. Bichat To cite this version: E. Bichat. Sur la transformation de l électricité statique en électricité dynamique. J. Phys. Theor.

Plus en détail

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...

Plus en détail

données en connaissance et en actions?

données en connaissance et en actions? 1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)

Plus en détail

Statistiques Descriptives à une dimension

Statistiques Descriptives à une dimension I. Introduction et Définitions 1. Introduction La statistique est une science qui a pour objectif de recueillir et de traiter les informations, souvent en très grand nombre. Elle regroupe l ensemble des

Plus en détail

Exploitation et analyse des données appliquées aux techniques d enquête par sondage. Introduction.

Exploitation et analyse des données appliquées aux techniques d enquête par sondage. Introduction. Exploitation et analyse des données appliquées aux techniques d enquête par sondage. Introduction. Etudes et traitements statistiques des données : le cas illustratif de la démarche par sondage INTRODUCTION

Plus en détail

Jean-Luc Archimbaud. Sensibilisation à la sécurité informatique.

Jean-Luc Archimbaud. Sensibilisation à la sécurité informatique. Sensibilisation à la sécurité informatique Jean-Luc Archimbaud To cite this version: Jean-Luc Archimbaud. Sensibilisation à la sécurité informatique. lieux en France, 1997, pp.17. École

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

La Gestion Technique Centralisée. Qu est ce que c est? A quoi ça sert?

La Gestion Technique Centralisée. Qu est ce que c est? A quoi ça sert? La Gestion Technique Centralisée. Qu est ce que c est? A quoi ça sert? Cet article a pour objectif de rappeler les notions principales relatives à la Gestion Technique Centralisée. Mais qu entend on par

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

1. Vocabulaire : Introduction au tableau élémentaire

1. Vocabulaire : Introduction au tableau élémentaire L1-S1 Lire et caractériser l'information géographique - Le traitement statistique univarié Statistique : le terme statistique désigne à la fois : 1) l'ensemble des données numériques concernant une catégorie

Plus en détail

La survie nette actuelle à long terme Qualités de sept méthodes d estimation

La survie nette actuelle à long terme Qualités de sept méthodes d estimation La survie nette actuelle à long terme Qualités de sept méthodes d estimation PAR Alireza MOGHADDAM TUTEUR : Guy HÉDELIN Laboratoire d Épidémiologie et de Santé publique, EA 80 Faculté de Médecine de Strasbourg

Plus en détail

LE RÔLE DE LA STATISTIQUE DANS UN PROCESSUS DE PRISE DE DÉCISION

LE RÔLE DE LA STATISTIQUE DANS UN PROCESSUS DE PRISE DE DÉCISION LE RÔLE DE LA STATISTIQUE DANS UN PROCESSUS DE PRISE DE DÉCISION Sylvie Gervais Service des enseignements généraux École de technologie supérieure (sylvie.gervais@etsmtl.ca) Le laboratoire des condensateurs

Plus en détail

AICp. Vincent Vandewalle. To cite this version: HAL Id: inria-00386678 https://hal.inria.fr/inria-00386678

AICp. Vincent Vandewalle. To cite this version: HAL Id: inria-00386678 https://hal.inria.fr/inria-00386678 Sélection prédictive d un modèle génératif par le critère AICp Vincent Vandewalle To cite this version: Vincent Vandewalle. Sélection prédictive d un modèle génératif par le critère AICp. 41èmes Journées

Plus en détail

L assurance de la qualité à votre service

L assurance de la qualité à votre service Atelier L assurance de la qualité à votre service Présentation de Jean-Marie Richard 24 et 25 novembre Sujets Qu est-ce que l assurance de la qualité? Initiation aux concepts de l assurance de la qualité.

Plus en détail

MESURE ET PRECISION. Il est clair que si le voltmètre mesure bien la tension U aux bornes de R, l ampèremètre, lui, mesure. R mes. mes. .

MESURE ET PRECISION. Il est clair que si le voltmètre mesure bien la tension U aux bornes de R, l ampèremètre, lui, mesure. R mes. mes. . MESURE ET PRECISIO La détermination de la valeur d une grandeur G à partir des mesures expérimentales de grandeurs a et b dont elle dépend n a vraiment de sens que si elle est accompagnée de la précision

Plus en détail

3. Caractéristiques et fonctions d une v.a.

3. Caractéristiques et fonctions d une v.a. 3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions

Plus en détail

TPM Totale Productive Maintenance

TPM Totale Productive Maintenance T.P.M ou Topo Maintenance Méthodes de maintenance TPM Totale Productive Maintenance 1 T.P.M ou Topo Maintenance 1. CONTEXTE GENERAL La TPM (de l anglais Total Productive Maintenance) est un système global

Plus en détail

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R Yves Aragon, David Haziza & Anne Ruiz-Gazen GREMAQ, UMR CNRS 5604, Université des Sciences

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Définir une politique de maintenance et sa stratégie de mise en œuvre de responsabilités

Définir une politique de maintenance et sa stratégie de mise en œuvre de responsabilités Chapitre 1 Définir une politique de maintenance et sa stratégie de mise en œuvre de responsabilités La politique de maintenance, entre prévention et correction 25 f Qu est-ce que le «préventif» et le «correctif»?

Plus en détail

CEG4566/CSI4541 Conception de systèmes temps réel

CEG4566/CSI4541 Conception de systèmes temps réel CEG4566/CSI4541 Conception de systèmes temps réel Chapitre 6 Vivacité, sécurité (Safety), fiabilité et tolérance aux fautes dans les systèmes en temps réel 6.1 Introduction générale aux notions de sécurité

Plus en détail

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke www.fundp.ac.be/biostats Module 140 140 ANOVA A UN CRITERE DE CLASSIFICATION FIXE...2 140.1 UTILITE...2 140.2 COMPARAISON DE VARIANCES...2 140.2.1 Calcul de la variance...2 140.2.2 Distributions de référence...3

Plus en détail

Famille continue de courbes terminales du spiral réglant pouvant être construites par points et par tangentes

Famille continue de courbes terminales du spiral réglant pouvant être construites par points et par tangentes Famille continue de courbes terminales du spiral réglant pouvant être construites par points et par tangentes M. Aubert To cite this version: M. Aubert. Famille continue de courbes terminales du spiral

Plus en détail

Introduction à l approche bootstrap

Introduction à l approche bootstrap Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme? Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version

Plus en détail

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme? Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version

Plus en détail

Program Analysis and Transformation: From the Polytope Model to Formal Languages

Program Analysis and Transformation: From the Polytope Model to Formal Languages Program Analysis and Transformation: From the Polytope Model to Formal Languages Albert Cohen To cite this version: Albert Cohen. Program Analysis and Transformation: From the Polytope Model to Formal

Plus en détail

PLAN DE COURS CEGEP DU VIEUX-MONTRÉAL

PLAN DE COURS CEGEP DU VIEUX-MONTRÉAL PLAN DE COURS CONTRÔLE DE LA QUALITÉ 241-B60-VM TECHNIQUE DE GÉNIE MÉCANIQUE 241-06 PONDÉRATION : 2-1-1 Compétence : 012Z Contrôler la qualité d un produit DÉPARTEMENT DE LA MÉCANIQUE CEGEP DU VIEUX-MONTRÉAL

Plus en détail

Le risque Idiosyncrasique

Le risque Idiosyncrasique Le risque Idiosyncrasique -Pierre CADESTIN -Magali DRIGHES -Raphael MINATO -Mathieu SELLES 1 Introduction Risque idiosyncrasique : risque non pris en compte dans le risque de marché (indépendant des phénomènes

Plus en détail

GENERALITES SUR LA MESURE DE TEMPERATURE

GENERALITES SUR LA MESURE DE TEMPERATURE Distributeur exclusif de GENERALITES SUR LA MESURE DE TEMPERATURE INTRODUCTION...2 GENERALITES SUR LA MESURE DE TEMPERATURE...2 La température...2 Unités de mesure de température...3 Echelle de température...3

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

La pratique des décisions dans les affaires

La pratique des décisions dans les affaires Association Française Edwards Deming Une philosophie de l action pour le XXIème siècle Conférence annuelle, Paris, 8 juin 1999 Jean-Marie Gogue, Président de l AFED La pratique des décisions dans les affaires

Plus en détail

OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT)

OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT) OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT) LAGGOUNE Radouane 1 et HADDAD Cherifa 2 1,2: Dépt. de G. Mécanique, université de Bejaia, Targa-Ouzemour

Plus en détail

MODÉLISATION DU FONCTIONNEMENT EN PARALLELE À DEUX OU PLUSIEURS POMPES CENTRIFUGES IDENTIQUES OU DIFFERENTES

MODÉLISATION DU FONCTIONNEMENT EN PARALLELE À DEUX OU PLUSIEURS POMPES CENTRIFUGES IDENTIQUES OU DIFFERENTES Annals of the University of Craiova, Electrical Engineering series, No. 30, 006 MODÉLISATION DU FONCTIONNEMENT EN PARALLELE À DEUX OU PLUSIEURS POMPES CENTRIFUGES IDENTIQUES OU DIFFERENTES Daniela POPESCU,

Plus en détail

Statistique Descriptive Élémentaire

Statistique Descriptive Élémentaire Publications de l Institut de Mathématiques de Toulouse Statistique Descriptive Élémentaire (version de mai 2010) Alain Baccini Institut de Mathématiques de Toulouse UMR CNRS 5219 Université Paul Sabatier

Plus en détail

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI 1 Déroulement d un projet en DATA MINING, préparation et analyse des données Walid AYADI 2 Les étapes d un projet Choix du sujet - Définition des objectifs Inventaire des données existantes Collecte, nettoyage

Plus en détail

Les déterminants du volume d aide professionnelle pour. reste-à-charge

Les déterminants du volume d aide professionnelle pour. reste-à-charge Les déterminants du volume d aide professionnelle pour les bénéficiaires de l APA à domicile : le rôle du reste-à-charge Cécile Bourreau-Dubois, Agnès Gramain, Helen Lim, Jingyue Xing, Quitterie Roquebert

Plus en détail

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites La problématique des tests Cours V 7 mars 8 Test d hypothèses [Section 6.1] Soit un modèle statistique P θ ; θ Θ} et des hypothèses H : θ Θ H 1 : θ Θ 1 = Θ \ Θ Un test (pur) est une statistique à valeur

Plus en détail

Principe d un test statistique

Principe d un test statistique Biostatistiques Principe d un test statistique Professeur Jean-Luc BOSSON PCEM2 - Année universitaire 2012/2013 Faculté de Médecine de Grenoble (UJF) - Tous droits réservés. Objectifs pédagogiques Comprendre

Plus en détail

Notions d asservissements et de Régulations

Notions d asservissements et de Régulations I. Introduction I. Notions d asservissements et de Régulations Le professeur de Génie Electrique doit faire passer des notions de régulation à travers ses enseignements. Les notions principales qu'il a

Plus en détail

Peut-on perdre sa dignité?

Peut-on perdre sa dignité? Peut-on perdre sa dignité? Eric Delassus To cite this version: Eric Delassus. Peut-on perdre sa dignité?. 2013. HAL Id: hal-00796705 https://hal.archives-ouvertes.fr/hal-00796705 Submitted

Plus en détail

CALCUL D UN SCORE ( SCORING) Application de techniques de discrimination LES OBJECTIFS DU SCORING

CALCUL D UN SCORE ( SCORING) Application de techniques de discrimination LES OBJECTIFS DU SCORING CALCUL D UN SCORE ( SCORING) Application de techniques de discrimination LES OBJECTIFS DU SCORING SÉLECTION DES RISQUES PRÉVISION DES DÉFAUTS SUIVI ET CONTRÔLE Pierre-Louis GONZALEZ Différents types de

Plus en détail

NOTE SUR LA MODELISATION DU RISQUE D INFLATION

NOTE SUR LA MODELISATION DU RISQUE D INFLATION NOTE SUR LA MODELISATION DU RISQUE D INFLATION 1/ RESUME DE L ANALYSE Cette étude a pour objectif de modéliser l écart entre deux indices d inflation afin d appréhender le risque à très long terme qui

Plus en détail

Projet de Traitement du Signal Segmentation d images SAR

Projet de Traitement du Signal Segmentation d images SAR Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,

Plus en détail

Appliquer la maîtrise statistique des processus (MSP/SPC)

Appliquer la maîtrise statistique des processus (MSP/SPC) Maurice PILLET Professeur des Universités IUT Annecy Université de Savoie, Laboratoire LISTIC Ancien élève de l'ecole Normale Supérieure de CACHAN Appliquer la maîtrise statistique des processus (MSP/SPC)

Plus en détail

!-.!#- $'( 1&) &) (,' &*- %,!

!-.!#- $'( 1&) &) (,' &*- %,! 0 $'( 1&) +&&/ ( &+&& &+&))&( -.#- 2& -.#- &) (,' %&,))& &)+&&) &- $ 3.#( %, (&&/ 0 ' Il existe plusieurs types de simulation de flux Statique ou dynamique Stochastique ou déterministe A événements discrets

Plus en détail

Principe de symétrisation pour la construction d un test adaptatif

Principe de symétrisation pour la construction d un test adaptatif Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université

Plus en détail

Expérience 3 Formats de signalisation binaire

Expérience 3 Formats de signalisation binaire Expérience 3 Formats de signalisation binaire Introduction Procédures Effectuez les commandes suivantes: >> xhost nat >> rlogin nat >> setenv DISPLAY machine:0 >> setenv MATLABPATH /gel/usr/telecom/comm_tbx

Plus en détail

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57 Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation

Plus en détail

Etude des possibilités de passerelles entre les CQP des Entreprises de l industrie pharmaceutique et les CQP des industries chimiques

Etude des possibilités de passerelles entre les CQP des Entreprises de l industrie pharmaceutique et les CQP des industries chimiques Etude des possibilités de passerelles entre les CQP des Entreprises de l industrie et les CQP des industries chimiques @ COPYRIGHT LEEM - Page 1 sur 51 Sommaire 1 - Finalités des passerelles... 3 2 - Principes

Plus en détail

NON-LINEARITE ET RESEAUX NEURONAUX

NON-LINEARITE ET RESEAUX NEURONAUX NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail

Plus en détail

CONSEIL DE COORDIN AT I O N DU PROGRAM M E DE L ONUSID A

CONSEIL DE COORDIN AT I O N DU PROGRAM M E DE L ONUSID A CONSEIL DE COORDIN AT I O N DU PROGRAM M E DE L ONUSID A ONUSIDA/CCP (36)/15.12 Date de publication : 24 juin 2015 TRENTE-SIXIÈME RÉUNION Date : 30 juin - 2 juillet 2015 Lieu : Salle du conseil exécutif,

Plus en détail

Le Management selon Deming

Le Management selon Deming Le Management selon Deming Une démarche complète de management, basée sur les fondamentaux de la Qualité L Association Française Edwards Deming Votre attente Comprendre mieux ce qui est derrière le nom

Plus en détail