Évaluation des risques de non atteinte des performances techniques du produit au cours de la conception



Documents pareils
2.0 Interprétation des cotes d évaluation des risques relatifs aux produits

Les risques liés à l activité de l entreprise : quels outils pour les identifier?

OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT)

Aggregation of expert opinions and uncertainty theories

Format de l avis d efficience

A.3 Les méthodes : L applicabilité

Principe de symétrisation pour la construction d un test adaptatif

Les indices à surplus constant

Application de la méthode QFD comme outil d'extraction des connaissances métier en conception intégrée

Préparation des données d entrée pour la définition d un plan de validation

SOCLE COMMUN - La Compétence 3 Les principaux éléments de mathématiques et la culture scientifique et technologique

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Analyse prospective des risques: application de la méthode AMDEC

Incertitude et variabilité : la nécessité de les intégrer dans les modèles

DÉVERSEMENT ÉLASTIQUE D UNE POUTRE À SECTION BI-SYMÉTRIQUE SOUMISE À DES MOMENTS D EXTRÉMITÉ ET UNE CHARGE RÉPARTIE OU CONCENTRÉE

Démarches de réduction des risques technologiques lors de la conception des terminaux GNL

Corps des nombres complexes, J Paul Tsasa

Amélioration de la fiabilité d inspection en CND grâce à la fusion d information : applications en rayons X et ultrasons

Proposition de sujet de thèse CIFRE EUROCOPTER / LGI2P

Initiation à la Programmation en Logique avec SISCtus Prolog

FONDEMENTS MATHÉMATIQUES 12 E ANNÉE. Mathématiques financières

La valeur présente (ou actuelle) d une annuité, si elle est constante, est donc aussi calculable par cette fonction : VA = A [(1-1/(1+k) T )/k]

Identification, évaluation et gestion des incidents

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

NOTE SUR LA MODELISATION DU RISQUE D INFLATION

Introduction au datamining

Précision d un résultat et calculs d incertitudes

overmind La solution précède le problème 2008 Overmind - All rights reserved

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée.

Attitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014

Communication aux entreprises d assurances concernant la procédure de «pre-application» pour Solvency II

COMMENT REDIGER UN RAPPORT TECHNIQUE?

statique J. Bertrand To cite this version: HAL Id: jpa

Chapitre 2 Le problème de l unicité des solutions

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Sujet de thèse CIFRE RESULIS / LGI2P

MPI Activité.10 : Logique binaire Portes logiques

Analyse,, Conception des Systèmes Informatiques

Arithmétique binaire. Chapitre. 5.1 Notions Bit Mot

Le scoring est-il la nouvelle révolution du microcrédit?

Hedging delta et gamma neutre d un option digitale

ASSURER LA QUALITE DES RESULTATS D ESSAI ET D ETALONNAGE Assuring the quality of test and calibration results

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé


Baccalauréat ES Amérique du Nord 4 juin 2008

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Définition et diffusion de signatures sémantiques dans les systèmes pair-à-pair

TP N 57. Déploiement et renouvellement d une constellation de satellites

LES INDICATEURS CLÉ DE PERFORMANCE : DÉFINIR ET AGIR

De la mesure à l analyse des risques

Introduction à la théorie des files d'attente. Claude Chaudet

Didier MOUNIEN Samantha MOINEAUX

Indexation et recherche de documents XML par les fonctions de croyance

QUICK GUIDE #1. Guide du pilotage par la performance pour les distributeurs automobiles

LA METHODE DU COUT CIBLE (TARGET COSTING)

M2 IAD UE MODE Notes de cours (3)

TEPZZ A_T EP A1 (19) (11) EP A1 (12) DEMANDE DE BREVET EUROPEEN. (51) Int Cl.: G07F 7/08 ( ) G06K 19/077 (2006.

Fonctions de plusieurs variables

PRIME D UNE OPTION D ACHAT OU DE VENTE

Bases de données. Chapitre 1. Introduction

3F4/2 Modalités de renfort en personnels dans les domaines non sanitaires

Méthode de sureté de fonctionnement pour une maintenance efficace Application à un poste électrique (60/10KV)

3. Conditionnement P (B)

TSTI 2D CH X : Exemples de lois à densité 1

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

MATHÉMATIQUES. Les préalables pour l algèbre MAT-P020-1 DÉFINITION DU DOMAINE D EXAMEN

IT203 : Systèmes de gestion de bases de données. A. Zemmari zemmari@labri.fr

Seconde Généralités sur les fonctions Exercices. Notion de fonction.

Prix AEF - 5 ème édition Universités - Entreprises "Les meilleures initiatives partagées"

APPROCHE DE LA SURVEILLANCE DES SYSTEMES PAR RESEAUX DE PETRI SYNCHRONISES FLOUS

L évaluation des risques professionnels

STATISTIQUES A DEUX VARIABLES

Systèmes d information et bases de données (niveau 1)

Suites numériques 3. 1 Convergence et limite d une suite

Nom de l application

Management des risques projet : un moyen pour gérer les incertitudes liées aux projets d innovation

MATH ELEMENTS DU CALCUL DES PROBABILITES

DYNAMIQUE DE FORMATION DES ÉTOILES

Groupe Eyrolles, 2006, ISBN :

Livre Blanc Oracle Novembre Le Bureau des Projets (PMO) : un levier stratégique de création de valeur pour l industrie

Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN

DETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES

Ligne directrice sur les simulations de crise à l intention des régimes de retraite assortis de dispositions à prestations déterminées

Transmission d informations sur le réseau électrique

Tests de sensibilité des projections aux hypothèses démographiques et économiques : variantes de chômage et de solde migratoire

Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION

Sylvie Guessab Professeur à Supélec et responsable pédagogique du Mastère Spécialisé en Soutien Logistique Intégré des Systèmes Complexes

Bien lire l énoncé 2 fois avant de continuer - Méthodes et/ou Explications Réponses. Antécédents d un nombre par une fonction

La fonction exponentielle

IFT3913 Qualité du logiciel et métriques. Chapitre 2 Modèles de processus du développement du logiciel. Plan du cours

Aide à la décision en management par processus et intelligence économique

Stockage de chaleur solaire par sorption : Analyse et contrôle du système à partir de sa simulation dynamique

1. Étude réalisée par l AFOPE en Hellriegel D., Slocum J. W., Woodman R. W., Management des organisations, Bruxelles, De Boeck, 1992.

Théorèmes de Point Fixe et Applications 1

26th of March 2014, Paris

GESTION DE PROJET. - Tél : N enregistrement formation :

Des réels aux flottants : préservation automatique de preuves de stabilité de Lyapunov

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R

BACCALAURÉAT GÉNÉRAL SÉRIE SCIENTIFIQUE

Transcription:

Évaluation des risques de non atteinte des performances techniques du produit au cours de la conception G. CABANNES a, N. TROUSSIER a, T. GIDEL b, Z. CHERFI a a. Université de Technologie de Compiègne - CNRS UMR 6253 Roberval, BP60319, Rue du Docteur Schweitzer, 60203 Compiègne Cedex b. Université de Technologie de Compiègne - EA 2223 Costech, BP60319, Rue du Docteur Schweitzer, 60203 Compiègne Cedex Résumé : Pour maîtriser les performances techniques du produit en conception, nous proposons une démarche fondée sur la maîtrise des risques de non-atteinte des performances en liant les performances techniques du produit au risque de ne pas les atteindre. Nous cherchons alors à évaluer la criticité du risque en utilisant la théorie de Dempster Shafer, qui permet de modéliser l imprécision et l incertitude des informations manipulées en conception. Ces informations sont fusionnées pour évaluer le risque. Abstract: To control the technical product performances throughout the engineering design process, a method is proposed based on controlling the risk of not reaching the performance by linking the technical product performances to the risk of not reaching them. The criticality of the risks is then assessed using the Dempster-Shafer Theory which takes into account the imprecision and the uncertainty about the information used during the design process. Information fusion is then achieved for assessing the risk on functions both at a technical level and at higher levels. Mots clefs : maîtrise des performances, incertitudes, criticité, gravité, Dempster-Shafer, GTU 1 Introduction Afin de maîtriser le coût et la qualité des produits, les entreprises manufacturières soumises à une forte concurrence se concentrent de plus en plus sur l amont du processus de conception, où les capacités d actions sont les plus grandes [1], [2]. Cependant, les informations manipulées à ce stade sont souvent incertaines. L atteinte des performances est alors seulement hypothétique, supposée. Pour maîtriser la conception, il devient alors nécessaire de s intéresser aux risques de ne pas atteindre ces performances. Après un bref rappel sur la maîtrise des performances techniques, la maîtrise des risques de non-atteinte de ces performances est étudiée. Notre problématique est ensuite formulée à partir de l analyse de l état de l art sur l identification et l évaluation de ces risques. Un indicateur de risque est alors proposé. Celui-ci peut être utilisé tout au long de la conception, quels que soient les niveaux de définition du produit (des premiers éléments de solutions à la définition détaillée du produit). La notion de fusion d informations et la théorie de croyance transférable (issue de la théorie de Dempster-Shafer) sont mobilisées pour tenir compte des imprécisions ou incertitudes sur les informations. Dans cet article, nous montrons qu il est ainsi possible, tout au long du processus de conception, d évaluer les risques de ne pas atteindre les performances, en tenant compte des incertitudes sur les informations manipulées. 2 De la maîtrise des performances à la maîtrise des risques de non atteinte des performances 2.1 Maîtrise des performances sous incertitudes La maîtrise des performances vise à concevoir un produit qui, malgré toutes les incertitudes de l environnement de conception, fait ce pour quoi il a été conçu. Dans ce paragraphe, nous définissons les notions de fonctions et de performances utiles dans cet article. Ensuite, les moyens permettant de mesurer l atteinte des performances sont étudiés, et enfin, le rôle des incertitudes en conception est discuté. La fonction d un produit décrit ce que doit faire le produit, dans une situation de vie considérée (par exemple dans la situation de vie utilisation ). Une fonction est caractérisée par des grandeurs valuées, appelées performances [3], qui indiquent quand la fonction est remplie. Définies au début de la conception, les fonctions et 1

les performances associées constituent un objectif de conception et sont généralement décomposées suivant une structure d arbre décrivant des liens de composition (FAST [4], [5] ou axiomatic design [3]). Les performances peuvent, elles aussi, être structurées à l aide de la même arborescence. La combinaison de sous-performances permet d assurer la performance de niveau supérieur. La conception consiste à trouver des solutions qui permettent d atteindre toutes ces performances et la manipulation de ces arborescences est une clé importante de la maîtrise des performances en conception. L atteinte des performances est alors évaluée en comparant les mesures des performances (obtenues par expertise, simulations ou essais) aux objectifs de conception. Malheureusement, ces performances peuvent être soumises à des incertitudes et des imprécisions qui influent fortement sur leur évaluation. Le rôle majeur des incertitudes et des imprécisions en conception a été identifié par de nombreux auteurs et leurs origines sont nombreuses. L incertitude peut provenir de variabilités subies (définition non déterministe d un module d Young par exemple due à la mesure et à la variabilité des procédés de production), de l indécision ou de la capacité d une information à évoluer dans le temps ([6], [7]). Dans certains cas, ces incertitudes peuvent être des sources de non-atteinte de performances et, ainsi, engendrer un coût non négligeable pour l entreprise. C est la raison pour laquelle le risque de ne pas atteindre les performances doit être considéré et maîtrisé afin d anticiper la mise en œuvre des actions préventives, ou correctives nécessaires. 2.2 Les risques en conception Le fait de supposer qu un produit en cours de conception peut, au final, ne pas atteindre les performances souhaitées, constitue un risque d après la norme afnor NF X50-117 [8]. D après de nombreux auteurs et normes [9], [10], [8], les processus de gestion des risques reposent tous sur plusieurs étapes clefs, dont quatre sont communes à tous : l identification des risques, l estimation des paramètres du risque, l évaluation des risques, le suivi et contrôle des risques. Seules les trois premières étapes (et les risques de ne pas atteindre les performances espérées) sont considérés ici. La première étape, d identification des risques, a pour objectif la détermination des risques auxquels le produit peut être confronté. L estimation des risques permet d estimer les paramètres qui composent le risque. Enfin, l évaluation des risques a généralement pour but de classer les risques entre eux. C est le cas, par exemple, dans la méthode AMDEC (Analyse des Modes de Défaillances de leurs Effets et de leur Criticité) où la notion de criticité est utilisée. Ce classement des risques aident les acteurs de la conception à prendre les décisions d actions préventives ou correctives. Les risques ne peuvent pas être suivis, contrôlés, estimés, évalués sans avoir été identifiés. Gidel [9] structure les méthodes de gestion des risques projets, en trois catégories : les méthodes analogiques, les méthodes heuristiques, et les méthodes analytiques. Malgré toutes ces méthodes, il reste difficile d identifier, tôt dans le processus de conception et de façon automatique, les risques en relation avec un raisonnement fonctionnel répandu en conception. Il n est pas aisé non plus d identifier la logique de propagation des risques sur les performances (aussi appelée logique de combinaison). Le FAST, créé par Bytheway en 1975 [11], consiste en une arborescence logique de fonctions pour décrire un système technique quelconque. Il a été traité de façon multiple par de nombreux auteurs ([4], [5]). Afin de pouvoir identifier les risques de non-atteinte des performances du produit en conception dans le cadre d une approche fonctionnelle, et dans le but d identifier la logique des risques, le FAST a été proposé dans [12]. Il repose sur l utilisation des théorèmes de De Morgan appliqué au FAST. Le F AST est une négation des fonctions du FAST. Il s agit d une représentation des risques de ne pas atteindre les performances. Il permet d identifier de façon automatique, à partir d une fonction et des performances associées, le risque qu un produit ne remplisse pas cette fonction mais aussi d identifier quelles sont les logiques de propagation, de combinaison des risques de ne pas atteindre les performances visées. Si le FAST permet de faciliter la saisie des incertitudes qui impactent les fonctions, le F AST permet de visualiser l accumulation des risques de ne pas atteindre les performances (par la propagation des incertitudes) tel que représenté en figure 1. FIGURE 1 Le FAST, le FAST, les incertitudes et la criticité du risque d après [12] La maîtrise des risques est donc nécessaire à la maîtrise des performances sous incertitudes. L étape d identification des risques est supportée par la construction du FAST, déduit du FAST. L étape suivante, d estimation et d évaluation des risques de non atteintes des performances en conception, fait l objet d un état de l art plus précis. 2

3 État de l art sur l évaluation des risques en conception L évaluation des risques consiste à évaluer la chance que le risque se produise, et, s il arrive, la gravité de ses conséquences. Dans l état de l art, deux approches peuvent être distinguées : l évaluation qualitative et l évaluation quantitative. La méthode d évaluation qualitative la plus répandue est l AMDEC [13] qui s appuie classiquement sur trois paramètres. D après Ridoux [13], il s agit de : la fréquence d apparition (appelée parfois probabilité d apparition - Pa), la gravité de l effet (G), la détection (appelée parfois probabilité de non-détection Pnd). La fréquence d apparition correspond à la quantification de la fréquence à laquelle le risque peut survenir. La gravité quantifie l effet néfaste du risque si celui-ci se produisait. Enfin la détection est, d après [13], la capacité à détecter la défaillance, c est à dire à détecter le risque avant qu il ne produise l effet. Normalement, plus la détection est difficile, plus la notation du paramètre de non-détection est grande. L ensemble de ces trois paramètres sont évalués par des notes allant de 1 à 4 [13] (ou 1 à 10 dans d autres variantes). Cette échelle de notation est décidée au début de l étude. Une fois les paramètres du risque estimés, l indicateur de risque, la criticité (C) permet, une fois évaluée, la hiérarchisation des risques. Elle est calculée ainsi : C = Pa G Pnd (1) Dans certains domaines d ingénierie (par exemple dans l aérospatial), il peut être nécessaire d avoir une quantification précise des risques. Ceci est l objet des méthodes dites d évaluation quantitative du risque, dont la méthode la plus emblématique est Probabilistic Risk Assessment (PRA) proposée par la NASA [14]. Elle distingue deux paramètres du risque : la probabilité (ou chance) d apparition (likelihood of occurrence) et l ampleur (magnitude) ou gravité (severity). La probabilité d apparition est quantifiée par la fréquence d apparition ou la probabilité d apparition par unité de temps. L ampleur est quantifiée par rapport à la gravité des conséquences si le risque se produit. Un ensemble d outils utilisant les probabilités sont mis en œuvre pour déterminer, la probabilité d apparition des risques identifiés. Une courbe du risque, est construite pour représenter graphiquement la fonction qui lie les conséquences des risques (en abscisse) aux fréquences (en ordonnée). Les décisions sont alors prises d après la courbe de risque. La méthode PRA ne prend pas en compte la non-détection possible et accorde une confiance intégrale aux données qu elle utilise. Cela est cohérent si une probabilité d apparition est parfaitement connue et représentative de la réalité, mais, dans le cas contraire, il est également intéressant de prendre en compte une estimation d expert à priori lorsqu elle existe. Aujourd hui, dans l état de l art, aucune de ces méthodes ou outils ne permet d intégrer à la fois des connaissances objectives et des connaissances subjectives. Plus encore, il n existe pas de méthode qui permette de suivre l évolution des performances en conception, qui repose de façon majoritaire sur l analyse d experts au début de la conception puis sur l évaluation objective des paramètres des risques en fin de conception. Il reste donc difficile de maîtriser les risques tout au long du processus de conception. Il faut pour cela déterminer une métrique du risque, valable à chaque instant de la conception, qui permette l évaluation, le classement et la visualisation des risques les plus importants, à tous les niveaux de représentation du produit. En d autres termes, ceci revient à se demander, comment, une fois les risques de non-atteinte identifiés par le F AST, traiter les information, disponibles pour estimer les trois paramètres du risques (l apparition, la gravité, la non-détection). Dans un deuxième temps, il faut établir comment combiner ces risques, en tenant compte des incertitudes sur la définition du produit, sur sa fabrication, et sur les moyens d évaluation des performances techniques. 4 Proposition Nous supposons qu à partir du FAST, le FAST est formalisé et les risques sont identifiés. La proposition se décline alors autour de deux grandes parties. La première consiste à estimer les trois paramètres du risques (le potentiel d apparition, le potentiel de non détection et la gravité). La seconde à évaluer la criticité du risque aussi bien pour un risque isolé que pour un risque combiné, déterminé à partir de plusieurs informations. Une dernière partie permet de faire le point sur les possibilités opérationnelles de la proposition, en faisant une comparaison succincte des formalismes et théories mathématiques qui peuvent être utilisés. L évaluation des risques nécessite de savoir comment combiner des informations hétérogènes afin d arriver à un classement des risques. Le classement des risques dépend des règles de combinaison et doit éviter le sous-classement des risques. Pour l évaluation, deux étapes sont nécessaires : le calcul de la criticité pour un risque et la combinaison entre les risques pour évaluer le risque sur la réalisation de la fonction de niveau supérieur. Ces deux étapes sont respectivement présentées dans les sections suivantes. 4.1 Calcul de la criticité L évaluation consiste, pour un risque donné, à estimer les trois paramètres de risque et la criticité C du risque. Cette criticité est alors un indicateur unique représentatif d un risque considéré. Il est à noter que les paramètres de risque sont ici nommés potentiels d apparition, Pa, potentiel de non-détection, Pnd, et Gravité, G. La différence de vocabulaire introduite par rapport à l AMDEC se justifie par le fait que les probabilités de l AMDEC ne sont pas des probabilités au sens mathématiques du terme, et qu il nous semble alors plus pertinent de parler de potentiel. 3

Afin que ces potentiels soit calculables par les lois de compositions classiques (loi d additivité et de multiplication dans l espace des réels R), il est nécessaire que les potentiels P (pour Pa ou PnD) aient une valeur comprise entre 0 et 1. Par convention (et analogie avec les probabilités), lorsqu un potentiel est nul, cela implique que toutes les performances sont atteintes de façon sûre. S il est égal à 1, cela signifie que le risque se produira et on est sûr que l ensemble de toutes les performances ne seront pas atteintes). Parfois, suite à l additivité des potentiels, ces derniers peuvent avoir une valeur supérieure à 1 et ne plus respecter la condition précédente. Dans ce cas, la normalisation peut être envisagée et sera faite sur l ensemble des valeurs, afin de ne pas perdre l importance relative des différents potentiels. Par risque identifié, les deux potentiels (apparition et non détection) peuvent s ajouter afin de représenter le potentiel global qu un risque se produise, P global. Ils s ajoutent car, par définition, il n existe aucun élément définissant le potentiel d apparition qui appartient à l ensemble représentatif du potentiel de non-détection (équation 2). La gravité reste, comme pour l AMDEC, un facteur multiplicateur et permet d obtenir un classement relatif à deux paramètres, le potentiel global et la gravité d un risque. La criticité d un risque C est donnée par l équation 3. P a + P nd = P global (2) C = P global G (3) Nous avons vu que le FAST permet d identifier la logique de combinaison des risques. Afin de supporter un calcul de la combinaison de la criticité entre les risques identifiés, les règles de combinaison entre les paramètres estimés de deux risques identifiés, doivent être explicités pour évaluer la criticité de la fonction de niveau supérieur dans le FAST. 4.2 Combinaison des risques L intérêt de l estimation et de l évaluation est de permettre de recombiner les risques des niveaux les plus bas vers les niveaux les plus élevées. Pour cette combinaison, l information qui a un sens métier doit être considérée. L objectif est d avoir un indicateur qui a un sens pour les acteurs de la conception et de plus perdre de l information n est pas envisageable. Les informations sont alors combinées à partir de chaque paramètre estimé (ici le potentiel global et la gravité) et non par une combinaison des criticités qui perdrait toute lisibilité. Dans ce paragraphe, les règles de combinaison sont expliquées pour les relations ET puis OU dans le FAST pour chacun des paramètres du risque, et l ensemble des formules sont synthétisées dans le tableau 1. Les règles de combinaison des potentiels globaux suivent la logique de combinaison fonctionnelle représentée dans le FAST et la logique de combinaison des risques du FAST. S il faut deux sous-fonctions pour réaliser une fonction, alors le potentiel que cette dernière ne soit pas réalisée est égale à la somme des potentiels du risque de ne pas réaliser les sous-fonctions. De façon ensembliste cela correspond à l union des potentiels et la figure dans le tableau 1 est alors obtenue. En termes de risque, cela correspond à : si un risque (r 1 ) décrit par un potentiel global (P g1 ) est obtenu par deux sous-risques (r 11 et r 12 ), par une relation ET dans le FAST (OU dans le FAST ), ces sous-risques sont décrits par deux potentiels globaux respectivement (P g11 ) et (P g12 ). La règle de combinaison est alors la somme des potentiels (équation 6). D après l analyse fonctionnelle [4], les fonctions sont indépendantes entre elles. Ainsi l intersection des risques est nulle et il n y a pas de recouvrement entre la mesure des deux potentiels globaux. Pour une relation OU dans le FAST (ET dans le FAST ) cela correspond, d un point de vue conception, à une fonction réalisée par deux fonctions redondantes. Alors, le potentiel de ne pas réaliser la fonction est, d un point de vue ensembliste, l intersection des potentiels (cf. Tableau 1), soit la multiplication des potentiels des sous-fonctions redondantes (équation 7). On observe que le potentiel global de cette fonction est alors inférieur au potentiel le plus faible des sous-fonctions, ce qui est conforme avec la notion de redondance qui permet de diminuer le risque de ne pas atteindre les performances. Si les potentiels sont modélisables par des probabilités, on retrouve les règles classiques de combinaisons (conjonctives et disjonctives) utilisées en théorie des probabilités et en conception à travers les arbres de défaillances. Pour la gravité, les règles de combinaison sont légèrement différentes. Pour rappel, le principe de la gravité est de préciser le niveau de l impact si le risque se produit. Il y a deux façons de déterminer les règles d attribution de gravité. Choisir qu une fonction aurait plus d impact que l autre si elle n était pas réalisée est laissé aux acteurs de la conception lors du renseignement de la gravité. Néanmoins, la gravité peut être déterminée soit par la détermination ascendante (des fonctions techniques vers les plus globales) soit par détermination descendante (des fonctions globales vers les fonctions techniques). Dans pratiquement tous les cas, la gravité d un risque composé par deux sous risques de gravité G 11 et G 12, sera au moins supérieur ou égal au plus grand des deux sous-risques. Détermination ascendante : dans le cas d une logique de combinaison ET dans le FAST (OU FAST ), cela consiste à dire que la fonction de rang supérieur doit être réalisée par les deux fonctions de rang inférieur simultanément. Donc, si le risque se produit sur la fonction de rang supérieur, les gravités doivent se cumuler. Pour réaliser cette combinaison, une relation d addition ou une relation de multiplication peuvent être utilisées. Ces deux relations sont équivalentes sur le classement des risques à condition de prendre P g > 0 et G > 1. 4

FAST et FAST ET (FAST) OU (FAST ) OU (FAST) ET (FAST ) Potentiels Globaux Représentation graphique Règles ensemblistes Règles arithmétiques P g1 = P g11 P g12 (4) P g1 = P g11 P g12 (5) P g1 = P g11 + P g12 (6) P g1 = P g11 P g12 (7) Gravité G 1 = G 11 + G 12 (8) (G 11 = G 12 ) G 1 max(g 11, G 12 ) (9) Descendante Ascendante G 1 = G 11 = G 12 (10) G 1 = max(g 11, G 12 ) (11) Tableau 1 Tableau récapitulatif des règles de combinaisons entre les potentiels et les gravités des risques À défaut d autres arguments permettant la sélection entre l addition et la multiplication, l addition est choisie arbitrairement, et nous imposons P g > 0 et G > 1, ce choix n ayant aucun impact sur le classement des risques. L équation (8) est alors obtenue. Une relation OU dans le FAST (ET dans le FAST ), représente une redondance. Sachant que la gravité est au moins supérieure ou égale aux gravités des risques de rang supérieur nous proposons d utiliser le maximum des gravités des risques de rang inférieur (équation 11). Détermination descendante : soit un risque possèdant une gravité G 1 et se décomposant par une relation ET dans le FAST (OU dans le FAST ) par deux sous-risques G 11 et G 12. Cela signifie que la fonction de niveau supérieur est portée par deux fonctions de rangs inférieurs. La gravité de la non-fonction supérieure est constituée par la gravité des sous-fonctions inférieures. Ainsi, la somme des gravités des sous-risques doit alors être égale à la gravité du risque G 1. On retrouve l équation (8) d une détermination ascendante. Si un risque possède une gravité G 1, et qu il se décompose par une relation OU dans le FAST (ET dans le FAST ), par deux sous-risques G 11 et G 12 les gravités sont égales (équation 10). Il est envisageable que si la redondance fait appel à deux fonctions très différentes, la gravité de l une des deux sous-fonctions pourrait être très différente de l autre. Par exemple si l une des fonctions redondantes peut s avérer dangereuse, la gravité peut ne pas être la même. Pour mettre en œuvre ces différentes règles, un formalisme mathématique doit être choisi. 4.3 Perspectives d implémentation La mise en place opérationnelle des règles précédemment énoncées doit permettre de tenir compte de ces différents formalismes et doit être capable de les combiner. Pour cela deux formalismes sont présents dans la littérature. L une est la théorie de Dempster-Shafer [15] ; l autre est la Generalized Theory of Uncertainty de Lofti Zadeh [16]. Ces deux théories peuvent répondre à notre problème de prise en compte des différentes représentations mathématiques des imprécisions et incertitudes pour les combiner, et déduire une mesure de plausibilité (au sens de Jaynes [17]). La théorie de Dempster-Shafer est issue des travaux sur les règles de combinaison de Dempster complétés par les travaux de Shafer [15]. Cette théorie est une généralisation de la théorie des probabilités, permettant la prise en compte de nombreux formalismes mathématiques comme les intervalles, la logique floue, les probabilités, les probabilités imprécises. Son évolution la plus récente à été conduites par Philippe Smets qui propose dans [18] d abandonner l origine probabiliste de Dempster-Shafer et propose la notion de Transferable Belief Model (appelé TBM et traduit par Modèle de Croyance Transférable). Le TBM repose sur l utilisation de la fonction de masse (notée m), de la fonction de croyance (noté Bel), et de la fonction de plausibilité (noté Pl). La théorie de Dempster-Shafer et le TBM ont l avantage d avoir été largement utilisée depuis 1976 en fusion d information particulièrement. La maturité de cette théorie est telle que de nombreuses applications ont été produites ces dernières années. La Generalized Theory of Uncertainty (GTU) a été publié en 2005 par Lofti Zadeh [16]. La proposition x A peut être vue comme une contrainte au sens de la GTU, et cette approche est généralisée d après L. Zadeh [16] suivant la forme suivante XisrR, X est la variable contrainte, R est la relation contraignante et r est une variable d index qui permet d identifier quelle est la représentation mathématique. Par exemple, r = blank pour une représentation possibiliste, r = p pour une représentation probabiliste. D après Zadeh [16], il existe 5

pour le moment 8 représentations différentes. À partir de cette contrainte généralisée, il propose d effectuer des déductions logiques. Pour mettre en œuvre des règles logiques sur les variables, Zadeh [16] se base sur la Deduction DataBase (appelé DDB) et précise que toutes les règles ne sont pas encore déterminées. La théorie des contraintes généralisées offre un formalisme conceptuel intéressant qui permet de prendre en compte les différentes représentations mathématiques des variables et d effectuer avec celles-ci des déductions logiques. Cependant, de par le manque de maturité ces deuxièmes travaux, nous avons préféré choisir le modèle de croyance transférable pour implémenter les règles de construction de la criticité et de combinaison proposées au début de ce paragraphe. 5 Conclusion Dans le cadre d un processus de gestion des risques, il est nécessaire de pouvoir estimer les risques de ne pas atteindre les performances nécessaires à la réalisation des fonctions du produit. De nombreuses méthodes sont disponibles mais aucune ne permet de suivre l évolution des risques tout au long de la conception et quelle que soit la représentation mathématiques des performances mesurées ou espérées. Nous montrons alors qu il est possible d estimer et d évaluer la criticité des risques de ne pas atteindre les performances tout au long de la conception. Afin que l indicateur de criticité du risque soit rendu opérationnel, deux formalismes mathématiques ont été étudiés. La théorie généralisée de l incertitude de Lofti Zadeh et la théorie de Dempster- Shafer (et le Modèle de croyance transférable associé à celle-ci) ont été comparées. En conclusion, la théorie de Dempster-Shafer, et particulièrement le modèle de croyance transférable, semble le formalisme mathématique le plus intéressant. Celui-ci permet de conserver la représentation mathématique choisie par les acteurs de la conception tout en garantissant l opérationnalité de la proposition en rendant possible le calcul de la criticité des risques de ne pas atteindre les performances. Références [1] Ullman D. G. The mechanical design process. McGraw-Hill series in mechanical engineering. McGraw- Hill Higher Education, New York, third edition, 2003. [2] Midler C. L auto qui n existait pas. InterEditions, Paris, 1993. [3] Suh N. P. and Suh N. P. Axiomatic Design : Advances and Applications (The Oxford Series on Advanced Manufacturing). Oxford University Press, May 2001. [4] Tassinari R. Pratique de l analyse fonctionnelle. Dunod, juin 1992. [5] de la Bretesche B. Analyse de la valeur, analyse fonctionnelle. Édition Pétrelle, 2000. [6] Eversheim W., Roggatz A., Zimmermann H.-J., and Derichs T. Information management for concurrent engineering. European Journal of Operational Research, 100(2), 253 265, Jul 1997. [7] Cabannes G., Goh Y. M., Troussier N., Gidel T., and McMahon C. Taking account of information maturity in assessing product risk, October 2008. [8] AFNOR. X50 117 ; management de projet, gestion du risque, management des risques d un projet. AFNOR, Paris, Apr 2003. [9] Gidel T. and Zonghero W. Management de projet 1. Hermes, Paris, 2006. [10] PMI. A Guide to the Project Management Body of Knowledge (PMBOK R Guide, chapter 11, pages 127 151. Project Management Institute, Four Campus Boulevard, Newtown Square, PA 19073-3299 USA, 2000. [11] Bytheway C. W. Fast - an organized stimulus to creativity, 1975. [12] Cabannes G., Troussier N., Gidel T., and Cherfi Z. Vers un processus de conception piloté par le risque de non atteinte des performances, Apr 2009. [13] Ridoux M. Amdec-moyen. Technique de l Ingénieur, pages AG4 220 1 AG4 220 12. [14] Stamatelatos M., Apostolakis G., Dezfuli H., Everline C., Guarro S., Moieni P., Mosleh A., Paulos T., and Youngblood R. Probabilistic Risk Asessment Procedures Guide for NASA Managers and Practitioners. NASA, Washington, version 1.1 edition, August 2002. [15] Shafer G. A Mathematical Theory of Evidence. Princeton Univ. Press. Princeton, NJ, 1976. [16] Zadeh L. A. Toward a generalized theory of uncertainty (gtu) an outline. Information Sciences, 172(1), 1 40, Jan 2005. [17] Jaynes E. T. Probability Theory : The Logic of Science. Cambridge University Press, April 2003. [18] Smets P., Hsia Y., Saffiotti A., Kennes R., Xu H., and Umkehren E. The transferable belief model. pages 91 96. 1991. 6