Analyse statistique de modèles de fiabilité en environnement dynamique



Documents pareils
Modélisation aléatoire en fiabilité des logiciels

MODELES DE DUREE DE VIE

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Chapitre 2 Le problème de l unicité des solutions

OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT)

Résumé des communications des Intervenants

Méthodes de Simulation

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Les indices à surplus constant

Précision d un résultat et calculs d incertitudes

M2 IAD UE MODE Notes de cours (3)

Filtrage stochastique non linéaire par la théorie de représentation des martingales

CAPTEURS - CHAINES DE MESURES

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

VIII- Circuits séquentiels. Mémoires

Le modèle de Black et Scholes

Fonctions de plusieurs variables

Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN

Analyse des risques financiers

La demande Du consommateur. Contrainte budgétaire Préférences Choix optimal

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke

Les Conditions aux limites

Complément d information concernant la fiche de concordance

Processus aléatoires avec application en finance

Continuité et dérivabilité d une fonction

Chapitre 2/ La fonction de consommation et la fonction d épargne

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

TSTI 2D CH X : Exemples de lois à densité 1

Norme comptable internationale 33 Résultat par action

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

L équilibre offre-demande d électricité en France pour l été 2015

Délibération. 1. Contexte

4 Distributions particulières de probabilités

efelec NOTES D'INFORMATIONS TECHNIQUES LES TESTS DIELECTRIQUES LES ESSAIS DE RIGIDITE ET D'ISOLEMENT

La fonction exponentielle

Lagrange, où λ 1 est pour la contrainte sur µ p ).

Introduction à la théorie des files d'attente. Claude Chaudet

EXPLOITATIONS PEDAGOGIQUES DU TABLEUR EN STG

Distribution d électricité et réseaux souterrains

Arithmétique binaire. Chapitre. 5.1 Notions Bit Mot

NON-LINEARITE ET RESEAUX NEURONAUX

Simulation de variables aléatoires

Le montant des garanties constituées aux fins du STPGV est-il excessif?

Objectifs du cours d aujourd hui. Informatique II : Cours d introduction à l informatique et à la programmation objet. Complexité d un problème (2)

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

COMPTE RENDU. Atelier-débat avec les futurs clients éligibles. 25 septembre 2002

Equilibre offre-demande du système électrique : vers la naissance d un marché de capacités

TP N 57. Déploiement et renouvellement d une constellation de satellites

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

Chapitre 0 Introduction à la cinématique

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION

Préparation des données d entrée pour la définition d un plan de validation

Correction du baccalauréat ES/L Métropole 20 juin 2014

Peut-on imiter le hasard?

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Les risques liés à l activité de l entreprise : quels outils pour les identifier?

Image d un intervalle par une fonction continue

Avis de l IRSN sur la tenue en service des cuves des réacteurs de 900 MWe, aspect neutronique et thermohydraulique

Moments des variables aléatoires réelles

Réseau SCEREN. Ce document a été numérisé par le CRDP de Bordeaux pour la. Base Nationale des Sujets d Examens de l enseignement professionnel.

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

Mises en relief. Information supplémentaire relative au sujet traité. Souligne un point important à ne pas négliger.

Chapitre 3 Les régimes de fonctionnement de quelques circuits linéaires

Norme internationale d information financière 9 Instruments financiers

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Chapitre 1. L intérêt. 2. Concept d intérêt. 1. Mise en situation. Au terme de ce chapitre, vous serez en mesure de :

CHAPiTRE 2 LE SYSTÈME ÉLECTRIQUE FRANCAIS,

Texte Agrégation limitée par diffusion interne

Chaînes de Markov au lycée

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Fiabilité des Systèmes et des Logiciels

FIMA, 7 juillet 2005

!-.!#- $'( 1&) &) (,' &*- %,!

Quantification Scalaire et Prédictive

Introduction à l approche bootstrap

Estimation et tests statistiques, TD 5. Solutions

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

3 Approximation de solutions d équations

Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée.

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Correction du Baccalauréat S Amérique du Nord mai 2007

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Solution de stress test Moody s Analytics

PRIME D UNE OPTION D ACHAT OU DE VENTE

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

3. Conditionnement P (B)

Garantir une meilleure prestation de services et une expérience utilisateur optimale

La survie nette actuelle à long terme Qualités de sept méthodes d estimation

Transcription:

THESE / UNIVERSITE DE BRETAGNE SUD UFR Sciences et sciences de l ingénieur sous le sceau de l Université européenne de Bretagne pour obtenir le titre de DOCTEUR DE L UNIVERSITE DE BRETAGNE SUD Mention : Mathématiques présentée par Lise Guérineau Laboratoire de Mathématiques de Bretagne Atlantique, EDF Recherche & développement Ecole doctorale SICMA Analyse statistique de modèles de fiabilité en environnement dynamique Thèse soutenue le 26 juin 2013 devant le jury composé de : Gilles Celeux Directeur de recherche, Université Paris Sud / rapporteur Olivier Gaudoin Professeur, Université de Grenoble / rapporteur Laurent Bordes Professeur, Université de Bretagne Sud / examinateur Gilles Durrieu Professeur, Université de Bretagne Sud / examinateur Jean-Michel Marin Professeur, Université de Montpellier / examinateur Patrick Pamphile Maître de Conférences, Université de Montpellier / examinateur Evans Gouno Maître de conférences, Université de Bretagne Sud / Directeur de thèse

Remerciements Mes plus chers remerciements s adressent à Evans Gouno qui, en dirigeant cette cette thèse, m a permis de vivre une formidable expérience. Merci Evans de m avoir tant appris. Ton soutien sans faille, ta patience et ta sympathie font que je n aurais pu rêver meilleur guide pendant ces trois années. Je remercie également mes encadrants EDF, Philippe Carer et Romain Lattes, pour la confiance qu ils m ont accordée et pour la dimension industrielle qu ils ont su insuffler au projet. Je tiens à remercier l ensemble des membres du jury. Merci à Gilles Durieux, Jean- Michel Marin et Patrick Pamphile pour l attention qu ils ont porté à mes travaux depuis leurs débuts, en participant aux comités de thèse. Merci à Gilles Celeux et à Olivier Gaudoin d avoir accepté d être les rapporteurs de la thèse. Leur relecture attentive a largement bénéficié à ce manuscrit. Merci enfin à Laurent Bordes d avoir bien voulu présider le jury. J exprime ma sincère reconnaissance à Lambert Pierrat, qui fut l un de mes plus fidèles lecteurs. Ses suggestions, éclairées par ses connaissances physiques et statistiques, m ont permis de faire évoluer le manuscrit. Cette thèse a été réalisée dans le cadre d une convention CIFRE, au sein du groupe «Fiabilité et Disponibilité des Réseaux Electriques» du département MIRE à EDF R&D. Je ne saurais oublier mes collègues d EDF qui ont contribué, chacun à leur manière, à l aboutissement du projet. Je dois énormément à la présence bienveillante de Valérie Murin et de Nadège Vignol qui ont joué un rôle-clé lors des moments stratégiques de la thèse. Merci à Jean-Claude et Mbaye, toujours prêts à combler mes lacunes sur les matériels. Merci à Thomas, grâce à qui j ai réalisé mes premiers mois de thèse en très bonne compagnie dans le bureau Z020 rappelle-toi, le temps où tu étais stagaire!). Merci aussi pour les jolis dessins! Merci à Philippe d être Philippe. Merci à John pour ses conseils avisés sur la thèse, mais aussi sur Londres. Merci à Nathalie et à Daniela qui ont répondu à mes nombreuses sollicitations d ordre logistique, avec la gentillesse et l entrain qui les caractérisent. Enfin, merci à tous mes collègues grâce à qui j ai pu réaliser cette thèse dans une atmosphère particulièrement agréable. Je ne serais pas allée bien loin sans le soutien de nombreuses personnes. A tous ceux qui m ont aidée à y croire, ou tout simplement m ont permis d oublier le temps d un instant, d une soirée, d un week-end, de vacances les propos qui vont suivre, un grand merci! Votre contribution à la thèse aura été bien plus précieuse qu il n y paraît. Mention particulière à Thomas, qui a vécu par procuration les multiples rebondissements de la thèse, et dont la douce folie a été un ingrédient indispensable à sa réalisation. A mes parents, à Pauline et Gaëtan, pour m avoir supportée depuis si longtemps, mille mercis...

Table des matières Table des matières Notations Acronymes i iii v Préambule 1 1 Introduction 3 1.1 Contexte industriel............................... 3 1.1.1 Enjeux.................................. 4 1.1.2 Gestion des actifs du réseau électrique............... 5 1.1.3 Facteurs d influence sur la fiabilité.................. 6 1.1.4 Objectifs et contributions....................... 8 1.2 Contexte statistique............................... 9 1.2.1 Analyse des durées de bon fonctionnement............ 10 1.2.2 Analyse de l occurrence des défaillances.............. 14 2 Distribution exponentielle par morceaux 21 2.1 Définitions.................................... 23 2.2 Propriétés.................................... 23 2.3 Inférence..................................... 26 2.3.1 Observation sans censure....................... 26 2.3.2 Observation censurée......................... 34 2.4 Remarques.................................... 38 3 Fiabilité sous contraintes d environnement statiques 41 3.1 Modèles à taux proportionnels........................ 43 3.1.1 Taux de base spécifié.......................... 43 3.1.2 Taux de base non spécifié : modèle de Cox............. 45 3.1.3 Adéquation au modèle........................ 46 3.2 Modèles à facteur d accélération....................... 47 3.2.1 Modèle d Arrhenius.......................... 47 3.2.2 Modèle puissance inverse....................... 49 3.2.3 Modèle de Peck............................. 49 4 Fiabilité sous contraintes d environnement dynamiques 51 4.1 Situation A.................................... 53 4.1.1 Le modèle................................ 53 4.1.2 Maximum de vraisemblance..................... 59 4.1.3 Application sur des données simulées................ 62 i

Table des matières 4.1.4 Application sur des données de terrain............... 66 4.2 Situation B.................................... 68 4.2.1 Le modèle................................ 69 4.2.2 Maximum de vraisemblance..................... 71 4.2.3 Application sur des données simulées................ 73 4.2.4 Application sur des données de terrain............... 78 4.3 Cas général................................... 80 4.3.1 Nature de l environnement...................... 80 4.3.2 Le modèle................................ 80 4.3.3 Inférence statistique.......................... 84 5 Fiabilité sous contrainte structurelle 89 5.1 Description du système............................ 91 5.2 Le modèle.................................... 91 5.2.1 Processus d intérêt........................... 92 5.2.2 Processus sous-jacent......................... 95 5.3 Inférence pour un schéma d observation continu.............. 96 5.3.1 Vraisemblance du processus d intérêt................ 96 5.3.2 Vraisemblance du processus sous-jacent.............. 96 5.3.3 Estimation................................ 97 5.4 Inférence pour un schéma d observation discret.............. 97 5.4.1 Observation à temps discret du processus sous-jacent...... 97 5.4.2 Observation à temps discret du processus d intérêt........ 102 5.5 Applications................................... 116 5.5.1 Cas d école............................... 116 5.5.2 Simulations............................... 120 5.5.3 Conclusion............................... 128 Conclusion générale 129 6 Annexes 133 6.1 Les surtensions................................. 133 6.1.1 Différents types de surtensions.................... 133 6.1.2 Protection contre les surtensions................... 133 6.1.3 Zoom sur les surtensions atmosphériques.............. 134 6.2 Calcul des surtensions............................. 137 6.3 Procédure d estimation dans le cas général................. 140 6.4 Preuve de la proposition 11.......................... 142 6.5 Preuve du théorème 10............................. 147 Bibliographie 151 ii

Notations transposée de la matrice B, du vecteur B vecteurs colonnes) E espérance mathématique Var variance Γ fonction gamma d Euler, définie par Γα) = + 0 u α 1 e u du u j j uplet u 1,, u j ) X variable aléatoire pour la durée de bon fonctionnement Y variable aléatoire pour la durée observée δ indicateur de censure 1 si l on a observé la défaillance du composant, 0 sinon) d date d installation f ) densité de X F ) fonction de répartition associée à X R ) fiabilité associée à X λ ) taux de défaillance associé à X Λ ) taux de défaillance cumulé associé à X g X ) fonction génératrice des moments associée à X Lθ) vraisemblance, fonction du paramètre θ Hθ) hessienne associée à la log-vraisemblance Iθ) information de Fisher du modèle τ j j ème instant de saut du taux de défaillance pour la loi exponentielle par morceaux, j = 1,..., m. Par convention, τ 0 = 0 et τ m+1 = + I j j ème intervalle d une loi exponentielle par morceaux : I j = [τ j 1, τ j [, j = 1,..., m + 1 τ partition { considérée pour la loi exponentielle par morceaux : τ = Ij, j = 1,... m + 1 } B λ vecteur des valeurs successives prises par le taux de défaillance de la loi exponentielle par morceaux : λ = λ 1,..., λ m+1 ) L j longueur de l intervalle I j, j = 1,..., m K j nombre de défaillances survenues dans l intervalle I j, j = 1,..., m + 1 C j nombre de censures survenues dans l intervalle I j, j = 1,..., m + 1 R j nombre de composants présents à la fin de l intervalle I j, en τ j, j = 1,..., m iii

Notations X j,l durée de bon fonctionnement associée à la l ème défaillance de l intervalle I j, j = 1,..., m + 1, l = 1,..., K j W j,l durée associée à la l ème censure de l intervalle I j, j = 1,..., m + 1, l = 1,..., C j z vecteur de p covariables déterministes représentant un environnement statique 1 λx; z) taux de défaillance modélisé en fonction de l environnement z X z durée de bon fonctionnement sous l environnement z AFz 0, z 1 ) facteur d accélération entre deux environnements statiques z 0 et z 1 λ 0 ) taux de base du modèle de Cox Λ 0 ) taux de base cumulé du modèle de Cox S i date du i ème point de discontinuité d un processus de sauts, i 1 par convention S 0 = 0) U i i ème temps de séjour d un processus de sauts : U i = S i S i 1, i 1 K i i + 1) ème état pris par un processus de sauts P t, ) noyau de transition d un processus markovien de sauts Q θ générateur infinitésimal d un processus markovien de sauts Λ t ) t 0, λ t ) t 0 compensateur, intensité d un processus de comptage Z t ) t 0 processus stochastique représentant l évolution du système étudié dans le chapitre 5 X t, Y t ) t 0 processus bivarié comptant les pannes survenant sur les deux types de composants du système N t ) t 0 processus comptant les pannes survenant sur le système : N t = X t + Y t t i i ème date d observation du système X t, X i accroissement du processus X t ) t 0 entre 0 et t, entre t i 1 et t i πθ) densité a priori pour le paramètre θ Nous adoptons les conventions suivantes : la somme q i=p ) est nulle si p > q et le produit q i=p ) vaut 1 si p > q. 1. Environnement constant dans le temps, par opposition avec un environnement dynamique représenté par des variables dépendant du temps. iv

Acronymes CRE TURPE HTA BT ka kv CEI IFR DFR MTTF i.i.d. n.i.i.d. MV EQM PEXE AFT EM MH SEM MCEM BDI Commission de Régulation de l Energie Tarifs d Utilisation des Réseaux Publics d Electricité Haute Tension A Basse Tension kiloampère kilovolt Commission Electrotechnique Internationale taux de défaillance croissant Increasing Failure Rate) taux de défaillance décroissant Decreasing Failure Rate) Temps moyen de bon fonctionnement jusqu à la défaillance Mean Time To Failure) Variables indépendantes et identiquement distribuées Variables indépendantes et non identiquement distribuées Maximum de Vraisemblance Erreur Quadratique Moyenne Caractère des estimateurs reposant sur la spécification d un taux de défaillance constant par morceaux Piecewise EXponential Estimator) Modèle de durée de vie accélérée Accelerated Failure Time model) Espérance Maximisation Expectation Maximization) Metropolis-Hastings EM stochastique Stochastic Expectation Maximization) Monte Carlo EM Monte Carlo Expectation Maximization) processus de naissance et de mort avec immigration birth-death process with immigration) v

Préambule Le réseau électrique constitue une infrastructure essentielle pour notre société. Son évolution progressive vers une structure intelligente doit permettre de répondre aux enjeux actuels de la distribution publique d électricité, avec notamment la diversification des usages et des moyens de production décentralisés. Dans le contexte d un réseau en pleine mutation, l amélioration de la qualité du service de distribution d électricité demeure une préoccupation constante. Des efforts importants de maintenance et de renouvellement permettent aux distributeurs d honorer leurs engagements en matière de qualité de service. Pour que les investissements visant à améliorer la qualité de fourniture soient les plus pertinents possibles, une anticipation des défaillances est primordiale. C est dans cette optique que travaille le groupe «Fiabilité et disponibilité des réseaux électriques» d EDF R&D, au sein duquel s est déroulée la thèse. Les missions de ce groupe portent plus généralement sur trois aspects : la maîtrise de la sûreté de fonctionnement des réseaux électriques et l amélioration de la connaissance des facteurs influents sur leur fiabilité ; la contribution à l optimisation des politiques de gestion des actifs des réseaux ; l anticipation des modes de défaillance des réseaux intelligents. Les coupures d électricité sont dues aux défaillances des matériels électriques sous l effet des dégradations liées au vieillissement et aussi sous l effet des contraintes qu ils endurent. Le comportement des matériels sous l influence des agressions liées à leur environnement, s il est un phénomène bien connu, est rarement quantifié en termes de risque de défaillance. L objectif de cette thèse est d en améliorer la connaissance. Notre approche repose sur l estimation statistique de la fiabilité à partir d observations du réseau et de ses composants. Elle nécessite le développement et la mise en œuvre de méthodes bien particulières. Notre contribution concerne trois aspects de la fiabilité en environnement dynamique : Nous étudions les propriétés mathématiques de la loi exponentielle par morceaux, qui modélise un taux de défaillance constant par morceaux ; Nous proposons des modèles reliant la propension de défaillance d un matériel aux conditions d environnement auxquelles ce matériel est soumis ; Nous montrons comment des processus stochastiques permettent d étudier l évolution d un système réparable constitué de liens et de nœuds et d en déduire des informations sur la fiabilité des composants dans un contexte de données manquantes. 1

Préambule Le chapitre 1 offre une vue d ensemble du contexte de la thèse. La prise en compte de la source de variabilité que constitue l environnement représente un enjeu important dans l évaluation de la fiabilité du réseau électrique. Nous présentons le contexte des études fiabilistes du réseau et rappelons certains concepts statistiques nécessaires à la compréhension des développements ultérieurs. Le chapitre 2 est consacré à l étude de la loi exponentielle par morceaux. Cette loi permet de modéliser des formes très variées du taux de défaillance, avec autant de variations que l on souhaite, ce qui la rend particulièrement adaptée à la modélisation de la fiabilité dans un environnement dynamique. Nous l étudions d un point de vue probabiliste et d un point de vue statistique. Un état de l art des approches permettant d exprimer la fiabilité en fonction de contraintes environnementales constantes dans le temps est effectué dans le chapitre 3. Nous distinguons les modèles à taux proportionnels, qui incluent notamment le modèle de Cox, des modèles à facteurs d accélération. Nous présentons quelques formes de facteurs d accélération utilisées de manière classique dans le domaine expérimental. A partir des éléments introduits dans les chapitres 2 et 3, nous développons dans le chapitre 4 des modèles de fiabilité pour des composants non réparables soumis à des conditions environnementales dynamiques. Deux situations correspondant à des cas d étude industriels sont étudiées. Dans la première, nous étendons la modélisation développée dans le cadre des essais accélérés en step-stress par Gouno 2007) au cas de deux covariables : température et humidité. Ces contraintes ne sont alors pas contrôlées. Elles sont de différentes natures : la température est une variable externe et l humidité, une variable interne. Dans la seconde situation envisagée, nous proposons un modèle représentant l effet cumulé des surtensions atmosphériques dues aux impacts de foudre sur la fiabilité d un matériel. Nous proposons ensuite un modèle général de fiabilité représentant l impact de conditions environnementales dynamiques, de quelque nature qu elles soient, sur la fiabilité d un composant. Nous montrons en quoi ce modèle s inscrit dans la classe des modèles proposés par Friedman 1982). Dans le chapitre 5, nous nous intéressons à l occurrence des défaillances sur un système réparable, lorsque la fiabilité et l évolution du système sont intrinsèquement liées. Dans cette situation, la fiabilité du système est sous l influence de contraintes liées à la composition du système, dites contraintes structurelles. Nous décrivons un modèle paramétrique représentant l évolution du système et nous considérons le problème de l estimation pour différents schémas d observation. L observation discrète génère des données manquantes. Cette situation a donné lieu au développement d algorithmes de type Expectation Maximisation EM). 2

CHAPITRE 1 Introduction 1.1 Contexte industriel Les réseaux électriques permettent d acheminer l électricité depuis les centres de production jusqu aux lieux de consommation figure 1.1). L électricité produite est d abord répartie sur l ensemble du territoire par le réseau de transport. Le transport s effectue à haute et très haute tension pour minimiser les pertes Joule dans les lignes et pour pouvoir transiter de grandes puissances. L électricité est ensuite convertie à des niveaux de tension inférieurs pour pouvoir être livrée aux clients. Le réseau de distribution réalise cette livraison, depuis les postes source, qui sont les points de connexion avec le réseau de transport, via deux niveaux de tension : la moyenne tension et la basse tension. Certains clients industriels sont alimentés directement en moyenne tension. Les autres clients sont alimentés en basse tension. Activité Activité Activité en concurrence régulée en concurrence Production Transport Distribution Fourniture Figure 1.1: Le réseau électrique : vue d ensemble. 3

1. Introduction 1.1.1 Enjeux La continuité de fourniture en électricité est une contrainte forte du secteur énergétique. La fiabilité du réseau électrique est définie comme son aptitude à satisfaire la demande en électricité de tous les clients, en quantité et en qualité Sandrin, 1986). Dans un paysage énergétique en pleine mutation, le maintien de la qualité d alimentation en électricité à un niveau élevé demeure une préoccupation majeure. Depuis la libéralisation des marchés de l énergie, la production et la commercialisation de l électricité sont ouvertes à concurrence ; l acheminement de l électricité est une activité régulée bénéficiant d un monopole figure 1.1). Les gestionnaires de réseaux ont pour mission d exploiter, de développer et d entretenir les réseaux. Il s agit là d une mission de service public. La Commission de Régulation de l Energie CRE) est l autorité régulatrice qui veille au bon fonctionnement du marché de l électricité. Elle a instauré en 2000 des tarifs d utilisation des réseaux publics d électricité TURPE) qui, conformément aux dispositions de l article L. 341-2 du code de l énergie, rémunèrent les gestionnaires de réseaux «de manière transparente et non discriminatoire, afin de couvrir l ensemble des coûts qu ils supportent et dans la mesure où ces coûts correspondent à ceux d un gestionnaire de réseau efficace» CRE, 2013). Ces tarifs permettent ainsi de maintenir une concurrence loyale entre les différents fournisseurs d électricité français, tout en donnant aux gestionnaires de réseaux les moyens d accomplir au mieux leur mission de service public. Parallèlement, la CRE a mis en place des mécanismes de régulation encourageant les gestionnaires de réseaux à améliorer leurs performances. Dans le domaine de la continuité de fourniture, ces mécanismes consistent en une stratégie d incitation financière portant sur la durée moyenne de coupure. Si cette durée est inférieure au niveau cible, le gestionnaire de réseaux sera récompensé financièrement ; dans le cas contraire, il subira une pénalité figure 1.2). Les coûts résultant des tarifs d utilisation des réseaux d électricité sont facturés par le gestionnaire de réseaux au fournisseur d électricité, qui les répercute sur le client. L objectif est donc d en assurer une maîtrise raisonnable afin de ne pas alourdir excessivement les charges qui pèsent sur le consommateur. Le niveau de qualité de l électricité fait également l objet d un dispositif réglementaire qui, sans se substituer à la stratégie incitative mise en place par la CRE, impose aux gestionnaires de réseaux un seuil minimal de qualité 1. La continuité de l alimentation électrique est jugée au regard de trois critères : le nombre annuel de coupures longues 2, le nombre annuel de coupures brèves 3 et la durée cumulée annuelle des coupures longues. Lorsque le nombre d utilisateurs accusant un nombre de coupures brèves ou un nombre de coupures longues ou une durée cumulée de coupure supérieurs aux valeurs limites autorisées dépasse 5% du nombre total d utilisateurs, le niveau de qualité du réseau est réputé non respecté 1. Ces objectifs de fiabilité et de disponibilité sont à valider chaque année à la maille des départements français. 1. Arrêté du 24 décembre 2007 pris en application du décret n 2007-1826 du 24 décembre 2007 relatif aux niveaux de qualité et aux prescriptions techniques en matière de qualité des réseaux publics de distribution et de transport d électricité. 2. Coupures d une durée supérieure à 3 minutes 3. Coupures d une durée comprise entre une seconde et trois minutes 4

1.1. Contexte industriel bonus/malus cible durée cumulée annuelle de coupure Figure 1.2: Principe du mécanisme de régulation de la qualité d alimentation portant sur la durée moyenne de coupure dans le cadre du TURPE 3. Afin de respecter au mieux les obligations qui leur incombent, les gestionnaires de réseaux mettent en place une politique de fiabilisation qui porte sur : la validation de la fiabilité des équipements préalablement à leur installation sur le réseau. Les produits proposés par différents constructeurs sont mis en concurrence. Ces équipements doivent satisfaire un certain nombre de prescriptions techniques. Ils doivent avoir subi avec succès les épreuves recommandées par les spécifications d entreprise et/ou les normes européennes en vigueur. La robustesse des équipements face aux agressions climatiques peut être examinée si nécessaire essais de chaleur humide, essai au brouillard salin, essais diélectriques à la tension de choc... ). Le gestionnaire des réseaux opte pour le produit le plus satisfaisant au regard des résultats des tests en laboratoire et sous une contrainte de coût donnée. la planification d actions de maintenance préventive et d investissements ciblés sur les infrastructures à risque. Un matériel est réparé ou renouvelé lorsque les dépenses engagées pour la maintenance ou le renouvellement sont jugées moins contraignantes que l insatisfaction du client. Les outils d aide à la décision qui guident ces investissements sont empruntés au secteur bancaire : on parle de gestion des actifs, les actifs désignant les éléments physiques qui composent le réseau électrique. Le cadre de la thèse est celui de la gestion des actifs du réseau électrique. 1.1.2 Gestion des actifs du réseau électrique Les outils de gestion des actifs visent à optimiser les investissements pour réduire les coûts, augmenter l efficacité, tout en gardant une qualité standard. Pour le réseau électrique, l objectif de qualité est défini au regard des critères susnommés. Plusieurs leviers peuvent être actionnés pour atteindre cet objectif. On peut par exemple décider de mettre en œuvre un programme d élagage, de remplacer un ensemble d équipements devenus obsolètes, de mener des actions de maintenance préventive... L évaluation des investissements nécessaires peut être réalisée à différentes 5

1. Introduction échelles, allant de la répartition globale des enveloppes budgétaires entre les régions jusqu à l identification et la priorisation des matériels nécessitant une intervention. Suivant le niveau de précision considéré, différents outils viennent éclairer les décisions. Sandrin 1986) distingue deux types d approches : les approches macroéconomiques visant à réaliser un compromis entre fiabilité et économie ; les approches centrées sur des objectifs de fiabilité. Les approches macroéconomiques étaient jusqu alors privilégiées dans les études opérationnelles de fiabilité des réseaux. Elles reposent sur une hypothèse de coût de la défaillance. Par exemple, certaines analyses décisionnelles reposent sur le concept d énergie non distribuée générée par un incident. En fixant le coût de l énergie non distribuée, on peut associer à toute stratégie de développement de réseau un coût total. Une alternative est de comparer différents scénarios en considérant le surcoût généré par la maintenance ou le renouvellement fortuit d un matériel comparé à la même opération réalisée de manière planifiée. La fréquence des incidents est une donnée d entrée pour ces outils déterministes. Avec l introduction d objectifs de fiabilité et de disponibilité, on voit l émergence de nouveaux outils dont l objectif est d évaluer la qualité d alimentation en électricité. Dans ce type d approche, probabiliste, on cherche à quantifier un risque : risque que le nombre de coupures ou que la durée cumulée des coupures soient supérieurs à des seuils. Pour cela, on estime non plus une seule valeur mais une distribution de probabilité autour de cette valeur, qu elle soit le nombre coupures ou la durée cumulée des coupures. L approche probabiliste ouvre un champ nouveau et potentiellement très fécond dans le cadre des études de fiabilité du réseau électrique. Elle permet une meilleure prise en compte des aspects aléatoires, ce qui en fait la solution idoine pour intégrer l impact des nouvelles sources d incertitudes que constituent les productions décentralisées et intermittentes éolien et photovoltaïque). 1.1.3 Facteurs d influence sur la fiabilité Les composants du réseau électrique évoluent dans des conditions environnementales fluctuantes, qui sont parfois très sévères. Ces contraintes peuvent engendrer des dégradations sur les matériels. Températures élevées, vents forts, foudre, neige, givre, sont autant d exemples d aléas climatiques susceptibles d endommager les équipements du réseau électrique. La question de la sécurisation du réseau face à ces aléas préoccupe les pouvoirs publics Proriol, 2011). Les gestionnaires des réseaux poursuivent des plans de modernisation des infrastructures qui doivent contribuer à la réduction de l impact des aléas climatiques. Cet impact est un phénomène bien connu. Pour autant, il est rarement quantifié. Les dispositifs encadrant actuellement la qualité d alimentation en électricité excluent du périmètre de l évaluation les causes météorologiques : dans le TURPE 3, seule la durée annuelle moyenne de coupure hors événement exceptionnel est soumise à des incitations financières ; dans le décret du 24 décembre 2007 version consolidée au 1 janvier 2013), les niveaux de qualité et les prescriptions techniques en matière de qualité sont fixés en dehors de circonstances exceptionnelles. Par voie de conséquence, les outils de gestion des actifs éclairant les décisions de maintenance et de renouvellement ignorent les défaillances dues aux circonstances exceptionnelles. Les phénomènes météorologiques sont considérés d une ampleur exceptionnelle au regard de leur impact sur les réseaux, caractérisés par une probabilité 6

1.1. Contexte industriel d occurrence annuelle inférieure à 5% pour la zone géographique considérée dès que, lors d une même journée et pour la même cause, au moins 100 000 consommateurs alimentés par le réseau de transport et/ou par les réseaux de distribution sont privés d électricité 4. Cependant, cette définition des événements exceptionnels fait débat. Pour le gestionnaire de réseau ERDF 5, les indicateurs de qualité d alimentation excluant ces circonstances restent fortement influencés par les conditions climatiques. Aussi, des définitions moins restrictives des événements exceptionnels sont envisagées, conduisant à ignorer davantage de défaillances pour le calcul des indicateurs de qualité d alimentation. Mais jusqu où peut-on donc filtrer les défaillances sans pour autant masquer une forme de vulnérabilité du réseau? La nécessité d une démarche globale d analyse de risque se fait sentir ; elle est soulignée par les acteurs œuvrant pour la qualité d alimentation : «La mission des gestionnaires du réseau doit intégrer pleinement leur capacité à assurer la continuité d alimentation, y compris en cas de contraintes induites par certains phénomènes météorologiques» CRE, 2010). D un point de vue comptable, il est important de discriminer les pannes suivant leur origine, environnementale ou matérielle. Les investissements, levier d action pour diminuer le nombre de coupures, relèvent dans un cas de la sécurisation du réseau face aux intempéries et dans l autre, de la maintenance et du renouvellement. D un point de vue fiabiliste, cette distinction n est pas justifiée. Vieillissement et sensibilité aux contraintes sont deux phénomènes étroitement liés. Plus le matériel est contraint, plus sa propension à présenter des défaillances est importante. Le nombre de coupures résultant de circonstances exceptionnelles n est que l expression d un risque de défaillance élevé sous ces conditions. Ce risque est plus ou moins inhibé en situation normale. Des actions de renforcement du réseau visent à minimiser l impact des agressions climatiques sur la fiabilité dans des zones identifiées à risque. Malgré toutes les précautions prises, la sensibilité des matériels aux conditions d utilisation est inéluctable. Cette réalité doit être prise en compte dans la gestion du réseau qui, pour être optimale, doit se faire en connaissance de cause. Une démarche globale d analyse de risque consisterait à pouvoir affirmer que tel niveau de qualité d alimentation est acceptable au regard des contraintes endurées par le réseau, alors que tel autre ne l est pas. Par exemple, Billinton 1975) considère que l environnement alterne entre des périodes dites normales, des périodes critiques, et des périodes de tempête. L impact de l environnement sur la fiabilité se traduit par un taux de défaillance qui oscille entre trois valeurs, chacune étant associée à un état de l environnement normal, critique, exceptionnel). Le critère permettant d affecter des conditions d environnement à l un de ces trois états est choisi indépendamment de l impact que l environnement peut avoir sur le taux de défaillance. La mise en œuvre d une telle approche pour le réseau électrique est rendue difficile pour plusieurs raisons. Le réseau électrique est un système complexe et les calculs de fiabilité ne peuvent être réalisés de manière explicite. Diverses approximations permettent toutefois de surmonter cet obstacle. La principale difficulté rencontrée est finalement le manque de connaissance concernant le comportement du réseau et de ses composants sous l effet des contraintes qui l affectent. Lors de l étude de cette dépendance, on se heurte à des verrous scientifiques qui sont à l origine des axes de recherche développés dans la thèse. 4. Cette définition des événements exceptionnels figure dans la consultation publique de la Commission de Régulation de l Energie du 7 juin 2012 sur le cadre de régulation des tarifs d utilisation des réseaux publics d électricité 5. Electricité et Réseau Distribution France. 7

1. Introduction 1.1.4 Objectifs et contributions L objectif de la thèse est de développer des méthodes permettant d estimer la fiabilité des systèmes électriques sous l influence d un environnement dynamique. Le travail de modélisation entrepris concerne deux types de systèmes bien distincts : des systèmes unitaires et non réparables, qualifiés de composants ; des systèmes multi-composants et réparables. L environnement dynamique peut être décrit par des propriétés physiques ou structurelles susceptibles d être modifiées à tout instant. La modélisation des composants non réparables est exposée dans le chapitre 4 ; des variables liées aux conditions météorologiques caractérisent alors l environnement dynamique. Un modèle de fiabilité concernant un système réparable est présenté dans le chapitre 5. Dans ce cas, l environnement dynamique est inhérent à la composition du système. Le point commun à ces modélisations est qu elles reposent sur l observation du réseau et s appuient sur une modélisation probabiliste et statistique de l occurrence des pannes. Des cas d étude industriels constituent une trame pour les approches proposées. Composants sous contrainte d environnement dynamique Certains composants du réseau électrique sont à l origine d un grand nombre de coupures en raison de leur forte sensibilité à l aléa climatique. Disposer des lois de défaillance pour ces composants constitue une clé pour le gestionnaire de réseau. En effet, connaître le risque encouru s il ne renouvelle pas ou s il ne maintient pas ses appareils lui permet d adopter la meilleure stratégie possible en termes de développement de réseau, suivant la contrainte de fiabilité ou de coût qu il s est fixée. Nous nous intéressons à des modèles exprimant l influence de variables environnementales sur des durées de bon fonctionnement. Deux types de composants sont à l origine des modèles proposés dans le chapitre 4 : des composants dont le risque de défaillance est lié à un phénomène de détérioration de la rigidité diélectrique 6 provoquée par la diffusion de l humidité, laquelle est favorisée par des températures élevées. Ainsi, la dégradation du composant est impactée par l effet combiné de la température et de l humidité. La spécificité de ces composants est d être soumis à l action conjointe d une variable externe température) et d une variable interne humidité) ; des composants sujets à des chocs répétés provoqués par une contrainte de nature impulsionnelle, comme par exemple les transformateurs de puissance de type haut de poteau, exposés aux surtensions engendrées par l orage. Chaque impact affecte durablement la fiabilité des transformateurs haut de poteau ; l accumulation des déteriorations provoquées par ces impacts est à l origine de la défaillance. Des modèles de fiabilité sont proposés pour ces deux types de composants. Le taux de défaillance du premier composant est supposé constant sur des intervalles de même longueur ; sa valeur sur chaque intervalle est régie par un modèle de Peck. Pour le second composant, le taux de défaillance est supposé constant entre deux impacts de foudre successifs : il augmente uniquement par l action des chocs dus à l orage. L amplitude de chaque accroissement est paramétrée par un modèle de type puissance inverse, qui permet d exprimer l effet cumulatif des surtensions dues à l orage. Ces deux modèles permettent d intégrer des aspects physiques intervenant dans l occurrence d un claquage diélectrique 7. L estimation fréquentiste est menée sur des données si- 6. La rigidité diélectrique d un milieu isolant est la valeur maximum du champ électrique que le milieu peut supporter avant le claquage. 7. Perte subite de la propriété isolante d un diélectrique soumis à un champ électrique. 8

1.2. Contexte statistique mulées et les valeurs estimées sont comparées aux vraies valeurs. Des applications à des données réelles sont également proposées. Partant des modélisations imaginées pour chacun des cas d étude industriels, nous définissons un cadre général pour l évaluation de la fiabilité d un composant en usage, sous l influence de contraintes environnementales dynamiques. Le modèle général, adapté à une grande variété de contraintes, consiste d une part, à modéliser les durées de bon fonctionnement par une loi exponentielle par morceaux et d autre part, à spécifier un modèle à taux proportionnels sur les paramètres de cette loi. Les chapitres 2 et 3 introduisent des éléments concernant ces deux aspects du modèle général. Une étude probabiliste et statistique de la loi exponentielle par morceaux est réalisée dans le chapitre 2. Un certain nombre de propriétés connues sont synthétisées ; des développements nouveaux sont également présentés, concernant notamment la loi de l estimateur du maximum de vraisemblance loi à distance finie, loi asymptotique). Le chapitre 3, de nature bibliographique, présente des modèles permettant de quantifier l effet de covariables sur des durées de bon fonctionnement, lorsque les covariables ne dépendent pas du temps. Système réparable sous contrainte structurelle Le réseau électrique est un système complexe. Il comprend de multiples composants qui interagissent en permanence, sous le contrôle d opérateurs humains et d automates. Pour cette raison, la défaillance d un équipement du système ne se traduit pas nécessairement par un défaut d alimentation. L impact d une défaillance dépend de nombreux paramètres, comme la configuration du réseau, les niveaux de charge, les phénomènes transitoires. Il semble illusoire de vouloir modéliser la fiabilité du réseau dans son ensemble par agrégation de la fiabilité de ses différents composants, du moins sans un grand nombre d hypothèses simplificatrices. Dans le chapitre 5, nous considérons un système composé de nœuds et de liens, dont la topologie évolue en fonction des maintenances correctives. La fiabilité du système est alors sous l influence d une contrainte structurelle et dynamique. Nous décrivons la fiabilité globale du système sous l influence de sa composition en utilisant la théorie des processus stochastiques. Nous proposons des méthodes d estimation pour les paramètres du modèle, pour plusieurs schémas d observation. Si le problème de l estimation à partir d une observation continue du système renvoie à un problème connu, celui de l estimation à partir d une observation discrète n est pas trivial. Pouvoir estimer la fiabilité du système à partir d une vision partielle de son évolution est utile dans des situations où l on ne dispose pas de données précises sur les défaillances. Nous montrons comment ce problème peut être vu comme un problème de données incomplètes et proposons différentes stratégies d estimation basées sur l algorithme EM. Des variantes stochastiques de l algorithme EM sont nécessaires pour faire face à une possible explosion combinatoire empêchant la mise en œuvre de l algorithme EM. 1.2 Contexte statistique Le cadre mathématique privilégié pour exprimer quantitativement la fiabilité est celui de la théorie des probabilités. Par exemple, les caractéristiques de fiabilité décrites par la Commission Electrotechnique Internationale CEI) renvoient à des grandeurs probabilistes. Dans les chapitres suivants, nous allons chercher à inférer des modèles probabilistes à partir d observations du réseau électrique ; notre démarche est donc statistique. Selon que l on modélise la fiabilité de composants non réparables ou la fiabilité de systèmes réparables, l observation considérée et les outils statistiques 9

1. Introduction utilisés sont différents. Lorsque l objet étudié est un composant non réparable, comme c est le cas dans les chapitres 2, 3 et 4, nous modélisons la durée de bon fonctionnement du composant par une loi de probabilité. Lorsque l objet étudié est un système réparable, comme c est le cas dans le chapitre 5, nous modélisons l occurrence des défaillances sur ce système. Un caractère important du système étudié dans le chapitre 5 est que son évolution future ne dépend pas du passé, mais seulement de son état à l instant présent. Cette spécificité nous conduit à utiliser un processus markovien de saut, ou de façon alternative, le processus de comptage associé. Dans les sections suivantes, nous rappelons des concepts élémentaires permettant d étudier la fiabilité des composants et des systèmes considérés au cours de la thèse. 1.2.1 Analyse des durées de bon fonctionnement La fiabilité des composants non réparables étudiés dans le chapitre 4 est estimée à partir de l observation collectée sur le réseau électrique. Cette observation est qualifiée de retour d expérience. Dans le paragraphe suivant, nous précisons l origine et la forme du retour d expérience. Observation Il existe pour le réseau électrique des routines automatiques qui recensent l ensemble des coupures survenant au cours du temps. Le composant auquel est imputable chaque coupure est identifié, ainsi que sa date de pose. L ensemble de ces informations constitue des données dites de continuité de fourniture. On dispose ainsi des durées de bon fonctionnement pour les différents types de composants ayant occasionné des défaillances. Les données de continuité de fourniture ne constituent pas la seule source d information sur les durées de bon fonctionnement. On dispose également d observations exhaustives de la composition du réseau électrique en des dates prédéfinies. Ces données sont qualifiées de patrimoine. L observation du patrimoine en un instant donné liste des composants et dates d installation associées) fournit des observations partielles des durées de bon fonctionnement des composants constituant le réseau en cet instant. La figure 1.3 représente les durées de bon fonctionnement provenant de l observation du réseau. Les données de continuité de fourniture fournissent des réalisations de la variable aléatoire de durée de bon fonctionnement et les données de patrimoine correspondent à des observations censurées de cette même variable aléatoire. Supposons que l échantillon soit de taille n et notons X i la durée de bon fonctionnement d un composant i. Si à la date C, le composant i est toujours actif, la durée observée est censurée, et vaut C d i, d i représentant la date d installation du composant i sur le réseau. Associons au composant i la variable δ i qui vaut 0 si X i a été censuré et vaut 1 si X i C d i. Notons Y i la durée observée. On a : Y i = X i C d i ) et δ i = 1 Xi C d i. Variable aléatoire durée de bon fonctionnement La CEI 1990) définit la fiabilité d un composant comme la probabilité pour que ce composant puisse accomplir une fonction requise, dans des conditions données, pendant un intervalle de temps donné. L étude de la fiabilité se ramène alors à l étude de la variable aléatoire positive X qui représente la durée de bon fonctionnement. Soit 10

1.2. Contexte statistique Continuité de fourniture Patrimoine } {{ } Collecte des données de continuité de fourniture installation panne C Date d observation du patrimoine Temps calendaire Figure 1.3: Echantillon censuré de durées de bon fonctionnement provenant de l observation du réseau électrique. f la densité de la loi de probabilité de X. On définit la fiabilité par : Rx) = PX > x) = + C est la probabilité que la durée de bon fonctionnement soit supérieure à une certaine valeur x. En biostatistique, cette fonction est notée Sx) et est qualifiée de fonction de survie. Nous utiliserons la terminologie classique 1 en industrie et parlerons de fiabilité ou de fonction de fiabilité pour désigner la fonction R. On remarque que Rx) = 1 Fx), où F est la fonction de répartition de la loi de X. En fiabilité, on parle de MTTF Mean Time To Failure) pour désigner l espérance mathématique de la variable aléatoire X. Une grandeur fondamentale caractérisant la fiabilité d un composant est le taux de défaillance associé à X. x f u)du. Définition 1. Le taux de défaillance de la variable aléatoire X est la fonction λ définie sur R + par : Px < X x + h X > x) λx) = lim. 1.1) h 0 h Le taux de défaillance est parfois qualifié de taux de hasard, taux de survie, taux de fiabilité ou encore fonction de risque. Le taux de défaillance cumulé est la fonction Λ définie sur R + par : Λx) = x 0 λu)du. On peut écrire un ensemble de relations entre densité, fiabilité et taux de défaillance. A partir de l équation 1.1), on obtient l équation différentielle : λx) = f x) Rx) = logrx))). 11

1. Introduction En intégrant les deux membres de cette égalité et en utilisant le fait que R0) = 1, on obtient l expression de la fiabilité en fonction du taux de défaillance : { x } Rx) = exp λu)du, 0 et en dérivant la fonction de répartition Fx) = 1 Rx), on obtient la densité de la loi de probabilité de X : { x } f x) = λx) exp λu)du. 1.2) 0 Quelques lois de probabilité pour les durées de bon fonctionnement On peut définir un modèle de fiabilité en spécifiant une forme particulière pour le taux de défaillance. Par exemple, la durée de bon fonctionnement des composants qui ne sont pas sujets à vieillissement est caractérisée par un taux de défaillance constant. On a donc : x R +, λx) = λ, et d après l équation 1.2) : f x) = λe λx. Autrement dit, X suit une loi exponentielle de paramètre λ > 0 ; on note alors X Eλ). La fiabilité dans ce cas s écrit : Rx) = e λx. Supposons que le composant soit sujet à vieillissement. Son taux de défaillance λx) sera donc croissant. On peut par exemple considérer un modèle de la forme : avec β > 1. On déduit alors de l équation 1.2) : x R +, λx) = λx β 1, 1.3) f x) = λx β 1 e λ β xβ, que l on peut reparamétriser en posant λ = β pour obtenir l expression classique de α β la densité de la loi de Weibull de paramètres α, β : f x) = β α x α ) β 1 e x α ) β. On note alors X Wα, β). α > 0 est appelé paramètre d échelle et β 1, paramètre de forme. Certains composants, au début de leur mise en service, ont une tendance à la défaillance élevée, qui décroît au cours du temps. Par exemple, un composant de moins en moins contraint au cours de son existence risque de voir son taux de défaillance décroître. On peut alors caractériser λx) par l expression 1.3) avec β 1. De nouveau, la durée de bon fonctionnement peut être modélisée par la loi de Weibull. La loi de Weibull est très répandue dans le domaine de la fiabilité, notamment en raison de l existence de formes analytiques pour le taux de défaillance et la fonction de répartition. 12

1.2. Contexte statistique Remarquons que toute densité à support dans R + peut convenir pour modéliser une durée de bon fonctionnement. Les lois associées aux taux de défaillance monotones appartiennent à deux grandes familles : IFR Increasing Failure Rate) et DFR Decreasing Failure Rate). Nous avons montré que la loi de Weibull, suivant la valeur de son paramètre de forme, appartient aux deux familles. C est également le cas de la loi gamma, de densité : f x) = βα Γα) xα 1 e βx, avec α > 0 le paramètre de forme, β > 0 le paramètre d échelle. Selon que α 1 ou α 1, la loi gamma appartient à la famille IFR ou la famille DFR respectivement. Le cas α = 1 correspond à la loi exponentielle. Contrairement à la loi de Weibull, la loi gamma n admet pas d expression explicite de la fiabilité et du taux de défaillance. Pour de nombreux composants industriels, l hypothèse d un taux de défaillance monotone n est pas réaliste. Il est courant de faire l hypothèse d un taux de défaillance en baignoire. La courbe en baignoire, représentée sur la figure 1.4, décrit des taux de défaillance évoluant en trois phases : une phase dite de déverminage ou de jeunesse, durant laquelle le taux de défaillance est décroissant, une phase de maturité, durant laquelle le taux de défaillance est constant, et enfin une phase de vieillissement, durant laquelle le taux de défaillance est croissant. Cette courbe est très célèbre en fiabilité. λx) jeunesse vie utile vieillissement x Figure 1.4: Courbe en baignoire. Les loi de probabilité usuelles ne permettent pas de représenter une telle forme du taux de défaillance. Citons toutefois le modèle que l on pourrait qualifier de Weibull par morceaux, qui reproduit les trois tendances de la courbe en baignoire : λx) = µ + β 1 t1 x α 1 α 1 ) β1 1, si 0 x < t 1 µ, si t 1 x < t 2 µ + β ) 2 x β2 1 t2, si x t 2 α 2 α 2. 13

1. Introduction L expression de la densité de cette loi de probabilité devient relativement compliquée. Dans la littérature, de nombreux modèles ont été proposés pour représenter différentes formes du taux de défaillance lorsque celui-ci n est pas monotone. Lorsque la durée de bon fonctionnement est représentée par un taux de défaillance décroissant, puis croissant, on peut modéliser la durée de bon fonctionnement par le modèle de Hjorth 1980) ou par le modèle de Haupt et Schäbe 1992). Ces modèles permettent également de définir des lois IFR et DFR. Le modèle de Hjorth est défini sur R +, alors que le modèle de Haupt et Schäbe n est défini que sur un intervalle borné. Dans la pratique, l évolution de la probabilité instantanée de défaillance peut être bien plus complexe, en particulier lorsque le composant est sous l influence de conditions environnementales fluctuantes. Le taux de défaillance peut présenter de nombreuses variations, alternant des périodes constantes, IFR et DFR. On parle alors de taux de défaillance en montagnes russes Wong, 1988, 1989, 1991). Dans la suite, nous allons nous intéresser aux taux de défaillance constants par morceaux. Des taux de défaillance de la forme : λx) = λ l 1 [τl 1,τ l [x), l permettent de rendre compte d un grand nombre de situations et de rompre avec l hypothèse de monotonie IFR, DFR). Des formes plus fluctuantes du taux de défailllance sont alors envisageables. Remarquons cependant que cette hypothèse conduit à la perte de la propriété de continuité du taux de défaillance. Les taux de défaillance constants par morceaux caractérisent la loi exponentielle par morceaux, qui fait l objet du chapitre 2. Cette loi est utilisée dans le chapitre 4 pour représenter la fiabilité des composants dans un environnement dynamique. 1.2.2 Analyse de l occurrence des défaillances Les processus stochastiques à temps continu sont des outils essentiels à l analyse de l occurrence des défaillances sur un système réparable. Ils permettent de modéliser l évolution d un phénomène aléatoire avec le temps, en particulier la fiabilité des systèmes Cocozza-Thivent, 1997). Dans cette section, nous décrivons différents schémas d observation pour les processus modélisant l évolution du système réparable considéré dans le chapitre 5. Puis, nous introduisons les objets mathématiques qui nous permettront d étudier la fiabilité de ce système : processus marokoviens de sauts et processus de comptage. Observation Plusieurs schémas d observation des processus sochastiques à temps continus sont étudiés dans le chapitre 5 : Schéma d observation continu : la trajectoire du processus sur un intervalle de temps [0, C] est observée. Schéma d observation discret : les valeurs du processus sont observées en un certain nombre de dates prédéfinies. Le cas particulier où ces dates sont équidistantes sera envisagé. Cette situation apparaît par exemple lorsqu on inspecte le système en différents instants, parfois qualifiés de mesures de reprise. On constate alors la défaillance de certains composants, dont on sait seulement qu elle est postérieure à la dernière date d inspection et antérieure à la date de l inspection en question. Le phénomène étudié dans le chapitre 5 peut être modélisé par des processus markoviens de sauts ou de manière équivalente, par des processus de comptage. 14

1.2. Contexte statistique Processus markoviens de sauts Soit Ω, A, P) un espace probabilisé. On considère un processus stochastique en temps continu X t ) t 0 à valeurs dans un espace d états E, E) fini ou dénombrable. Définition 2 Brémaud, 2001). Un processus stochastique X t ) t 0 à valeurs dans un espace d états E est appelé processus de saut si pour presque tout ω dans Ω et pour tout t 0, il existe εt, ω) > 0 tel que X t+s ω) = X t ω), pour tout s [t, t + εt, ω)[. La trajectoire d un processus de sauts est donc constante entre les sauts, continue à droite et avec une limite à gauche en tout point. La figure 1.5 représente une telle trajectoire. On notera : S i, la date du i ème saut par convention S 0 = 0) ; U i, le i ème temps de séjour : U i = S i S i 1 ; K i, le i + 1) ème état pris par le processus. Dans le chapitre 5, nous nous intéressons à des processus de sauts qui possèdent la propriété de Markov. K 4 K 1 K 5 K 0 K 3 S 0 S 1 S 2 S 3 S 4 S 5 K 2 T 1 T 2 T 3 T 4 T 5 T 6 Figure 1.5: Trajectoire d un processus de sauts. Définition 3 Cocozza-Thivent, 1997). Le processus X t ) t 0 est un processus markovien de sauts si pour tout n N, pour tous 0 s 0 < s 1 < < s n < s et pour tous k 0, k 1,, k n, k E : PX s = k X s0 = k 0,, X sn = k n ) = PX s = k X sn = k n ). 1.4) Ce processus est homogène s il vérifie : PX s = k X sn = k n ) = PX s sn = k X 0 = k n ). Par la suite, nous définissons des grandeurs utiles pour caractériser les processus markoviens de saut. 15

1. Introduction Noyau de transition Pour t R +, on note P t et on appelle noyau de transition d un processus markovien de sauts homogène l application : P t : i, j) P t i, j) = PX t = j X 0 = i), avec i, j E 2. Si E est un espace fini, cette application peut être identifiée pour tout t à une matrice carrée de dimension carde). Si E est dénombrable mais pas fini, il existe une matrice de dimension infinie associée à l application P t. Remarques : l opération du produit matriciel peut être étendue aux noyaux de transition associés à un espace d états infini ; la famille P t ) t 0 des noyaux de transition forme un semi-groupe, appelé semigroupe de transition. Elle vérifie : P 0 = Id s, t R +, P t+s = P t P s = P s P t relation de semi-groupe) t R +, P t i, j) = 1 i E j E La proposition qui suit montre que le semi-groupe de transition P t ) t 0 et la loi initiale PX 0 = k 0 )) k0 E caractérisent entièrement la loi du processus markovien de sauts X t ) t 0. Proposition 1 Cocozza-Thivent, 1997). Le processus X t ) t 0 est un processus markovien de sauts homogène de semi-groupe de transition P t ) t 0 si et seulement si pour tout n N, pour tous 0 < s 1 < < s n et tous k 1,, k n E, la loi du vecteur X s1,, X sn ) est donnée par : PX s1 = k 1,, X sn = k n ) = PX s0 = k 0 )P s1 k 0, k 1 )P s2 s 1 k 1, k 2 ) P sn s n 1 k n 1, k n ) k 0 E = PX s0 = k 0 )P u1 k 0, k 1 )P u2 k 1, k 2 ) P un k n 1, k n ). k 0 E Générateur infinitésimal et matrice de saut Le taux avec lequel le processus X t ) t 0 entre dans un état j à partir de l état i est une caractéristique importante d un processus markovien de sauts. Lorsque t tend vers 0, P t tend vers la matrice identité. Intuitivement, on obtient un taux en retranchant la matrice identité à P t avant de diviser par t. Le générateur infinitésimal désigne l application qui à chaque couple i, j) E 2 associe ce taux de transition. Il peut être représenté par une matrice au sens large). Théorème 1 Billingsley, 1961). Soit X t ) t 0 un processus markovien de sauts à valeurs dans E, de semi-groupe de transition P t ) t 0. Alors il existe une matrice Q = Qi, j)) i,j) E 2 et une fonction q : E R telles que : P t i, j) lim t 0 t 1 P t i, i) lim t 0 t = Qi, j), i = j, 1.5) = qi) = Qi, i). 1.6) 16

1.2. Contexte statistique On dit que Q est le générateur infinitésimal du semi-groupe P t. Lorsque i = j, Qi, j) est la dérivée par rapport à t de P t i, j) prise en t = 0. Le générateur infinitésimal vérifie : Qi, j) 0 si i = j, Qi, i) = Qi, j) = qi). i =j Au générateur infinitésimal Q, on associe la matrice de saut Π = Πi, j)) i,j E définie par : Qi, j) si i = j et qi) = 0 Πi, j) = qi). 0 si i = j et qi) = 0 { 0 si qi) = 0 Πi, i) = 1 si qi) = 0. Théorème 2 Cocozza-Thivent, 1997). Le processus X t ) t 0 est un processus markovien de sauts de générateur infinitésimal Q si et seulement si : la chaîne K = K n ) n N est une chaîne de Markov de matrice de transition Π, conditionnellement en la chaîne K, les variables aléatoires U n+1 = S n+1 S n sont independantes et de loi exponentielle de paramètres respectifs qk n ). On déduit du théorème 2 l algorithme 1 qui permet de simuler des trajectoires d un processus markovien de sauts. Algorithme 1 Simulation d un processus markovien de sauts. Initialisation : fixer l état initial k 0. Pour i 1, répéter : Tirage du i ème temps de séjour : U i Eqk i 1 )) Tirage de l état suivant k i, grâce à la matrice de saut Π : PK i = k i K i 1 = k i 1 ) = Πk i 1, k i ). Théorème 3 Cocozza-Thivent, 1997). Soit X t ) t 0 un processus markovien de sauts de semi-groupe de transition P t ) t 0 et de générateur infinitésimal Q. P t ) t 0 est continûment dérivable et vérifie l équation de Chapman-Kolmogorov rétrograde : dp t dt = QP t, pour t > 0. Autrement dit, pour tous i, j E : dp t i, j) dt = Qi, k)p t k, j). 1.7) k E Nous considérons dorénavant un processus markovien de sauts dont le noyau de transition est paramétré par θ Θ R p. Le générateur infinitésimal, la fonction q et la matrice de sauts du processus sont alors paramétrés par θ. On les note respectivement Q θ, q θ et Π θ pour signifier cette dépendance. Enfin, P θ désigne la mesure de 17

1. Introduction probabilité associée à l espace probabilisé sur lequel nous travaillons. Vraisemblance d une observation continue Dans un cadre paramétrique, on cherche à estimer le paramètre θ Θ. Supposons que le processus X t ) t 0 soit observé en temps continu jusqu au n ième saut, c est-à-dire jusqu au temps S n inclu). Intuitivement, la vraisemblance associée à l observation d une trajectoire vaut, d après la proposition 1 : Lθ) = P θ X s0 = k 0 )P u1 k 0, k 1 )P u2 k 1, k 2 ) P un k n 1, k n ). k 0 E Les propriétés mises en évidence dans le théorème 2 sur l indépendance des U i et le caractère markovien de la chaîne K permettent de décomposer le noyau de transition de la manière suivante : P t i, j) = f i u)πi, j), où f i t) représente la densité de U sachant l état i dans lequel se trouve le processus, soit : f i t) = q θ i)e q θi)t La vraisemblance s écrit donc : Lθ) = k 0 E P θ X s0 = k 0 ) = P θ X s0 = k 0 ) k 0 E n i=1 P ui k i 1, k i ) n q θ k i 1 )Π θ k i 1, k i ) i=1 ) e n i=1 q θk i 1 )u i. 1.8) Plus rigoureusement, la vraisemblance d un processus markovien de sauts s écrit comme la dérivée de Radon-Nikodym de la mesure P θ relativement à une mesure de référence P θ0, où θ 0 Θ. Soient δ θ ) la dérivée de Radon-Nikodym de la distribution initiale P θ X s0 = ) par rapport à P θ0 X s0 = ) et δ θ i, ), la dérivée de Radon-Nikodym de la mesure Q θ i, ) par rapport à Q θ0 i, ). On note par ailleurs νt) le nombre de sauts du processus entre 0 et t : νt) = max { j, s j < t }. D après Billingsley 1961), la vraisemblance associée à l observation continue d un processus markovien de sauts jusqu à l instant C s écrit : dp θ dp θ0 = δ θ k 0 ) ) νc) δ θ k i 1, k i ) i=1 e νc) i=1 q θk i 1 )t i q θ k νc) )C s νc) ) e νc) i=1 q θ 0 k i 1 )t i q θ0 k νc) )C s νc) ). 1.9) Billingsley approxime cette vraisemblance par celle issue de l observation du processus jusqu au νc) ième temps de saut. La différence est négligeable asymptotiquement. L intérêt de cette approximation est de pouvoir utiliser les résultats établis sur les processus markoviens à temps discret loi des grands nombres, théorème central limite). La formulation de la vraisemblance comme une dérivée de Radon-Nikodym est nécessaire dans certaines situations d observation incomplète Commenges, 2003). Pour les processus markoviens de sauts observés continûment, les mesures P θ et P θ0 admettent une densité et la vraisemblance 1.9) est le quotient de ces densités. L inférence statistique est alors strictement équivalente que l on considère l expression 1.8) ou bien l expression 1.9). 18

1.2. Contexte statistique On peut associer à chaque saut d un processus markovien de sauts une marque correspondant à l amplitude du saut et ainsi définir un processus de comptage multivarié, dont chaque composante compte les événements pour chacune des marques Andersen et al., 1993, p. 73). Dans le paragraphe suivant, nous rappelons certains éléments importants concernant les processus de comptage. Ces éléments serviront l étude du système réparable qui fait l objet du chapitre 5. Processus de comptage Définition 4 Andersen et al., 1993). Soit F t une filtration sur l espace probabilisé Ω, F, P) et soit T un intervalle de temps continu : T = [0, C[.,, N k) t ) t 0 ) t 0, j = 1,, k est continue à droite avec une limite à Un processus de comptage multivarié sur T est un processus N t ) t 0 = N 1) t dont chacune des composantes N j) t gauche, F t adaptée, nulle en zéro, croissante, à trajectoire constante par morceaux, de sauts d amplitude 1, presque sûrement finie pour tout t T et dont deux composantes ne peuvent avoir des sauts simultanés. Définition 5 Andersen et al., 1993). Un processus M t ) t T intégrable et adapté à une filtration F t ) t T est une martingale resp. une sous-martingale) si : s, t, 0 s t, EM t F s ) = M s p.s. resp. ). Il est clair qu un processus de comptage est une sous-martingale. La décomposition de Doob-Meyer permet d obtenir la proposition 2. Proposition 2 Fleming & Harrington, 2005). Soit N t ) t T = N 1) t,, N k) t ) t 0 un processus de comptage adapté à la filtration F t ) t T, tel que EN t ) < pour tout t. Alors il existe un unique processus Λ t ) t T = Λ 1) t,, Λ k) t ) t 0 F t -prévisible, croissant, continu à droite avec une limite à gauche et nul en zéro presque sûrement vérifiant EΛ t ) < pour tout t, tel que : M j) t = N j) t Λ j) t, t T, j = 1,, k. soit une martingale continue à droite. On dit que le processus Λ t ) t T est le compensateur du processus N t ) t T. En fait, on peut s affranchir dans cette proposition de l hypothèse EN t ) < en généralisant la décomposition de Doob-Meyer à des sous-martingales locales. A tout processus de comptage N t ) t T, on peut associer un compensateur Λ t ) t T qui est l unique processus croissant prévisible tel que N t Λ t soit une martingale locale continue à droite, pour tout t T. La vraisemblance associée à l observation d un processus de comptage multivarié est la dérivée de Radon-Nikodym par rapport à une mesure de référence. Le théorème 4 donne l expression de cette dérivée. Théorème 4 Andersen et al., 1993). Soit N t ) t 0 = N 1) t comptage multivarié, de compensateur Λ t ) t 0 = Λ 1) t F t = F 0 σ {N s, s t}.,, N k) t ) t 0 un processus de,, Λ k) t ) t 0 et soit F t la filtration : Soient P et P deux mesures de probabilité sur les espaces probabilisés sur lesquels N t ) t 0 a pour compensateurs Λ t ) t 0 et Λ t ) t 0 respectivement. Soit Nt ) t 0 le processus somme, tel 19

1. Introduction que N t = j N j) t, de compensateur Λ t ) t 0. Si les compensateurs Λ t ) t 0 et Λ t ) t 0 sont P presque sûrement continus, alors la vraisemblance associée à l observation du processus N t ) t 0 sur [0, C[ s écrit : d P dp = d P j,t d Λ j) N t dp F0 t j,t dλ et s ils sont absolument continus, elle s écrit : puisque dans ce cas d Λ j) t d P dp = d P j,t λ j) N t dp F0 t j,t λ = λ j) t et dλ j) t j) t e Λ C j) Nj) t e Λ C j) t e Λ C j) Nj) t e Λ C = λ j) t, j = 1,, k. En pratique, il suffira de connaître la vraisemblance à un facteur multiplicatif près pour pouvoir mener l inférence. Seule la connaissance des numérateurs des dérivées de Radon-Nikodym du théorème 4 est alors requise. Proriol, 2011),, 20

CHAPITRE 2 Distribution exponentielle par morceaux La fiabilité d un composant est définie par la CEI 1990) comme la probabilité pour que ce composant puisse accomplir une fonction requise, dans des conditions données, pendant un intervalle de temps donné. Cependant, la plupart des composants industriels évoluent dans un environnement fluctuant ; les conditions auxquelles ils sont soumis sont plus ou moins sévères au cours du temps. En particulier, les composants du réseau électrique subissent des perturbations telles que les conditions météorologiques ou la charge. Leur vulnérabilité face à l environnement dynamique se traduit parfois par un taux de défaillance erratique. La distribution exponentielle par morceaux permet de modéliser la durée de bon fonctionnement dans cette situation. Cette distribution revêt une importance particulière dans le chapitre 4. L objectif de ce chapitre est d en réaliser une étude probabiliste et statistique détaillée. Comme nous l avons remarqué dans le chapitre 1, le modèle probabiliste associé à une durée de bon fonctionnement peut être déterminé à partir d une hypothèse sur la forme du taux de défaillance. Considérons un taux de défaillance de la forme : λ 1, si τ 0 x < τ 1 λ 2, si τ 1 x < τ 2 λx) =., 2.1) λ m, si τ m 1 x < τ m λ m+1, si τ m x < τ m+1 où { τ j, j = 0,..., m + 1 } sont les bornes des intervalles d une partition de R + τ 0 = 0, τ m+1 = + ). Cette forme caractérise la loi exponentielle par morceaux, qui offre une grande souplesse dans la modélisation des durées de bon fonctionnement ; elle permet de rendre compte des multiples variations que peut présenter un taux de défaillance figure 2.1). Par exemple, elle permet de représenter un taux de défaillance en baignoire, ce qui motive son utilisation en fiabilité. Remarquons que de nombreux facteurs peuvent occasionner des points de rupture dans l évolution d un composant, qui peuvent se traduire par des points de discontinuité sur le taux de défaillance : actions de maintenance, évolutions de l environnement... Quand bien même le taux de défaillance serait une fonction continue, une fonction constante par morceaux permettrait de l approcher à souhait, en choisissant des intervalles aussi petits que nécessaire. 21

2. Distribution exponentielle par morceaux Bien que le choix des intervalles où le taux reste constant soit très important dans la définition de la distribution exponentielle par morceaux, nous considérons dans ce chapitre une partition { τ j, j = 0,..., m + 1 } prédéfinie. λx) λx) x Figure 2.1: Différentes formes du taux de défaillance modélisées par une loi exponentielle par morceaux. La distribution exponentielle par morceaux fut introduite dans les années soixantedix dans le cadre du modèle de Cox Breslow, 1972). De nombreux développements liés à ce modèle furent proposés, principalement dans le domaine biomédical Breslow, 1974a; Whitehead, 1980; Aitkin et al., 1983). Holford 1976) et Laird & Olivier 1981) ont montré les liens étroits existant avec le modèle log-linéaire introduit par Glasser 1967), étudié en détail par Kalbfleisch & Prentice 1973). Leurs vraisemblances s écrivent de manière similaire. Friedman 1982) a défini la classe des modèles exponentiels par morceaux, qui utilise un modèle log-linéaire pour modéliser conjointement l effet de covariables et le risque de base, constant par morceaux. Plus récemment, des variantes de ce modèle autorisant le paramètre β à varier dans le temps ont été proposées Gamerman, 1991). Le choix des temps de saut de la loi exponentielle par morceaux a été considéré par Demarqui et al. 2012). En fiabilité, Barbosa et al. 1996) ont utilisé cette loi dans le cadre de tests accélérés sur des composants. Tous ces travaux prennent en compte l effet de covariables. Dans la littérature, la loi exponentielle par morceaux est généralement associée à un modèle à covariables. Ceci amène certains auteurs à qualifier ces modèles à covariables de piecewise exponential model Aitkin et al., 1983; Friedman, 1982). Lawless 2002) les qualifient de hazard-based model. Nous préférerons cette seconde dénomination qui évite toute confusion avec la distribution exponentielle par morceaux à proprement parler, pour laquelle le lien avec l environnement n est pas considéré de manière explicite. La distribution exponentielle par morceaux fait l objet de ce chapitre. Des modèles à covariables utilisant la distribution exponentielle par morceaux seront présentés dans les chapitres 3 et 4. Les applications centrées sur la distribution exponentielle par morceaux sont assez rares. Citons toutefois les travaux de Gamerman 1994) en fiabilité. En dépit de sa grande flexibilité, la distribution exponentielle par morceaux n est que très peu abordée en probabilité. Colvert & Boardman 1976) ont initié son étude ; ils proposent des estimateurs du maximum de vraisemblance de ses paramètres. Ils considèrent également le problème de l inférence dans la situation où l observation conduit à des données groupées Colvert & Boardman, 1979). On peut déplorer l absence de description détaillée de la loi exponentielle par morceaux parmi les lois de référence Johnson et al., 1994). Pour ces raisons, il nous a semblé opportun d exposer de manière approfondie les propriétés de cette loi. 22

2.1. Définitions 2.1 Définitions D après l équation 1.2), un taux de défaillance constant par morceaux conduit à l expression suivante de la fiabilité : Rx) = { )} m+1 j 1 exp λ l τ l τ l 1 ) + λ j x τ j 1 ) 1 Ij x), 2.2) j=1 l=1 dont on peut déduire la densité. On définira alors la loi exponentielle par morceaux de la manière suivante. Définition 6. Soit τ une partition de R + c est-à-dire un ensemble d intervalles disjoints I j = [τ j 1, τ j [, j = 1,, m + 1, de R + tel que R + = m+1 j=1 I j). On dit que la variable aléatoire X, à valeurs dans R +, suit une loi exponentielle par morceaux de paramètres m, λ, τ), où λ = λ 1,, λ m+1 ) et m est un entier fini et non nul, si et seulement si la densité de sa loi de probabilité a pour expression : { )} m+1 j 1 f x) = λ j exp λ l τ l τ l 1 ) + λ j x τ j 1 ) 1 Ij x). 2.3) j=1 l=1 On note alors X PEm, λ, τ). On pose a 1 = 1 et : a j = exp { j 1 l=1 λ l τ l τ l 1 ) }, j = 2,..., m + 1. 2.4) On peut écrire la densité et la fiabilité associées à X en fonction des a j : f x) = Rx) = m+1 λ j a j exp { λ j x τ j 1 ) } 1 Ij x), j=1 m+1 a j exp { λ j x τ j 1 ) } 1 Ij x). j=1 Le taux de défaillance cumulé d une loi exponentielle par morceaux est donné par : ) m+1 j 1 Λx) = λ l τ l τ l 1 ) + λ j x τ j 1 ) 1 Ij x). 2.5) j=1 l=1 2.2 Propriétés Dans cette section, nous présentons des propriétés de la loi exponentielle par morceaux. On notera désormais L 1,..., L m+1 les longueurs des intervalles I 1,..., I m+1 : L j = τ j τ j 1, j = 1,..., m et L m+1 = +. Les propriétés i) et iii) de la proposition suivante sont données par Colvert & Boardman 1976). La propriété ii) relative aux moments de la loi exponentielle par morceaux permet en particulier de retrouver l expression de VarX) fournie par Colvert & Boardman. 23

2. Distribution exponentielle par morceaux Proposition 3. Soit X une variable aléatoire de loi PEm, λ, τ). i) Espérance mathématique Le MTTF associé à X est donné par : E [X] = 1 λ 1 + m j=1 ) 1 a j+1 1, λ j+1 λ j avec a 1 = 1, a j étant défini par l équation 2.4) pour j = 2,, m + 1. ii) Moments d ordres supérieurs On a : E [X r ] = r! λ r 1 + m j=1 r l=1 r! r l)! a j+1τ r l j 1 λ l j+1 1 λ l j iii) Fonction génératrice La fonction génératrice des moments g X t) est définie, pour tout t tel que E [ e tx] < +, par : g X t) = m+1 ) a j e tτ j 1 a j+1 e tτ 1 j. 2.6) 1 t/λ j=1 j ). Démonstration. i) Espérance mathématique : E [X] = = m+1 τj j=1 m+1 j=1 [ j 1 ] l=1 λ ll l +λ j x τ j 1 ) xλ j e τ j 1 [ [ xe j 1 l=1 λ ll l +λ j x τ j 1 ) ]] τj dx τ j 1 [ τj + e j 1 ] ) l=1 λ ll l +λ j x τ j 1 ) dx. τ j 1 En remarquant que les premiers termes provenant des intégrations par partie s annulent, on obtient : E [X] = = m+1 j=1 m+1 j=1 = 1 λ 1 + 1 λ j [ ]] [e j 1 τj l=1 λ ll l +λ j x τ j 1 ) a j a j+1 λ j m j=1 ) 1 a j+1 1. λ j+1 λ j τ j 1 24

2.2. Propriétés ii) Moments d ordre supérieurs : E [X r ] = = m+1 τj j=1 m+1 j=1 [ j 1 ] l=1 λ ll l +λ j x τ j 1 ) x r λ j e τ j 1 [ [ x r e j 1 l=1 λ ll l +λ j x τ j 1 ) ]] τj dx τ j 1 [ τj +r x r 1 e j 1 l=1 λ ll l +λ j x τ j 1 )] ). τ j 1 Les premiers termes provenant des intégrations par partie s annulent. Des intégrations par parties successives conduisent ensuite à : ) ) E [X r m ] = r a j+1 τ r 1 1 j 1 m + rr 1) λ j=1 j+1 λ j a j+1 τ r 2 1 j j=1 λ 2 1 j+1 λ 2 j [ )] m 1 1 +... + r! λ1 r + a j+1 λ r 1 j+1 λ r. j j=1 iii) Fonction génératrice des moments : g X t) = = = = = = + 0 m+1 j=1 m+1 j=1 e tx f x)dx τj j 1 ) l=1 λ ll l +λ j x τ j 1 ) e tx λ j e τ j 1 [ e tx e j 1 l=1 λ ll l +λ j x τ j 1 ) +t etx e )] τj dx τ j 1 j 1 ) l=1 λ τ j ll l +λ j x τ j 1 ) t λ j τ j 1 ) m+1 e tτ j a j+1 + e tτ j 1 a j + t etτ j a j+1 t etτj 1 a j t λ j=1 j t λ j m+1 ) a j e tτ j 1 e λ jl j +tτ j 1 1 t/λ j=1 j m+1 j=1 ) a j e tτ j 1 a j+1 e tτ j 1 1 t/λ j. Proposition 4. Soit X une variable aléatoire de loi PEm, λ, τ). Alors la variable aléatoire X τ m sachant X I m+1 suit une loi exponentielle de paramètre λ m+1 et pour j = 1,, m, X τ j 1 sachant X I j suit une loi exponentielle tronquée de paramètre λ j et de support [ 0, Lj ]. 25

2. Distribution exponentielle par morceaux Démonstration. Calculons la loi de X τ m X I m+1 : PX τ m > x X I m+1 ) = R τ m + x) R τ m ) = e λ m+1x. Pour j = 1,..., m, la variable aléatoire X τ j 1 X I j est à valeurs dans [ 0, L j ] et sa fonction de répartition est donnée sur cet intervalle par : PX τ j 1 x X I j ) = P ) τ j 1 < X x + τ j 1 P ) τ j 1 < X τ j = Fx + τ j 1) Fτ j 1 ). Fτ j ) Fτ j 1 ) où F désigne la fonction de répartition de la loi exponentielle par morceaux. On en déduit : 1 e λ jx PX τ j 1 x τ j 1 < X τ j ) = 1 e λ, si x [0, L j [ jl j. 2.7) 1, si x L j On reconnaît la fonction de répartition d une loi exponentielle tronquée de paramètre λ j et de support [ 0, L j ]. 2.3 Inférence Dans cette section, nous nous intéressons à l inférence statistique à partir de l observation d un échantillon de n durées indépendantes et identiquement distribuées, de loi PEm, λ, τ). Plusieurs types d observations sont considérés. La partition τ est supposée connue. 2.3.1 Observation sans censure La figure 2.2 représente la situation de l observation. On dispose pour chacune des durées de bon fonctionnement X i de sa réalisation x i, pour i = 1,..., n. Proposition 5 Colvert & Boardman, 1976). Soit X 1,, X n un n échantillon de loi PEm, λ, τ). Alors l estimateur du maximum de vraisemblance ˆλ de λ a pour composantes : pour j = 1,, m + 1, avec : ˆλ j = n i=1 δ ij i=1 n t, 2.8) ij { 1, si Xi se réalise dans I δ ij = j 0, sinon t ij = max { 0, min { }} L j, X i τ j 1. 26

2.3. Inférence Durée Installation de bon fonctionnement τ 0 = 0 τ 1 τ 2 τ m 2 τ m 1 τ m I 1 I 2 I m 1 I m I m+1 installation panne Figure 2.2: Durées observées dans le cas d une observation sans censure. Démonstration. La vraisemblance associée à l observation s écrit : Lλ) = = n i=1 n i=1 f x i ) m+1 λ j e j 1 ) ) l=1 λ ll l +λ j x i τ j 1 ) 1 Ij x i ). j=1 En posant t ij = max { 0, min { }} L j, x i τ j 1, 1 i = 1,..., n, j = 1,..., m + 1, on peut mettre Lλ) sous la forme : Lλ) = La log-vraisemblance s écrit alors : log Lλ) = n i=1 Les équations de vraisemblance sont : ) n i=1 δij et admettent les solutions 2.8). λ j t ij n i=1 m+1 λ δ ij j e λ jt ij. 2.9) j=1 m+1 ) δij log λ j λ j t ij. 2.10) j=1 = 0, j = 1,..., m + 1, 2.11) Remarque : ˆλ estime le taux de défaillance par le quotient entre le nombre d événements et la durée cumulée vécue par l ensemble des unités dans chacun des intervalles I j. Il s agit d un estimateur classique, connu dans la littérature sous le nom de 27

2. Distribution exponentielle par morceaux taux occurrence/exposition. Différents systèmes de notations permettent d exprimer ses composantes Friedman, 1982; Wu, 1989; Gamerman, 1991). Par la suite, nous utilisons les notations suivantes : K j, le nombre de X i se réalisant dans l intervalle I j, j = 1,..., m + 1, R j, le nombre d unités présentes à la fin de l intervalle I j, en τ j, j = 1,..., m : R j = n j l=1 K l = m+1 } l=j+1 K l, {X j,l, 1 j K j, les dates de défaillance dans l intervalle I j, j = 1,..., m + 1. Avec ces notations, les composantes de ˆλ s écrivent : ˆλ j = et ˆλ m+1 = K j R j L j + K, j = 1,..., m 2.12) j l=1 X j,l τ j 1 ) K m+1 K m+1 l=1 X m+1,l τ m ). Propriétés de l estimateur du maximum de vraisemblance à distance finie Dans la proposition suivante, nous exprimons la loi des composantes ˆλ j de l estimateur du maximum de vraisemblance, j = 1,..., m + 1. Le calcul de la loi de ˆλ 1 est similaire à celui de la loi de l estimateur du maximum de vraisemblance d un échantillon censuré de loi exponentielle, réalisé par Bartholomew 1963). Proposition 6. Soit ˆλ l estimateur du maximum de vraisemblance associé à l observation d un n échantillon de loi PEm, λ, τ). On note, pour j = 1,, m : Q j = e λ jl j, { Aj, n) = r j = n u 1,, u j ) 1 u l n j l=1 k l, l 1 v=1 λ 1 j,l = max {0, 2λ j k j λ L )} j r k j + l). j u v, l = 1,, j }, χ 2 q désigne la fonction de répartition d une loi χ 2 à q degrés de liberté. Alors : La composante ˆλ 1 de l estimateur du maximum de vraisemblance a pour fonction de répartition : P ˆλ 1 λ) = 1 1 Q n 1 n k 1 =1 n k 1 ) k1 ) k1 1) l e λ 1L 1 r 1 +l) 1 χ 2 l=1 l 2k 1 λ1,l )), 2.13) 28

2.3. Inférence Pour j = 2,, m, les composantes ˆλ j ont pour fonction de répartition : ) rl 1 1 Q l ) k l Q r l l j 1 l=1 P ˆλ j λ) = k j 1 Aj 1,n) k j l=1 La composante ˆλ m+1 a pour fonction de répartition : P ˆλ m+1 λ) = m l=1 k m Am,n) Démonstration. k l r j 1 k j =1 rj 1 1 j l=1 Qn l ) kj 1) l l e λ jl jr j +l) 1 χ 2 2kj λ j,l )), 2.14) rl 1 k l ) 1 Q l ) k l Q r l l 1 m l=1 Qn l k j ) ) 1 χ 2 2k m+1 2λ m+1 /λ). 2.15) Equation 2.13). Nous nous référons à la preuve proposée par Bartholomew 1963) dans le cadre d un échantillon censuré de loi exponentielle. Equation 2.14). On note θ j le paramètre 1/λ j et K j le vecteur K 1,..., K j ). D après l équation 2.12), l estimateur ˆθ j de θ j s écrit : R j L j + K j l=1 X j,l τ j 1 ) K j, j = 2,..., m. Il est défini pour K j = 0, j = 2,..., m. On va identifier sa loi en calculant sa fonction génératrice des moments : ] g ˆθ j t) = E [e t ˆθ j où Aj, n) = = k j Aj,n) g ˆθ j K j =k t)pk j j = k j K j = 0), 2.16) { } u j 1 u l n l 1 v=1 u v, l = 1,..., j. Pour j = 2,..., m : t g ˆθ j K j =k t) = E exp r j j L j + = exp { t r jl j k j k j } kj E l=1 [ k j l=1 exp X j,l τ j 1 ) { }] t X k j,l τ j 1 ) j L écriture X j,l signifie que la durée X se réalise dans I j. Autrement dit : X j,l τ j 1 X τ j 1 X I j. D après la proposition 4, cette variable [ { aléatoire suit une }] loi exponentielle tronquée. On remarque alors que E exp t kj X j,l τ j 1 ) est par définition l expression de la fonction génératrice des moments de X j,l τ j 1 X τ j 1 X 29

2. Distribution exponentielle par morceaux I j. au point t/k j. On en déduit : [ { }] 1 tθ t 1 1 j /k j Qj E exp X k j,l τ j 1 ) =, j 1 tθ j /k j 1 Q j où l on a posé Q j ) rj s écrire. On en déduit : Q 1 tθ j /k j j Q j { = e L j/θ j. On remarque également que exp t r jl j k j } peut g ˆθ j K j =k j t) = Q1 tθ j/k j j Q j r j 1 1 tθj /k j ) kj 1 Q1 tθ j/k j j 1 Q j k j. Calculons PK j = k j K j = 0) : ) j ) PK j = k j K j = 0) = PK l = k l K l 1 = k l 1 ) /P K j = 0. l=1 Pour j = 2,..., m, PK j = 0) = 1 PK 1 = 0) j l=2 PK l = 0 K l 1 = 0). Or K l = k l K l 1 = 0 suit une loi binomiale de paramètres n, PX < τ l X τ l 1 )) avec : PX < τ l X τ l 1 ) = Pτ l 1 X < τ l ) PX τ l 1 ) = 1 Q l, où Q l = e L l/θ l. Par conséquent, PK j = 0) = 1 j l=1 Qn l. De plus, K l = k l K l 1 = k l 1 suit une loi binomiale de paramètres r l 1, 1 Q l ). On a donc : PK j = k j K j = 0) = j l=1 rl 1 k l ) ) 1 Q l ) k l Q r l 1 k l l / 1 j Q n l l=1 En remplaçant dans l expression 2.16) g ˆθ j K j =k j t) et PK j = k j K j = 0) par les expressions obtenues précédemment, il vient : g ˆθ j t) = k j Aj,n) ) kj en appliquant la formule du binôme de New- On développe ton : g ˆθ j t) = j 1 l=1 k j Aj,n) 1 Q 1 tθ j/k j j Q 1 tθ j/k j j j 1 rl 1 k l=1 l rl 1 k l ) rj 1 1 tθj /k j ) kj ) 1 Q l ) k l Q r l l rj 1 k j 1 Q 1 tθ j/k j ) / j 1 ) kj j Q n l l=1 ) 1 Q l ) k l Q r l l 1 j l=0 Qn l rj 1 k j ) ) ) k j ) kj 1) l l Q1 tθ j /k j)r j +l) j ) kj. l=1 1 tθj /k j 30

2.3. Inférence En remplaçant Q j par son expression, on a : ) j 1 rl 1 l=1 1 Q k l ) k l Q r l l l g ˆθ j t) = k j Aj,n) 1 j l=1 Qn l j 1 l=1 P ˆθ j > θ 0 ) = k j 1 Aj 1,n) k l rj 1 k j ) k j ) kj 1) l l e tl jr j +l)/k j ) kj e L jr j +l)/θ j. l=1 1 tθj /k j Ainsi, on identifie la loi de ˆθ j comme étant un mélange de lois Gamma tronquées de paramètres ) k j, k j /θ j, L j r j + l)/k j. Cette loi est donnée par : ) rl 1 1 Q l ) k l Q r l l + k j /θ j ) kj θ 0 Γk j ) 1 j l=1 Qn l t L j r k j + l) j ) kj 1 r j 1 k j =1 rj 1 k j ) k j l=1 e k jt L j r j +l)/k j)/θ j dt, avec θ 0 L j k j r j + 1). Etant donné la relation entre la loi Gamma et la loi du χ 2 : j 1 l=1 P ˆθ j > θ 0 ) = k j 1 Aj 1,n) k j l=1 rl 1 k l ) 1 Q l ) k l Q r l l r j 1 k j =1 1 j l=1 Qn l ) kj 1) l l e L jr j +l)/θ j 1 χ 2 2k j θj,l )), rj 1 avec θj,l = max { } 0, 2k j θ 0 L j r j + l)/k j )/θ j et χ 2 2kj la fonction de répartition d une loi χ 2 à 2k j degrés de liberté. P ˆθ j > θ 0 ) = P ˆλ j < 1/θ 0 ). On en déduit l expression 2.14) de la fonction de répartition associée à la loi de ˆλ j, pour j = 2,..., m. Equation 2.15). Soit ˆθ m+1 = 1/ ˆλ m+1 = K m+1 l=1 X j,l τ m )/K m+1 l estimateur du maximum de vraisemblance de θ m+1 = 1/ ˆλ m+1. Cet estimateur est défini pour K m+1 = 0. Sa fonction génératrice des moments s écrit : ] g ˆθ m+1 t) = E [e t ˆθ m+1 = g ˆθ m+1 K m =k t)pk m m = k m K m = 0), k m Am,n) k j ) kj 1) l l e L jr j +l)/θ j ) où : Or, g ˆθ m+1 K m =k m t) = E = [ exp { k m+1 [ E exp l=1 t k m+1 }] k m+1 X m+1,l τ m ) l=1 }] { t k m+1 X m+1,l τ m ) X m+1,l τ m X τ m X I m+1.. 31

2. Distribution exponentielle par morceaux Cette variable aléatoire est de loi exponentielle de paramètre 1/θ m+1 proposition 4). Il vient alors : [ { }] t 1 E exp X k m+1,l τ m ) =. m+1 1 tθ m+1 /k m+1 On en déduit : g ˆθ m+1 t) = m l=1 k m Am,n) rl 1 k l ) 1 Q l ) k l Q r l l 1 m l=1 Qn l 1 1 tθ m+1 /k m+1 ) k. m+1 On identifie un mélange de fonctions génératrices de loi Gamma de paramètres k m+1, 1/θ m+1 ). On en déduit la loi de ˆθ m+1 : m l=1 P ˆθ m+1 > θ 0 ) = k m Am,n) 1 θ k m+1 m+1 Γk m+1) rl 1 k l ) 1 Q l ) k l Q r l l 1 m l=1 Qn l + Par le changement de variable v = 2t/θ m+1, on obtient : ) m rl 1 l=1 1 Q k l ) k l Q r l l l P ˆθ m+1 > θ 0 ) = 1 m l=1 Qn l k m Am,n) + m l=1 = k m Am,n) 1/2) km+1 2θ 0 /θ m+1 Γk m+1 ) vkm+1 1 e v/2 dv ) rl 1 1 Q l ) k l Q r l l k l θ 0 1 m l=1 Qn l t k m+1 1 e t/θ m+1 dt. ) 1 χ 2 2k m+1 2θ 0 /θ m+1 ). P ˆθ m+1 > θ 0 ) = P ˆλ m+1 < 1/θ 0 ). On en déduit l expression 2.15) de la fonction de répartition associée à l estimateur ˆλ m+1. La distribution exacte de l estimateur ˆλ j donnée par la proposition 6 permet d obtenir directement des intervalles de confiance pour cet estimateur, à n fixé. Lorsque n est grand, il est possible d utiliser la distribution asymptotique de ˆλ j. Propriétés asymptotiques de l estimateur du maximum de vraisemblance Sous certaines conditions peu restrictives, on peut montrer que l estimateur du maximum de vraisemblance est consistant et n asymptotiquement normal. Le théorème 5 donne ces conditions. Il permet d obtenir les propriétés asymptotiques de l estimateur du maximum de vraisemblance d un n échantillon de loi exponentielle par morceaux proposition 7). 32

2.3. Inférence Théorème 5 Cramer, 1946). Soit X 1,, X n un n échantillon de densité f θ. Sous les conditions suivantes : 1. θ Θ, les dérivées log f θ, 2 log f θ et 3 log f θ existent pour presque tout x, θ i θ i θ j θ i θ j θ k 2. θ Θ, il existe des fonctions F 1 et F 2 intégrables sur R et une fonction H vérifiant R Hx) f θx)dx < M, M étant indépendant de θ, telles que : log f θ θ < F 2 log f θ 1x), i θ i θ j < F 2x) 3 log f et θ θ i θ j θ k < Hx), 3. θ Θ, la matrice I 1 θ ) formée par les éléments : [ E 2 log f x) θ j θ k est définie positive, θ=θ l estimateur du maximum de vraisemblance ˆθ est fortement consistant pour θ. De plus, il est asymptiquement normal : n ˆθ θ ) ] L n N 0, I 1θ ) 1 ). Proposition 7. L estimateur du maximum de vraisemblance ˆλ associé à l observation d un n échantillon X 1,, X n de loi PEm, λ, τ) est consistant pour λ et asymptotiquement normal : L n ˆλ λ) N 0, I 1 λ) 1), 2.17) n où I 1 λ) est la matrice diagonale d éléments diagonaux : a j 1 e λ jl j ), j = 1,, m + 1, 2.18) λ 2 j avec a 1 = 1, a j étant donné par l équation 2.4) pour j = 2,, m + 1. Ce résultat montre qu asymptotiquement, les composantes de l estimateur ˆλ sont indépendantes et de loi normale : L n ˆλ j λ j ) N λ 2 ) j 0, n a j 1 e λ, j = 1,..., m + 1. jl j ) Il étend la convergence en loi obtenue par Miller 1960) pour m = 1 à m N. Démonstration. Si X i PEm, λ, τ), alors la densité f de X i est donnée par l équation 2.3). La dérivée de son logarithme s écrit donc : log f x) λ j = 1/λ j x τ j 1 ) ) 1 Ij x) L j 1 [τj,+ [x), la dérivée seconde : 2 log f x) λ j λ l = { 1Ij x)/λ 2 j, si j = l 0, sinon, 33

2. Distribution exponentielle par morceaux et la dérivée troisième : 3 log f x) λ j λ l λ u = { 21Ij x)/λ 3 j, si j = l = u 0, sinon. Les conditions 1 et 2 du théorème 5 sont donc vérifiées pour tout λ R +m+1). Par ailleurs, la matrice I 1 λ) est une matrice diagonale dont les éléments diagonaux valent : E[1 Ij X)]/λ 2 j = PX I j )/λ 2 j = a j 1 e λ jl j )/λ 2 j. I 1 λ) est donc une matrice définie positive. Les conditions du théorème 5 sont vérifiées. L estimateur du maximum de vraisemblance ˆλ est consistant pour λ. De plus, n ˆλ λ) converge en loi vers une gaussienne centrée dont la matrice de covariance est une matrice diagonale, dont les éléments diagonaux sont donnés par l équation 2.18). Disposant des propriétés asymptotiques pour l estimateur ˆλ, on peut en déduire le comportement asymptotique de l estimateur ˆθ de θ. La fonction λ 1/λ est continue sur R +. La consistance de ˆλ pour λ entraîne donc la consistance de ˆθ pour θ. La méthode delta permet de montrer la normalité asymptotique de ˆθ à partir de celle de ˆλ. On obtient : n ˆθ θ ) L N 0, Aλ)), n où Aλ) est la matrice diagonale d éléments diagonaux : 1 λ 2 j a j1 e λ, j = 2,..., m + 1, jl j ) avec a 1 = 1, a j étant donné par l équation 2.4) pour j = 2,..., m + 1. 2.3.2 Observation censurée Lorsque les durées de bon fonctionnement X 1,..., X n sont censurées à droite, l approche classique consiste à considérer que chaque composant i n est plus observé à partir d une durée t i, considérée comme la réalisation d une variable aléatoire T i. Ainsi, on observe la réalisation de n couples de variables aléatoires Y i, i ) 1 i n avec : Y i = X i T i et i = 1 Xi T i. Dans le cadre des études fiabilistes de réseau, on dispose d échantillons de durées censurés, mais les variables de censure ne sont pas aléatoires voir en section 1.2.1). On note t i la valeur déterministe de la variable de censure pour le composant i. La durée de bon fonctionnement X i est observée si elle est inférieure à cette valeur t i. On observe alors l échantillon censuré Y i, δ i ) 1 i n, où : Y i = X i t i et δ i = 1 Xi t i. La figure 2.3 représente un échantillon censuré. La proposition suivante découle directement de l expression de la vraisemblance fournie par Friedman 1982). Notons que l expression du maximum de vraisemblance avait déjà été obtenue par Colvert & Boardman 1976) dans le cas particulier où les temps de censure t i sont identiques pour tous les composants de l échantillon. 34

2.3. Inférence Durée Installation de bon fonctionnement τ 0 = 0 τ 1 τ 2 τ m 2 τ m 1 τ m censurée censurée censurée censurée censurée I 1 I 2 I m 1 I m installation panne censure Figure 2.3: Durées observées avec censure à droite. Proposition 8. Soit Y i, δ i ) 1 i n un échantillon censuré de durées de loi PEm, λ, τ). Alors l estimateur du maximum de vraisemblance ˆλ de λ a pour composantes : pour j = 1,, m + 1, avec : δ ij = ˆλ j = n i=1 δ ij i=1 n t, 2.19) ij { 1 1, si Yi se réalise dans I j et δ i = 1, 0, sinon, t ij = max { 0, min { L j, Y i τ j 1 }}. Démonstration. La vraisemblance associée à l observation s écrit : Lλ) = = n i=1 n i=1 λy i ) δ i Ry i ) m+1 λ j 1 Ij y i ) j=1 ) δi m+1 e j 1 l=1 λ ll l +λ j y i τ j 1 ) j=1 ) 1 Ij y i ) En posant t ij = max { 0, min { L j, y i τ j 1 }}, i = 1,..., n, j = 1,..., m + 1, on peut mettre Lλ) sous la forme : Lλ) = n i=1 m+1 λ δ ij j e λ jt ij. j=1 On en déduit les solutions 2.19) des équations de vraisemblance. ) 35

2. Distribution exponentielle par morceaux Si les dates de censure étaient aléatoires, nous pourrions considérer les couples Y i, i ) 1 i n comme des variables aléatoires i.i.d. et invoquer le théorème 5 pour obtenir les propriétés asymptotiques de l estimateur du maximum de vraisemblance, comme nous l avons fait dans le cas de l observation complète. Dans notre cas, les dates de censure sont fixes et nous disposons d un échantillon Y 1,..., Y n qui est i.n.i.d.. Hoadley 1949) donne des conditions sous lesquelles l estimateur du maximum de vraisemblance est consistant et asymptotiquement normal pour des échantillons de ce type. Basu & Ghosh 1980) proposent d autres conditions suffisantes permettant d obtenir ces propriétés asymptotiques. Ils les appliquent au cas d un n échantillon de loi exponentielle censuré à droite, avec une censure non aléatoire ; Bartholomew 1957) avait affirmé sans preuve la normalité asymptotique de l estimateur du maximum de vraisemblance dans cette situation. Le théorème 6 nous permet d obtenir les propriétés asymptotiques de l estimateur ˆλ, énoncées dans la proposition 9. Théorème 6 Basu & Ghosh, 1980, θ multidimensionnel). Soit X 1,, X n un échantillon de variables indépendantes, où la loi de X i admet une densité f i, paramétrée par θ. Si les conditions suivantes sont vérifiées : 1. f i est continûment différentiable trois fois dans un voisinage de θ, où θ est la vraie valeur du paramètre, et pour tous j, k : [ ] log f E i x) = 0 θ j et la matrice Iθ ) formée par les éléments : [ E 2 log f i x) θ j θ k est définie positive, 2. pour tout j, les séquences log f i x) θ j θ ) θ 1 i n θ ] satisfont les conditions de Lindeberg, 3. pour tous j, k, l, pour un δ > 0, il existe des constantes B 1 et B 2 telles que : 2 log f B i x) 1 3 log f i x) 2 log f B i x) 2, θ j θ k θ j θ k θ l θ j θ k pour tout θ ]θ δ, θ + δ[, 4. pour tous j, k : Var n i=1 θ 2 log f i x) θ j θ k θ ) = O n i=1 E [ θ ]) 2 log f i x), θ j θ k alors l estimateur du maximum de vraisemblance ˆθ est fortement consistant pour θ. De plus, il est asymptiquement normal : Iθ ) ˆθ θ L ) N 0, 1), n où Iθ ) est la matrice d information de Fisher du modèle prise au point θ. 36

2.3. Inférence Proposition 9. Soit Y i, δ i ) 1 i n un échantillon censuré de durées de loi PEm, λ, τ) et {t i, 1 i n} les dates de censure associées. L estimateur du maximum de vraisemblance ˆλ est consistant pour λ et asymptotiquement normal : Iλ) ˆλ λ) L N 0, 1), 2.20) n où Iλ) est une matrice diagonale dont les éléments diagonaux sont donnés par : a n j λ 2 j i=1 1 e λ j mint i τ j 1,L j ) )1 [τj 1,+ [t i ), j = 1,, m + 1, 2.21) où a 1 = 1 et a j est donné par l équation 2.4) pour j = 2,, m + 1. Démonstration. Soient X i PEm, λ, τ) la durée de bon fonctionnement du composant i, i = 1,..., n. On observe les durées censurées Y i : Y i = X i t i, où t i est la date de censure, non aléatoire, pour le composant i. Soit µ la mesure de Lebesgue et ν i la mesure définie par : ν i A) = µa) + ωa {t i }), ω étant une mesure de comptage. La densité f i de la variable aléatoire Y i par rapport à la mesure ν i s écrit : f i y) = m+1 j=1 λ j exp { j 1 l=1 La dérivée de son logarithme vaut alors : log f i y) λ j et sa dérivée seconde : λ l L l + λ j y τ j 1 ) )} 1 Ij [0,t i [y) { j 1 )} ) + exp λ l L l + λ j y τ j 1 ) l=1 1 Ij {t i }y). = 1/λ j ) 1Ij [0,t i [y) y τ j 1 )1 Ij [0,t i ]y) L j 1 [τj,+ [ [0,t i ]) y), 2 log f i y) λ j λ l = { 1Ij [0,t i [y)/λ 2 j, si j = l 0, sinon. On a donc : E [ 2 log f i Y) λ j λ l ] = { [ ] E 1 Ij [0,t i [Y) /λ 2 j, si j = l 0, sinon [ ] E 1 Ij [0,t i [Y) = P ) ) Y < t i Y I j P Y Ij. D après le résultat donné par l équation 2.7) : [ ] E 1 Ij [0,t i [Y) = La matrice dont l élément j, l) est donné par : [ ] E 2 log f i X) λ j λ l a j 1 ) e λ jt i τ j 1 ), si τ j 1 t i < τ ) j a j 1 e λ. jl j, si t i τ j. 37

2. Distribution exponentielle par morceaux est donc une matrice diagonale, d élements diagonaux : a j 1 e λ j mint i τ j 1,L j ) )1 [τj 1,+ [t i )/λ 2 j Cette matrice est définie positive pour tout λ R +m+1). On en déduit que la matrice d information de Fisher du modèle est la matrice diagonale dont le j ème élément diagonal est donné par l équation 2.21). Par ailleurs, on peut toujours trouver des constantes B 1 et B 2 telles que : Enfin, Var Var n i=1 n i=1 B 1 /λ 2 j 2/λ 3 j B 2 /λ 2 j, j = 1,..., m + 1. ) 2 log f i y) est non nul pour j = l, et vaut dans ce cas : λ j λ l ) 2 log f i y) λ 2 j λ = 1 λ 4 j = 1 λ 4 j = 1 λ 4 j 1 λ 2 j n i=1 Var1 Ij [0,t i [Y)) n E i=1 n i=1 1 λ 2 j [ ] [ ]) ) 1 Ij [0,t i [Y) 1 E 1 Ij [0,t i [Y) a j 1 e λ j mint i τ j 1,L j ) ) 1 a j 1 e λ j mint i τ j 1,L j ) )) 1 [τj 1,+ [t i ) n i=1 a j 1 e λ j mint i τ j 1,L j ) ) 1 [τj 1,+ [t i ) } {{ } [ ] i=1 n E 2 log f i y) λ 2 j et donc : Var n i=1 ) 2 log f i x) = O λ j λ k λ n i=1 E [ ]) 2 log f i x). λ j λ k 2.4 Remarques Dans la section précédente, nous avons considéré l inférence dans la situation où la partition τ était prédéfinie. Cette stratégie est utilisée par Gamerman 1991) et Kalbfleisch & Prentice 1973) pour spécifier le taux de base d un modèle de Cox qui soit le moins contraint possible. On peut également proposer un estimateur non paramétrique pour le taux de défaillance, en considérant une distribution sous-jacente non plus exponentielle par morceaux, mais quelconque et continue, de fonction de répartition G, de densité g et de taux de défaillance h. Un tel estimateur est présenté par Barlow & Proschan 1977). Cet estimateur est constant entre les instants de défaillance, notés { τ j, j 1 }. Sa valeur dans l intervalle I j = [ τ j 1, τ j [ est donnée par : 38 λ j = Gτ j) Gτ j 1 ) τj τ j 1 1 Gu))du. 2.22)

2.4. Remarques Le calcul de cet estimateur revient à maximiser la vraisemblance associée à une loi exponentielle par morceaux dont la partition serait déterminée par les instants de défaillance. Barlow & Proschan font remarquer que : lim λ j = lim τ j 1 τ j 0 τ j 1 τ j 0 gx) = 1 Gx) = hx). Gτ j ) Gτ j 1 ))/τ j τ j 1 ) ) τj τ 1 Gu))du /τ j 1 j τ j 1 ) Choisir une partition τ de la loi exponentielle par morceaux dont les intervalles sont de largeurs infinitésimales permet donc d approcher n importe quelle distribution continue de la durée de bon fonctionnement. Kitchin et al. 1983) ont adopté ce type d approche et s intéressent plus spécifiquement à un estimateur de la fonction de fiabilité, connu sous le nom d estimateur PEXE. Cette stratégie est utilisée par Breslow 1972, 1974a), Kim & Proschan 1991) et Gamerman 1994) dans le cadre du modèle de Cox. Dans cette section, nous décrivons différentes stratégies dont le point commun est d estimer le taux de défaillance par une fonction constante par morceaux entre des dates de nature aléatoire, déterminées par les événements. Les τ j sont les instants de défaillance, observation complète Soit Y i, δ i ) 1 i n un échantillon de durées censurées de loi PEm, λ, τ) et soit m le nombre de défaillances observées : n i=1 δ i = m. On note τ 1 <... < τ m la suite ordonnée des dates de défaillance, c est-à-dire des y i tels que δ i = 1. Ces dates sont distinctes 1. On note c j le nombre de censures apparaissant dans l intervalle I j, j = 1,..., m + 1. Les dates de censure de l intervalle I j les y i tels que δ i = 0 et y i I j ) sont notées w j,l, l = 1,..., c j. On peut représenter l observation par la suite ordonnée des dates d événements : 0 < w 1,1 <... < w 1,c1 < τ 1 < w 2,1 <... < w 2,c2 < τ 2 <... < τ m 1 < w m,1 <... < w m,cm < τ m < w m+1,1 <... < w m+1,cm+1 Dans cette situation, l estimateur du maximum de vraisemblance de λ s obtient en remplaçant dans l équation 2.19) n i=1 δ ij par 1, soit : 1 ˆλ j = i=1 n t, j = 1,..., m + 1. 2.23) ij Ces composantes peuvent s écrire ˆλ j = 1/ r j L j + c ) j l=1 w j,l τ j 1 ), avec r j = n j j l=1 c l pour j = 1,..., m et ˆλ m+1 = 1/ c m+1 l=1 w m+1,l τ m ). A partir de ces expressions, Kitchin et al. 1983) obtiennent un estimateur pour la fonction de fiabilité, dont ils montrent la consistance forte. Cet estimateur, connu sous le nom de PEXE Piecewise EXponential Estimator), est défini sur [τ 0, τ m ]. Westberg & Klefsjö 1994); Malla 2008); Malla & Mukerjee 2010) proposent de nouveaux estimateurs PEXE dont le domaine de définition est étendu à R +. Par analogie avec Kitchin et al., nous qualifierons l estimateur ˆλ de composantes 2.23) d estimateur PEXE. 1. La loi exponentielle par morceaux étant absolument continue par rapport à la mesure de Lebesgue sur R +, la probabilité d observer des ex-æquos parmi les réalisations des durées de bon fonctionnement est nulle. 39

2. Distribution exponentielle par morceaux Les τ j sont des mesures de reprise Dans la pratique, on observe rarement les durées exactes de bon fonctionnement, mais plutôt leur appartenance à un intervalle de temps. On parle alors de censure par intervalle ou d observation groupée. L observation se résume alors aux nombres d événements qui se réalisent à l intérieur de chaque intervalle d une partition de R +, déterminée par des dates appelées mesures de reprise. Soit τ cette partition : R + = m+1 j=1 I j, avec I j = [τ j 1, τ j [, j = 1,..., m + 1. Soient k 1,..., k m et c 1,..., c m des échantillons de données groupées pour les défaillances et pour les censures respectivement. Autrement dit, k j durées se sont réalisées dans l intervalle I j et c j censures ont eu lieu dans l intervalle I j, j = 1,..., m. Nous approximons les temps de censure et de défaillance par la borne supérieure de l intervalle I j auquel ils appartiennent. Avec ces approximations, l observation peut être représentée de la manière suivante : 0 < τ 1 <... < τ j <... < τ m k 1 k j k m c 1 c j c m Supposons que chacune des durées suive une loi PEm, λ, τ), où τ est la partition de R + ayant conduit à l observation groupée. Les composantes ˆλ j de l estimateur du maximum de vraisemblance sont alors données par l expression 2.19), avec n i=1 δ ij = k j. Elles peuvent s écrire : ˆλ j = k j ) n j, j = 1,..., m. l=1 c l + k l ) L j L estimateur du taux de défaillance cumulé est donné par : ˆΛx) = m j 1 k l + x τ ) j 1 k j 1 r j=1 l=1 l τ j Ij x), 2.24) τ j 1 r j où l on a posé r l = n l j=1 c j + k j ). Cet estimateur peut apparaître comme une alternative à l estimateur de Nelson-Aalen du taux de défaillance cumulé Nelson, 1972; Aalen, 1978). Les deux estimateurs coïncident aux dates { τ j, 1 j m }. L estimateur de Nelson-Aalen est constant entre ces dates, alors que l estimateur 2.24) est linéaire entre ces dates. Contrairement à l estimateur de Nelson-Aalen, cet estimateur n est pas défini au delà de τ m. 40

CHAPITRE 3 Fiabilité sous contraintes d environnement statiques L expérience montre que la fiabilité des composants industriels peut être influencée par les conditions d environnement. En électronique par exemple, des recueils de fiabilité ont été établis dans les années soixante pour fournir aux ingénieurs les données de référence nécessaires aux évaluations prévisionnelles de la fiabilité. Seules les causes de défaillances intrinsèques aux composants étaient alors prises en compte. Rapidement, la nécessité de considérer l influence des contraintes d utilisation sur la fiabilité est apparue. De nouveaux guides de fiabilité ont vu le jour à partir des années quatre-vingt-dix MIL-HDBK-217F, 1991; RDF, 1993; FIDES, 2004). Ces guides intègrent des paramètres d influence liés à la température, au champ électrique, à l humidité, aux vibrations... Ils sont applicables à de nombreux domaines utilisant l électronique. Il n existe pas à notre connaissance de recueil de fiabilité mentionnant l effet de contraintes sur les matériels du réseau électrique, comme il en existe en électronique. Aucun facteur d influence n est mentionné par l IEEE 1998). La sensibilité des équipements électriques face aux contraintes d environnement est étudiée, de manière sporadique, lors des essais de vieillissement accéléré. Une abondante littérature électrotechnique existe sur le sujet, en particulier dans le domaine du claquage diélectrique. Cygan & Laghari 1990) ont présenté des modèles représentant la propension au claquage diélectrique sous l effet de la tension et de la température. Bien d autres modèles permettent de quantifier l effet de covariables sur des durées de bon fonctionnement. L objectif de ce chapitre est d en réaliser une synthèse. Nous considérons dans ce chapitre des conditions environnementales fixes dans le temps. L aspect dynamique de l environnement sera pris en compte dans le chapitre 4. Soit z = z 1,..., z p ) un vecteur de p covariables représentant les conditions environnementales, supposées déterministes. Dans ce chapitre, nous présentons deux familles de modèles permettant d exprimer la dépendance de la loi de probabilité associée à la durée de bon fonctionnement au vecteur de covariables z : Les modèles à taux proportionnels. Le rapport des taux de défaillance relatifs à deux environnements est supposé 41

3. Fiabilité sous contraintes d environnement statiques constant dans le temps. Le taux de défaillance est donc de la forme : λx, z) = λ 0 x)gz). Plusieurs modèles à taux proportionnels sont exposés dans la section 3.1. Nous considérons le problème de l inférence statistique pour ces modèles. Les modèles à facteurs d accélération. Dans ces modèles, les durées de bon fonctionnement X z0 et X z1 sous deux environnements statiques z 0 et z 1 respectivement, sont reliées par un coefficient de proportionnalité : X z0 = AFz 0, z 1 )X z1. Le coefficient AFz 0, z 1 ) est le facteur d accélération. Des considérations d ordre physico-chimiques peuvent être à l origine des paramétrisations choisies pour le facteur d accélération. Sa forme peut également être empirique. Des facteurs d accélération classiques sont présentés dans la section 3.2. 42

3.1. Modèles à taux proportionnels 3.1 Modèles à taux proportionnels Un modèle à taux proportionnels modélise la loi de X sous l environnement z, fixe dans le temps, par une hypothèse sur la forme du taux de défaillance : λx; z) = λ 0 x)gz). 3.1) Le taux de défaillance s exprime alors comme le produit d un taux de base λ 0, qui ne dépend que du temps, et d une fonction positive g du vecteur de covariables z. Dans un modèle à taux proportionnels, le rapport des taux de défaillance sous deux niveaux contraintes environnementales z i et z j est constant : d où l appellation «taux proportionnels». λx; z i ) λx; z j ) = gz i) gz j ), 3.2) Les modèles vérifiant l équation 3.1) sont décrits par Lawless 2002) et par Kalbfleisch & Prentice 2002). Lawless les qualifie de proportional hazard regression models. Ils englobent différentes modélisations suivant la forme du taux de base λ 0 et de la fonction g. La fonction g est généralement une fonction paramétrée par un paramètre β R p. Une forme classique pour la fonction g est : gz) = e β z. Le taux de base correspond alors au taux de défaillance sous l environnement z = 0. Deux stratégies peuvent être envisagées pour définir ce taux de base. Dans la section 3.1.1, nous décrivons la première stratégie, qui consiste à spécifier une forme paramétrique pour λ 0. L alternative est de ne faire aucune hypothèse quant à la forme de λ 0, si ce n est celle d une forme constante par morceaux ; λ 0 est alors le taux de défaillance d une loi exponentielle par morceaux. Cette seconde stratégie est exposée dans la section 3.1.2. En pratique, le choix du taux de base n est peut-être pas décisif. Dans l étude menée par Aitkin et al. 1983), les estimations obtenues en utilisant la première stratégie taux de défaillance d un modèle exponentiel, Weibull, extrême) ou la seconde taux de défaillance constant par morceaux) sont sensiblement les mêmes. Aitkin et al. indiquent que la première stratégie a peu d intérêt lorsque l information recherchée concerne uniquement l estimation du paramètre β. 3.1.1 Taux de base spécifié Dans cette section, nous considérons des modèles à taux proportionnels dont le taux de base est spécifié, et dont la fonction g est de la forme gz) = e β z. Le modèle est alors paramétrique ; on peut estimer ses paramètres par maximum de vraisemblance. Dans les paragraphes suivants, nous traitons les cas particuliers où le taux de base est celui d une loi exponentielle et celui d une loi de Weibull. Taux de base exponentiel Sous les conditions z = 0, la distribution des durées de bon fonctionnement est supposée exponentielle de paramètre λ 0 > 0. Le modèle est alors caractérisé par le taux de défaillance : λx; z) = λ 0 e β z. 43

3. Fiabilité sous contraintes d environnement statiques La vraisemblance associée à l observation d un échantillon censuré de durées de bon fonctionnement X i, δ i ) 1 i n sous des niveaux de contraintes z i ) 1 i n s écrit : Lβ, λ 0 ) = λ k 0 n i=1 e β z i δ i ) e λ 0 n i=1 x ie β z i, où k désigne le nombre total de composants défaillants durant l étude : k = i=1 n δ i. On en déduit le système d équations de vraisemblance : k λ 0 n i=1 x i e β z i = 0 n n z i δ i λ 0 x i z i e β z i = 0 i=1 i=1 La première équation permet d obtenir un estimateur du maximum de vraisemblance pour λ 0 : k ˆλ 0 = i=1 n x. ie β z i En injectant dans la seconde équation de vraisemblance l expression de λ 0 en fonction de β fournie par la première équation de vraisemblance, on montre que ˆβ est la solution du système à p équations : n z i δ i k n i=1 x iz i e β z i i=1 i=1 n x. ie β z i Ce système d équation n admet pas de solution explicite. On peut le résoudre en utilisant un algorithme de Newton-Raphson à p dimensions. Taux de base Weibull On suppose que le taux de base est de type Weibull. Plus précisément, nous considérons que la durée de bon fonctionnement sous les conditions d environnement z = 0 suit une loi de Weibull de paramètre d échelle α = 1 et de paramètre de forme γ. Le modèle à taux proportionnels est alors défini par le taux de défaillance : Lβ, γ) = γ k n i=1 λx; z) = e β z γx γ 1. Ce modèle revient à considérer une durée de bon fonctionnement X de loi de Weibull de paramètres α, γ), où le paramètre d échelle α dépend de l environnement : α γ = e β z. La vraisemblance associée à une observation censurée X i, δ i ) 1 i n s écrit : ) δi x γ 1 i e β z i e n i=1 xγ i eβ z i, où k est le nombre de défaillances observées sur l échantillon. Les équations de vraisemblance sont : n n k γ + δ i log x i log x i )x γ i eβ z i = 0 i=1 i=1 n i=1 δ i z i n i=1 x γ i z ie β z i = 0 Il n existe pas de solution analytique et l on doit faire appel à des techniques numériques pour estimer γ et β. 44

3.1. Modèles à taux proportionnels 3.1.2 Taux de base non spécifié : modèle de Cox En fiabilité, les modèles paramétriques sont généralement privilégiés. Dans ce type d approche, une mauvaise spécification du taux de base λ 0 de l équation 3.1) risque de conduire à une estimation inconsistante du paramètre β Meyer, 1990). Par ailleurs, lorsque les informations permettant d ajuster le modèle sont limitées, il peut être préférable de ne pas spécifier une forme paramétrique du taux de base. Dans cette section nous introduisons le modèle de Cox 1972), défini par : λx; z) = λ 0 x)e β z, où β R p est le vecteur des paramètres. Il suppose une relation log-linéaire entre le taux de défaillance et les covariables : log λx; z) λ 0 x) = β z. Le modèle de Cox n est que partiellement spécifié par le paramètre β, la fonction λ 0 étant de forme inconnue. Ceci conduit certains auteurs à qualifier ce modèle de semiparamétrique. L approche semi-paramétrique est d autant plus justifiée que la valeur du taux de base importe peu. Dans certains contextes, on s intéresse essentiellement aux valeurs relatives des taux de défaillance d individus exposés à des contraintes différentes. C est le cas par exemple en biostatistique lorsqu on cherche à expliquer le délai de survenue d une maladie par des covariables telles que le traitement administré. L estimation du taux de base est alors de seconde importance et on préférera imposer un minimum de contrainte quant à sa forme. Considérons l observation d un échantillon X i, δ i ) 1 i n de durées censurées et des covariables z i ) 1 i n. La vraisemblance associée à cette observation s écrit : Lβ, λ 0 ) = n i=1 [ ] λ 0 x i )e β z i e eβ z xi δi [ i 0 λ 0s)ds e eβ z xi 1 δi i 0 0s)ds] λ. 3.3) Cox 1972) a introduit une méthode d inférence en deux temps pour le modèle : estimation du paramètre β, puis de la fonctionnelle λ 0. L estimation du paramètre β repose sur le concept de vraisemblance partielle. Nous nous référons à Lawless 2002) pour la construction de la vraisemblance partielle : Lβ) = n i=1 e β z i n k=1 eβ z k1xi x k ) δi. 3.4) L intérêt de cette expression est qu elle ne fait pas intervenir le taux de base λ 0. Cox a appliqué la théorie de l estimation à la vraisemblance partielle 3.4), et non pas à la vraisemblance 3.3), pour proposer un estimateur ˆβ. Le fait d utiliser une vraisemblance partielle qui n est pas à proprement parler une vraisemblance est une stratégie généralisable à d autres modèles qui contiennent des paramètres de dimension infinie. Elle est exposée par Cox dans son article de 1975. La consistance forte et la normalité asymptotique de l estimateur ˆβ résultant de cette stratégie sont démontrées par Tsiatis 1981). Plusieurs procédures peuvent être envisagées pour l estimation de λ 0. Elles sont synthétisées par Breslow 1974a). La plus employée est celle proposée à l origine par Breslow 1972) en réponse à l article de Cox et développée ultérieurement Breslow, 45

3. Fiabilité sous contraintes d environnement statiques 1974a,b). Breslow utilise un estimateur constant par morceaux du taux de base, avec des dates de saut coïncidant avec les dates de défaillance. Ce type d estimateur, qui n impose pas réellement de contrainte sur λ 0, est présenté dans la section 2.4. La méthode de la vraisemblance concentrée décrite par Gourieroux & Montfort 1999) permet d injecter l estimation ˆβ, obtenue par maximisation de la vraisemblance partielle, dans le taux de base cumulé Λ 0 x) = x 0 λ 0u)du. Dans le modèle de Cox, elle conduit à une estimation du taux de base cumulé qui est une généralisation de l estimateur de Nelson-Aalen au cas où la distribution des durées dépend de covariables : ˆΛ 0 x) = n i=1 δ i 1 xi x n k=1 e ˆβ z k1xi x k. Il s agit de l estimateur de Breslow. Tsiatis 1981) a considéré l optimalité de cet estimateur. Il montre que sous certaines conditions, celui-ci converge faiblement vers un processus gaussien centré. Kalbfleisch & Prentice 1973) et Holford 1976) ont proposé une approche similaire à Breslow 1972) pour estimer le taux de base λ 0. Celui-ci est supposé constant par morceaux sur des intervalles spécifiés indépendamment des données. La durée de bon fonctionnement sous l environnement z = 0 suit alors la loi exponentielle par morceaux décrite dans le chapitre 2. 3.1.3 Adéquation au modèle L hypothèse clé dans les modèles à taux proportionnels est celle du taux de défaillance multiplicatif 3.1). De nombreuses méthodes permettent de s assurer que cette hypothèse est vérifiée Lawless, 2002, p. 358). Elles sont utilisées de manière indicative puisqu elles peuvent être mises en échec par l omission d une covariable importante ou par une mauvaise spécification du modèle. On peut montrer que sous l hypothèse d un taux proportionnel, on a la relation suivante : log log Rx; z)) = β z + log Λ 0 x). Lorsque le nombre de valeurs prises par la covariable est faible au regard du nombre d individus, on peut vérifier l adéquation au modèle en traçant des estimations de log log Rx; z)), obtenues en estimant Rx; z) par l estimateur de Kaplan-Meyer par exemple, en fonction du temps ou du log du temps). Lorsque la covariable est continue, différentes courbes peuvent être tracées suivant les valeurs prises par cette covariable ; on parle alors de stratification. Si l hypothèse des taux proportionnels est vérifiée, les courbes doivent être approximativement translatées les unes par rapport aux autres. Une autre manière de tester l adéquation à un modèle à taux proportionnels est d ajouter artificiellement une covariable dépendant du temps dans le modèle et de tester si le paramètre correspondant à cette covariable est significativement différent de zéro. Le cas échéant, le rapport 3.2) dépend du temps et l hypothèse des taux proportionnels n est pas valide. Les résidus de Schoenfeld 1980), les résidus de martingale et les résidus du score Therneau et al., 1990) peuvent également être utilisés pour tester l hypothèse de proportionnalité. 46

3.2. Modèles à facteur d accélération 3.2 Modèles à facteur d accélération Une autre approche permettant de modéliser l effet de covariables sur la fiabilité consiste à supposer que la durée de bon fonctionnement sous certaines conditions environnementales est reliée linéairement à la durée de bon fonctionnement sous d autres conditions environnementales, soit : X z0 = AFz 0, z 1 )X z1, 3.5) où X z0 est la variable aléatoire pour la durée de bon fonctionnement sous l environnement z 0, X z1 est la variable aléatoire pour la durée de bon fonctionnement sous l environnement z 1. Le coefficient AFz 0, z 1 ) est appelé facteur d accélération. Il rend compte de l effet qu a le passage de l environnement z 1 à l environnement z 0 sur la fiabilité. L idée sous-jacente au modèle 3.5) est que l environnement a pour effet de contracter ou bien d allonger la durée de bon fonctionnement, par l intermédiaire d un coefficient de proportionnalité. Ceci en fait un modèle particulièrement adapté pour exploiter les résultats des tests accélérés en industrie. Dans un test accéléré, on vieillit artificiellement les composants en exploitant le fait que leur durée de bon fonctionnement est réduite par l application d un stress important température, humidité, tension... ). Sous des conditions environnementales sévérisées, des défaillances peuvent être observées dans des délais plus courts. Le facteur d accélération quantifie la compression de la durée de bon fonctionnement induite par l application du stress. Le modèle 3.5) permet ainsi d extrapoler une durée de bon fonctionnement sous des conditions environnementales de référence. Dans la littérature, le modèle à facteur d accélération est connu sous le nom de modèle simple de vie accélérée ou encore de modèle AFT 1 Nikulin et al., 2007). Il peut être défini par la relation suivante entre la fiabilité R ; z 0 ) sous le niveau de contrainte z 0 et la fiabilité R ; z 1 ) sous le niveau de contrainte z 1 : Rx; z 1 ) = RxAFz 0, z 1 ); z 0 ). Cette relation est une conséquence directe de l expression 3.5). L équation 3.5) peut conduire à différents modèles suivant la forme du facteur d accélération AFz 0, z 1 ) et suivant la distribution de la durée de bon fonctionnement sous un environnement donné loi de X z ). Des considérations d ordre physicochimiques peuvent être à l origine des paramétrisations choisies pour le facteur d accélération. Sa forme peut également être empirique. Nelson 1990) et Meeker & Escobar 1998) exposent différentes modélisations possibles pour différents facteurs d accélération. Dans les sections suivantes, nous présentons des facteurs d accélération associés de manière classique à certains types de contraintes. 3.2.1 Modèle d Arrhenius En 1889, le chimiste Arrhenius a proposé une relation empirique qui quantifie la variation de la vitesse d une réaction chimique en fonction de la température : 1. Modèle de durée de vie accélérée Accelerated Failure Time model). { A exp E } a, 3.6) k B T 47

3. Fiabilité sous contraintes d environnement statiques où A est un facteur qui ne dépend que des réactifs, E a désigne l énergie d activation de la réaction en électron volts ev), T est la température en Kelvin K) et k B est la constante de Boltzmann 8, 617.10 5 ev/k). Une défaillance est généralement la résultante de nombreuses réactions chimiques qui dégradent les matériaux. Aussi, certains modèles s inspirent de relation 3.6) pour rendre compte de l effet de la température sur la cinétique de vieillissement des matériels. On peut par exemple faire l hypothèse que le facteur d accélération entre les températures T 0 et T 1 T 0 < T 1 ) est le quotient des vitesses de réactions chimiques sous ces deux températures, soit : { Ea 1 AFT 0, T 1 ) = exp 1 )}. 3.7) k B T 0 T 1 Escobar & Meeker 2006) qualifient le paramètre E a intervenant dans ce facteur d accélération de quasi-activation energy. Ils distinguent ainsi l énergie d activation telle qu introduite originellement par Arrhenius de l énergie d activation au sens fiabiliste du terme, telle qu elle apparaît dans la relation 3.7). Le paramètre E a intervenant dans la relation 3.7) peut néanmoins être vu comme un agrégat des énergies d activation de plusieurs réactions chimiques qui, superposées, vont conduire à la défaillance. Lall 1996) souligne la difficulté à établir précisément le lien entre l approche fiabiliste, macroscopique, et l approche chimique, microscopique. Cooper 2005) parvient à établir ce lien pour un type de matériel particulier. Dans ce qui suit, nous montrons comment le facteur d accélération d Arrhenius permet de paramétrer la loi de la durée de bon fonctionnement en fonction de la température, pour différentes distribution de X T : 1. On suppose que sous une température de référence T 0, X T0 Eλ 0 ). Sous l hypothèse d un facteur d accélération d Arrhenius, on peut montrer que X T Eλ 0 AFT 0, T)). La durée de bon fonctionnement sous la température T est alors caractérisée par la densité : 48 f x; T) = λ 0 AFT 0, T) exp { λ 0 AFT 0, T)x}. 2. Supposons que la durée de bon fonctionnement X T sous une température T suive une loi de Weibull dont le paramètre d échelle s exprime en fonction de la température de la manière suivante : { } Ea X WαT), β), avec αt) = C exp. k B T La fonction de fiabilité est alors donnée par : β Rx; T) = exp x { } C exp Ea k B T = RAFT 0, T)x; T 0 ). On remarque que le taux de défaillance associé à ce modèle s écrit : β 1 λx; T) = β { } x { } C exp Ea k B T C exp Ea k B T = λx; T 0 )AFT 0, T) β. Ce modèle est donc aussi un modèle à taux proportionnels.

3.2. Modèles à facteur d accélération 3.2.2 Modèle puissance inverse Il a établi expérimentalement que la durée de vie de certains composants évolue de manière inversement proportionnelle aux valeurs des stress qu il subissent. La relation V A η est connue pour décrire de manière déterministe l évolution de la durée de bon fonctionnement en fonction du niveau contrainte V, notamment pour des contraintes de tension Cygan & Laghari, 1990; Nelson, 1990; Escobar & Meeker, 2006). Les paramètres A et η caractérisent alors l équipement. Cette relation est à l origine de l expression du facteur d accélération entre deux niveaux de tension V 0 et V 1 V 0 < V 1 ) : ) η V1 AFV 0, V 1 ) =. 3.8) Ce facteur d accélération définit le modèle puissance inverse, qui peut être utilisé pour étudier l influence de diverses contraintes sur la durée de bon fonctionnement des matériels : contraintes de tension, mais aussi d humidité ou de pression. Lorsque V désigne une contrainte relative aux nombre de cycles thermiques subis par le composant, la relation 3.8) définit le modèle de Coffin-Manson. Plusieurs modèles reposant sur ce facteur d accélération peuvent être définis. Par exemple, si l on suppose que la durée de bon fonctionnement X V sous la contrainte V est distribuée suivant une loi de Weibull WαV), β), où le paramètre d échelle αv) est donné par la relation A/V η, on obtient un modèle de Weibull en puissance. On peut également supposer que la durée de bon fonctionnement est exponentielle de paramètre λ 0 sous une contrainte de référence V 0, ce qui entraîne qu elle est exponentielle de paramètre λ 0 AFV 0, V) sous une contrainte V quelconque. Ce modèle est appelé modèle exponentiel en puissance inverse. Le modèle puissance inverse est bien connu des ingénieurs, en particulier des ingénieurs électriciens, puisqu il permet de représenter l accélération du vieillissement due à une contrainte de tension. Citons à titre d exemple l application célèbre aux transformateurs à huile Lawless, 2002, p. 278), ainsi que l application aux isolants des câbles électriques Simon, 1971). Lawless 2002) utilise le modèle de Weibull en puissance inverse. Simon 1971) suppose que les durées de bon fonctionnement sont distribuées suivant une loi log-normale. 3.2.3 Modèle de Peck Peck suggère de modéliser l effet combiné de la température et de l humidité sur une durée de vie en multipliant les facteurs d accélération 3.7) et 3.8) relatifs à chacune de ces variables. Ce modèle est très répandu pour représenter la fiabilité de composants électroniques. Ses fondements sont empiriques ; il a été vérifié expérimentalement pour des composants défaillants par corrosion électrolytique Peck, 1986). Soient T 0 et HR 0 la température et l humidité relative dans les conditions de référence. Dans le modèle de Peck, le facteur d accélération reliant la durée de bon fonctionnement dans ces conditions à la durée de bon fonctionnement sous une température T 1 et une humidité relative HR 1 s écrit : { Ea 1 AF T 0, HR 0 ), T 1, HR 1 )) = exp 1 )} ) η HR1. 3.9) k B T 0 T 1 HR 0 Dans les essais accélérés, on utilise en général des valeurs de stress T 1, HR 1 ) telles que T 0 < T 1 et HR 0 < HR 1. Le facteur d accélération est alors supérieur à 1. Dans V 0 49

3. Fiabilité sous contraintes d environnement statiques le chapitre suivant, les conditions de température et d humidité ne sont pas toujours comparables. 50

CHAPITRE 4 Fiabilité sous contraintes d environnement dynamiques L objectif de ce chapitre est de pouvoir estimer la fiabilité des composants du réseau électrique sous l influence de contraintes d environnement. Notre approche est fondée sur des informations concernant les composants fonctionnant dans leurs conditions d usage. On dispose en effet de ces informations à moindre coût, puisqu elles sont collectées de manière automatique ou recueillies par les agents chargés de la maintenance. D autres approches, expérimentales, auraient pu être mises en œuvre pour quantifier l effet de l environnement sur les composants du réseau électrique. Par exemple, nous aurions pu mettre en œuvre des essais accélérés. Cependant, une telle sévérisation des conditions d environnement est susceptible d engendrer des mécanismes de défaillance supplémentaires, qui ne correspondent pas à la réalité. Dans notre approche, le mécanisme de panne est parfaitement identifié et nous cherchons à tirer profit des données de terrain. Les méthodes exposées dans le chapitre 3 concernent l estimation de la fiabilité dans un environnement statique. Elle ne sont pas adaptées à la situation que nous étudions dans ce chapitre, où les composants évoluent dans un environnement dynamique. Certaines extensions permettent toutefois d inclure des covariables dépendant du temps. Le modèle le Cox avec des covariables qui dépendent du temps est décrit par Kalbfleisch & Prentice 2002). Ses propriétés asymptotiques sont étudiées par Andersen & Gill 1982). Le modèle à facteurs d accélération présenté dans la section 3.2 peut être étendu aux situations où les conditions environnementales sont variables Nikulin et al., 2007). L approche promue par Aalen & Gjessing 2001) consiste à voir la durée de bon fonctionnement comme le premier instant de saut d un processus stochastique sousjacent. L intensité de ce processus est qualifiée de hazard rate process. Comparé aux approches dites standard en analyse de durée évoquées jusqu alors, cette approche permet une meilleure prise en compte des phénomènes aléatoires mis en jeu dans la défaillance. Aalen & Gjessing indiquent que les deux approches sont complémentaires ; l évaluation du processus sous-jacent peut contribuer à améliorer la connaissance de la forme des taux de défaillance. Plus généralement, Singpurwalla 1995) et Zahalca 1999) ont dressé un panorama des modèles décrivant la durée de vie d entités évoluant dans un environnement dynamique. Leur socle commun est l utilisation de processus stochastiques pour représenter l effet de l environnement et/ou la dégrada- 51

4. Fiabilité sous contraintes d environnement dynamiques tion qu il induit sur les unités. Kebir 1991) suppose que le processus sous-jacent est un processus de Levy. Il montre que la fiabilité dans cette situation peut être décrite par une approche standard. Dans ce contexte, Di Crescenzo & Pellerey 1998) établissent des relations d ordre stochastiques permettant de comparer les durées de vie d unités évoluant sous des conditions d environnement différentes. Lorsqu un composant subit des chocs dus à l environnement, l intensité du processus peut être modélisée par un processus de type shot noise Lemoine & Wenocur, 1986). L occurrence des chocs est alors régie par un processus de Poisson non homogène et les amplitudes des chocs sont des réalisations de variables continues et i.i.d.. Ce modèle est évoqué par Gaudoin & Soler 1997), qui suggèrent deux classes de modèles de fiabilité reposant sur une modélisation de l environnement, de quelque nature qu il soit, par un processus stochastique. Cha & Mi 2007) considèrent que l environnement est caractérisé par un processus de Poisson non homogène. Ils donnent des résultats théoriques sur l expression du taux de défaillance d un composant soumis à cet environnement. La survenue d une défaillance est parfois la conséquence d un phénomène de dégradation. La durée de vie peut être vue comme le temps d atteinte d un certain niveau de dégradation, alors modélisée par un processus stochastique. Singpurwalla 1995) étudie les cas où la dégradation est représentée par un mouvement brownien et par un processus gamma. Liao & Elsayed 2006) s intéressent au cas spécifique des tests de dégradation accélérée. L approche développée dans ce chapitre permet d estimer la fiabilité dans un environnement dynamique, c est-à-dire un environnement dont des propriétés physiques ou structurelles sont susceptibles d être modifiées à tout instant. A la différence des approches décrites dans le paragraphe précédent, elle ne prend pas en compte le caractère aléatoire de l environnement, alors vu comme une variable déterministe. Les modélisations proposées reposent sur la spécification d une distribution des durées de bon fonctionnement ; elles s inscrivent donc dans le cadre des approches dites standard en analyse de durée. Plusieurs situations sont considérées : Situation A : le composant subit une dégradation par l action combinée de la témpérature et de l humidité. La particularité de l approche est de prendre en compte des contraintes de natures différentes, internes humidité) ou externes température). Situation B : le composant est sujet à des chocs provoqués par une contrainte de nature impulsionnelle surtensions atmosphériques). Dans les sections 4.1 et 4.2, nous présentons des modèles de fiabilité adaptés à chacune des ces situations. Des simulations nous permettent d examiner les propriétés des estimateurs proposés biais et erreur quadratique moyenne). Les modèles sont ensuite ajustés à partir du retour d expérience. Ces modèles reposent tous deux sur l hypothèse d une distribution exponentielle par morceaux des durées de bon fonctionnement. Ainsi, nous n imposons pas réellement de contrainte sur la forme du taux de défaillance. Celui-ci est relié aux conditions environnementales par un modèle à taux proportionnel sur chaque intervalle sur lesquel il est constant. La relaxation de l hypothèse des taux proportionnels à une hypothèse locale de taux proportionnels confère au modèle une grande flexibilité. Cette spécification du taux de défaillance peut être généralisée à des situations autres que celles envisagées dans les sections 4.1 et 4.2. Dans la section 4.3, nous présentons un modèle général permettant de représenter la fiabilité dans un environnement dynamique. Ce modèle peut prendre des formes très variées suivant l environnement considéré. Nous montrons en quoi il s inscrit dans l approche proposée par Friedman 1982) et nous présentons une méthode d estimation associée. 52

4.1. Situation A 4.1 Situation A Cette section concerne un composant sujet à un phénomène de diffusion d humidité qui provoque la détérioration de sa rigidité diélectrique 1. A température élevée, l infiltration d eau conduit à la perte des propriétés isolantes, qui constitue le claquage. Il s agit là d un mécanisme de panne bien connu dans le domaine des isolants. Les résultats présentés dans cette section sont présentés de manière synthétique dans un article Guérineau & Gouno, 2012a). Ils ont également fait l objet d une communication Guérineau & Gouno, 2011). 4.1.1 Le modèle On observe n composants exposés à la même température extérieure T et soumis à un même phénomène de diffusion d humidité HR. On considère que l environnement est représenté par les covariables T et HR. La période d observation est scindée en m intervalles de longueur, notés I 1,..., I m, durant lesquels la température et l humidité sont supposées constantes pour chacun des composants figure 4.1). Cette approximation est raisonnable si l on choisit suffisamment petit. Nous optons pour des intervalles de longueur = 1 mois, qui permettent de rendre compte de la saisonnalité annuelle sur la température. Nous supposons par ailleurs que les dates d installation coïncident avec les bornes de ces intervalles. Les composants toujours actifs à la date m fournissent des durées de bon fonctionnement censurées voir section 1.2.1). Début de l étude Fin de l étude 0 2 m 2) m 1) m Dates censuré censuré censuré censuré censuré T 1 T 2 T m 1 T m installation panne Variable externe Figure 4.1: Retour d expérience : dates d installation et dates de panne au cours de la période d observation. Représentation conjointe de la température subie par les composants variable externe). 1. La rigidité diélectrique d un milieu isolant est la valeur maximum du champ électrique que le milieu peut supporter avant le claquage. 53 1

4. Fiabilité sous contraintes d environnement dynamiques Installation 0 2 m 2) m 1) m Durée depuis l installation censuré censuré censuré censuré censuré HR 1 HR 2 HR m 1 HR m installation panne Variable interne Figure 4.2: Représentation conjointe des durées de bon fonctionnement recalées par rapport à leur date d installation) et de l humidité, en tant que variable interne. Différentes variables peuvent affecter la survenue d un événement sur un composant. Kalbfleisch & Prentice 2002) distinguent deux types de variables dépendant du temps : les variables externes, dont l existence n est pas liée aux composants ; les variables internes, intrinsèquement liées aux composants La particularité de l approche proposée dans cette section est la prise en compte conjointe d une variable d environnement externe et d une variable d environnement interne. La température, en tant que variable 1 externe, est représentée de manière calendaire figure 4.1). En revanche, l humidité évolue avec l âge du composant figure 4.2) ; elle constitue une variable interne. On note z i j le vecteur qui représente l environnement subi par le composant i, installé à la date d i, au cours de l intervalle I di +j = [d i + j 1), d i + j) [, pour j 1 : Avec : T di +j, HR j, z i j = T di +j, HR j. } {{ } }{{} variable externe variable interne la température dans l intervalle I di +j de la période d observation, l humidité relative présente dans le composant, de l âge j 1) à l âge j. Dans ces conditions, les composants évoluent sous un profil d environnement identique seulement s ils sont installés en même temps. Nous modélisons la durée de bon fonctionnement pour un composant installé dans un intervalle I d par une distribution exponentielle par morceaux : 54 λ d x) = m λ d+j 1 [j 1),j [ x) + λ d+m+1 1 [m,+ [ x). 4.1) j=1

4.1. Situation A La valeur λ d+j du taux de défaillance dans l intervalle I d+j de la période d observation est exprimée en fonction des covariables T d+j et HR j par un modèle de Peck : ) λ d+j = λ 0 AF Peck T ref, HR ref ), T d+j, HR j ). 4.2) Nous avons vu dans le chapitre 3 que : ) AF Peck T ref, HR ref ), T d+j, HR j ) = AF Arrh T ref, T d+j )AF PI HR ref, HR j ). Dans les paragraphes suivants, nous décrivons les facteurs d accélération AF Arrh T ref, T d+j ) et AF PI HR ref, HR j ) associés respectivement à la température et à l humidité. Facteur d accélération associé à la température Température degrés Celcius) 5 10 15 20 T ref 2000 01 2000 07 2001 01 2001 07 2002 01 2002 07 Dates Figure 4.3: Modélisation de la température observée par une sinusoïde autour de T ref = 11, 93 Celcius. Les températures observées sont fournies par le projet European Climate Assessment and Dataset Klein & Coauthors, 2002). L influence de la température sur la fiabilité est introduite dans le modèle par le facteur d accélération d Arrhenius AF Arrh T ref, T d+j ) décrit dans la section 3.2.1 : { )} AF Arrh T ref, T d+j ) = exp E a 1 1, 4.3) k B T d+j T ref où : E a est l énergie d activation du mécanisme de panne ev), k B est la constante de Boltzmann 8, 6173 10 5 ev/k), T d+j est la température dans l intervalle I d+j K), T ref est la température de référence K). Les paramètres λ 0 et E a sont inconnus. λ 0 est la valeur supposée constante du taux de défaillance à la température T ref. E a quantifie la sensibilité du composant à la température. Plus l énergie d activation est importante, plus l impact potentiel de la température sur la fiabilité du composant est importante, comme le montre la table 4.1. Quelle que soit la valeur positive de E a, le facteur d accélération d Arrhenius est une fonction croissante de la température figure 4.4). Pour des températures supérieures à T ref, le facteur d accélération augmente le risque de base λ 0 et pour des températures inférieures à T ref, il le diminue légèrement. Sa forme exponentielle traduit de 55

4. Fiabilité sous contraintes d environnement dynamiques d + j mois) Jan Fév Mar Avr Ma Jui T d+j Celcius) 2,82 4,28 7,80 10,83 14,96 18,55 0,5 0,52 0,58 0,75 0,94 1,26 1,61 E a ev) 1 0,27 0,33 0,57 0,88 1,58 2,59 1,5 0,14 0,19 0,42 0,82 1,98 4,17 2 0,07 0,11 0,32 0,77 2,49 6,71 d + j mois) Jui Aoû Sep Oct Nov Déc T d+j Celcius) 21,03 20,46 17,17 12,45 6,99 3,46 0,5 1,90 1,83 1,46 1,05 0,71 0,54 E a ev) 1 3,62 3,36 2,14 1,11 0,50 0,30 1,5 6,90 6,15 3,14 1,17 0,36 0,16 2 13,14 11,26 4,59 1,23 0,25 0,09 Table 4.1: Facteurs d accélération d Arrhenius pour différentes valeurs de E a et sous le profil de température représenté sur la figure 4.3 = 1 mois, T ref = 11, 93 Celcius). AF Arrh T ref, T) 0 1 2 3 4 5 6 E a = 0.5 E a = 1 E a = 1.5 T ref 5 10 15 20 Température T degrés celcius) Figure 4.4: Evolution du facteur d accélération d Arrhenius en fonction de la température pour plusieurs valeurs de E a T ref = 11, 93 Celcius). manière satisfaisante l effet de la température sur la fiabilité. En effet, à des températures élevées, une petite augmentation de la température peut provoquer d importants dégâts sur le composant. En revanche, l impact de températures moyennes ou basses sur sa fiabilité est moindre. 56

4.1. Situation A Facteur d accélération associé à l humidité L accélération du vieillissement due à la présence d humidité dans le composant est représentée à l aide du modèle puissance inverse décrit à la section 3.2.2. Le facteur d accélération relatif à l humidité s écrit : ) η HRj AF PI HR ref, HR j ) =, 4.4) HR ref où : HR j est l humidité relative contenue par le composant dans le j ème intervalle suivant son installation, HR ref est l humidité relative présente initialement dans le composant, η est le paramètre qui quantifie la sensibilité du composant à l humidité, appelé coefficient de Peck. La covariable HR j n est pas mesurée. L évolution de la teneur en eau présente dans le composant est reconstruite a posteriori à partir de données de laboratoire. Des expérimentations ont montré un profil d humidité commun aux composants présents sur le terrain : ils perdent leur étanchéité à partir de la date n 0. La migration d eau à l intérieur du composant obéit alors aux lois de Fick : l eau se déplace des régions à forte concentration vers les régions à concentration plus faible, avec un flux proportionnel au gradient de la concentration. Nous nous référons au livre de Crank 1979) pour l étude détaillée de la cinétique d absorption d eau en fonction de la géométrie et des conditions aux limites, sous l hypothèse d une diffusion fickienne. Tencer 1994) propose des solutions approchées aux équations de Fick en régime quasi-stationnaire, pour des configurations similaires au composant étudié. L approximation de la première loi de Fick pour des enrobants non absorbants est utilisée pour représenter de manière déterministe l évolution de HR j au cours du temps : HR j = { HRref, si 1 j n 0 HR max + HR ref HR max ) exp { ρj n 0 ) }, si j > n 0 4.5) Quelques valeurs clé sur le phénomène diffusif permettent alors de connaître le profil d humidité pour les composants étudiés : HR ref est l humidité relative résiduelle présente dans un composant neuf, n 0 est l âge à partir duquel l humidité commence à s infiltrer dans le composant, HR max est la valeur maximale de l humidité relative indiquée par les experts maximum physiquement possible), ρ est une valeur caractérisant la géométrie du composant fonction du volume, de l épaisseur d enrobant, de l aire de la surface d enrobage et de son coefficient de perméabilité). Les valeurs de n 0 et de HR max sont données par les experts en matériels. Celle de HR ref est mesurée expérimentalement. Les analyses en laboratoire permettent également de déterminer un point de la courbe 4.5) pour un âge postérieur à n 0 figure 4.5). Ce point suffit à calculer ρ. Un exemple d évolution de la variable interne est représenté sur la figure 4.5. Sous l hypothèse de ce profil d humidité, les valeurs du facteur d accélération pour des mois suivant l installation du composant sont calculées pour plusieurs valeurs de η table 4.2). La figure 4.6 montre que plus η est élevé, plus le facteur d accélération de Peck augmente rapidement, ce qui traduit une plus forte vulnérabilité du composant face au phénomène de diffusion d humidité. 57

4. Fiabilité sous contraintes d environnement dynamiques Humidité relative 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 HR ref HR max point critique n 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Age du composant années) Figure 4.5: Modélisation de l humidité relative en fonction de l âge du composant = 1 mois, n 0 = 6, ρ = 1/130, HR ref = 0, 3%, HR max = 7%). j mois) 1 7 13 19 25 31 HR j 3, 10.10 3 3, 51.10 3 6, 51.10 3 9, 38.10 3 1, 21.10 2 1, 47.10 2 0,5 1 1,08 1,47 1,77 2,01 2,22 η 1 1 1,17 2,17 3,13 4,04 4,91 2 1 1,37 4,71 9,77 16,3 24,1 3 1 1,61 10,2 30,5 65,8 118 j mois) 37 43 49 55 61 67 HR j 1, 72.10 2 1, 96.10 2 2, 19.10 2 2, 40.10 2 2, 61.10 2 2, 81.10 2 0,5 2,40 2,56 2,70 2,83 2,95 3,06 η 1 5,74 6,53 7,29 8,01 8,70 9,36 2 32,9 42,7 53,1 64,2 75,8 87,7 3 189 279 387 515 659 821 Table 4.2: Facteurs d accélération de Peck pour plusieurs valeurs de η = 1 mois, n 0 = 6, ρ = 1/130, HR ref = 0, 3%, HR max = 7%). Effet combiné de la température et de l humidité Le modèle de Peck donné par l équation 4.2) suppose que l effet combiné des facteurs d accélération liés à la température et à l humidité est multiplicatif ; les effets des deux covariables que sont la températures et l humidité doivent être indépendants. En réalité, le composant étudié est sujet à un phénomène de condensation qui rend l effet de la température et celui de l humidité dépendants. Lorsqu une chute de température se produit consécutivement à un pic de chaleur, l humidité peut se condenser dans l isolant du composant. Ce phénomène se produit à l échelle de la journée, voire de quelques jours. Certains modèles permettent de rendre compte une telle dépendance voir par exemple Pham 2006, p.406)). Notre modélisation se place à une échelle macroscopique = 1 mois), à laquelle la dépendance entre température et humidité est «diluée». A cette échelle, on peut raisonnablement supposer que les deux covariables agissent de manière indépendante sur la fiabilité et utiliser un facteur d accélération 58

4.1. Situation A AF PI HR ref, HR) 0 50 100 150 200 250 300 η = 1 η = 1.4 η = 1.8 T ref 0.01 0.02 0.03 0.04 0.05 0.06 0.07 Humidité relative HR Figure 4.6: Evolution du facteur d accélération de Peck en fonction de l humidité relative, pour plusieurs valeurs de η = 1 mois, n 0 = 6, ρ = 1/130, HR ref = 0, 3%, HR max = 7%). de Peck : λ d+j = λ 0 exp{e a v d+j + ηw j }, 4.6) ) où v d+j = 1 1 1 k B T d+j T ref ) HRj, w j = log. HR ref La figure 4.7 montre l évolution du taux de défaillance pour plusieurs combinaisons des paramètres λ 0, E a, η). Les valeurs de λ 0 sont choisies de manière à ce que les taux de défaillance associés aux différentes combinaisons de paramètres aient le même ordre de grandeur. Les paramètres E a et η ont chacun un mode d action différent sur le taux de défaillance : E a quantifie le contraste existant entre les saisons alors que η donne la tendance globale. L amplitude des oscillations autour de la tendance est d autant plus importante que E a est élevé. Plus η est élevé, plus le vieillissement lié à la diffusion d humidité est important. On a un taux de défaillance dit en montagnes russes, qui est une conséquence de la saisonnalité observée sur le profil des températures. Ce type de taux de défaillance est bien connu en fiabilité Wong, 1988, 1989, 1991). 4.1.2 Maximum de vraisemblance Estimation Soit d i la date d installation du composant i, X i la variable aléatoire pour sa durée de bon fonctionnement et Y i, δ i ) l observation censurée correspondante, i = 1,..., n. 59

4. Fiabilité sous contraintes d environnement dynamiques Taux de défaillance λ d t) 0e+00 2e 06 4e 06 6e 06 8e 06 λ 0 = 8e 05 E a = 1.5 η = 1 λ 0 = 0.008 E a = 1 η = 2 λ 0 = 0.8 E a = 0.5 η = 3 2000 2001 2002 Date d+t) Figure 4.7: Représentation du taux de défaillance modélisé pour des composants installés simultanément, pour plusieurs combinaisons de λ 0, E a, η. On note λ di ) le taux de défaillance associé à X i : λ di x) = m λ i d i +j 1 [j 1),j [x) + λ i d i +m+1 1 [m,+ [x), j=1 où λ i d i +j désigne la valeur du taux de défaillance du composant i dans l intervalle I d i +j, j = 1,..., d i + m + 1. Les résultats présentés dans le chapitre 2 permettent d exprimer la fonction de fiabilité du composant i, notée R di ), en fonction de et des λ i d i +j. La fonction de vraisemblance issue de l observation de n composants s écrit : Lλ 0, E a, η) = n i=1 λ di y i ) δ i R di y i ). Les dates de défaillance sont approximées par la borne inférieure de l intervalle I j = [j 1), j [ dans lesquels elles surviennent. y i est alors un multiple de : y i = y i, y i = 0,..., m. Dans ces conditions : λ di y i ) = λ i d i +y i +1 R di y i ) = e y i j=1 λi d i +j La fonction de log-vraisemblance s écrit alors : log Lλ 0, E a, η) = n i=1 δ i log λ i d i +y i +1 n i=1 yi j=1 λ i d i +j. Les valeurs λ i d i +j des taux sont données par l équation 4.6). Nous obtenons l expression suivante pour la fonction de vraisemblance : 60 Lλ 0, E a, η) = k log λ 0 + E a n i=1 δ i v di +y i +1 + η n i=1 δ i w y i +1 λ 0 ue a, η), 4.7)

4.1. Situation A avec ue a, η) = On a : n yi i=1 j=1 exp{e a v di +j + ηw j } et k = ue a, η) = E a η ue a, η) = n i=1 n i=1 yi j=1 yi j=1 n δ i. i=1 v di +j exp{e a v di +j + ηw j }, w j exp{e a v di +j + ηw j }. Le maximum de vraisemblance est solution du système 4.8). log Lλ 0, E a, η) = k ue a, η) = 0 λ 0 λ 0 n log Lλ 0, E a, η) = E a δ i v di +yi +1 λ 0 ue a, η) = 0 E a i=1 n η log Lλ 0, E a, η) = δ i w y i +1 λ 0 η ue a, η) = 0 i=1 Ce système n admet pas de solution explicite, nous avons donc recours à une méthode numérique. La première équation permet d exprimer λ 0 en fonction de E a et de η : k λ 0 = 4.9) ue a, η) En injectant cette expression dans les deux autres équations du système 4.8), on obtient un système à deux équations dont Ê a et ˆη sont les solutions. Nous utilisons un algorithme de Newton-Raphson à deux dimensions pour résoudre ce système. Cet algorithme calcule itérativement les valeurs des paramètres E a et η, notées E a l), η l) pour l itération l. Nous prendrons pour critère d arrêt : E l) a, η l)) E l+1) a, η l+1)) < 10 18. 4.8) Nous estimons λ 0 en remplaçant dans l équation 4.9) E a et η par leurs estimations respectives Ê a et ˆη, obtenues par l algorithme de Newton-Raphson. Intervalles de confiance asymptotiques Les intervalles de confiance asymptotiques à 95% pour les trois paramètres du modèle sont donnés par λˆ 0 ±1, 96 I ˆλ 0, Ê a, ˆη) 11 1 Ê a ±1, 96 I ˆλ 0, Ê a, ˆη) 22 1 ˆη±1, 96 I ˆλ 0, Ê a, ˆη) 33 1 où la matrice d information de Fisher est approchée par : k/ ˆλ 2 0 E a uê a, ˆη) η uê a, ˆη) I ˆλ 0, Ê a, ˆη) = E a uê a, ˆη) ˆλ 2 0 uê Ea 2 a, ˆη) ˆλ 2 0 E a η uê a, ˆη). η uê a, ˆη) ˆλ 2 0 η E a uê a, ˆη) ˆλ 2 0 uê η 2 a, ˆη) 61

4. Fiabilité sous contraintes d environnement dynamiques 4.1.3 Application sur des données simulées Les propriétés de l estimateur du maximum de vraisemblance sont évaluées à partir de données simulées. A paramètres λ 0, E a, η fixés, les valeurs successives prises par le taux de défaillance d un composant installé à la date d sont obtenues en utilisant l équation 4.6). Il est alors possible de simuler des réalisations de sa durée de bon fonctionnement sous l hypothèse du taux de défaillance constant par morceaux 4.1). Il suffit en effet de simuler des variables aléatoires Z j de loi Eλ d+j ) pour j = 1, 2,..., jusqu à ce qu une valeur simulée soit inférieure à. Si cette valeur est atteinte pour j = k avec k m d, alors le composant n a pas survécu au k ème intervalle succédant à son installation et sa durée de bon fonctionnement vaut k 1) + z k. Sinon, si aucun des m d + 1 tirages de Z j n a une valeur inférieure à, cela signifie que le composant est toujours en service au terme de la période d observation. Une durée de bon fonctionnement censurée de m d) est alors simulée figure 4.1). Cas d étude sur trois ans Des données sont simulées pour période d observation de trois ans. Nous supposons que la température est donnée par la sinusoïde représentée en figure 4.3. Les valeurs mensuelles pour la température atteignent ainsi 2,82 degrés en janvier et 21,03 degrés en juillet ; elles oscillent autour d une valeur moyenne T ref = 11, 93 degrés Celcius. Il s agit d un profil de température réaliste pour une zone tempérée. L humidité est supposée rester à son niveau initial HR ref = 0, 3% pendant 6 mois, puis évolue suivant les lois de diffusion de Fick suivant la courbe représentée sur la figure 4.5. Nous faisons l hypothèse que 10, 15, 25 composants sont installés chaque année, à des mois déterminés aléatoirement. Nous fixons la valeur de λ 0 de manière à ce que des pannes soient susceptibles d être simulées pendant la période d observation. Nous optons pour λ 0 = 0, 08 mois 1, qui correspond à un MTTF de un an dans des conditions environnementales de référence, c est-à-dire sous la température T ref et sous l humidité relative HR ref. Une simulation à partir des paramètres fixés à λ 0 = 0, 08 mois 1, E a = 1, 5eV, η = 1 est représentée de différentes manières sur la figure 4.8. La représentation des nombres mensuels de pannes montre que le caractère saisonnier des pannes dû à l effet de la température peut être reproduit par notre modèle. Six combinaisons des paramètres E a et η sont testées, chacune reflétant un équilibre différent entre l effet de la température et celui de la diffusion d humidité sur la fiabilité table 4.3). Des simulations issues de chacun de ces six modèles sont synthétisées dans la table 4.4. E a 0,88 0,05 0,1 2,1 1,17 1,83 η 1,23 1,79 2,56 2,95 3,35 3,47 Table 4.3: Cas d étude sur trois ans : paramètres utilisés pour générer les échantillons. 62

4.1. Situation A Début de l étude Fin de l étude 0 1 2 12 24 36 mois T 1 T 2 T 3 T 13 T 25 température 5 4 Nombre de pannes 3 2 1 0 0 1 2 3 Temps depuis le début de l'étude années) Installation 0 1 2 12 24 36 mois HR 1 HR 13 HR 25 installation panne humidité relative Figure 4.8: Représentation des pannes au cours du temps et des durées de bon fonctionnement correspondantes =1 mois, λ 0 = 0, 08 mois 1 63, E a = 1, 5eV, η = 1, n 0 = 6, ρ = 1/130, HR ref = 0, 3%, HR max = 7%).

4. Fiabilité sous contraintes d environnement dynamiques λ 0 = 0, 08 mois 1, E a = 0, 88 ev, η = 1, 23 Date année) 2000 2001 2002 Total Nombre de pannes 6 8 25 39 2002 14 14 Année d installation 2001 5 10 15 2000 6 3 1 10 0 λ 0 = 0, 08 mois 1, E a = 0, 05 ev, η = 1, 79 1 2 3 Date année) 2000 2001 2002 Total Years since the beginning of the observation Nombre de pannes 6 12 14 32 2002 7 7 Année d installation 2001 9 6 15 2000 6 3 1 10 0 λ 0 = 0, 08 mois 1, E a = 0, 1 ev, η = 2, 56 1 2 3 Date année) 2000 2001 2002 Total Years since the beginning of the observation Nombre de pannes 4 13 17 34 2002 9 9 Année d installation 2001 7 8 15 2000 4 6 0 10 0 λ 0 = 0, 08 mois 1, E a = 2, 1 ev, η = 2, 95 1 2 3 Date année) 2000 2001 2002 Total Years since the beginning of the observation Nombre de pannes 5 15 19 39 2002 14 14 Année d installation 2001 10 5 15 2000 5 5 0 10 0 λ 0 = 0, 08 mois 1, E a = 1, 17 ev, η = 3, 35 1 2 3 Date année) 2000 2001 2002 Total Years since the beginning of the observation Nombre de pannes 7 11 22 40 2002 15 15 Année d installation 2001 8 7 15 2000 7 3 0 10 0 λ 0 = 0, 08 mois 1, E a = 1, 83 ev, η = 3, 47 1 2 3 Date année) 2000 2001 2002 Total Years since the beginning of the observation Nombre de pannes 7 11 22 40 2002 15 15 Année d installation 2001 8 7 15 2000 7 3 0 10 1 2 3 mois depuis le début de l étude 0 Years since the beginning of the observation Table 4.4: Représentation d un jeu de données simulé pour chaque combinaison de paramètres, avec =1 mois, n 0 = 6, ρ = 1/130, HR ref = 0, 3% et HR max = 7%. 0 1 2 3 4 5 6 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 1 2 3 4 5 6 0 2 4 6 8 10 0 1 2 3 4 5 6 0 1 2 3 4 5 6 Pour chaque combinaison de paramètres proposée dans la table 4.3, 500 échantillons de durées de bon fonctionnement sont simulés. Les 500 estimations obtenues en appliquant la méthode d estimation sur chaque échantillon permettent d estimer le biais et l erreur quadratique moyenne. Les résultats, présentés dans la table 4.5, montrent que les paramètres du modèle sont relativement bien estimés, et ce malgré la petite taille des échantillons considérés 50 durées de bon fonctionnement dont une proportion plus ou moins grande peut être censurée, suivant les valeurs de E a et de η). Notons que les estimations ont nécessité cinq à six itérations de l algorithme de Newton-Raphson. 64

4.1. Situation A Exact Moyenne Biais EQM Exact Moyenne Biais EQM λ 0 0,08 0,08378 0,00378 0,00046 0,08 0,08652 0,00652 0,00032 E a 0,88 0,90365 0,02365 0,05653 0,05 0,19523 0,14523 0,04766 η 1,23 1,02521 0,20479 0,30846 1,79 1,56142 0,22858 0,33988 λ 0 0,08 0,08737 0,00737 0,00039 0,08 0,08866 0,00866 0,00075 E a 0,1 0,22461 0,12461 0,04501 2,1 1,68384 0,41616 0,25014 η 2,56 2,34348 0,21652 0,39207 2,95 2,57029 0,37971 1,81504 λ 0 0,08 0,09250 0,01250 0,00061 0,88 0,09260 0,01260 0,00077 E a 1,17 1,08988 0,08012 0,05193 1,83 1,52107 0,30893 0,16340 η 3,35 2,88426 0,46574 0,92119 3,47 2,91897 0,55103 1,61020 Table 4.5: Cas d étude sur trois ans : moyennes des estimateurs du maximum de vraisemblance, biais et EQM estimés à partir de 500 simulations pour chaque combinaison des paramètres. Cas d étude sur dix ans Dans ce paragraphe, nous simulons des données les plus proches possibles du retour d expérience que pourrait fournir l entreprise. La température considérée est identique à celle de l étude sur trois ans figure 4.3). En revanche, nous supposons que le profil d humidité est donné par l équation 4.5) avec = 1 mois, n 0 = 36, ρ = 1/130, HR ref = 0, 3% et HR max = 7%. Nous simulons des données correspondant à dix années d observation, en considérant que cinq composants sont installés chaque mois pendant cette période. Le nombre de composants suivis s élève donc à 600. Nous souhaitons tester la robustesse de notre méthode face à des données fortement censurées. Aussi, nous optons pour un MTTF hors conditions environnementales de 200 ans, ce qui équivaut à λ 0 = 0, 000417 mois 1. Nous fixons les autres paramètres à E a = 0.682 ev et η = 1.775. La table 4.6 synthétise les résultats d une simulation issue de ce modèle. La répartition des pannes dans le temps est représentée sur la figure 4.9. Les estimateurs du maximum de vraisemblance sont calculés sur cet échantillon, ainsi que les intervalles de confiance asymptotiques à 95% correspondants table 4.7). Nombre de pannes 0 2 4 6 8 10 0 1 2 3 4 5 6 7 8 9 Temps depuis le début de l'étude années) Figure 4.9: Distribution des pannes pour le cas d étude sur 10 ans. 65

4. Fiabilité sous contraintes d environnement dynamiques Date année) 1 2 3 4 5 6 7 8 9 10 Nombre de pannes 0 1 0 1 2 10 16 25 32 41 128 10 0 0 9 0 0 0 8 0 1 0 1 7 1 0 1 2 4 Année 6 1 1 1 0 2 5 d installation 5 0 0 0 1 5 7 13 4 0 0 1 2 2 3 4 12 3 0 0 0 1 2 6 6 11 26 2 1 0 0 0 3 3 7 10 5 29 1 0 0 0 1 2 4 7 8 6 10 38 Table 4.6: Cas d étude sur dix ans : nombres annuels de pannes suivant les années d installation =1 mois, n 0 = 36, ρ = 1/130, HR ref = 0, 3%, HR max = 7%). Exact EMV IC 0,95 λ 0 0,000417 0,000513 [0,000206 ; 0,000820] E a 0,682 0,607 [0,327 ; 0,888] η 1,775 1,586 [1,301 ; 1,871] Table 4.7: Estimateurs du maximum de vraisemblance EMV) et intervalles de confiance à 95% associés IC 0,95 ) pour le cas d étude sur dix ans. Des estimations sont également menées sur 100 échantillons simulés à partir du même modèle. Nous sommes alors en mesure d estimer le biais et l erreur quadratique moyenne. Les résultats sont présentés dans la table 4.8. Nous observons un biais relativement faible, malgré la proportion très importante de données censurées. Exact Moyenne Biais EQM λ 0 0,000417 0,0004109 0,0000061 9, 46.10 9 E a 0,682 0,6140822 0,06791783 1, 45.10 2 η 1,775 1,821742 0,0467424 2, 17.10 2 Table 4.8: Cas d étude sur dix ans : moyennes des estimateurs du maximum de vraisemblance, biais et erreurs quadratiques moyennes EQM) obtenus à partir de 100 simulations λ 0 = 0, 000417 mois 1, E a = 0.682 ev, η = 1.775). 4.1.4 Application sur des données de terrain Un parc de n = 13 006 composants est suivi pendant 31 mois. Parmi eux, k = 263 ont été défaillants durant la période d observation figure 4.10). Ce retour d expérience fournit des données fortement censurées avec près de 98% des composants toujours actifs à la fin de la période d observation. Les dires d expert permettent de fixer n 0 = 36, HR ref = 0, 3% et HR max = 7%. Par ailleurs, la médiane des durées de bon fonctionnement est de 227 mois. Nous sommes en mesure d ajuster la courbe d évolution de l humidité donnée par l équation 4.5). ρ vaut alors 0, 0150. Les températures utilisées sont celles enregistrées par une station 66

4.1. Situation A météorologique située à proximité des composants étudiés Klein & Coauthors, 2002). 30 Nombre de pannes 20 10 0 2007 07 2008 01 2008 07 2009 01 2009 07 Figure 4.10: Répartition des pannes pendant l étude. L algorithme de Newton-Raphson est initialisé avec λ 0 = 0, 02 mois 1, E a = 1 ev et η = 2. Il donne en cinq itérations les estimations présentées dans la table 4.9. Avec ces valeurs, le coefficient de Peck vaut environ 60 pour la valeur maximale observée du taux d humidité 3%), alors que le coefficient d Arrhenius est proche de 2,5 pour les températures les plus élevées figure 4.11). Ceci suggère que l effet de la diffusion d humidité à l intérieur du composant est potentiellement plus important que celui de la température. Mais n oublions pas que le taux de défaillance est multiplié par 2,5 lors de chaque été, alors qu il est éventuellement multiplié par 60 une seule fois lors de son existence, lorsque l humidité relative atteint la valeur critique de 3%. Les deux facteurs d accélération ne sont donc pas réellement comparables, en raison de leurs modes d action différents liés aux différentes natures des covariables externe/interne). Remarquons qu au taux de référence estimé ˆλ 0, qui est le taux de défaillance correspondant à la durée de bon fonctionnement sous une température T ref et sous un taux d humidité HR ref à l intérieur du composant, correspond un MTTF très élevé et peu réaliste. Le taux λ 0 est le taux de défaillance associé à une durée de bon fonctionnement virtuelle et inobservable. Aussi, ce paramètre ne peut directement être mis en relation avec les connaissances qu ont les experts sur la durée de bon fonctionnement effective du composant. La figure 4.12 représente le taux de défaillance modélisé pour différentes dates d installation. Les valeurs des taux lors des étés 2003 et 2006, qui furent particulièrement chauds, soulignent l impact de la température sur la fiabilité. EMV IC 0,95 λ 0 3, 1838.10 6 [1, 1923.10 6 ; 5, 1752.10 6 ] E a 0, 5076 [0, 3440; 0, 6711] η 1, 8450 [1, 5339; 2, 1561] Table 4.9: Estimateurs du maximum de vraisemblance du modèle et leurs intervalles de confiance asymptotiques à 95%. 67

4. Fiabilité sous contraintes d environnement dynamiques AF Arrh T ref, T) 0.5 1.0 1.5 2.0 AF PI HR ref, HR) 0 50 100 150 200 250 300 275 280 285 290 295 0.01 0.02 0.03 0.04 0.05 0.06 0.07 Température T Kelvin) Humidité relative HR Figure 4.11: Facteurs d accélération d Arrhenius et de Peck pour le modèle estimé. Taux de défaillance 0e+00 2e 04 4e 04 6e 04 8e 04 Date d'installation janvier 1978 mai 1986 septembre 1995 1978 1980 1982 1984 1986 1988 1990 1992 1994 1996 1998 2000 2002 2004 2006 2008 2010 Date Figure 4.12: Représentation du taux de défaillance modélisé, pour plusieurs dates d installation. 4.2 Situation B Dans cette section, nous nous intéressons à la fiabilité d un composant du réseau électrique sensible aux surtensions dues aux impacts de foudre, dites surtensions atmosphériques. Les résultats que nous présentons ont fait l objet d une communication Guérineau & Gouno, 2013). On peut s intéresser par exemple aux transformateurs de distribution publique HTA/BT de type haut de poteau, dont le rôle est d abaisser le niveau de tension de la moyenne tension HTA) à la basse tension BT) pour une utilisation grand public. Les transformateurs HTA/BT sont constitués de trois paires d enroulements : pour chaque phase, l enroulement HTA est bobiné sur l enroulement BT, ces deux enroulements étant isolés par des couches de papier époxy figure 4.13). Ces trois paires sont reliées par un circuit magnétique et l ensemble est plongé dans un diélectrique liquide huile minérale en général). Plusieurs types de surtensions sont susceptibles d affecter ce composant : surtensions de manœuvre, surtensions à fréquence industrielle et surtensions atmosphériques. L annexe 6.1 décrit de manière synthétique ces différents types de surtension. L exposition des transformateurs HTA/BT en haut des poteaux les rend particulièrement vulnérables aux surtensions atmosphériques. Toutes ces surtensions ne conduisent pas nécessairement au claquage. Cependant, leur accumulation entraîne un affaiblissement de la tenue diélectrique du transformateur : chaque 68

4.2. Situation B surtension peut potentiellement déplacer les enroulements et ainsi diminuer la distance d isolement entre la HTA et la BT. Par ailleurs, lors de ces déplacements, le papier peut se désagréger entraînant l apparition de particules dans l huile, particules qui vont dégrader les propriétés isolantes de l huile. L accumulation des détériorations dues aux surtensions atmosphériques peut conduire à la défaillance par claquage diélectrique Willis et al., 2001, p.217). Il s agit du mode de défaillance prépondérant des transformateurs, a fortiori des transformateurs haut de poteau. Figure 4.13: Schéma d un transformateur de puissance. 4.2.1 Le modèle Nous faisons l hypothèse que la défaillance du composant est due au claquage diélectrique. Le claquage diélectrique est étudié de manière intensive par des essais accélérés dans le cadre de la qualification des matériels. Le modèle puissance inverse est couramment utilisé pour exploiter les résultats issus de ce type d essai, qui consiste à accélérer le vieillissement par élévation de la tension voir section 3.2.2). Le niveau de tension appliqué au composant est alors maîtrisé. Les surtensions atmosphériques subies par le composant en usage sont de nature très intense et très brève. Cet environnement peut être représenté par une covariable de nature impulsionnelle, composée d une constante V ref, tension nominale du composant, à laquelle se superposent des diracs apparaissant lors de chaque coup de foudre ayant affecté le composant figure 4.14 a)). Les chroniques de surtensions sont connues au travers des couples {τ j, V j ), j = 1, 2,...} où τ j désigne la date du jème impact et V j la surtension électrique associée en volt. Nous supposons que la baisse de tenue diélectrique provoquée par ces surtensions constitue la seule cause de vieillissement du composant. La durée de bon fonctionnement X du composant est alors modélisée par un taux de défaillance constant par morceaux, avec un saut lors de chaque pic de surtension : λx) = m+1 λ j 1 [τj 1 ;τ j [ x), 4.10) j=1 69

4. Fiabilité sous contraintes d environnement dynamiques Vx) V 3 V 1 V 2 V ref τ 0 = 0 τ 1 τ 2 τ 3 a) λx) x λ 8 λ 7 λ 6 5 λ 4 λ 3 λ 2 λ 1 τ 0 = 0 τ 1 τ 2 τ 3 b) x Figure 4.14: a) Schéma pour la surtension V ) vue par le composant. b) Représentation du taux de défaillance constant par morceaux constant entre deux chocs successifs. où m est le nombre de surtensions ayant affecté le composant, τ 0 = 0 et τ m+1 = +. Cette forme du taux de défaillance, définie à partir d une chronique de surtensions, 70

4.2. Situation B est illustrée en figure 4.14 b). Nous supposons par ailleurs que les valeurs successives prises par le taux de défaillance sont liées entre elles par la relation : ) η Vj λ j+1 = λ j, j = 1,..., m. 4.11) V ref Ceci revient à considèrer que l impact de chaque coup de foudre sur le vieillissement peut être quantifié par un modèle puissance inverse. Cette expression récursive permet d intégrer l effet cumulatif des surtensions atmosphériques vues par le composant au cours de son existence. Le taux de défaillance dans l intervalle [τ j 1, τ j [ peut en effet s écrire en fonction de toutes les surtensions subies jusqu à la date τ j 1 : λ j = λ 1 j 1 l=1 Vl V ref ) η, j = 2,..., m + 1. 4.12) Les paramètres λ 1 et η sont inconnus. Ils constituent des paramètres de première importance dans la connaissance de la fiabilité face aux surtensions atmosphériques. λ 1 est le taux de défaillance hors foudroiement et η synthétise l information sur la sensibilité au foudroiement. L estimation de ces paramètres par la méthode du maximum de vraisemblance est présentée dans la section 4.2.2. 4.2.2 Maximum de vraisemblance Les paramètres λ 1 et η sont estimés à partir de données issues du terrain : le retour d expérience fournit un échantillon censuré Y i, δ i ) 1 i n de durées de bon fonctionnement. Les surtensions subies par les n composants de l échantillon au cours de leur existence sont connues. ) Pour chaque composant i, on dispose des m i dates ) d impacts τ1 i,..., τi mi et des niveaux des surtensions associés V1 i,..., Vi mi, en volt. La nature des chroniques de surtensions est illustrée en figure 4.14 a). Nous supposons que les durées de bon fonctionnement des n composants observés sont issues du modèle décrit dans la section précédente. Chacun des composants évolue dans un environnement qui lui est propre, représenté par une covariable V i ) de nature impulsionnelle. Pour le composant i, les intervalles I i j = [τ i j 1, τi j [, j = 1,..., m i + 1 forment une partition de R + τ0 i = 0, τi m i +1 = + ). La valeur du taux de défaillance est supposée constante à l intérieur de chaque intervalle de cette partition, et paramétrée par 4.12) : λ i x) = m i +1 η λ i j 1 [τj 1 i j=1 ;τi[x) et λi j = λ 1 θj) i, i = 1,..., n, j où θ i j = j 1 l=1 Vi l /V ref) pour j = 1,..., m i + 1. Estimation La fonction de fiabilité pour le composant i s écrit : R i x) = { m i +1 exp j=1 λ 1 j 1 l=1 ) η ) ) η θl i τl i τi l 1 + θ i j x τj 1) )} i 1 [τ i j 1,τi[x). j 71

4. Fiabilité sous contraintes d environnement dynamiques Soit yi le numéro de l intervalle Iy i i dans lequel de réalise Y i. Alors λ i y i ) = λ y i = ) η λ 1 θy i i et : y R i y i ) = exp λ i 1 ) η ) ) η ) 1 θl i τl i τi l 1 + θy y i i i τy i i 1. l=1 La vraisemblance associée au n échantillon censuré des durées de bon fonctionnement s écrit donc : n ) η ) Lλ 1, η) = λ 1 θy i δi y i exp λ i 1 ) η ) ) η ) 1 θl i τl i τi l 1 + θy y i i i τy i i 1. i=1 l=1 On en déduit l expression de la log-vraisemblance : log Lλ 0, η) = k log λ 1 + η n i=1 δ i log θ i y i λ 1 uη), 4.13) où k est le nombre de composants dont on a observé une défaillance et où : yi 1 ) η ) ) η ) uη) = θ i j τj i τi j 1 + θy y i i i τy i i 1. n i=1 j=1 On en déduit les équations de vraisemblance : où : u η) = n i=1 yi 1 j=0 k uη) λ 1 n = 0 δ i log θy i i λ 1 u η) = 0 i=1 ) η ) ) ) η θ i j log θ i j τj i τi j 1 + θy i i log θy i i ) ) y i τy i i 1. 4.14) L algorithme de Newton-Raphson nous permet d estimer η en résolvant l équation suivante : n gη) = δ i log θy i k u η) = 0. 4.15) i uη) i=1 A partir d une valeur d initialisation η 0), cet algorithme calcule itérativement les valeurs η l). Connaissant la valeur η l) du paramètre à l étape l, la valeur η l+1) à l étape suivante est donnée par : où : u η) = n i=1 η l+1) = η l) + yi 1 j=0 uη l) ) 2 ku η l) )uη l) ) u η l) ) 2 ) gηl) ), ) η ) 2 ) ) η θ i j log θ i j τj i τi j 1 + θy i i log θy i i La solution est notée ˆη. On en déduit un estimateur de λ 1 : 72 ˆλ 1 = k u ˆη). ) 2 ) y i τy i i 1.

4.2. Situation B Intervalles de confiance asymptotiques Des intervalles de confiance asymptotiques à 95% pour les deux paramètres du modèle sont donnés par : ˆλ ˆλ 1 ±1, 96 1 u ˆη) ku ˆη)/ ˆλ 1 u ˆη) 2 k/ ˆλ 2 1 ˆη±1, 96 ku ˆη)/ ˆλ 1 u ˆη) 2. 4.2.3 Application sur des données simulées Nous proposons dans cette section une modélisation des chroniques de surtensions {τ 1, V 1 ),..., τ m, V m )}. Des réalisations issues de ce modèle permettront d en déduire des trajectoires du taux de défaillance, pour des paramètres λ 1 et η fixés. Dès lors, nous serons en mesure de simuler des durées de bon fonctionnement sous l effet de surtensions et d étudier les propriétés des estimateurs obtenus. Modélisation des chroniques de surtensions On peut caractériser un épisode orageux par un impact majeur suivi de répliques. Ce phénomène peut être observé sur les chroniques des surtensions observées sur des composants du réseau figure 4.15). Ce constat nous a conduit à nous intéresser à des modèles permettant de représenter l occurrence de répliques. Les recherches en sismologie sont à l origine de nombreux modèles de ce type. Les processus de Hawkes 1971) sont des processus de comptage N t ) t 0 dont l intensité dépend des événements survenus sur le processus : t λ t = µ + gt s)dn s, avec gt) = αe βt. 4.16) 0 Les processus ETAS Epidemic Type Aftershock Sequence) sont des processus plus généraux introduits par Ogata 1988). Leur intensité est fonction, non seulement des occurrences des événements passés, mais également de leurs amplitudes M i : λ t = µ + e γm i M r ) gt t i ), t i <t M r étant une valeur seuil 2 et g, une fonction à définir. Plusieurs formes de la fonction g sont suggérées en sismologie, par exemple : gt) = αe βt, gt) = K t + c) p, gt) = κ a k t k 1 e αt. k=1 Ogata 1998) a défini un processus ETAS spatio-temporel, qui ajoute une dimension spatiale au modèle précédent. 2. Amplitude à partir de laquelle un événement est susceptible de générer des répliques. 73

4. Fiabilité sous contraintes d environnement dynamiques Tension kv) 0 100 200 300 400 0 100 200 300 400 0 1 2 3 4 5 6 0 2 4 6 8 Tension kv) 0 100 200 300 400 0 100 200 300 400 0 2 4 6 8 Temps années) 0 2 4 6 8 Temps années) Figure 4.15: Chroniques des surtensions pour quatre composants, en quatre points géographiques donnés. Nous avons testé l adéquation du processus des dates d impacts 3 { τ j, j 1 } au processus d intensité 4.16) en utilisant l analyse résiduelle suggérée par Ogata 1988). Cette analyse repose sur { le fait que } le processus résiduel, processus de comptage dont les dates de sauts sont Λ τj, j 1, est un processus de Poisson d intensité 1 et ce, quelle que soit la forme de l intensité λ t. Plusieurs procédures permettent d examiner cet ajustement. On peut par { exemple observer } graphiquement l ajustement du nuage des points de coordonnées ˆΛ τj, j), j 1 à la première bissectrice. On peut également tester l adéquation des variables Λ τj Λ τj 1 à une loi exponentielle de paramètre 1 ou de manière équivalente, l adéquation des variables 1 e Λ τ j Λ τj 1 ) à une loi uniforme sur [0, 1], j = 1, 2... La dernière { option est choisie. Pour cela, ) nous examinons l ajustement des points de coordonnées F j m ), 1 e ˆΛ τj ˆΛ τj 1 ) }, j = 1,..., m 3. Processus de comptage dont les dates de saut sont les dates d impact dates d occurrence des surtensions). 74

4.2. Situation B à la première bissectrice, m étant le nombre d événements, F la fonction de répartition d une loi uniforme et ˆΛ τj, des estimations de Λ τj obtenues en deux étapes : 1. Calcul des estimateurs du maximum de vraisemblance ˆµ, ˆβ, ˆα des paramètres µ, β, α du processus de Hawkes par un algorithme de Newton-Raphson Ozaki, 1979) ; 2. Approximation de Λ τj par : ˆΛ τj = ˆµτ j ˆαˆβ j k=2 k 1 i=1 e ˆβτ k τ i ) e ˆβτ k 1 τ i ) ), j = 0,..., m. La figure 4.16 suggère que les quatre chroniques représentées sur la figure 4.15 sont régies par un processus de Hawkes. L adéquation avec le processus de Hawkes est confirmée par des tests de Kolmogorov-Smirnov p values associées aux quatre chroniques, de gauche à droite et de haut en bas : 0,54, 0,06, 0,33, 0,50). Les tests d ajustement graphiques réalisés sur les autres chroniques sont semblables et conduisent à ne pas rejeter l hypothèse selon laquelle les dates d impacts suivent un processus de Hawkes. A l intérieur des intervalles [τ j 1, τ j [, les valeurs du taux de défaillance sont définies à partir des amplitudes successives des surtensions { V j, j 1 } par l équation 4.12). Pour connaître la forme du taux de défaillance, il nous faut également pouvoir simuler des chroniques de surtensions { V j, j 1 }. Pour les quatre chroniques représentées sur la figure 4.15, des tests de Kolmogorov-Smirnov ne rejettent pas l hypothèse d une distribution exponentielle 4 ni celle d une distribution log-normale des amplitudes des surtensions p values : 0,08, 0,18, 0,22, 0,32 pour le test d ajustement à la loi exponentielle ; 0,25, 0,26, 0,22 et 0,08 pour le test d ajustement à la loi log-normale). Cependant, sur l ensemble des chroniques dont nous disposons, l hypothèse d une loi exponentielle est plus fréquemment rejetée que celle d une distribution log-normale. Ces considérations nous conduisent à utiliser le processus de Hawkes comme générateur des occurrences des surtensions { τ j, j 1 } et une loi log-normale comme générateur des amplitudes { V j, j 1 } associées. Ces deux chroniques sont simulées indépendamment l une de l autre. Etant donnés une chronique { τ j, V j ), j 1 } et des paramètres λ 1 et η, le taux de défaillance 4.10) est connu. Nous sommes alors en mesure de simuler des durées de bon fonctionnement suivant la procédure décrite en section 4.1.3. L estimation { des paramètres } d un processus de Hawkes pour chacune des 927 chroniques τj i, j = 1..., m i présentant un minimum de n = 4 impacts conduit à des échantillons de 927 estimateurs ˆµ, ˆβ et ˆα. L ajustement d une loi continue normale ou log-normale) à chacun de ces échantillons permet de calibrer les valeurs de µ, β et α utilisées pour la simulation du processus des dates d impacts figure { 4.17). De même, } l ajustement d une loi log-normale sur chacune de 927 chroniques Vj i, j = 1,..., m i fournit 927 estimations des paramètres de cette loi. La figure 4.18 représente les distributions de ces paramètres et leurs modélisations par des lois log-normales. { Cette } caractérisation nous est utile pour simuler des chroniques de surtensions Vj i, j 1 qui soient les plus réalistes possibles. 4. Distribution exponentielle décalée : on teste en fait l ajustement des échantillons { Vj V ref, j = 1,..., m } à une loi exponentielle. 75

4. Fiabilité sous contraintes d environnement dynamiques 1 e Λ^ τi Λ^ τi 1) 1 e Λ^ τi Λ^ τi 1) 0.0 0.2 0.4 0.6 0.8 1.0 0 0.2 0.4 0.6 0.8 1 0.0 0.2 0.4 0.6 0.8 1.0 0 0.2 0.4 0.6 0.8 1 Fi m) Fi m) Figure 4.16: Ajustement à un processus de Hawkes des chroniques représentées en figure 4.15. Densité 0 20 40 60 80 100 120 140 N0.012, 0.0031) 0.000 0.001 0.002 0.003 0.004 0.005 logn5.17, 0.65) 0.000 0.002 0.004 0.006 0.008 logn4.38, 0.7) 0.005 0.010 0.015 0.020 0.025 0.030 µ^ 0 200 400 600 800 1000 1200 β^ 0 200 400 600 Figure 4.17: Répartition des estimations ˆµ, ˆβ, ˆα obtenues à partir de 927 chroniques d impacts : histogrammes et densités de probabilité ajustées. α^ 76

4.2. Situation B Densité 0.000 0.005 0.010 0.015 0.020 N69.9, 18.5) 0.000 0.005 0.010 0.015 N60.7, 27.9) 20 40 60 80 100 120 140 160 0 50 100 150 200 250 γ^ Figure 4.18: Répartition des estimations des paramètres γ et σ de la loi log-normale obtenues à partir de 927 chroniques de surtensions amplitudes) : histogramme et densités de probabilité ajustées. σ^ Estimation sur des données simulées La particularité du retour d expérience dont on dispose est qu il fournit des données fortement censurées. Nous simulons des données qui présentent cette caractéristique. Nous simulons les durées de bon fonctionnement de 500 composants, avec des censures lorsque celles-ci sont supérieures à 10 ans. Le MTTF hors contraintes environnementales est fixé à 40 ans, ce qui nous amène à fixer λ 1 = 6, 8.10 5. Plusieurs valeurs du paramètre η sont envisagées : η = 2, 10 2, η = 1, 30 3. Nous simulons des chroniques de surtensions à l aide du modèle établi dans le paragraphe précédent modèle de Hawkes pour les chroniques d impact ; modèle exponentiel pour les amplitudes associées), avec des paramètres µ, α, β tirés aléatoirement suivant les lois que nous avons ajustées figures 4.17 et 4.18). A λ 1 et η fixés, connaissant des chroniques de surtensions, il est alors possible de simuler un certain nombre d échantillons de n = 50 durées de bon fonctionnement avec censure). La procédure décrite en section 4.2.2 est utilisée pour calculer les estimateurs du maximum de vraisemblance ˆλ 1 et ˆη sur chacun de ces échantillons. Le biais et l erreur quadratique moyenne sont présentés dans la table 4.5. Ceux-ci sont faibles, quelque soit la combinaison de paramètres utilisée. La première combinaison de paramètres λ 1 = 6, 8.10 5, η = 2, 10 2 ) génère en moyenne 1% de durées censurées, contre 33% en moyenne pour la seconde combinaison λ 1 = 6, 8.10 5, η = 1, 30 3 ). L estimation semble donc plutôt robuste au phénomène de censure. Exact Moyenne Biais EQM λ 1 6, 8.10 5 6, 63.10 5 1, 66.10 6 1, 88.10 7 η 2.10 2 2, 07.10 2 7, 4.10 4 9, 35.10 3 λ 1 6, 8.10 5 7, 08.10 5 2, 85.10 6 2, 30.10 7 η 1, 30 3 1, 06.10 3 2, 35.10 4 9, 10.10 3 Table 4.10: Moyennes des estimateurs du maximum de vraisemblance, biais et EQM obtenus à partir de 500 simulations pour chaque combinaison des paramètres. 77

4. Fiabilité sous contraintes d environnement dynamiques 4.2.4 Application sur des données de terrain Nous disposons pour une région française : du retour d expérience sur 6163 composants sensibles aux surtensions atmosphériques ; des chroniques de foudre sur la période 2002 2010. Ces données sont fournies par Météorage 5. Leur forme est précisée dans la table 4.11. Date Heure Latitude Longitude Intensité ka) 15/03/2002 01 : 28 : 44 1940817,93 745366,37 13,1 15/03/2002 04 : 11 : 19 1928186,96 736686,84-22,1 15/03/2002 04 : 29 : 01 1945957,49 736005,14 11,9. Table 4.11: Données Météorage : informations enregistrées sur les impacts de foudre entre 2002 et 2010. Le modèle de fiabilité est défini connaissant les chroniques de surtensions. Aussi, seuls les composants dont le profil des surtensions est connu depuis la date d installation peuvent être intégrés à l étude. L échantillon des durées de bon fonctionnement est restreint aux composants installés après 2002 en raison de l indisponibilité des données de foudre avant cette date. La table 4.12 détaille la composition de l échantillon avant et après cette sélection. Notre étude repose finalement sur l observation de 969 durées de bon fonctionnement, dont 8 sont observées et 961 sont censurées. Effectif Effectif avant après sélection sélection Données de panne 61 8 Données de patrimoine 6102 961 TOTAL 6163 969 Table 4.12: Effectifs des durées de bon fonctionnement considérées pour l étude, avant et après sélection des composants installés après 2002. La tension normale aux bornes des composants étudiés est de V ref = 20 kv. Des surtensions surviennent en raison des impacts de foudre qui affectent chacun de ces composants. Tous les impacts de foudre enregistrés pour la région considérée n affectent pas les composants que nous étudions : la foudre peut frapper une zone sans que cela n ait d incidence sur aucun des composants étudiés, si ces composants sont suffisamment éloignés de l impact. Des rapprochements entre les coordonnées géographiques des composants et celles des impacts de foudre nous ont permis de sélectionner dans la table 4.11 les impacts de foudre ayant potentiellement généré des surtensions sur les transformateurs. Nous avons supposé que seuls les impacts de foudre dans un rayon de un kilomètre autour d un transformateur pouvaient affecter ce transformateur. Nous avons ensuite calculé les amplitudes des surtensions par 5. Météorage, société privée filiale de Météo France, est l opérateur du réseau français de détection de la foudre. Le réseau français repose sur un maillage national d une vingtaine de «capteurs foudre», qui détectent les impacts dans un rayon de 600 km autour d eux. On connaît ainsi la localisation, la date et l intensité de chaque impact. 78

4.2. Situation B transformateur, sur la base des considérations physiques décrites dans l annexe 6.1 ; les amplitudes vues par un transformateur s expriment en fonction des intensités des impacts de foudre affecté ce transformateur et à l aide des positions relatives de ces impacts et du réseau électrique. Une description des étapes de ce calcul, qui a nécessité des traitements spatiaux importants, { est présentée dans l annexe } l annexe 6.2. Nous avons ainsi pu obtenir les chroniques τ1 i, Vi 1 ),..., τi m i, Vm i i ) pour chacun des 969 composants de l étude. La fonction de log-vraisemblance 4.13) est représentée sur la figure 4.20. Elle est concave et admet un maximum proche de λ 1 = 2, 2.10 6, η = 2, 2.10 2. L algorithme de Newton-Raphson est initialisé avec η 0 = 2, 2.10 2. Il converge en trois itérations vers la valeur ˆη = 2, 074.10 2. On en déduit ˆλ 1 = 2, 199930.10 6. Les intervalles de confiance asymptotiques de niveau 95% associés à ces estimations sont [2, 199927.10 6 ; 2, 199934.10 6 ] et [2, 053.10 2 ; 2, 095.10 2 ] pour ˆλ 1 et ˆη respectivement. A la valeur estimée ˆλ 1 correspond une espérance de vie hors foudroiement très élevée, qui peut paraître irréaliste. Notre modèle n est peut-être pas adapté à l estimation d une durée de bon fonctionnement qui ferait abstraction des contraintes de nature impulsionnelle. Le modèle permet cependant d obtenir des informations intéressantes concernant l influence des ces contraintes sur la fiabilité d un composant, comme par exemple l évolution du taux de défaillance en fonction des chocs subis par le matériel. Sur la figure 4.19, six courbes montrant cette évolution sont représentées. Nous sommes en mesure de tracer les taux de défaillance pour l ensemble des 969 composants de l échantillon. λx) 0.0e+00 5.0e 06 1.0e 05 1.5e 05 2.0e 05 2.5e 05 Transformateur 1 défaillant) Transformateur 2 défaillant) Transformateur 3 censuré) Transformateur 4 censuré) Transformateur 5 censuré) Transformateur 6 censuré) 0 1 2 3 4 5 6 7 x années) Figure 4.19: Représentation du taux de défaillance modélisé pour six composants. 79

4. Fiabilité sous contraintes d environnement dynamiques 106 108 Log vraisemblance 110 0.035 0.030 eta 0.025 112 0.020 3.0e 06 0.015 2.5e 06 2.0e 06 1.5e 06 lambda0 Figure 4.20: Représentation graphique de la log-vraisemblance. 4.3 Cas général Les différentes situations rencontrées au cours de la thèse nous ont conduit à établir un modèle général permettant de représenter la fiabilité dans un environnement dynamique. 4.3.1 Nature de l environnement L environnement dynamique est connu au travers de p covariables dépendant du temps. Les covariables peuvent être de différentes natures ; elles peuvent correspondre aux différents types de stress décrits par Gaudoin & Soler 1997) : les stress en créneaux, qui correspondent à des variables constantes par morceaux ; les stress ponctuels, qui correspondent à des variables de nature impulsionnelle ; les stress fluctuants, qui correspondent à des variables fluctuantes, de nature bruitée. L évolution de covariables de différentes natures est représentée sur la figure 4.21. 4.3.2 Le modèle On considère le modèle général suivant : m+1 λx;ϕ) = λ 0 e β ϕ j 1 Ij x), 4.17) j=1 où les intervalles I j = [ τ j 1, τ j [, j = 1,..., m + 1, forment une partition τ de R + : R + = m+1 j=1 I j, et où ϕ = ϕ 1,...,ϕ m+1 ) est un ensemble de m + 1 vecteurs de R p qui synthétisent l effet de l environnement sur le composant au cours de chacun des intervalles I j. 80

4.3. Cas général zt) z 2 z 1 z 3 τ 0 τ 1 τ 2 τ 3 τ 4 zt) a) z 3 z 1 z 2 τ 0 τ 1 τ 2 τ 3 t zt) b) τ 1 τ 2 τ 3 c) Figure 4.21: Partition τ choisie selon la nature de la covariable : a) covariable en créneaux b) covariable ponctuelle c) covariable fluctuante. Suivant la nature de l environnement considéré, les τ j peuvent eux-même être de na- 81

4. Fiabilité sous contraintes d environnement dynamiques ture aléatoire. Le modèle est alors défini conditionnemment aux réalisations de ces variables. Dans les paragraphes suivants, nous décrivons la manière dont sont fixés les intervalles I j et les vecteurs ϕ j, j = 1,..., m + 1. La partition τ est choisie au regard de l environnement dynamique considéré. Les intervalles I j = [ τ j 1, τ j [ sont fixés de telle sorte qu on puisse considérer un environnement statique entre τ j 1 et τ j, j = 1,..., m + 1. On notera alors z j = z 1) j,..., z p) ) j le vecteur de p covariables associé à l intervalle I j. Le cas où l environnement est décrit par une covariable en créneaux conduit naturellement à choisir pour τ j les dates qui délimitent les périodes durant lesquelles l intensité de la covariable est constante. Lorsque l environnement est décrit par une covariable ponctuelle, les τ j sont associés aux dates des impulsions. Enfin, lorsque l environnement est décrit par une covariable fluctuante, les τ j sont choisis de telle façon que l on puisse raisonnablement approximer la covariable par une constante au sein des intervalles qu ils délimitent. On peut par exemple choisir une partition en intervalles de mêmes longueurs, suffisamment petites. La figure 4.21 représente des partitions associées à différents types de covariables. Dans le cas d un vecteur de covariables multidimensionnel, la partition τ est obtenue par combinaison des partitions émanant de chacune des p covariables. Exemples : Dans le cadre des essais en step-stress étudiés par Gouno 2007), l environnement dynamique est connu au travers de la température. Les τ j sont les dates auxquelles on augmente ou on diminue la contrainte de température appliquée dans l essai. Dans la situation A, la durée de bon fonctionnement des composants est affectée par la température externe et par l humidité interne, qui constituent des covariables fluctuantes. Nous considérerons des intervalles I j de longueur un mois. Des valeurs mensuelles des covariables sont alors utilisées. Dans la situation B, les surtensions atmosphériques constituent l environnement dynamique. La covariable considérée est donc de nature ponctuelle. Les dates des surtensions défininissent la partition τ du modèle. L équation 4.17) définit un taux de défaillance constant au sein des intervalles I j de la partition τ. Le modèle s appuie donc sur une distribution exponentielle par morceaux des durées de bon fonctionnement. Il suppose en outre une relation paramétrique entre la valeur λ j du taux de défaillance dans l intervalle I j et les conditions environnementales, incorporées au travers du vecteur ϕ j R p : λ j = λ 0 e β ϕ j, j = 1,..., m + 1. Le vecteur ϕ j permet d exprimer la dépendance du taux de défaillance λ j aux conditions environnementales passées z 1,..., z j. En cela, le modèle proposé permet d introduire un effet cumulatif des covariables sur la fiabilité. Certains auteurs parlent de mémoire du stress Gaudoin & Soler, 1997). Lorsque le composant n est sensible qu à l environnement qu il subit de manière instantanée, on considère que ϕ j ne dépend que du vecteur de covariables z j. Suivant les covariables considérées, les paramétrisations introduites dans le chapitre 3 peuvent être utilisées pour définir ϕ j en fonction de z j. 82

4.3. Cas général Par exemple : 1. Modèle d Arrhenius z j désigne la valeur de la température dans l intervalle I j. On prendra alors : ) ϕ j = 1 1 1 et β = E a. k B z 0 z j 2. Modèle puissance inverse : z j correspond à la valeur d une covariable dans l intervalle I j tension, pression, humidité... ). On prendra alors : ) zj ϕ j = log et β = η. z 0 3. Modèle de ) Peck : Tj z j =, où T j et V j sont respectivement les valeurs de la température et d une V j covariable quelconque dans l intervalle I j. On prendra alors : ) 1 1T0 ϕ j = k B T 1 ) j Vj ) Ea et β =. log η V 0 Plus généralement, on pourra définir n importe relation entre ϕ j et z j telle que : e β ϕ j = AFz 0, z j ). 4.18) Le paramètre λ 0 du modèle 4.17) représentera alors le taux de défaillance du composant sous le niveau de contrainte z 0. Pour inclure un effet cumulatif de l environnement dynamique, on exprime le vecteur ϕ j en fonction des valeurs z 1,..., z j des covariables depuis l installation du composant. Nous pouvons également nous inspirer des facteurs d accélération présentés dans le chapitre 3 : 1. Modèle d Arrhenius ϕ j = 2. Modèle puissance inverse : 3. Modèle de Peck : ϕ j = j l=1 ϕ j = 1 k B 1 j log l=1 z 0 1 z l zl z 0 ) ) j 1 1T0 l=1 k B T 1 l j l=1 log Vl V 0 ) ) et β = E a. et β = η. et β = Ea η Lorsqu il existe un effet de mémoire du composant aux conditions environnementales subies, le terme ϕ j peut être tel que : e β ϕ j = j l=1 AFz 0, z l ). ). 83

4. Fiabilité sous contraintes d environnement dynamiques Dans le modèle ainsi défini, le paramètre λ 0 est une caractéristique intrinsèque du composant. Si ce dernier n était pas affecté par l environnement, autrement dit si l environnement était statique et de valeur z 0, sa durée de bon fonctionnement serait exponentielle de paramètre λ 0. Notre modèle est différent du hazard-based model décrit par Lawless 2002), dont le risque de base est fonction du temps. Le hazard-based model est à rapprocher du modèle de Cox décrit dans la section 3.1.2. Dans ce modèle, la seule raison motivant l utilisation d une distribution exponentielle par morceaux réside dans la modélisation du risque de base. Dans le modèle que nous proposons, la loi exponentielle par morceaux permet de prendre en compte l aspect dynamique de l environnement. Ces deux approches, bien qu associant toutes deux un modèle à taux proportionnels et une distribution exponentielle par morceaux, sont foncièrement différentes. Le hazardbased model est un modèle à taux proportionnels. Le modèle que nous proposons n est un modèle à taux proportionnels que localement, sur chaque intervalle I j. 4.3.3 Inférence statistique Observation Soient X 1,..., X n les durées de bon fonctionnement des n composants étudiés. On note Y i, δ i ) l observation censurée associée à la durée X i voir section 1.2.1). L environnement dynamique dans lequel évolue chaque composant de l échantillon est celui décrit en section 4.3.1. Ainsi, à chaque composant ) i est associée une partition τ0 i = 0 < τi 1 < < τi mi < τ i mi +1 = + τ i = z i 1) j de R +. On connaît la valeur z i j =,..., z i p) ) j prise par la covariable dans chacun des intervalles Ij i = [τj 1 i, τi j [, j = 1,..., m + 1. Vraisemblance On suppose que la durée de bon fonctionnement du composant i est distribuée suivant la loi définie par le taux défaillance 4.17), soit : où λ i = X i PEm i, λ i, τ i ) avec λ i j = λ 0e β ϕ i j, j = 1,..., m i + 1, 4.19) { } λ i j, j = 1,..., m i + 1 est le vecteur des valeurs successives prises par le taux de défaillance au cours des intervalles I i j = [τi j 1, τi j [. Etant donné l observation censurée dont on dispose, la fonction de vraisemblance s écrit : n Lλ) = f i y i ) δ i R i y i ) 1 δ i, i=1 où R i et f i sont la fonction de fiabilité et la densité d une loi PEm i, λ i, τ i ). On note L i j = τi j τi j 1 la longueur des intervalles de la loi exponentielle par morceaux pour X i, j = 1,..., m i. D après le chapitre 2, la vraisemblance associée à l observation s écrit : 84 Lλ) = n i=1 m i +1 λ i δ { } ij j exp λ i j t i,j. j=1

4.3. Cas général avec : δ ij = et t i,j = max = { 1, si le composant i est défaillant dans l intervalle I i j 0, sinon { 0, min { L i j, y i τ i j 1 L i j, si y i τj i x i τj 1 i, si y i Ij i. 0, si y i < τ i j 1 Nous sommes donc dans le cadre du modèle exponentiel par morceaux de Friedman 1982), de log-vraisemblance : log Lλ) = n i=1 }} m i +1 ) δ ij log λ i j λi j t i,j. 4.20) j=1 Dans notre modèle, λ i j = λ 0 e β ϕ i j. Autrement dit, log λ i j est dans le sous-espace vectoriel engendré par 1, ϕ i 1) j {,..., ϕ i p) } j. Dans la situation où les composants ne sont sensibles qu à l environnement qu ils subissent de manière instantanée, c està-dire si ϕ i j ne dépend que du vecteur de covariables zi j, le modèle 4.19) est celui de l exemple 2.1 proposé par Friedman 1982). Le modèle de Friedman est beaucoup plus large. Il comprend les modèles de log-vraisemblance 4.20) pour lesquels la contrainte reliant les paramètres λ i j s exprime par l appartenance de log λi j à un sous-espace vectoriel quelconque, à définir. Il inclut par exemple le modèle décrit par Holford 1976). La log-vraisemblance pour notre modèle s écrit : log Lλ 0, β) = n i=1 Estimateur du maximum de vraisemblance m i +1 ) δ ij log λ 0 + δ ij β ϕ ij λ 0e β ϕ i j t i,j. 4.21) j=1 Les équations de vraisemblance qui découlent de la log-vraisemblance 4.21) sont : log Lλ 0, β) = k λ 0 λ 0 β log Lλ 0, β) = n i=1 n m i +1 i=1 j=1 m i +1 j=1 e β ϕ i j t i,j = 0 ) δ ij ϕ ij λ 0ϕ ij ϕ i eβ j t i,j = 0 4.22) où k est le nombre de défaillances observées durant la période d observation : k = n i=1 δ i. Ce système n admet pas de solution explicite. Nous faisons appel à des méthodes numérique pour estimer β. L estimateur ˆλ 0 du paramètre λ 0 peut alors être calculé grâce à la première équation de vraisemblance. La procédure d estimation est détaillée dans l annexe 6.3. Existence et unicité Théorème 7. Soit Y i, δ i ) 1 i n un échantillon censuré des durées de bon fonctionnement X 1,..., X n, où la loi des X i est donnée par l équation 4.19) pour i = 1,..., n. Soit H λ 0, β) 85

4. Fiabilité sous contraintes d environnement dynamiques la matrice hessienne de la fonction de log-vraisemblance et soit H u β) la matrice hessienne de la fonction u définie dans l annexe 6, soit : H u β) = n i=1 m i +1 ϕ i j ϕi j T e β ϕ i j t i,j. 4.23) j=1 Si, pour tous λ 0 R +, β R p solutions du système 4.22), les conditions suivantes sont vérifiées : pour p > 1, la matrice H u β) est définie positive, det H λ 0, β) est négatif pour p pair, positif pour p impair, alors l estimateur du maximum de vraisemblance ˆλ 0, ˆβ ) de λ 0, β) existe et est unique. Démonstration. La matrice hessienne associée à la log-vraisemblance 4.20) est la matrice de dimension p + 1 qui vaut : 2 H λ 0, β) = λ 2 log Lλ 0, β) 2 λ 0 0 β log Lλ 0, β) 2 log Lλ 0, β) 2 β λ 0 β 2 log Lλ 0, β) ) k/λ 2 = 0 J u β), J u β) λ 0 H u β) où H u β) est la matrice carrée de dimension p donnée par l équation 4.23) et où J u β) est le vecteur de R p donné par : J u β) = n i=1 m i +1 ϕ i ϕ i j eβ j t i,j. j=1 ˆβ) D après le théorème 2.2. de Mäkeläinen & Schmidt 1981), l estimateur ˆλ 0, existe et est unique si H λ 0, β) est définie négative en tout point λ 0, β) solution du système 4.22). La matrice hessienne H λ 0, β) est définie négative si : ses mineurs principaux d ordre 1 sont négatifs, ce qui est évident car k/λ 2 0 0 et les éléments diagonaux de λ 0 H u β), qui s écrivent λ 0 i=1 n m i+1 j=1 ϕ i l) 2 l e β ϕ i j t i,j, sont négatifs pour l = 1,... p, ses mineurs principaux d ordre q sont négatifs pour q impair et positifs pour q pair, avec q = 2,..., p. Autrement dit, la matrice H u β) est définie positive, det H λ 0, β) est négatif pour p pair et positif pour p impair. Dans le cas général, il n apparaît pas de condition simple garantissant les conditions du théorème 7. Toutefois, lorsque l environnement est représenté par une variable de dimension 1, on peut montrer l existence et l unicité de l estimateur du maximum de vraisemblance, sans condition préalable sur les covariables. Corollaire 1. Soit Y i, δ i ) 1 i n un échantillon censuré des durées de bon fonctionnement X 1,..., X n, où les X i sont distribués suivant la loi 4.19), β R. Alors l estimateur du maximum de vraisemblance ˆλ 0, ˆβ ) de λ 0, β) existe et est unique. Démonstration. D après le théorème 7, l estimateur du maximum de vraisemblance existe et est unique si : 86 det H λ 0, β) = kh u β)/λ 0 J u β) 2 0

4.3. Cas général Nous nous plaçons dans l espace des paramètres β solution des équations de vraisemblance. Aussi, on a la relation : k/λ 0 = uβ). L estimateur existe et est unique si l inégalité suivante est vérifiée : n i=1 ) m i +1 e β ϕ n i j t i,j j=1 i=1 ) m i +1 ) 2 ϕ i βϕ j e i j t i,j j=1 uβ)h u β) J u β) 2 0 n i=1 ) m i +1 2 ϕ i j eβϕi j t i,j 0. j=1 L inégalité de Cauchy Schwarz, appliquée deux fois successivement, donne : uβ)h u β) n i=1 n i=1 mi +1 j=1 m i +1 j=1 } {{ } J u β) ) mi +1 e βϕi j t i,j ϕj) ) 2 2 i βϕ e i j t i,j j=1 2 ϕ i j eβϕi j t i,j. Intervalles de confiance asymptotiques Le théorème 6 permet de connaître des intervalles de confiance asymptotiques pour les paramètres λ 0 et β : ˆλ 0 ±u 1 α 2 Iλ 0, β) 1 11, ˆβ l 1 ±u 1 α Iλ 2 0, β) 1 ll, l = 2,..., p + 1. où u 1 α 2 est le quantile d ordre 1 α 2 de la loi normale centrée réduite, ˆβl 1 désigne la l 1) ème composante de l estimateur ˆβ et Iλ 0, β) 1 ll, la lème composante diagonale de l inverse de la matrice d information de Fisher : [ ] ) E k/λ 2 Iλ 0, β) = 0 E [J u β)]. E [J u β)] E [λ 0 H u β)] Cette matrice est inconnue. Cependant, le theorème de Slutsky permet de l approximer par I ˆλ 0, ˆβ) = H ˆλ 0, ˆβ). On en déduit des intervalles de confiance asymptotiques pour les paramètres de notre modèle : ˆλ 0 ±u 1 α 2 I ˆλ 0, ˆβ±u 1 α 2 I ˆλ 0, ˆβ) 1 11, ˆβ) 1 ii, l = 2,..., p + 1. 87

CHAPITRE 5 Fiabilité sous contrainte structurelle Afin de répondre au mieux aux dispositifs réglementaires concernant la qualité d alimentation, les gestionnaires de réseau ont tout intérêt à limiter au maximum la durée des coupures. Trois leviers d action sont mobilisables à cet effet : agir sur la fiabilité des composants ; agir sur la structure du réseau ; agir sur la rapidité de réalimentation. Nos recherches portent sur le premier levier. Les études fiabilistes de réseaux font intervenir deux types d approches complémentaires : l approche composant, avec des taux de défaillance par composant. l approche système, avec des taux d occurrence des défaillances pour l ensemble du réseau ; Les chapitres 2, 3 et 4 s inscrivent dans la première approche. La complexité du réseau électrique rend difficile l expression de la fiabilité au niveau système comme fonction explicite de la fiabilité des différents composants qui le composent. Les ponts existant entre la vision système et la vision composant nécessitent des outils particuliers, comme par exemple des techniques de Monte-Carlo ou des BDMP 1. Dans ces approches, le réseau est vu comme un réseau statique : la composition du système est constante au cours du temps. Dans ce chapitre, une approche reliant la vision système et la vision composant est proposée. Bien qu applicable à certains types de réseaux électriques, cette approche est présentée de manière générique. Nous considérons un système évolutif composé de nœuds et de liens, qui présente la particularité d évoluer en fonction des maintenances correctives opérées. La fiabilité du système est alors sous l influence de contraintes structurelles, liées à son état à l instant t. Dans ce contexte, la fiabilité du système est connue dès lors que l état du système est connu. Des processus stochastiques permettent de modéliser conjointement la fiabilité et l évolution du système. L estimation des paramètres de ce modèle est rendue difficile par l incomplétude des données de défaillance : le type de composant à l origine des pannes n est pas observé. 1. Boolean logic Driven Markov Process. 89

5. Fiabilité sous contrainte structurelle Donnet & Rousseau 2013) ont proposé des méthodes d estimation bayésiennes reposant exclusivement sur l observation des dates de défaillances. L originalité de notre approche est de ne s appuyer que sur des informations concernant l état du système. La nature du système étudié est présentée dans la section 5.1. Des processus markoviens de saut et des processus de comptage permettent de décrire l évolution et la fiabilité de ce système. Dans la section 5.2, nous décrivons ces processus en utilisant les notations introduites dans le chapitre 1. Différentes méthodes d estimation sont proposées suivant la nature de l observation. L inférence pour une observation continue est décrite dans la section 5.3. Cette situation renvoie à un problème classique en statistique. En revanche, le schéma d observation discret est rarement abordé pour ce type de processus, comme le soulignent Dehay & Yao 2007). Ces derniers étudient les propriétés de l estimateur du maximum de vraisemblance d un processus markovien de saut dans les situations où l observation est effectuée en des dates équidistantes. Ce schéma d observation est considéré dans la section 5.4. Nous envisageons également la situation où les dates d observation ne sont pas équidistantes. Nous montrons qu un schéma d observation discret conduit à une situation de données manquantes et présentons différentes variations autour de l algorithme EM permettant d estimer les paramètres du modèle. Les résultats relatifs au schéma d observation discret ont fait l objet d une communication Guérineau & Gouno, 2012b). 90

5.1. Description du système 5.1 Description du système Dans ce chapitre, le système étudié est un réseau défini comme un ensemble de nœuds connectés par des liens. Pour assurer la disponibilité du système, celui-ci subit des maintenances correctives. Lorsqu une panne se produit sur un nœud, celui-ci est retiré du système et deux nouveaux nœuds sont introduits. Lorsque celle-ci a lieu sur un lien, η nœuds entrent dans le système η > 1). La figure 5.1 illustre la manière dont les maintenances correctives affectent la composition du système, avec η = 2. Le système que nous étudions est donc évolutif ; son évolution est inhérente aux défaillances qui l affectent. Configuration initiale Défaillance Configuration après réparation 1 1 1 1 1 Figure 5.1: Modifications du système visant à rétablir son état de fonctionnement après une panne. 1 Il sera fait abstraction de la topologie du système, dont on sait seulement qu elle est influencée par les défauts successifs suivant le schéma décrit ci-dessus. Dans cette situation, le nombre de nœuds suffit à caractériser l état du système. Une caractéristique essentielle du système est que plus le nombre de nœuds est élevé, plus le risque qu un nœud soit défaillant est important. Dans la section suivante, nous modélisons son évolution à l aide de la théorie des processus stochastiques, qui permettent d intégrer l aspect probabiliste de l évolution temporelle. Nous utiliserons le formalisme des processus markoviens de sauts et celui des processus de comptage, décrits dans la section 1.2.2. 5.2 Le modèle Le système considéré se compose d un lien et d un certain nombre de nœuds. Ces composants sont supposés indépendants et leurs durées vie, distribuées suivant une loi exponentielle, de paramètre λ pour les nœuds et de paramètre ν pour le lien. 91

5. Fiabilité sous contrainte structurelle En conséquence, l occurrence des pannes sur le système est régie par les probabilités suivantes : la probabilité qu un nœud soit défaillant pendant un intervalle de temps de durée h, sachant que le système se compose de k nœuds au début de cet intervalle, qui vaut kλh + oh), λ > 0 ; la probabilité qu un défaut survienne sur un lien pendant un intervalle de longueur h, qui vaut νh + oh), ν > 0. Ce modèle permet de traduire la connaissance qu on les experts sur le système, selon laquelle le risque qu une panne survienne sur un nœud est d autant plus important que le nombre de nœuds est élevé. On suppose que les défaillances ne peuvent apparaître simultanément sur le système et que les temps de réparation sont nuls. Connaissant l état initial du système, son évolution peut être représentée de manière équivalente par son nombre de nœuds ou par le nombre de pannes de chaque type. Ces deux informations sont modélisées par des processus stochastiques : le processus d intérêt Z t ) t 0 est un processus markovien de sauts qui donne l évolution de l état du système à travers son nombre de nœuds ; le processus sous-jacent compte les pannes en leur associant une marque correspondant à leur type. Il s agit d un processus ponctuel marqué Andersen et al., 1993). Connaître ce processus marqué revient à connaître le processus de comptage bivarié X t, Y t ) t 0, où X t ) t 0 est le processus de comptage des pannes lien et où Y t ) t 0 est le processus de comptage des pannes nœud. Soit k 0 l état initial du processus Z t ) t 0, supposé connu. Le mécanisme d évolution du système décrit en section 5.1 implique la relation suivante entre le processus d intérêt et le processus sous-jacent : Z t = k 0 + ηx t + Y t. 5.1) Par la suite, ces deux processus sont définis et étudiés de manière détaillée. 5.2.1 Processus d intérêt Soit η un entier strictement supérieur à 1, k 0 N et θ = ν, λ) R + R +. Le processus Z t ) t 0 est un processus markovien de sauts à valeurs dans E = {k 0, k 0 + 1, + }, de noyau de transition : λih + oh), si j = i + 1 P h i, j) = νh + oh), si j = i + η 1 ν + λi)h + oh), si j = i L état initial de ce processus est connu presque sûrement : P θ Z 0 = k 0 ) = 1.. 5.2) 92 Les taux de transition Q θ i, j)) i,j) E 2 du générateur infinitésimal sont donnés par : iλ + ν), si j = i iλ, si j = i + 1 Q θ i, j) = ν, si j = i + η 0, sinon..

5.2. Le modèle Par exemple, pour η = 2 on peut représenter le générateur infinitésimal par la matrice : k 0 λ + ν) k 0 λ ν 0... 0 k 0 + 1)λ + ν) k 0 + 1)λ ν 0 Q θ = 0 0 k 0 + 2)λ + ν) k 0 + 2)λ ν.... Le générateur infinitésimal permet notamment d écrire les équations de Chapman- Kolmogorov de la proposition 10. Le noyau de transition est solution de ces équations. Si l espace d états E était fini, on pourrait exprimer cette solution simplement comme une exponentielle de matrice. Dans notre cas, E est dénombrable seulement ; le noyau de transition n admet pas d expression simple. La proposition 10 donne une solution explicite du noyau de transition. La démonstration est proposée en annexe 6.4. Proposition 10. Le noyau de transition du processus d intérêt Z t ) t 0 est solution du système d équations différentielles : P t k 0, k 0 ) = P t k 0, k 0 ) λ 0 + ν) P t k 0, k 0 + 1) = P t k 0, k 0 + 1) λ 1 + ν) + P t k 0, k 0 )λ 0 P t k 0, k 0 + n) = P t k 0, k 0 + n) λ n + ν) + P t k 0, k 0 + n 1)λ n 1 +P t k 0, k 0 + n 2)ν, n = 2, 3, avec λ k = k 0 + k)λ. Les solutions de ce système sont, pour tout n N : P t k 0, k 0 + n) = e νt ν k Ψ n,k) k 0 2k n n j=0 ) Λ n,k) j B j,n e λ jt. 5.3) Avec : B 0,n = B j,n = B n,n = 1 λ 1 λ 0 ) λ n λ 0 ), 1, pour 0 < j < n, λ 0 λ j ) λ j 1 λ j )λ j+1 λ j ) λ n λ j ) 1 λ 0 λ n ) λ n 1 λ n ), Ψ n,k) et Λ n,k) j des vecteurs définis récursivement par : λ n 1 Ψ n 1,k), si k = 0 Ψ n,k) = λn 1 Ψ n 1,k) ) T Ψ n 2,k 1), si 0 < k < n/2 1, si k = n/2, 93

5. Fiabilité sous contrainte structurelle et initialisés par : Λ n,k) j = 1, si k = 0 Λ n 1,k) j, si 0 < k < n/2 λ n 1 λ j )Λ n 2,k 1) j λ n 1 λ j )Λ n 2,k 1) j, si k = n/2 Ψ 0,0) = 1, Λ 0,0) = 1., et avec la convention B 0,0 = 1. Pour décrire les trajectoires du processus Z t ) t 0, nous adoptons les notations de la section 1.2.2, à savoir : S i, la date du i ème saut par convention S 0 = 0) ; U i, le i ème temps de séjour : U i = S i S i 1 ; K i, le i + 1) ème état pris par le processus. Z t ) t 0 est un processus markovien de sauts de générateur infinitésimal Q θ. Le théorème 2 indique que, connaissant K i 1 = k i 1, les temps de séjour U i sont distribués suivant une loi exponentielle : U i K i 1 = k i 1 ) Eqk i 1 )), avec q θ k i 1 ) = Q θ k i 1, k i 1 ) = k i 1 λ + ν. Les temps de séjour résiduels τt) = inf {s > 0 X t+s = X t } sont aussi exponentiels, de paramètre q θ k) = kλ + ν, où k l entier tel que Z t = k. Ceci est une conséquence directe de la propriété de Markov forte. Quand le processus Z t ) t 0 saute d un état k, il entre dans l état k + 1 ou l état k + η, η > 1. La chaîne K des états successifs est régie par les probabilités de transition : kλ, si l = k + 1 Π θ k, l) = kλ + ν ν., si l = k + η kλ + ν Ces probabilités de transition forment la matrice de saut du processus Z t ) t 0. Par exemple, pour η = 2 cette matrice s écrit : Π θ = 0 k 0 λ k 0 λ + ν 0 0 ν k 0 λ + ν k 0 + 1)λ k 0 + 1)λ + ν. 0 0 0... ν k 0 + 1)λ + ν k 0 + 2)λ k 0 + 2)λ + ν 0 ν k 0 + 2)λ + ν... 94

5.2. Le modèle 5.2.2 Processus sous-jacent Les hypothèses émises concernant l occurrence des pannes sur le système reviennent à considérer que le processus X t ) t 0 de comptage des pannes lien est un processus de Poisson homogène de paramètre ν et que le processus Y t ) t 0 de comptage des pannes nœud est un processus de naissance de paramètre λ influencé par le processus X t ) t 0. Ces deux processus ont les caractéristiques des composantes d un processus de comptage au sens de Andersen et al., données dans la définition 4 du chapitre 1. Le processus X t, Y t ) t 0 est donc un processus de comptage bivarié. Ce processus est markovien. Connaissant le nombre de nœuds initial présents sur le système, son noyau de transition est donné par : P h i, j), i + 1, j)) = νh + oh) P h i, j), i, j + 1)) = k 0 + ηi + j)λh + oh) 5.4) P h i, j), i, j)) = 1 ν + k 0 + ηi + j)λ)h + oh) La composante Y t ) t 0 est sous l influence de la composante X t ) t 0. Aussi, nous sommes dans la situation étudiée par Becker 1970) et Puri 1975). Ces derniers considèrent deux processus de naissance et de mort avec immigration qui s influencent mutuellement et dont l interaction est non linéaire. Ils établissent les équations différentielles de Chapman-Kolmogorov rétrogrades et utilisent des fonctions génératrices pour les résoudre pour certains cas particuliers. Notre situation est plus simple : le processus de Poisson X t ) t 0 influence Y t ) t 0 par son effet linéaire sur le taux d apparition des nouveaux nœuds k 0 + ηi + j)λ. Dans ce cas, les équations de Chapman- Kolmogorov sont données par la proposition 11. Proposition 11. Le noyau de transition du processus sous-jacent X t, Y t ) t 0 est solution du système d équations différentielles : P t i, j), i, j)) = ν + λ ηi+j)p t i, j), i, j)) P t i, j), i + 1, j)) = ν + λ ηi+j)p t i, j), i + 1, j)) + νp t i, j), i, j)) i, j), i, j + 1)) = ν + λ ηi+j)p t i, j), i, j + 1)) + λ ηi+j P t i, j), i, j)) P t avec λ k = k 0 + k)λ. Les composantes X t ) t 0 et Y t ) t 0 sont des sous-martingales locales, de compensateurs respectifs Λ X et Λ Y, avec : Λ X t = Λ Y t = t 0 t 0 λ X t = ν, λ Y t = λz t. λ X s ds, λ Y s ds, Comme les processus X t ) t 0 et Y t ) t 0 ne sautent pas simultanément, leur somme est également un processus de comptage, de compensateur Λ X + Λ Y et d intensité λ X + λ Y. On note N t ) t 0 ce processus, qui compte le nombre de pannes survenues sur le système «pannes nœud» ou «pannes lien») : N t = X t + Y t. On note Λ N = Λ X + Λ Y son compensateur et λ N = λ X + λ Y son intensité. 95

5. Fiabilité sous contrainte structurelle 5.3 Inférence pour un schéma d observation continu Dans cette section, on suppose que le système est observé continûment sur un intervalle [0, C]. Son état initial étant connu, l information issue de l observation continue du processus Z t ) t 0 sur [0, C] est strictement la même que celle issue de l observation du processus X t, Y t ) t 0 sur [0, C]. La vraisemblance peut s écrire indifféremment à partir de l un ou l autre des processus, en utilisant les résultats présentés dans la section 1.2.2. On en déduit une expression explicite de l estimateur du maximum de vraisemblance de θ = ν, λ). 5.3.1 Vraisemblance du processus d intérêt Le nombre de sauts sur le processus d intérêt Z t ) t 0 jusqu à la date C vaut N C. La vraisemblance associée à l observation de Z t ) t 0 sur l intervalle [0, C] s écrit : où R t = Lν, λ) = t 0 = Z u du. NC q θ k i 1 )Π θ k i 1, k i ) i=1 N C i=1 ) e N C i=1 q θk i 1 )u i λk i 1 ) 1 k i =k i 1 +1 ν 1 k i =k i 1 +η e λ N C i=1 k i 1u i +λk NC C s NC )+νc ν X C λ Y C e λr C+νC), 5.5) 5.3.2 Vraisemblance du processus sous-jacent Les compensateurs Λ X et Λ Y sont absolument continus par rapport à la mesure de Poisson. Soit P 0 la mesure associée à un processus de comptage bivarié dont chacune des composantes est un processus de Poisson homogène de paramètre 1. Le théorème 4 permet d écrire la vraisemblance associée à l observation du processus sous-jacent X t, Y t ) t 0 sur [0, C] comme : dp { )} θ = dp 0 λt X ) X t λ Y t ) Y t exp ΛC N C 0 t C = ν X t λz t ) Y t exp 0 t C { C } ν + λz s ) ds + C. 0 ) La vraisemblance s écrit finalement : dp θ dp 0 ν X C λ Y C e λr C+νC). 5.6) On retrouve l expression 5.5) obtenue pour la vraisemblance du processus d intérêt. Cette expression est identique à la vraisemblance pour les processus de naissance avec immigration Andersen et al., 1993, p.129). La classe des processus définis par le noyau de transition 5.2) peut être vue comme une généralisation des processus de naissance avec immigration au cas où les immigrations se produisent de manière simultanée, par «paquets» de η. Au sens strict, un processus de naissance avec immigration n autorise que des sauts d amplitude 1. Keiding 1975) a étudié l inférence pour cette classe de processus, dans le cas continu et dans le cas discret. 96

5.4. Inférence pour un schéma d observation discret 5.3.3 Estimation La log-vraisemblance associée à l observation continue du processus Z t ) t 0 sur l intervalle [0, C] est maximale en : et la hessienne associée vaut X C Hν, λ) = ν 2 0 0 Y. C λ 2 ˆν, ˆλ ) XC = C, Y ) C, 5.7) R C 5.4 Inférence pour un schéma d observation discret En réalité, l état du système évolutif présenté dans la section 5.1 n est pas connu en tout instant ; l inférence décrite en section 5.3 n est pas envisageable. Dans cette section, nous considérons l estimation du paramètre θ = ν, λ) à partir de l observation discrète du processus sous-jacent et du processus d intérêt aux instants t 1,..., t n. On notera L i = t i t i 1 la longueur des intervalles d observation. 5.4.1 Observation à temps discret du processus sous-jacent On connaît les nombres de pannes lien et de pannes nœud survenues entre deux dates d observation successives t i 1 et t i. L observation est notée : X, Y) = X 1,..., X n, Y 1,..., Y n ), avec : X i = X ti X ti 1, le nombre de pannes lien survenues dans l intervalle [t i 1, t i [, Y i = Y ti Y ti 1, le nombre de pannes nœud survenues dans l intervalle [t i 1, t i [. Vraisemblance D après la formule de Bayes : P X i = x i, Y i = y i Z i 1 = z i 1 ) = P X i = x i )P Y i = y i Z i 1 = z i 1 ), avec Z i = Z 1,..., Z i ), Z i = Z ti Z ti 1, i = 1,..., n. Le processus X t ) t 0 de comptage des pannes lien est un processus de Poisson homogène de paramètre ν, donc : P X i = x i ) = PX ti X ti 1 = x i ) = PX Li = x i ) = νl i) x i x i )! e νl i. 5.8) On fait l hypothèse qu entre deux dates d observation t i 1 et t i, les nœuds posés suite aux défaillances ne peuvent eux-même être défaillants avant la date t i, i = 1,..., n. Sous cette hypothèse, dite de nœuds inhibés, on peut établir la proposition 12. 97

5. Fiabilité sous contrainte structurelle Proposition 12. Si dans l intervalle [0, t], les nœuds sont inhibés et si Z 0 = z, alors pour tout i N, on a : On note alors : P Y t = k + i Y 0 = k, Z 0 = z) = P Y t = i Y 0 = 0, Z 0 = z), i, k N. p z) i t) = P Y t = i Y 0 = 0, Z 0 = z). p z) i t) est solution des équations différentielles : { p z) 0 t) = p z) 0 t)λz p z) i+1 t) = pz) i+1 t)λz + i + 1) + pz) i t)λz + i), i N dont les solutions sont données par : ) p z) z + i 1 i t) = 1 e λt ) i e λzt, i i N. 5.10) 5.9) Démonstration. On montre tout d abord que p z) 0 t) est solution d une équation différentielle. Les nœuds étant inhibés entre 0 et t, on a : p z) 0 p z) 0 t + h) pz) 0 t) h On fait tendre h vers 0 et on obtient : t + h) = pz) 0 t)1 λzh) + oh) = p z) oh) 0 t)λz + h p z) 0 t) = p z) 0 t)λz. L hypothèse des nœuds inhibés sur [0, t] permet également d écrire : p z) i+1 t + h) = pz) i+1 t)1 λz + i + 1))h + pz) i t)λz + i)h + oh) p z) i+1 t + h) pz) i+1 t) h = p z) i+1 t)λz + i + 1) + pz) i t)λz + i) + oh) h On fait tendre h vers 0 et on obtient : p z) i+1 t) = pz) i+1 t)λz + i + 1) + pz) i t)λz + i). Donc p z) i t) est solution des équations différentielles 5.9). On montre par récurrence que la solution à ces équations est donnée par l expression 5.10). 98 1. Initialisation : Pour n = 0, p z) i t) est solution de la première équation différentielle du système 5.9), d où : p z) 0 t) = Ke λzt. Or p z) 0 0) = 0, donc K = 1. On en déduit : L expression 5.10) est vraie pour i = 0. p z) 0 t) = e λzt.

5.4. Inférence pour un schéma d observation discret 2. Hérédité : Supposons que l expression 5.10) soit vraie pour un i N. On montre qu alors, 5.10) est vraie pour i + 1. p z) i+1 t) est solution de l équation différentielle 5.9), donc est de la forme pz) i+1 t) = C i+1 t)e λz+i+1)t. On fait varier la constante et on obtient la relation : C i+1 t)e λz+i+1)t = p z) i t)λz + i). Comme on a supposé que p z) i t) est donnée par l expression 5.10), on a : ) C i+1 z + i 1 t)e λz+i+1)t = 1 e λt ) i e λzt λz + i) i ) C i+1 z + i 1 t)e λz+i+1)t = e λt 1) i e λz+i)t λz + i) i ) C i+1 z + i 1 t) = e λt 1) i e λt λz + i) i C i+1 t) = z + i ) z + i 1 e λt 1) i+1 + k i + 1 i ) z + i C i+1 t) = e λt 1) i+1, car C i + 1 i+1 0) = 0. D où ) p z) z + i i+1 t) = e λt 1) i+1 e λz+i+1)t i + 1 ) z + i = 1 e λt ) i+1 e λi+1)t e λz+i+1)t i + 1 ) z + i = 1 e λt ) i+1 e λzt. i + 1 Supposons les nœuds inhibés à l intérieur de chaque intervalle [t i 1, t i [. D après la proposition 12 : ) zi 1 + y P Y i = y i Z i 1 = z i 1 ) = i 1 e λl iz i 1 1 e λl i) y i. 5.11) y i avec : i 1 Z i 1 = Z ti 1 = k 0 + Z j, i = 1,..., n. j=1 Autrement dit, Y i Z i 1 = z i 1 ) suit une loi binomiale négative de paramètres z i 1, e λl i). La vraisemblance associée à l observation discrète du processus sous-jacent s écrit : Lν, λ) = f x, y; ν, λ) ) = P X = x, Y = y = n i=1 5.12) ) P X i = x i ) P Y i = y i Z i 1 = z i 1. 5.13) 99

5. Fiabilité sous contrainte structurelle En utilisant les équations 5.8) et 5.11), on obtient la log-vraisemblance : log f x, y; ν, λ) Estimation 100 n i=1 x i ) log ν νt n λ n i=1 z i 1 L i + n i=1 On peut estimer le paramètre θ = ν, λ) de différentes manières : Maximum de vraisemblance Les équations de vraisemblance s écrivent : log f x, y; ν, λ) = n ν n λ log f x, y; ν, λ) = i=1 i=1 x i ν z i 1 L i + t n = 0 n i=1 y i log1 e λl i). L y i e λl i i 1 e λl = 0 i et la hessienne associée vaut : n i=1 x i Hν, λ) = ν 2 0 n 0 y i L 2 e λl i. i 1 e λl i) 2 i=1 5.14) 5.15) L estimateur du maximum de vraisemblance est solution du système 5.15). Celui-ci n admet pas de solution explicite sauf dans le cas où L i = L : ˆν = n i=1 x i et ˆλ = 1 t n L log i=1 n z ) i 1 i=1 n z. 5.16) i 1 + y i ) Une estimation bayésienne des paramètres ν et λ peut également être envisagée. L approche bayésienne permettrait d intégrer des informations a priori sur les paramètres ν et λ. S agissant de taux de défaillance, les experts en matériels électriques sont à même de donner des a priori relativement précis sur ces paramètres. De plus, dans le cas où les données de défaillance sont peu nombreuses, la prise en compte de cette connaissance a priori s avère particulièrement avantageuse. Enfin, dans notre situation, les estimateurs bayésiens proposés présentent l avantage d être explicites et ce, quelque soit la nature de la largeur des intervalles. Bayésien Dans ce paragraphe, nous décrivons différents types d a priori conduisant à une expression explicite de l estimateur de Bayes pour la fonction de coût quadratique. Si les intervalles d observation ne sont pas trop grands et si λ est assez faible, le développement de Taylor 1 e λl i λl i permet d approximer la vraisemblance des données complètes 5.13) par : Lθ, λ) ν n i=1 x i e νt n e λ n i=1 L iz i 1 λ n i=1 y i. Il est alors possible de proposer un estimateur bayésien pour les paramètres ν et λ. On choisit des a priori gamma de paramètres α, β) pour ν et de paramètres ϕ, Γ) pour λ. Ce sont des lois conjuguées pour ce problème : πν) = βα Γα) e βν ν α 1, πλ) = Γϕ Γϕ) e Γλ λ ϕ 1. 5.17)

5.4. Inférence pour un schéma d observation discret La version continue du théorème de Bayes permet de calculer la densité a posteriori : f x, y; ν, λ)πν)πλ) ν n i=1 x i+α 1 e νβ+t n) λ n i=1 y i+ϕ 1 e λγ+n i=1 L iz i 1 ). Il s agit du produit d une loi gamma de paramètres n i=1 x i + α, β + t n ) et d une loi gamma de paramètres n i=1 y i + ϕ, Γ + n i=1 L iz i 1 ). En considérant la fonction de coût quadratique, on peut estimer ν et λ par l espérance a posteriori. On obtient alors des expressions explicites des estimateurs de Bayes : ˆν = n i=1 x i + α β + t n et ˆλ = n i=1 y i + ϕ Γ + n i=1 L iz i 1. 5.18) Dans le cas où les intervalles d observation sont de même longueur L, la vraisemblance des données complètes 5.13) vaut : ν n i=1 x ie νnl ξ n i=1 z i 11 ξ) n i=1 y i, où ξ = e λl. On prend un a priori gamma de paramètres α, β) pour ν et un a priori beta de paramètres ϕ, Γ) pour ξ : πν) = βα Γα) e βν ν α 1, πξ) = Γϕ + Γ) Γϕ)ΓΓ) ξ ϕ 1 1 ξ) Γ 1 1 [0,1] ξ). 5.19) La densité a posteriori s écrit alors comme le produit d une loi gamma de paramètres n i=1 x i + α, β + nl) et d une loi beta de paramètres n i=1 z i 1 + ϕ, n i=1 y i + Γ). On en déduit des estimateurs de Bayes sous l hypothèse d un coût quadratique : ˆν = n i=1 x i + α β + nl et ˆλ = 1 L log n i=1 z i 1 + ϕ n i=1 z i 1 + y i ) + ϕ + Γ. 5.20) Des a priori non informatifs peuvent également être calculés en appliquant la règle de Jeffrey : πν, λ) deti ν, λ)), où : 1 ν 2 Iν, λ) = n E X i Z i 1 = z i 1 ) 0 i=1 0 n E Y i Z i 1 = z i 1 )L 2 i i=1 est la matrice d information de Fisher. Les X i suivent une loi de Poisson de Paramètre νl i et les Y i Z i 1 = z i 1 ) sont distribués suivant une loi binomiale négative de paramètres z i 1, e λl i), i = 1,..., n. La matrice d information de Fisher s écrit donc : t n 0 Iν, λ) = ν 1 z i 1 L 2 i 0. λ 1 e λl i n i=1 e λl i 1 e λl i) 2 101

5. Fiabilité sous contrainte structurelle L approximation 1 e λl i λl i conduit à l a priori non informatif : πν, λ) ν 1/2 λ 1/2. Dans ce cas, les distributions a posteriori sont une loi gamma de paramètres n i=1 x i + 1/2, t n ) pour ν et une loi gamma de paramètres n i=1 y i + 1/2, n i=1 L iz i 1 ) pour λ. Les estimateurs de Bayes valent, sous l hypothèse d un coût quadratique : ˆν = n i=1 x i + 1/2 t n et ˆλ = n i=1 y i + 1/2 n i=1 L iz i 1. 5.21) Notons que ces estimateurs sont des cas particuliers de l estimateur 5.18) avec β = Γ = 0 et α = ϕ = 0, 5. Lorsque les intervalles sont de même longueur L, l approximation 1 e λl i λl i n est pas nécessaire. L a priori non informatif s écrit alors : πν, λ) ν 1/2 1 e λl) 1/2. On a alors un a posteriori gamma de paramètres n i=1 x i + 1/2, nl) pour ν et un a posteriori beta de paramètres n i=1 z i 1 + 1, n i=1 y i + 1/2) pour ξ = e λl. On en déduit des estimateurs de Bayes sous l hypothèse d un coût quadratique : ˆν = n i=1 x i + 1/2 nl et ˆλ = 1 L log n i=1 z i 1 + 1 n i=1 z i 1 + y i ) + 3/2. 5.22) Ces estimateurs coïncident avec l estimateur de Bayes 5.20) obtenu précédemment pour β = 0, α = Γ = 0, 5 et ϕ = 1. 5.4.2 Observation à temps discret du processus d intérêt Dans cette section, nous considérons l observation discrète du processus d intérêt Z t ) t 0. Cette observation consiste en : la connaissance presque sûre de l état initial du processus Z t ) t 0 : P θ Z 0 = k 0 ) = 1, la connaissance des états du processus Z t ) t 0 en n dates d observation t 1,..., t n, soit la réalisation du vecteur Z t1,..., Z tn ). De manière équivalente, on peut considérer que l on observe l état initial k 0 ainsi que les accroissements du processus Z t ) t 0 entre les n dates d observation, soit le vecteur : Z = Z 1,..., Z n ), avec Z i = Z ti Z ti 1, i = 1,..., n. Cette observation génère une situation de données manquantes. En effet, on connaît pour i = 1,..., n le nombre Z i de nœuds introduits dans l intervalle [t i 1, t i [, mais on ne connaît ni : l origine de ces nœuds : ont-ils été introduits suite à une panne nœuds ou suite à une panne lien? Le vecteur X i, Y i ) constitue donc une donnée manquante. Si ces données étaient connues, nous pourrions mettre en œuvre l inférence présentée dans la section 5.4.1 ; 102

5.4. Inférence pour un schéma d observation discret l évolution dans le temps du nombre de nœuds entre t i 1 et t i, c est à dire non seulement les origines des nouveaux nœuds panne nœuds/panne lien), mais également leurs dates d introduction. La trajectoire Z t ) ti 1 t<t i constitue également une donnée manquante. Si elle était observée, nous pourrions mener l estimation en utilisant les résultats de la section 5.3. Dans la suite, nous mettons en œuvre des stratégies d estimation adaptées à ce contexte de données manquantes. Deux approches sont envisagées, selon que l on considère que les données manquantes sont X, Y) ou bien X t, Y t ) 0 t tn. Ces approches reposent sur l algorithme EM, qui permet d estimer les paramètres d un modèle à données manquantes. Introduit par Dempster et al. 1977), l algorithme EM est une procédure itérative qui, au lieu de maximiser la log-vraisemblance de données observées incomplètes, maximise à chaque itération l espérance conditionnelle de la logvraisemblance des données complètes sachant les données incomplètes. Première approche : les données manquantes sont discrètes Les accroissements du processus sous-jacent X t, Y t ) t 0 dans les intervalles [t i 1, t i [, i = 1,..., n, ne sont pas observés. Ils forment des données manquantes : X, Y) = X 1,..., X n, Y 1,..., Y n ), X i = X ti X ti 1, Y i = Y ti Y ti 1, i = 1,..., n. Si ces données manquantes étaient observées, on pourrait estimer les paramètres ν et λ voir l inférence en section 5.4.1). Etant donné la relation 5.1), les accroissements des processus Z t ) t 0 et X t, Y t ) t 0 sont liés par la relation : Z = η X + Y. 5.23) La log-vraisemblance associée à l observation Z dont on dispose peut s écrire comme une densité marginale de la vraisemblance des données complètes non observées : Lν, λ) = f x, y; ν, λ)d x, y), 5.24) D z où f x, y; ν, λ) est donnée par l expression 5.13) et où D z est l ensemble des valeurs possibles pour x, y connaissant z ) : D z = { u, v) N N η u + v = z}. 5.25) Il n existe pas de solution analytique maximisant la vraisemblance 5.24). L algorithme EM permet d approcher numériquement ce maximum en considérant les données manquantes X, Y). Nous utilisons également cet algorithme afin d approcher les estimateurs de Bayes donnés par les équations 5.18), 5.20), 5.21) et 5.22) dans cette situation de données manquantes. Algorithme EM Comme la vraisemblance 5.14) des données manquantes appartient à la famille exponentielle, l algorithme EM revient à remplacer dans la log-vraisemblance des données complètes, les données manquantes par leur espérance conditionnelle sachant les données incomplètes observées. La mise en œuvre de l algorithme EM pour notre problème consistera à appliquer le schéma itératif suivant. 103

5. Fiabilité sous contrainte structurelle Algorithme 2 Première approche : principe général de l algorithme EM. Disposant d une valeur courante du paramètre ν, λ ) : Etape E : pour i = 1,..., n, calculer E X i Z i 1 = z i 1 ; ν, λ ) et E Y i Z i 1 = Z i 1 ; ν, λ ) Etape M : remplacer dans la vraisemblance des données complètes X i et Y i par E X i Z i 1 = Z i 1 ; ν, λ ) et E Y i Z i 1 = Z i 1 ; ν, λ ) respectivement. Maximiser cette vraisemblance pour obtenir une nouvelle valeur de ν, λ ). L espérance est relative à la loi conditionnelle des données complètes sachant les données incomplètes observées. Cette loi admet pour densité : f x, y z; ν, λ) = f x, y; ν, λ)/ f x, y; ν, λ)d x, y), 5.26) D z où D z est donné par l équation 5.25) et où f x, y; ν, λ) est la vraisemblance des données complètes, donnée par l équation 5.13). L estimation par maximum de vraisemblance des paramètres ν, λ dans le cas où les dates d observation sont équidistantes est décrite par l algorithme 3. Nous pourrions également estimer le maximum de vraisemblance dans la situation où les dates d observation ne seraient pas équidistantes : l étape M requerrait alors la mise en œuvre d un algorithme de Newton-Raphson, le système 5.15) n admettant pas de solution explicite. Des solutions bayésiennes ont été préférées dans cette situation. L algorithme 4 estime ν et λ en considérant un a priori conjugué. Calculer l estimateur de Bayes avec un a priori non informatif revient à calculer l estimateur de Bayes en utilisant l a priori 5.17) avec α = 0, 5, β = 0, ϕ = 0, 5 et Γ = 0. Aussi l estimateur de Bayes correspondant à une loi a priori non informative peut être obtenu avec l algorithme 4. Cet algorithme suppose que 1 e λl i λl i. Des estimateurs bayésiens adaptés au cas d une observation équidistante et ne nécessitant pas cette approximation peuvent être obtenus par l algorithme 5. On peut fixer l a priori, ou bien utiliser un a priori non informatif de Jeffrey en fixant α = 0, 5, β = 0, ϕ = 1 et Γ = 0, 5. Nous disposons finalement de trois algorithmes EM permettant d estimer les paramètres ν, λ dans différentes situations intervalles équidistants ou non) et sous différentes hypothèses. Il existe une limitation importante à la mise en œuvre de ces algorithmes : l ensemble D z devient gigantesque lorsque le nombre d observations augmente. Sa taille s exprime en fonction du vecteur des observations z de la manière suivante : cardd z ) = n i=1 ) z i /η + 1, où. est la fonction partie entière. Par exemple, si l on observe en 10 dates que 20 nœuds supplémentaires ont été introduits depuis la date d observation précédente, on dispose du vecteur d observation z = 18, 18, 18, 18, 18, 18, 18, 18, 18, 18). Si η = 2, cette configuration conduit à un ensemble D z de taille 10 10. Cet exemple simple illustre l explosion combinatoire pouvant apparaître sur l ensemble D z. Dans de telles situations, les limitations informatiques sont rapidement atteintes : les algorithmes 3 à 5 reposent sur le calcul de la loi conditionnelle des données complètes sachant les données incomplètes, pour 104

5.4. Inférence pour un schéma d observation discret Algorithme 3 Estimation du MV par l algorithme EM observations équidistantes). Initialisation : fixer ν 0) et λ 0). A l étape p + 1), disposant de ν p) et λ p) : Etape E : calculer les espérances des X i et des Y i conditionnellement aux données observées Z i 1 : E X i Z i 1 = z i 1 ; ν p), λ p) ) = u i f x, y z; ν, λ), u, v) D z E Y i Z i 1 = z i 1 ; ν p), λ p) ) = v i f x, y z; ν, λ). u, v) D z Etape M : maximiser la vraisemblance 5.14) en remplaçant x i et y i par E X i Z i 1 = z i 1 ; ν p), λ p) ) et E Y i Z i 1 = z i 1 ; ν p), λ p) ) respectivement. Autrement dit, calculer : ν p+1) = n i=1 E X i Z i 1 = z i 1 ; ν p), λ p) ) nl ) λ p+1) = 1 log i=1 n z i 1 i=1 n z i 1 + EY i Z i 1 = z i 1 ; ν p), λ p). )) Algorithme 4 Approximation de l estimateur de Bayes par l algorithme EM. Initialisation : fixer ν 0) et λ 0) A l étape p + 1), disposant de ν p) et λ p) : Etape E : calculer les espérances des X i et des Y i conditionnellement aux données observées Z i 1 : E X i Z i 1 = z i 1 ; ν p), λ p) ) = u i f x, y z; ν, λ), u, v) D z E Y i Z i 1 = z i 1 ; ν p), λ p) ) = v i f x, y z; ν, λ). u, v) D z Etape M : remplacer x i et y i par E X i Z i 1 = z i 1 ; ν p), λ p) ) et E Y i Z i 1 = z i 1 ; ν p), λ p) ) respectivement dans l estimateur de Bayes 5.18), soit : ν p+1) = λ p+1) = n i=1 E X i Z i 1 = z i 1 ; ν p), λ p) ) + α β + t n n i=1 E Y i Z i 1 = z i 1 ; ν p), λ p) ) + ϕ Γ + i=1 n L. iz i 1 105

5. Fiabilité sous contrainte structurelle Algorithme 5 Approximation de l estimateur de Bayes par l algorithme EM observations équidistantes). Initialisation : fixer ν 0) et λ 0) A l étape p + 1), disposant de ν p) et λ p) : Etape E : calculer les espérances des X i et des Y i conditionnellement aux données observées Z i 1 : E X i Z i 1 = z i 1 ; ν p), λ p) ) = u i f x, y z; ν, λ), u, v) D z E Y i Z i 1 = z i 1 ; ν p), λ p) ) = v i f x, y z; ν, λ). u, v) D z Etape M : remplacer x i et y i par E X i Z i 1 = z i 1 ; ν p), λ p) ) et E Y i Z i 1 = z i 1 ; ν p), λ p) ) respectivement dans l estimateur de Bayes 5.20), soit : ν p+1) = n i=1 E X i Z i 1 = z i 1 ; ν p), λ p) ) + α β + nl λ p+1) = 1 L log i=1 n z i 1 + ϕ i=1 n z i 1 + E Y i Z i 1 = z i 1 ; ν p), λ p) )) + ϕ + Γ. tous les éléments de l ensemble D z. Des solutions algorithmiques permettant de pallier ce problème d explosion combinatoire sont présentées dans le paragraphe suivant. Dans les algorithmes 3 à 5, l étape E consiste à calculer les espérance conditionnelles E X i Z i 1 = z i 1 ; ν p), λ p) ) et E Y i Z i 1 = z i 1 ; ν p), λ p) ) de manière explicite. Ce calcul pose problème dans le cas où l ensemble D z est grand. Aussi, nous proposons des versions stochastiques de l algorithme EM qui approximent ces quantités en utilisant des simulations suivant la loi de densité 5.26), à savoir les algorithmes SEM et MCEM. Ces versions stochastiques de l algorithme EM permettent de contourner le problème dû à l explosion combinatoire sur l ensemble D z à condition d être exemptés du calcul du dénominateur dans la loi 5.26). Nous les utilisons conjointement à un algorithme de Metropolis-Hastings, qui permet de s affranchir de ce calcul. Algorithme de Metropolis-Hastings Metropolis et al. 1953) ont introduit une méthode d échantillonnage dite d échantillonnage suivant l importance pour résoudre un problème de mécanique statistique. Ils réalisent l estimation d une distribution de Boltzmann qui fait intervenir des intégrales multidimensionnelles. La méthode proposée ne requiert la connaissance de la distribution qu à une constante multiplicative près. En 1970, Hastings 1970) a étendu l algorithme au cas de n importe quelle distribution. L idée est de simuler une chaîne de Markov dont la loi stationnaire est la loi cible. L algorithme crée une marche aléatoire sur l espace d état de cette chaîne. Il utilise une loi de probabilité pour choisir, étant en position e t à l étape t, une nouvelle position e. Soit Q le noyau de transition de cette loi, appelée loi de proposition. L algorithme 6 donne l algorithme de Metropolis-Hastings défini en toute généralité par Hastings 106

5.4. Inférence pour un schéma d observation discret 1970). Le cas où Q est symétrique conduit à un algorithme { } plus simple, pour lequel la probabilité de déplacement vaut ρe t, e ) = inf 1, Pe ). Pe t ) Algorithme 6 Algorithme de Metropolis-Hastings. Fixer une valeur initiale e 0. Puis, répéter les étapes suivantes. A l étape t, connaissant e t : 1. Générer une proposition e à l aide du noyau Q : e = Q, e t ) 2. Calculer la probabilité que la marche se déplace en e : { ρe t, e ) = inf 1, Pe )Qe t, e } ) Pe t )Qe, e t ) 3. Accepter la proposition e avec une probabilité ρe t, e ). Le cas échéant, e t+1 = e. Sinon, e t+1 = e t. Dans notre situation, l algorithme 7 permet de simuler des réalisations de densité 5.26) alors que cette densité n est connue qu à une constante multiplicative près, le dénominateur étant inaccessible. Les états de la chaîne générée par cet algorithme sont des configurations possibles de X, Y) correspondant au vecteur d observation Z. Algorithme 7 Algorithme ) de Metropolis-Hastings permettant de simuler des données complètes x, y. Fixer l état initial x 0), y 0)). Puis, répéter les étapes suivantes. A l étape t, connaissant x t), y t)) : 1. Générer une proposition e à l aide de la loi de proposition : x, y ) Q x t), y t)) ) 2. Calculer la probabilité que la marche se déplace en { ρ x t), y t)), x, y ) ) = inf 1, 3. Accepter la proposition ρ x t), y t)), x, y ) ). Le cas échéant, x t), y t)). x t+1), y t+1)) = x, y ) : f x, y ; ν, λ) f x t), y t) ; ν, λ) x, y ) avec une probabilité x, y ). Sinon, x t+1), y t+1)) = } 107

5. Fiabilité sous contrainte structurelle Algorithme SEM-Metropolis L algorithme SEM a été proposé par Celeux & Diebolt 1986) pour estimer les paramètres de mélanges de gaussiennes. Il consiste à remplacer l étape E de l algorithme EM par une étape de simulation des données complètes, suivant la loi conditionnelle des données complètes sachant les données observées. Dans cet algorithme, les itérés des paramètres forment une chaîne de Markov homogène. L algorithme converge, c est-à-dire que la chaîne des itérés des paramètres converge en distribution vers une variable aléatoire distribuée suivant la loi stationnaire de la chaîne lorsque le nombre d itérations tend vers l infini, si cette chaîne est ergodique. Nielsen 2000) propose des conditions suffisantes pour l ergodicité de la chaîne. L algorithme SEM n a un intérêt dans notre situation que si on l associe pour l étape SE à l algorithme de Metropolis-Hastings présenté ci-dessus. Aussi, nous utilisons un algorithme que nous qualifions de SEM-Metropolis. Il peut être utilisé pour calculer l estimateur du maximum de vraisemblance ou l estimateur de Bayes. Remarquons que la version SEM de l algorithme 3 ne produit pas une chaîne ergodique puisque certains états sont absorbants. Si la chaîne tombe dans un état absorbant, c est-à-dire si l un au moins des vecteurs x et y simulés à l étape SE est identiquement nul, nous remplaçons la valeur nulle du paramètre courant par la valeur du paramètre correspondant à l observation d un événement. La chaîne devient ainsi irréductible, assurant la convergence vers une loi limite. L algorithme 8 est la version SEM de l algorithme 3 permettant de calculer l estimateur du maximum de vraisemblance. Les algorithmes 9 et 10 correspondent aux versions SEM des algorithmes 4 et 5, qui estiment l estimateur de Bayes sous l hypothèse d une fonction de coût quadratique. Sous réserve que certains paramètres de la loi a priori conjuguées soient non nuls, il n existe pas d état absorbant pour la chaîne des itérés des paramètres produite par ces algorithmes. Aussi, la convergence des algorithmes 9 et 10 ne nécessite pas de modifier artificiellement les états de la chaîne. Si les experts n ont pas d a priori sur les paramètres, on peut choisir des a priori non informatifs. On prendra alors α = 0, 5, β = 0, ϕ = 0, 5 et Γ = 0 pour l algorithme 9, α = 0, 5, β = 0, ϕ = 1 et Γ = 0, 5 pour l algorithme 10. Algorithme MCEM-Metropolis L algorithme MCEM, introduit par Wei & Tanner 1990), repose sur une approximation de l espérance des données complètes conditionnellement aux données incomplètes observées par une approche de Monte Carlo. Chaque itération de cet algorithme correspond à une itération de l algorithme EM modulo une petite perturbation. Cette perturbation est contrôlée par l erreur de Monte Carlo et donc par le nombre de simulations M choisi pour l étape Monte Carlo Expectation MCE), qui remplace l étape Expectation de l algorithme EM. Plutôt que de commencer l algorithme avec un M très élevé, il est recommandé de choisir M petit au début de l algorithme, puis d augmenter sa valeur au fur et à mesure des itérations. Wei & Tanner 1990) utilisent la stratégie suivante : ils fixent M = 10 pour les 15 premières itérations, puis M = 1000 pour les suivantes, jusqu à la convergence. Nous avons vu dans le paragraphe précédent qu il existe une chaîne de Markov sous-jacente à l algorithme SEM. Cette chaîne est à espace d état fini. Sur le même principe, on peut définir une chaîne de Markov sous-jacente à l algorithme MCEM. Cette fois-ci, l espace d états de la chaîne est infini en raison des moyennes effectuées pour approximer l espérance à l étape MCE. L équivalent de la matrice de transition pour une telle chaîne est le noyau de transition. La convergence de l algorithme MCMC repose sur l ergodicité du noyau. Fort 108

5.4. Inférence pour un schéma d observation discret Algorithme 8 Estimation du MV par l algorithme SEM-Metropolis observations équidistantes). Initialisation : fixer ν 0) et λ 0) A l étape p + 1), disposant de ν p) et λ p) : Etape SE : simuler une réalisation x, y ) en utilisant l algorithme 7 Etape M : maximiser la vraisemblance 5.14) en remplaçant x i et y i par les valeurs xi et yi simulées à l étape SE. Autrement dit, calculer : Si x1 = = x n = 0 et y1 = = y n = 0, alors : ν p+1) = 1 nl Sinon si x 1 = = x n = 0, alors : ν p+1) = 1 nl Sinon si y 1 = = y n = 0, alors : ν p+1) = n i=1 x i nl et λ p+1) = 1 n ) L log i=1 z i 1 i=1 n z, i 1 + 1 et λ p+1) = 1 L log i=1 n z ) i 1 i=1 n z i 1 + yi ), et λ p+1) = 1 n ) L log i=1 z i 1 i=1 n z, i 1 + 1 Sinon ν p+1) = n i=1 x i nl et λ p+1) = 1 L log i=1 n z ) i 1 i=1 n z i 1 + yi ). Algorithme 9 Approximation de l estimateur de Bayes par l algorithme SEM- Metropolis. Initialisation : fixer ν 0) et λ 0) A l étape p + 1), disposant de ν p) et λ p) : Etape SE : simuler une réalisation x, y ) en utilisant l algorithme 7 Etape M : remplacer x i et y i par les valeurs xi et yi simulées à l étape SE dans l estimateur de Bayes 5.18), soit : ν p+1) = n i=1 x i + α β + t n et λ p+1) = n i=1 y i + ϕ Γ + n i=1 L iz i 1. 109

5. Fiabilité sous contrainte structurelle Algorithme 10 Approximation de l estimateur de Bayes par l algorithme SEM- Metropolis observations équidistantes). Initialisation : fixer ν 0) et λ 0) A l étape p + 1), disposant de ν p) et λ p) : Etape SE : simuler une réalisation x, y ) en utilisant l algorithme 7 Etape M : remplacer x i et y i par les valeurs xi et yi simulées à l étape SE dans l estimateur de Bayes 5.20). Autrement dit, calculer : ν p+1) = n i=1 x i + α β + nl et λ p+1) = 1 L log n i=1 z i 1 + ϕ n i=1 z i 1 + y i ) + ϕ + Γ. & Moulines 2003) ont listé des conditions pratiques assurant la convergence de cet algorithme vers le maximum de vraisemblance. L algorithme 11 est un algorithme MCEM permettant d estimer le maximum de vraisemblance pour notre problème. L étape MCE de cet algorithme consiste à approximer les espérances E X i Z i 1 = z i 1 ; ν p), λ p) ) et E Y i Z i 1 = z i 1 ; ν p), λ p) ) par une approche Monte Carlo. Les simulations sont obtenues grâce à un algorithme de Metroplois-Hastings, l algorithme mis en œuvre est donc baptisé algorithme de MCEM-Metropolis. Rien n exclut que ces valeurs ne soient nulles et qu ainsi l algorithme ne tombe dans un état absorbant. C est le cas lorsque les M valeurs simulées pour x et/ou y sont toutes identiquement nulles. Nous considérons que lorsque ce cas se présente, le paramètre ν ou λ est réellement proche de 0. Le fait que l algorithme MCEM se comporte comme l algorithme EM tendance croissante de la vraisemblance lors des itérations, moyennant un bruit dû à l erreur de Monte-Carlo) nous laisse à penser que, si notre algorithme MCEM-Metropolis tombe dans l un des états aborbant, c est que la vraie valeur du paramètre ν ou λ s en est sufisamment approchée pour qu on puisse l estimer par 0. Aussi, les états de l algorithme 11 ne sont pas modifiés artificiellement afin d empêcher que celui-ci ne tombe dans un état absorbant, comme nous l avons fait dans l algorithme 8. Ce problème d état absorbant ne se pose pas avec les algorithmes calculant des estimateurs bayésiens. Les algorithmes 12 et 13, qui approchent l estimateur de Bayes suivant les mêmes stratégies que les algorithmes 4 et 5 respectivement, produisent des chaînes irréductibles. Ceci assure leur convergence vers une loi limite. 110

5.4. Inférence pour un schéma d observation discret Algorithme 11 Estimation du MV par l algorithme MCEM-Metropolis observations équidistantes). Initialisation : fixer ν 0) et λ 0) A l étape p + 1), disposant de ν p) et λ p) : Etape MCE : simuler M réalisations x 1), x M)),..., y 1), y M)) en utilisant l algorithme 7. Estimer E X i Z i 1 = z i 1 ; ν p), λ p) ) par 1 M M k=1 M x k) i Estimer E Y i Z i 1 = z i 1 ; ν p), λ p) ) par 1 y k) M i k=1 Etape M : maximiser la vraisemblance 5.14) en remplaçant x i et y i par 1 M M x k) i et k=1 1 M M y k) i. Autrement dit, calculer : k=1 n i=1 1 M M k=1 xk) i ν p+1) = nl λ p+1) = 1 L log n i=1 z i 1 n i=1 z i 1 + 1 M M k=1 yk) i ) ). Algorithme 12 Approximation de l estimateur de Bayes par l algorithme MCEM- Metropolis. Initialisation : fixer ν 0) et λ 0) A l étape p + 1), disposant de ν p) et λ p) : Etape MCE : simuler M réalisations x 1), x M)),..., y 1), y M)) en utilisant l algorithme 7. M Etape M : remplacer x i et y i par 1 x k) 1 M i et y k) M i respectivement dans k=1 k=1 les estimateurs de Bayes donnés en équation 5.18), soit : ν p+1) = n i=1 E X i Z i 1 = z i 1 ; ν p), λ p) ) + α β + t n λ p+1) = n i=1 E Y i Z i 1 = z i 1 ; ν p), λ p) ) + ϕ Γ + i=1 n L. iz i 1 avec α > 0 et ϕ > 0. M 111

5. Fiabilité sous contrainte structurelle Algorithme 13 Approximation de l estimateur de Bayes par l algorithme MCEM- Metropolis observations équidistantes). Initialisation : fixer ν 0) et λ 0) A l étape p + 1), disposant de ν p) et λ p) : Etape MCE : simuler M réalisations x 1), x M)),..., y 1), y M)) en utilisant l algorithme 7. M Etape M : remplacer x i et y i par 1 x k) 1 M i et y k) M i respectivement dans k=1 k=1 les estimateurs de Bayes donnés en équation 5.20). Autrement dit, calculer : ν p+1) = n i=1 E X i Z i 1 = z i 1 ; ν p), λ p) ) + α β + nl λ p+1) = 1 L log i=1 n z i 1 + ϕ i=1 n z i 1 + E Y i Z i 1 = z i 1 ; ν p), λ p) )) + ϕ + Γ. avec Γ > 0. M Seconde approche : les données manquantes sont continues La trajectoire du processus X t, Y t ) t 0 sur l intervalle [0, t n ] n est pas observée. Elle forme la donnée manquante. Si elle était observée, on pourrait estimer les paramètres ν et λ comme nous l avons fait en section 5.3. Ne disposant que de l observation discrète du processus Z t ) t 0 en n dates d observation t 1,..., t n, nous décrivons un algorithme EM adapté à cette situation de données manquantes. Des méthodes d estimation des paramètres d un processus de naissance et de mort avec immigration BDI) à partir d une observation discrète de sa trajectoire existent déjà. La littérature sur le sujet est très abondante dans le domaine de la génétique. Thornes et al. 1991) ont proposé de représenter les mutations de l ADN par des processus de naissance et de mort. Le maximum de vraisemblance est alors estimé par une programmation dynamique. Holmes 2005) propose quant à lui d utiliser l algorithme EM, qui conduit à résoudre un système d équations différentielles non linéaires. Doss et al. 2012) utilisent un algorithme EM et montrent que l étape E peut se ramener au calcul des coefficients de séries entières. Doss et al. mettent en évidence que lorsque les estimateurs du maximum de vraisemblance d un BDI ne s expriment pas de manière analytique à l aide des données complètes, il est nécessaire de faire appel à des méthodes numériques pour pouvoir estimer les paramètres du processus à partir de données discrètes. Ce problème se pose plus généralement pour des processus pour lesquels la composante immigration correspond à des arrivées ou départs simultanés, à chaque fois que des sauts de même amplitude peuvent avoir deux origines différentes. Nous avons synthétisé dans la table 5.1 l ensemble des configurations possibles pour les BDI au sens large) en précisant pour chacune d elles les composantes qui présentent des solutions explicites. Dans notre situation, η > 1 ; il n est pas nécessaire de faire appel aux méthodes numériques évoquées par Doss et al.. 112

5.4. Inférence pour un schéma d observation discret Naissance Mort Immigration 2 Naissance Mort Immigration Naissance Mort Immigration η > 1 η = 1 η = 1 λ µ θ λ µ θ λ µ θ oui oui oui non oui non oui non non oui oui oui oui non non oui oui non non oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui Table 5.1: Existence de solutions analytiques pour l EMV d un BDI avec immigrations simultanées, par «paquets» de η, η Z. Par la suite, nous décrivons un algorithme EM suivant la stratégie développée par Doss et al. 2012), qui consiste à considérer l information fournie par l observation continue du processus comme étant la donnée complète. D après l équation 5.6), la log-vraisemblance associée à cette observation manquante est donnée par : log Lν, λ) X tn log ν + Y tn log λ νt n λr tn 5.27) où R t = t 0 Z udu. Cette vraisemblance appartient à la famille exponentielle, ce qui simplifie la mise en œuvre de l algorithme EM : il suffit de remplacer dans la log-vraisemblance 5.27) les données complètes X tn, Y tn, R tn par leur espérance, conditionnellement aux données incomplètes Z t0,..., Z tn. Le principe général de l algorithme EM est le suivant : Algorithme 14 Seconde approche : principe général de l algorithme EM. Disposant d une valeur courante du paramètre ν, λ ) : Etape E : calculer EX t Z t0,..., Z tn ), EY t Z t0,..., Z tn ) et de ER t Z t0,..., Z tn ) Etape M : remplacer dans la vraisemblance des données complètes X tn, Y tn et R tn par les valeurs calculées à l étape E. Maximiser cette vraisemblance pour obtenir une nouvelle valeur de ν, λ). Nous ne sommes pas strictement dans le cadre de l application de l algorithme EM développé par Doss et al. en raison des arrivées simultanées de nœuds dans le système. Dans notre situation, il existe des expressions analytiques des estimateurs du maximum de vraisemblance voir section section 5.3). Le recours aux méthodes numériques évoquées par Doss et al. n est donc pas nécessaire. Algorithme EM Nous détaillons le calcul d expressions explicites pour EX tn Z t0,..., Z tn ), EY tn Z t0,..., Z tn ) et de ER tn Z t0,..., Z tn ), nécessaires à la mise en œuvre de l algorithme 14. 2. Le terme immigration peut correspondre à de l immigration η > 0) ou de l émigration η < 0). Les croix signalent les composantes absentes du BDI considéré. Toutes les combinaisons possibles de BDI sont considérées parmi naissance/mort/immigration. 113

5. Fiabilité sous contrainte structurelle EX tn Z t0,..., Z tn ) = De la même manière, on peut montrer : = EY tn Z t0,..., Z tn ) = n i=1 n i=1 n i=1 E X i Z ti 1, Z ti ; ν, λ) EX Li Z ti 1, Z ti ; ν, λ). } {{ } A X Z ti 1,Z L ti i ) EY Li Z ti 1, Z ti ; ν, λ) } {{ } A Y Z ti 1,Z L ti i ) et ER tn Z t0,..., Z tn ) = n i=1 ER Li Z ti 1, Z ti ; ν, λ). } {{ } AZ R ti 1,Z L ti i ) L étape E de l algorithme EM nécessite le calcul de Ak,l X s), AY k,l s), AR k,l s) avec k, l) { } Zti 1, Z ti ) i=1,...,n. Nous pouvons écrire ces quantités différemment : De même, Ak,l X s) =EX s Z 0 = k, Z s = l; ν, λ) = jpx s = j Z 0 = k, Z s = l; ν, λ) j 0 jpx s = j, Z s = l Z 0 = k; θ, λ), pour Z s = l = P Z j 0 s = l Z 0 = k) 0, pour Z s = l = EX s1 Zs =l Z 0 = k; ν, λ) P Z s = l Z 0 = k) Ãk,l X = s) P Z s = l Z 0 = k). et A Y k,l s) = à Y k,l s) P Z s = l Z 0 = k) Ak,l R s) = Ãk,l R s) P Z s = l Z 0 = k), avec à Y k,l s) = EY s1 Zs =l Z 0 = k; ν, λ),, avec à R k,l s) = ER s1 Zs =l Z 0 = k; ν, λ) Les probabilités P Z s = l Z 0 = k) sont données par l expression du noyau de transition P s k, l) donnée par la proposition 10. La fonction génératrice de Kendall est utilisée pour le calcul des moments conditionnels Ãk,l X s), ÃY k,l s) et ÃR k,l s). Cette fonction s écrit ici : [ ] H i u, v, w, s, t) = E u X t v Y t e wr t s Z t Z 0 = i 114 = q r + 0 u q v r e wz s n n P X t = q, Y t = r, R t = z, Z t = n Z 0 = i; ν, λ) dz.

5.4. Inférence pour un schéma d observation discret Ses dérivées partielles sont données par : H i u, v, w, s, t) u H i u, v, w, s, t) v H i u, v, w, s, t) w = q + r 0 G X i s, t) = H iu, 1, 0, s, t) u = n qu q 1 v r e wz s n P X t = q, Y t = r, R t = z, Z t = n Z 0 = i; ν, λ) dz n u=1 s n qp X t = q, Z t = n Z 0 = i; ν, λ) q = s n Ãi,n X t) n = q + r 0 G Y i s, t) = H i1, v, 0, s, t) v = n u q rv r 1 e wz s n P X t = q, Y t = r, R t = z, Z t = n Z 0 = i; ν, λ) dz n v=1 s n rp Y t = r, Z t = n Z 0 = i; ν, λ) r = s n à Y i,n t) n = q + r 0 G R i s, t) = H i1, 1, w, s, t) w n u q v r ze wz s n P X t = q, Y t = r, R t = z, Z t = n Z 0 = i; θ, λ) dz w=0 + = s n zp R t = z, Z t = n Z 0 = i; ν, λ) dz n 0 = s n Ãi,n R t). n Tous les éléments nécessaires à l étape E de l algorithme EM peuvent être obtenus à partir des coefficients des séries entières Gi R s, t), Gi X s, t) et Gi Y s, t). Des différenciations successives permettent en effet de calculer Ãi,k R t), ÃX i,k t) et ÃY i,k t) : Ãi,k R t) = 1 k Gi R s, t) k! s k Ãi,k X t) = 1 k Gi X s, t) k! s k à Y i,k t) = 1 k Gi Y s, t) k! s k Il suffit pour cela de connaître H i u, v, w, s, t) pour tout i N. L équation 5.7) donne l expression explicite du maximum de vraisemblance associée à l observation continue du processus d intérêt. On peut donc écrire une généralisation du théorème 1 de Doss et al. 2012), qui donne une expression explicite pour H i u, v, w, s, t) pour tout i N. Une telle généralisation est possible dès lors que le maximum de vraisemblance est accessible de manière explicite table 5.1). Dans ces situations, les H i sont la solution d un problème de Cauchy. Ce problème est exprimé dans notre situation par le théorème 8, démontré en annexe 6.5. s=0 s=0 s=0 115

5. Fiabilité sous contrainte structurelle Théorème 8. H i u, v, w, s, t) = E [ u X tv Y te wr ts Z t ] vérifie l équation différentielle : [ t H iu, v, w, s, t) = λvs 2 w + λ)s] s H iu, v, w, s, t) + νus η 1)H i u, v, w, s, t). Il s agit d un problème de Cauchy qui admet une unique solution. 5.5 Applications 5.28) Dans cette section, nous mettons en œuvre les algorithmes proposés dans la section 5.4.2 en considérant que les données manquantes sont discrètes. La seconde approche, inspirée de Doss et al. 2012), n est pas testée. Les jeux de données sur lesquels nous appliquons les algorithmes sont fixés arbitrairement dans la section 5.5.1 et simulés dans la section 5.5.2. Par la suite, nous fixons η à 2. 5.5.1 Cas d école Nous considérons un système composé initialement de 3 nœuds. Ce système est observé en trois dates t 1 = 25, t 2 = 50, t 3 = 75. On observe que le système comporte 7 nœuds en t 1, 8 nœuds en t 2 et 10 nœuds en t 3. L observation peut être synthétisée par l état initial k 0 = 3 et par le vecteur d accroissements z = 4, 1, 2). Dans cette situation, l ensemble D z des configurations des données complètes ayant pu mener à l observation de ces données incomplètes est de petite taille six combinaisons possibles) ; il est décrit dans la table 5.2. Dates t i 25 50 75 Observation z 4 1 2 x 0 0 0 1 y 4 1 2 x 1 0 0 2 y 2 1 2 x 2 0 0 3 Configuration n y 0 1 2 x 0 0 1 4 y 4 1 0 5 6 x x 1 2 0 0 1 1 y y 2 0 1 1 0 0 Table 5.2: Configurations possibles des données complètes sachant l observation z = 4, 1, 2). Maximum de vraisemblance classique 116 La vraisemblance des données observées s écrit : Lν, λ) = u,v) D z PX = u)py = v Z = z) = n u,v) D z i=1 PX i = u i )PY i = v i Z = z). 5.29)

5.5. Applications Elle est représentée graphiquement en figure 5.2. On en déduit une valeur approchée de l estimateur du maximum de vraisemblance : ˆν = 0, 036 et ˆλ = 0, 0034. Vraisemblance theta lambda λ 1e 05 0.000 0.002 0.004 0.006 0.008 0.010 0.0034 0.0015 5e 04 0.036 1e 10 0.00 0.01 0.02 0.03 0.04 0.05 0.0025 0.004 0.0035 0.003 0.002 0.002 0.0025 0.001 θ Figure 5.2: Représentation graphique de la vraisemblance des données observées z = 4, 1, 2) en fonction des paramètres ν et λ. On peut obtenir une estimation plus précise du maximum de vraisemblance en maximisant numériquement 3 la fonction de vraisemblance 5.29). L algorithme de Newton-Raphson donne en 8 itérations les estimations suivantes : ˆν = 0, 036195 et ˆλ = 0, 0033462. Pour ce cas d école, nul besoin de faire appel à l algorithme EM puisqu il est possible de maximiser directement la fonction de vraisemblance. Cependant, nous mettons en œuvre les algorithmes EM présentés dans la section 5.4 à titre illustratif. Ces algorithmes s avèrent indispensables dans des situations plus réalistes où cardd z ) peut être très grand. Algorithme EM L algorithme 3 converge très rapidement vers les estimations suivantes : ˆν = 0, 036194 et ˆλ = 0, 0033467 figure 5.3). Algorithme SEM-Metropolis Nous illustrons les résultats de l algorithme 8. Après 100 itérations de SEM période de chauffe), la moyenne de 500 itérés des paramètres donne les estimations suivantes : ˆν = 0, 035680 et ˆλ = 0, 0034586 figure 5.4). La matrice de transition pour la chaîne de Markov générée par l algorithme est : 1 0 0 0 0 0 0.15260 0.43052 0.25305 0.02990 0.08435 0.04958 0.01056 0.13801 0.37570 0.00958 0.12523 0.34091 0.15260 0.43052 0.25305 0.02990 0.08435 0.04958 0.01056 0.13801 0.37570 0.00958 0.12523 0.34091 0.00002 0.00292 0.08774 0.00020 0.02925 0.87987 3. Par exemple, en utilisant la fonction nlm de R. 117

5. Fiabilité sous contrainte structurelle θ p) 0.000 0.010 0.020 0.030 λ p) 0.001 0.002 0.003 0.004 0.005 Log vraisemblance 0.000 0.001 0.002 0.003 0.004 0 10 20 30 40 50 0 10 20 30 40 50 0 10 20 30 40 50 Itérations p) Itérations p) Itérations p) Figure 5.3: Représentation des itérations de l algorithme EM pour les paramètres et pour la log-vraisemblance en pointillés rouges : l estimation obtenue). θ p) 0.00 0.01 0.02 0.03 0.04 λ p) 0.002 0.004 0.006 0.008 0.010 0.012 Log vraisemblance 26 24 22 20 18 16 0 100 200 300 400 500 600 Itérations p) 0 100 200 300 400 500 600 Itérations p) 0 100 200 300 400 500 600 Itérations p) Figure 5.4: Représentation des itérations de l algorithme SEM-Metropolis pour les paramètres et pour la log-vraisemblance en pointillés rouges : l estimation obtenue). On remarque que la deuxième et la quatrième ligne de cette matrice sont identiques, tout comme la troisième et la cinquième ligne. En effet, pour les configurations n 2 et n 4, n i=1 x i = 1 et n i=1 y i = 5. Ces configurations conduisent donc aux mêmes estimateurs du maximum de vraisemblance. De même, pour les configurations n 3 et n 5, on a n i=1 x i = 2 et n i=1 y i = 3. L algorithme SEM-Metropolis génère une chaîne de Markov homogène dont les états correspondent aux estimateurs du maximum de vraisemblance ˆν, ˆλ) pour chacune des six configurations possibles de la table 5.2, d où les lignes identiques observées. Cette chaîne ne peut visiter que quatre états différents figure 5.4). L état 1 est absorbant. Afin d assurer la convergence de l algorithme vers une loi stationnaire, l algorithme 8 remplace artificiellement cet état par l état correspondant à n i=1 x i = 1 au lieu de n i=1 x i = 0. La matrice de transition qui régit la chaîne sous-jacente à l algorithme 8 vaut alors : 0.27076 0.46047 0.16315 0.03198 0.05438 0.01927 0.15260 0.43052 0.25305 0.02990 0.08435 0.04958 0.01056 0.13801 0.37570 0.00958 0.12523 0.34091 0.15260 0.43052 0.25305 0.02990 0.08435 0.04958 0.01056 0.13801 0.37570 0.00958 0.12523 0.34091 0.00002 0.00292 0.08774 0.00020 0.02925 0.87987 La distribution stationnaire de cette chaîne peut être obtenue en élevant à la puissance cette matrice de transition. Cette distribution permet également de calculer les esti- 118

5.5. Applications mateurs pour le paramètre ν, λ). Après 100 itérations de chauffe, la moyenne des 500 états suivants donne les estimations suivantes : ˆν = 0, 034853 et ˆλ = 0, 0037137 figure 5.4). Algorithme MCEM-Metropolis Nous illustrons la mise en œuvre de l algorithme 11. Après 100 itérations de chauffe, la moyenne de 500 itérés des paramètres donne les estimations suivantes : ˆν = 0, 036339 et ˆλ = 0, 0032566 figure 5.5). θ p) 0.00 0.01 0.02 0.03 0.04 λ p) 0.001 0.002 0.003 0.004 0.005 Log vraisemblance 24 22 20 18 0 100 200 300 400 500 Itérations p) 0 100 200 300 400 500 Itérations p) 0 100 200 300 400 500 Itérations p) Figure 5.5: Représentation des itérations de l algorithme MCEM-Metropolis pour les paramètres et pour la log-vraisemblance en pointillés rouges : l estimation obtenue). Comparaison des estimations Les estimations du maximum de vraisemblance fournies par les algorithmes EM, SEM-Metropolis et MCEM-Metropolis sont synthétisées dans la table 5.3. Estimateur MV 4 EM SEM MCEM Metropolis Metropolis ˆν 0,036195 0,036194 0,035680 0,036339 ˆλ 0,0033462 0,0033467 0,0034586 0,0032566 Table 5.3: Cas d école : estimations obtenues pour plusieurs procédures d estimation. L estimation ponctuelle sur ce cas d école ne permet pas de juger de la qualité des estimateurs proposés, puisque nous ne connaissons pas les vraies valeurs de ν et de λ du modèle exact qui a généré l observation, le biais n est donc pas accessible. Simuler des données à partir d un modèle connu nous permettra d éprouver les algorithmes en estimant le biais et la dispersion des estimations. Lors des simulations, nous allons explorer des situations plus complexes, avec des réalisations z i et un nombre n d observations du système plus importants. Dans ces situations, les limitations informatiques peuvent rapidement être atteintes, empêchant l estimation directe par maximum de vraisemblance et la mise en œuvre de l algorithme EM. 4. Estimation obtenue en maximisant directement la vraisemblance des données observées, incomplètes. 119

5. Fiabilité sous contrainte structurelle 5.5.2 Simulations L algorithme 15 permet de simuler des vecteurs d observations sous l hypothèse de nœuds inhibés, introduite dans la section 5.4.1. Nous supposons que les intervalles séparant les dates d observation sont de même largeur L. Algorithme 15 Simulation d observations discrètes sous l hypothèse de nœuds inhibés. Fixer z 0. Pour i = 1,, n : Tirer x i PνL), y i Bnegz i 1, e λl ) Calculer z i <- z i 1 + η x i + y i. Calibration des paramètres utilisés pour les simulations Nous choisissons de simuler l apparition des nœuds sur un système sur une période [0, 250]. Les données sont observées globalement sur n = 10 fenêtres équidistantes de taille L = 25. Les expressions des valeurs centrales pour les X i et les Y i, présentées dans la table 5.5, permettent de fixer des combinaisons de paramètres correspondant à différents scénarios. Notons que les plages de valeurs possibles pour ν et λ sont limitées par la puissance de calcul disponible. ν = 0, 08, λ = 0, 0001 : dans chaque intervalle, deux nœuds apparaissent en moyenne par le flux poissonnien. On peut donc espérer qu une vingtaine de nœuds soient introduits au total sur l ensemble de la période d observation. La composante due au processus de naissance est quasiment nulle. ν = 0, 024, λ = 0, 0038124 : le flux poissonnien est à l origine de l apparition de six nouveaux nœuds en moyenne sur l ensemble de la période d observation. De plus, à chaque intervalle, on peut s attendre à ce que l effectif des nœuds présents au début de l intervalle soit augmenté de 10% environ, par l effet du processus de naissance. ν = 0, 0036, λ = 0, 011508 : le flux poissonnien est plutôt faible et peut être inexistant. En effet, sur l ensemble de la période d observation, un nœud en moyenne provient de ce flux. Pour chaque intervalle, un tiers de l effectif des nœuds présents au début de l intervalle sont ajoutés en moyenne par le processus de naissance lié aux pannes nœuds. Résultats pour l algorithme EM Les résultats de l algorithme 3 sont présentés dans la table 5.6. Les moyennes et les erreurs quadratiques moyennes sont obtenues à partir de 500 simulations ; les erreurs quadratiques moyennes figurent entre parenthèses. Les valeurs initiales sont les mêmes quelque soient les valeurs des paramètres ; elles n influencent pas la convergence, qui est obtenue aux alentours de 30 iterations. Les valeurs de n sont contraintes de manière à éviter le phénomène d explosion combinatoire sur card D z ), qui empêche la mise en œuvre de l algorithme EM. Les estimations du paramètre ν sont relativement proches des valeurs exactes. Les résultats sont moins bons pour λ. Les versions stochastiques de l algorithme EM permettent de contourner le problème d explosion combinatoire qui empêche la mise en œuvre de l algorithme EM pour n > 12 ou même pour n > 6 pour certaines combinaisons de paramètres. 120

5.5. Applications numéro de l intervalle i 1 2 3 Espérances E[ X i ] νλ νλ νλ Médianes E[ Y i ] Med X i ) z 0 1 e λl ) z 1 1 e λl ) z 2 1 e λl ) e λl e λl e λl ν + 1 3 0, 02 ν ν + 1 3 0, 02 ν ν + 1 3 0, 02 ν Med Y i ) Pas d expression simple Modes Mode X i ) ν 1 ν 1 ν 1 Mode Y i ) z 0 1)1 e λl ) z 1 1)1 e λl ) z 2 1)1 e λl ) e λl e λl e λl Table 5.4: Valeurs centrales des quantités simulées pour n = 3. ν λ numéro de l intervalle i 1 2 3 0.08 0.0001 0.024 0.0038124 0.0036 0.011508 Espérances Médianes Modes Espérances Médianes Modes Espérances Médianes Modes E[ X i ] 2 2 2 E[ Y i ] 0,0025 z 0 0,0025 z 1 0,0025 z 2 Med X i ) 2 2 2 Med Y i ) Mode X i ) 1 1 1 Mode Y i ) 0,0025 z 0 1) 0,0025 z 1 1) 0,0025 z 2 1) E[ X i ] 0,6 0,6 0,6 E[ Y i ] 0,01 z 0 0,01 z 1 0,01 z 2 Med X i ) 0 0 0 Med Y i ) Mode X i ) 0 0 0 Mode Y i ) 0,01 z 0 1) 0,01 z 1 1) 0,01 z 2 1) E[ X i ] 0,09 0,09 0,09 E[ Y i ] 0,333 z 0 0,333 z 1 0,333 z 2 Med X i ) 0 0 0 Med Y i ) Mode X i ) 0 0 0 Mode Y i ) 0,333 z 0 1) 0,333 z 1 1) 0,333 z 2 1) Table 5.5: Valeurs centrales des quantités simulées pour différentes combinaisons de ν et λ, avec n = 3, L = 25. Résultats de l algorithme SEM-Metropolis Les résultats de l algorithme 8, qui estime le maximum de vraisemblance, sont présentés dans la table 5.7. A chaque itération de l algorithme SEM-Metropolis, l étape SE fait intervenir un algorithme de Metropolis-Hastings, qui simule une chaîne de Markov dont la loi stationnaire a pour densité 5.26). La valeur simulée est la valeur obtenue après 2000 itérations de Metropolis. Une période de chauffe de 200 itérations de l algorithme SEM-Metropolis est réalisée. Les estimations sont obtenues en moyennant les itérés des paramètres des 150 itérations suivantes. Pour la première combinaison de paramètres, l algorithme SEM-Metropolis fournit de très bonnes estimations pour ν et de mauvais résultats pour λ. Les bon résultats obtenus pour ν sont dus au flux poissonnien important avec le paramètre ν = 0, 08. 121

5. Fiabilité sous contrainte structurelle Paramètres du modèle n ˆν ˆλ ν = 0, 08 λ = 0, 0001 6 0,0783 3.10 6 ) 0,000312 5.10 4 ) ν = 0, 024 6 0,02203 1, 9.10 4 ) 0,0027508 9, 7.10 6 ) λ = 0, 0038124 12 0,02258 1, 2.10 4 ) 0,0019530 5, 7.10 6 ) ν = 0, 036 λ = 0, 011508 6 0,04467 8, 4.10 4 ) 0,006103 4, 7.10 5 ) Table 5.6: Moyennes et EQM de l estimateur du maximum de vraisemblance obtenues par l algorithme 3 EM), à partir de 500 simulations L = 25, z 0 = 3, ν 0) = 0, 02, λ 0) = 0, 01). Paramètres du modèle n ˆν ˆλ 6 0,0790 5, 6.10 4 ) 0,000825 1, 7.10 6 ) ν = 0, 08 12 0,0789 2, 5.10 4 ) 0,000162 3, 0.10 8 ) λ = 0, 0001 24 0,0801 1, 2.10 4 ) 0,000037 4, 1.10 9 ) 60 0,0802 4, 5.10 5 ) 0,000007 8, 7.10 9 ) 6 0,02214 3, 5.10 3 ) 0,0029671 1, 3.10 5 ) ν = 0, 024 12 0,02303 3, 4.10 3 ) 0,0019657 5, 5.10 6 ) λ = 0, 0038124 24 0,02409 3, 2.10 3 ) 0,0016653 3, 3.10 6 ) 60 0,01626 4, 1.10 3 ) 0,0030483 8, 8.10 6 ) ν = 0, 036 6 0,04642 1, 9.10 3 ) 0,005915 4, 8.10 5 ) λ = 0, 011508 12 0,03410 2, 5.10 3 ) 0,008007 6, 8.10 5 ) Table 5.7: Moyennes et EQM de l estimateur du maximum de vraisemblance obtenues par l algorithme 8 SEM-Metropolis), à partir de 500 simulations L = 25, z 0 = 3, ν 0) = 0, 02, λ 0) = 0, 01). Avec λ = 0, 0001, le flux des naissances est très faible et conduit à simuler régulièrement des vecteurs de zéros pour y à l étape SE. La chaîne est rendue irréductible en remplaçant artificiellement les états absorbants de la chaîne par des états pour lesquels n i=1 y i = 1. Cette opération est à l origine de la sous-estimation du paramètres λ par l algorithme SEM pour la combinaison ν = 0, 08 et λ = 0, 0001. Ce phénomène n est pas observé pour les deux autres combinaisons de paramètres, en raison du flux de naissances suffisamment important. Lorsque ν = 0, 024 et λ = 0, 0038124, le biais du paramètre ν augmente pour n = 60. L estimation de ν reste toutefois dans le bon ordre de grandeur. Les propriétés asymptotiques de l estimateur du maximum de vraisemblance sont vérifiées pour le paramètre λ. Pour ν = 0, 036 et λ = 0, 011508, les résultats sont relativement bons. Les simulations n ont pas été réalisées pour n > 12 car les z i simulés sont bien trop importants pour être réalistes. Les tables 5.10, 5.11 et 5.12 donnent les résultats de l algorithme 10, qui approche l estimateur de Bayes par des algorithmes SEM-Metropolis dans la situation où les observations sont équidistantes, en l occurrence L = 25. Nous avons également pu tester l algorithme 9 adapté au cas d observations non équidistantes, mais qui suppose que 1 e λl i λl i. Les résultats sont présentés dans les tables 5.13, 5.14 et 5.15. Ces 122

5.5. Applications algorithmes reposent sur la spécification d une distribution a priori. Quatre type d a priori ont été envisagés : A priori de type A : a priori centré sur la vraie valeur du paramètre ; A priori de type B : a priori centré sur une valeur très différente de la valeur exacte du paramètre, dont la variance est importante ; A priori de type C : a priori centré sur une valeur très différente de la valeur exacte du paramètre, dont la variance est faible ; A priori de type D : a priori non informatif de Jeffreys. Les valeurs des paramètres spécifiant les distributions de ces différents types d a priori sont données dans la table 5.8 pour l algorithme 10 dates d observations quelconques) et dans la table 5.9 pour l algorithme 9 dates d observations équidistantes). Les résultats présentés dans les tables 5.10 à 5.15 mettent en évidence le fait que la qualité de l estimation dépend largement du choix de l a priori. Seuls les a priori de type C conduisent à des estimations fortement biaisées. Les autres types d a priori donnent des résultats comparables et relativement bons. Le choix d un a priori centré sur les valeurs exactes des paramètres conduit à des résultats à peine meilleurs. L estimation du paramètre λ pour la combinaison ν = 0, 08, λ = 0, 0001 reste mauvaise, comme cela a été observé pour l algorithme SEM estimant le maximum de vraisemblance. L approximation permettant de traiter le cas d intervalles de longueurs variables n affecte pas les résultats. Ceci s explique par le fait que pour les paramètres λ considérés, qui correspondent à un taux de défaillance assez faible, 1 e λl i est très proche de λl i. Paramètres Paramètres Type d a priori du modèle a priori A B C D α 1 3 1 0,5 θ = 0, 08 β 10 10 1000 0 λ = 0, 0001 ϕ 10 0,5 1 1 Γ 0,03 2 1000 0,5 α 2 3 1 0,5 θ = 0, 024 β 100 10 1000 0 λ = 0, 0038124 ϕ 10 0,5 1 1 Γ 1 2 1000 0,5 α 4 3 1 0,5 θ = 0, 036 β 100 10 1000 0 λ = 0, 011508 ϕ 20 0,5 1 1 Γ 6 2 1000 0,5 Table 5.8: Paramètres des distributions a priori de types A, B, C, D utilisées dans l algorithme 10. Résultats de l algorithme MCEM-Metropolis Les résultats de l algorithme 11 sont présentés dans la table 5.16. Pour chacune des itérations MCE de cet algorithme, un algorithme de Metropolis-Hastings permet de simuler un M échantillon de loi 5.26). Nous avons utilisé la stratégie préconisée par Wei & Tanner 1990), à savoir augmenter la valeur de M au cours de l algorithme. Les 20 premières itérations de notre algorithme sont réalisées avec M = 100 et les suivantes, avec M = 1000. Pour chacune des itérations, une période de chauffe de 2000 itérations de Metropolis est réalisée et les M valeurs suivantes sont utilisées pour for- 123

5. Fiabilité sous contrainte structurelle Paramètres Paramètres Type d a priori de modèle a priori A B C D α 1 3 1 0,5 θ = 0, 08 β 10 10 1000 0 λ = 0, 0001 ϕ 15 0,5 1 0,5 Γ 100000 2 1000 0 α 2 3 1 0,5 θ = 0, 024 β 100 10 1000 0 λ = 0, 0038124 ϕ 4 0,5 1 0,5 Γ 100 2 1000 0 α 4 3 1 0,5 θ = 0, 036 β 100 10 1000 0 λ = 0, 011508 ϕ 1 0,5 1 0,5 Γ 100 2 1000 0 Table 5.9: Paramètres des distributions a priori de types A, B, C, D utilisées dans l algorithme 9. Type d a priori A B C D n ˆθ ˆλ 6 0,0803 4, 3.10 4 ) 0,000052 3, 2.10 8 ) 12 0,0804 2, 6.10 4 ) 0,000028 1, 4.10 8 ) 24 0,0801 1, 3.10 4 ) 0,000009 8, 7.10 9 ) 60 0,0799 5, 1.10 5 ) 0,000003 9, 4.10 9 ) 6 0,0824 3, 6.10 4 ) 0,002863 1, 0.10 5 ) 12 0,0847 2, 8.10 4 ) 0,000572 4, 6.10 7 ) 24 0,0835 1, 4.10 4 ) 0,000103 1, 4.10 8 ) 60 0,0817 5, 2.10 5 ) 0,000015 7, 3.10 9 ) 6 0,0009 6, 3.10 3 ) 0,106323 1, 1.10 2 ) 12 0,0008 6, 3.10 3 ) 0,061000 3, 8.10 3 ) 24 0,0007 6, 3.10 3 ) 0,026419 7, 0.10 4 ) 60 0,0007 6, 3.10 3 ) 0,006376 4, 0.10 5 ) 6 0,0815 5, 3.10 4 ) 0,000619 1, 7.10 6 ) 12 0,0816 2, 6.10 4 ) 0,000121 3, 9.10 8 ) 24 0,0802 1, 3.10 4 ) 0,000029 6, 2.10 9 ) 60 0,0800 5, 6.10 5 ) 0,000006 8, 8.10 9 ) Table 5.10: Moyennes et EQM de l estimateur du maximum de vraisemblance obtenues par l algorithme 10, à partir de 500 simulations θ = 0, 08, λ = 0, 0001, L = 25, z 0 = 3, λ 0) = 0, 01, θ 0) = 0, 02). mer un M échantillon de loi 5.26). Globalement, l algorithme MCEM-Metropolis estime correctement les paramètres. On observe, comme dans les algorithmes SEM-Metropolis, que l estimation de λ pour la première combinaison de paramètres est relativement biaisée, spécialement pour des petites valeurs de n. On constate pour la seconde combinaison des paramètres un biais important uniquement pour n = 60, comme cela a déjà été observé pour 124

5.5. Applications Type d a priori A B C D n ˆθ ˆλ 6 0,02152 5, 9.10 5 ) 0,0028320 3, 3.10 6 ) 12 0,02109 5, 2.10 5 ) 0,0020933 4, 4.10 6 ) 24 0,02256 4, 3.10 5 ) 0,001789 4, 7.10 6 ) 60 0,01813 8, 7.10 5 ) 0,0030544 7, 5.10 7 ) 6 0,03990 3, 8.10 4 ) 0,0047064 4, 1.10 6 ) 12 0,03173 1, 3.10 4 ) 0,0025467 2, 9.10 6 ) 24 0,02966 9, 8.10 5 ) 0,0016993 5, 0.10 6 ) 60 0,02121 5, 3.10 5 ) 0,0030502 7, 3.10 7 ) 6 0,00088 5, 3.10 4 ) 0,1298840 1, 6.10 2 ) 12 0,00078 5, 4.10 4 ) 0,0855646 6, 8.10 3 ) 24 0,00064 5, 5.10 4 ) 0,0423595 1, 5.10 3 ) 60 0,00348 4, 3.10 4 ) 0,0071032 1, 3.10 5 ) 6 0,02561 1, 9.10 4 ) 0,0030603 5, 6.10 6 ) 12 0,02377 9, 2.10 5 ) 0,0021116 4, 8.10 6 ) 24 0,02563 8, 8.10 5 ) 0,0016763 5, 3.10 6 ) 60 0,01865 9, 9.10 5 ) 0,0030308 7, 9.10 7 ) Table 5.11: Moyennes et EQM de l estimateur du maximum de vraisemblance obtenues par l algorithme 10, à partir de 500 simulations θ = 0, 024, λ = 0, 0038124, L = 25, z 0 = 3, λ 0) = 0, 01, θ 0) = 0, 02). Type d a priori A B C D n ˆθ ˆλ 6 0,03651 5, 2.10 5 ) 0,008121 1, 4.10 5 ) 12 0,03603 5, 3.10 5 ) 0,008193 1, 4.10 5 ) 6 0,06253 1, 1.10 3 ) 0,006596 2, 9.10 5 ) 12 0,05877 7, 7.10 4 ) 0,007357 2, 1.10 5 ) 6 0,00088 1, 2.10 3 ) 0,111777 1, 0.10 2 ) 12 0,00080 1, 2.10 3 ) 0,055857 2, 1.10 3 ) 6 0,04846 7, 7.10 4 ) 0,006272 3, 7.10 5 ) 12 0,04055 3, 7.10 4 ) 0,007765 1, 9.10 5 ) Table 5.12: Moyennes et EQM de l estimateur du maximum de vraisemblance obtenues par l algorithme 10, à partir de 500 simulations θ = 0, 036, λ = 0, 011508, L = 25, z 0 = 3, λ 0) = 0, 01, θ 0) = 0, 02). les algorithmes SEM-Metropolis de manière moins marquée pour les algorithmes approchant des estimateurs de Bayes comparé aux algorithmes estimant le maximum de vraisemblance). 125

5. Fiabilité sous contrainte structurelle Type d a priori A B C D n ˆθ ˆλ 6 0,0819 5, 5.10 4 ) 0,000148 2, 3.10 9 ) 12 0,0812 2, 4.10 4 ) 0,000142 1, 7.10 9 ) 24 0,0798 1, 3.10 4 ) 0,000123 5, 4.10 10 ) 60 0,0792 5, 3.10 5 ) 0,000066 1, 2.10 9 ) 6 0,0933 6, 8.10 4 ) 0,000580 1, 6.10 6 ) 12 0,0868 3, 0.10 4 ) 0,000134 6, 7.10 8 ) 24 0,0835 1, 5.10 4 ) 0,000027 6, 3.10 9 ) 60 0,0817 5, 6.10 5 ) 0,000064 8, 8.10 9 ) 6 0,0019 6, 1.10 3 ) 0,007359 5, 7.10 5 ) 12 0,0031 5, 9.10 3 ) 0,005109 2, 6.10 5 ) 24 0,0083 5, 1.10 3 ) 0,002411 5, 6.10 6 ) 60 0,0281 2, 8.10 3 ) 0,000561 2, 9.10 7 ) 6 0,0772 6, 3.10 4 ) 0,001390 1, 1.10 5 ) 12 0,0796 2, 7.10 4 ) 0,000253 4, 4.10 7 ) 24 0,0805 1, 2.10 4 ) 0,000037 1, 0.10 8 ) 60 0,0805 5, 6.10 5 ) 0,000006 8, 8.10 9 ) Table 5.13: Moyennes et EQM de l estimateur du maximum de vraisemblance obtenues par l algorithme 9, à partir de 500 simulations θ = 0, 08, λ = 0, 0001, L = 25, z 0 = 3, λ 0) = 0, 01, θ 0) = 0, 02). Type d a priori A B C D n ˆθ ˆλ 6 0,02021 4, 8.10 5 ) 0,0035546 8, 9.10 7 ) 12 0,01577 9, 3.10 5 ) 0,0045602 2, 7.10 6 ) 24 0,01754 7, 0.10 5 ) 0,0025629 2, 2.10 6 ) 60 0,01543 1, 0.10 4 ) 0,0032156 5, 0.10 7 ) 6 0,04128 4, 3.10 4 ) 0,0028467 4, 5.10 6 ) 12 0,03346 1, 7.10 4 ) 0,0018775 5, 1.10 6 ) 24 0,03038 1, 1.10 4 ) 0,0016146 5, 5.10 6 ) 60 0,02041 5, 7.10 5 ) 0,0031516 6, 7.10 7 ) 6 0,00220 4, 8.10 4 ) 0,0035165 3, 8.10 6 ) 12 0,00247 4, 7.10 4 ) 0,0036818 2, 1.10 6 ) 24 0,00316 4, 4.10 4 ) 0,0029802 1, 3.10 6 ) 60 0,00598 9, 1.10 4 ) 0,0032633 6, 8.10 5 ) 6 0,02497 1, 7.10 4 ) 0,0037482 8, 4.10 6 ) 12 0,02254 1, 0.10 4 ) 0,0024216 4, 3.10 6 ) 24 0,02350 7, 9.10 5 ) 0,0019379 4, 5.10 6 ) 60 0,01607 1, 1.10 4 ) 0,0031969 5, 4.10 7 ) Table 5.14: Moyennes et EQM de l estimateur du maximum de vraisemblance obtenues par l algorithme 9, à partir de 500 simulations θ = 0, 024, λ = 0, 0038124, L = 25, z 0 = 3, λ 0) = 0, 01, θ 0) = 0, 02). 126

5.5. Applications Type d a priori A B C D n ˆθ ˆλ 6 0,03718 6, 7.10 5 ) 0,008324 2, 4.10 5 ) 12 0,03049 6, 9.10 5 ) 0,009277 1, 2.10 5 ) 6 0,06565 1, 3.10 3 ) 0,006074 4, 4.10 5 ) 12 0,04704 2, 9.10 4 ) 0,008791 1, 5.10 5 ) 6 0,00140 1, 2.10 3 ) 0,008618 1, 5.10 5 ) 12 0,00121 1, 2.10 3 ) 0,010095 5, 3.10 6 ) 6 0,03727 5, 4.10 4 ) 0,008549 3, 4.10 5 ) 12 0,02474 3, 2.10 4 ) 0,009749 9, 8.10 6 ) Table 5.15: Moyennes et EQM de l estimateur du maximum de vraisemblance obtenues par l algorithme 9, à partir de 500 simulations θ = 0, 036, λ = 0, 011508, L = 25, z 0 = 3, λ 0) = 0, 01, θ 0) = 0, 02). Paramètres du modèle n ˆθ ˆλ 6 0,0694 6, 6.10 4 ) 0,002408 1, 3.10 5 ) θ = 0, 08 12 0,0723 3, 0.10 4 ) 0,000796 9, 4.10 7 ) λ = 0, 0001 24 0,0739 1, 9.10 4 ) 0,000310 1, 3.10 7 ) 60 0,0752 1, 1.10 4 ) 0,000086 1, 1.10 8 ) 6 0,02267 1, 6.10 4 ) 0,0030658 6, 7.10 6 ) θ = 0, 024 12 0,02309 3, 4.10 3 ) 0,0019955 5, 7.10 6 ) λ = 0, 0038124 24 0,02472 8, 3.10 5 ) 0,0016979 5, 3.10 6 ) 60 0,01563 4, 3.10 3 ) 0,0030895 9, 8.10 5 ) θ = 0, 036 6 0,04472 7, 2.10 4 ) 0,006233 4, 2.10 5 ) λ = 0, 011508 12 0,03653 3, 2.10 4 ) 0,008024 1, 7.10 5 ) Table 5.16: Moyennes et EQM de l estimateur du maximum de vraisemblance obtenues par l algorithme 11 MCEM), à partir de 500 simulations L = 25, z 0 = 3, λ 0) = 0, 01, θ 0) = 0, 02). 127

5. Fiabilité sous contrainte structurelle 5.5.3 Conclusion Plusieurs procédures permettant d estimer les paramètres λ et ν du processus Z t ) t 0 à partir de l observation discrète et incomplète Z sont proposées. Ces méthodes d estimation reposent sur un algorithme EM : algorithme EM algorithme SEM-Metropolis algorithme MCEM-Metropolis Si l algorithme EM est très efficace, il peut se révéler impraticable en raison d un problème d explosion combinatoire : le nombre de configurations des données complètes ayant pu mener à l observation Z peut être considérable, rendant impossible de calcul de toutes les probabilités dans le dénominateur de la loi 5.26). Les algorithmes SEM-Metropolis ou MCEM-Metropolis contournent ce problème grâce à l algorithme Metropolis-Hastings utilisé lors des étapes SE et MCE. Les résultats sur des simulations ont permis de montrer que les estimations fournies par ces algorithmes sont globalement de bonne qualité. Néanmoins, il existe une situation dans laquelle l estimation est biaisée : lorsque la vraie valeur du taux de défaillance ν resp. λ) est très faible, inférieure à la valeur du paramètre ν resp. λ) correspondant à l apparition d une seule panne lien resp. nœud) au cours de la période d observation. Dans le cas où aucun événement d un des deux types panne lien/panne nœud) n est survenu, aucune donnée de panne n est disponible pour le type en question. Un estimateur du maximum de vraisemblance estimerait alors le taux de défaillance à zéro : il exclurait donc la possibilité que d autres réalisations de ce même modèle produisent des pannes, solution quelque peu extrémiste. Les algorithmes proposés estiment dans ce cas le paramètre à la valeur correspondant à l apparition d une seule panne sur la période d observation. Si les experts ont une idée du taux de défaillance des liens ou des nœuds, la stratégie la plus indiquée dans cette situation est certainement l approximation de l estimateur de Bayes par une version stochastique de l algorithme EM. 128

Conclusion générale La prise en compte de facteurs d influence dans l orientation de la gestion des actifs passe par une meilleure compréhension des lois de défaillance des matériels et de leur vulnérabilité face aux diverses perturbations qui les affectent. Nous avons étudié l impact de diverses contraintes, qu elles soient climatiques ou structurelles, sur la fiabilité du réseau électrique. Nos travaux constituent un premier pas vers la mise en œuvre d une démarche globale d analyse de risque intégrant l effet des aléas climatiques dans l évaluation de la fiabilité du réseau. L objectif poursuivi dans cette approche est de pouvoir déterminer si les défaillances observées sont acceptables ou non au regard des contraintes endurées par le réseau. La logique actuelle, qui consiste à analyser séparément les défaillances produites par des circonstances dites exceptionnelles, est régulièrement mise en cause par les acteurs œuvrant pour la qualité d alimentation. Notre contribution est essentiellement méthodologique. Plusieurs modélisations de la fiabilité en environnement dynamique ont été envisagées. Pour chacune d elles, des méthodes d estimation reposant sur l observation du réseau électrique sont proposées. Les spécificités de cette observation, qui peut être censurée ou incomplète, sont prises en compte dans l élaboration des méthodes d inférence. Trois modèles ont été étudiés en particulier : 1. La modélisation de la durée de bon fonctionnement d un composant par une loi exponentielle par morceaux. Ce modèle, bien que paramétrique, s apparente à un modèle non paramétrique : la forme du taux de défaillance n est pas rigide comme dans la plupart des modèles paramétriques utilisés en fiabilité. Il est particulièrement adapté à la représentation de la fiabilité dans un environnement perturbé. 2. Une modélisation prenant en compte l impact de conditions environnementales sur la fiabilité d un matériel. L environnement dynamique est supposé connu au travers d un ensemble de variables, qui peuvent être de différentes natures. Le modèle utilise la loi exponentielle par morceaux étudiée en amont. Il exprime chacun des paramètres de cette loi comme une fonction des variables d environnement par un modèle à taux proportionnels. Le facteur d accélération permet d incorporer au modèle des considérations d ordre physico-chimique. 3. Une modélisation de l évolution d un système sous l influence de sa composition intrinsèque. Le modèle est construit afin de représenter les mécanismes qui régissent l évolution de certains réseaux, mécanismes liés aux maintenances correctives succédant aux défaillances des composants. La fiabilité des composants détermine alors l évolution du système. Des simulations nous ont permis d examiner les propriétés de certains estimateurs. Des applications sur des jeux de données réels ont également été réalisées. Ce sont 129

CONCLUSION GENERALE elles qui ont motivé la formalisation d un modèle général reliant la fiabilité à des contraintes environnementales dynamiques. En proposant des méthodes inférentielles adaptées aux spécificités des données issues du réseau électrique, nous espérons fournir des outils pertinents pour les études fiabilistes de réseaux. Nous décrivons dans la section suivante des extensions possibles aux modèles et méthodes étudiés dans nos travaux. Perspectives Loi exponentielle par morceaux L étude asymptotique de l estimateur du maximum de vraisemblance du paramètre de la loi exponentielle par morceaux est réalisée dans un cadre paramétrique. Ce travail pourrait être étendu et développé en le rapprochant des travaux de Kitchin et al. 1983) sur l estimateur PEXE. Dans les sections 2.3.1 et 2.3.2, la partition τ de la loi exponentielle par morceaux est supposée connue. Des stratégies permettant de déterminer cette partition sont proposées par Arjas & Dario 1994), dans un cadre bayésien. Arjas & Dario intègrent une dépendance entre les taux successifs de la loi exponentielle par morceaux en utilisant une forme particulière de l a priori. Une version dynamique de l échantillonneur de Gibbs est utilisée pour le calcul des paramètres a posteriori. Demarqui et al. 2012) proposent une autre approche permettant d estimer conjointement τ et λ. Celle-ci présente l avantage de générer des intervalles contenant au moins une défaillance. Ils considèrent une structure de régression sur les valeurs successives du taux constant par morceaux. Toutes ces pistes constituent des extensions possibles à l inférence développée dans le chapitre 2. Modèle de fiabilité sous contrainte d environnement Dans le chapitre 4, nous avons fait le choix de nous placer dans le cadre des modèles de régression pour des variables de durées. Lawless 2002) distingue principalement deux familles de modèles de ce type : les modèles à taux proportionnels et les modèles de vie accélérée. Notre modèle utilise des concepts issus de ces deux classes, mais il n est ni un modèle à taux proportionnels, ni un modèle de vie accélérée. Lorsqu on arrive à caractériser l environnement par un processus stochastique, nous pourrions considérer un hazard rate process Aalen & Gjessing, 2001). Dans la section 4.2, nous modélisons l environnement par un processus de Hawkes. Nous pourrions dans cette situation envisager un modèle de dommage cumulé Nakagawa, 2007) ou un modèle de type shot noise Lemoine & Wenocur, 1986). Nous avons supposé dans notre modèle que l effet des covariables sur la fiabilité était fixe ; seules les contraines d environnement évoluent dans le temps. On peut à cette approche statique, opposer une approche dynamique Demarqui et al., 2012). Dans une approche dynamique, l effet des covariables sur la fiabilité dépend du temps. Une approche dynamique pourrait être incorporée au modèle proposé dans le chapitre 4, en utilisant des techniques bayésiennes Gamerman, 1994; Demarqui et al., 2012) ou fréquentistes avec par exemple, une modélisation de l effet de la covariable par une marche aléatoire Singpurwalla, 1995, p.97). Cependant, nous préssentons qu une approche dynamique risquerait de brouiller l information captée par notre modèle, interprétable par les experts en matériels électriques. Par contre, une 130

CONCLUSION GENERALE approche bayésienne du modèle proposé constituerait une extension intéressante à notre travail, notamment dans les situations où les experts ont des connaissances relativement précises sur les mécanismes physico-chimiques à l origine des défaillances. C est souvent le cas pour ce qui concerne le mode de défaillance et l énergie d activation associée. Une autre perspective consisterait à tester la significativité des composantes du paramètre de régression β. L effet de certaines covariables peut de fait être en deçà de l effet escompté. Ecarter ces covariables du modèle permettrait certainement de gagner en efficacité. Cette situation n a pas été rencontrée dans les deux applications proposées dans les sections 4.1 et 4.2, pour lesquelles on observe une forte influence des covariables. Une stratégie en l absence d information sur la nature des covariables potentiellement influentes consisterait à incorporer par défaut un grand nombre de covariables au modèle, puis à procéder à une sélection progressive des covariables influentes par une procédure itérative, ascendante ou descendante, basée sur des tests entre modèles emboîtés test du rapport de vraisemblance, test de Wald). Modèle de fiabilité sous contrainte structurelle Dans le chapitre 5, nous avons proposé plusieurs méthodes d estimation de la fiabilité d un système évolutif reposant sur des observations continues et discrètes de la composition de ce système. Nous avons décrit deux approches adaptées à une observation discrète du système. Si conjointement à ces observations discrètes, les temps inter-défaillances étaient observés, nous pourrions adapter ces approches de manière à limiter l explosion combinatoire liée au calcul des différentes configurations complètes pouvant mener à l observation incomplète. Plusieurs versions stochastiques de l algorithme EM ont été présentées dans le cadre de la première approche : algorithmes SEM-Metropolis, MCEM-Metropolis. Nous avons montré comment ces algorithmes stochastiques permettaient d estimer le maximum de vraisemblance et le maximum a posteriori. L algorithme SAEM introduit par Delyon et al. 1999) aurait également pu être envisagé dans cette situation. L algorithme SAEM consiste, lors de chaque itération de l algorithme EM, à remplacer l étape E par une étape SA Stochastic Approximation) qui ne requiert qu une simulation suivant la loi conditionnelle des données complètes sachant les données observées M simulations sont nécessaires dans l algorithme MCEM). Cet algorithme est connu pour sa rapidité d exécution et sa faible sensibilité aux valeurs initiales. La mise en œuvre de l algorithme EM décrit dans la seconde approche constitue une autre piste de travail. Un algorithme similaire a déjà été utilisé en génétique dans une situation connexe, où les paramètres d un processus de naissance et de mort avec immigration sont estimés à partir d une observation discrète de ce processus Doss et al., 2012). Dans notre cas, le processus autorise des immigrations simultanées. L application de cette seconde approche sur des données simulées permettrait de confronter les résultats à ceux de la première approche, présentés dans la section 5.5.2. Enfin, nous pourrions aboutir à un modèle d évolution plus réaliste en prenant en compte non seulement l effet des contraintes de nature structurelle, mais également celui de contraintes environnementales externes telles que la température. Une extension possible au modèle présenté dans le chapitre 5 consisterait à inclure une 131

CONCLUSION GENERALE dépendance du taux de survenue des pannes à une covariable dont la forme serait inspirée des considérations du chapitre 3. La modélisation de l évolution du système par un processus markovien de sauts non homogène pourrait ainsi permettre de reproduire certains phénomènes saisonniers observés sur le système. 132

CHAPITRE 6 Annexes 6.1 Les surtensions 6.1.1 Différents types de surtensions Les différents types de surtension pouvant exister sur le réseau électrique sont exposés en détail par Fulchiron 1992). La figure 6.1 représente leurs niveaux respectifs. Nous décrivons succintement ces différentes types de surtensions : Les surtensions à fréquence industrielle correspondent à des fréquences inférieures à 500 Hertz. Leur origine peut être, par exemple, un défaut d isolement. La durée de la surtension subie par l appareil dépend alors de la rapidité de réponse des systèmes de protection et n excède généralement pas quelques secondes. Les surtensions de manœuvre sont engendrées par un changement brusque dans la configuration du réseau, qui provoque l apparition de phénomènes transitoires et souvent, d une onde de surtension. Les manœuvres à l origine de ces surtensions sont réalisées par les disjoncteurs et/ou les interrupteurs du réseau électrique. Les surtensions atmosphériques sont dues à l orage. Bien évidemment, les réseaux aériens sont les plus sensibles à ce type de surtension. 6.1.2 Protection contre les surtensions Les niveaux d isolement des matériels électriques sont tels qu en théorie, les surtensions de manœuvre et les surtensions à fréquence industrielle ne devraient pas affecter la distribution de l énergie électrique figure 6.1). Les essais diélectriques habituels d une minute garantissent une résistance à ces niveaux de surtensions. En revanche, les surtensions dues à la foudre, sans commune mesure avec les autres types de surtensions, sont trop importantes pour que l on puisse dimensionner les matériels électriques pour leur résister. Lors de la conception, un compromis est établi entre le niveau d isolement, le niveau de protection des parafoudres et le risque de défaillance admissible figure 6.1). 133

6. Annexes Figure 6.1: Représentation des valeurs relatives des différents types de surtensions, ainsi que des niveaux de protection contre ces surtensions source : Fulchiron 1992)) 6.1.3 Zoom sur les surtensions atmosphériques. Lorsque la foudre tombe sur un transformateur, le courant de foudre génère une surtension impulsionnelle. Le coup de foudre peut provoquer des dégâts sur le transformateur par deux moyens : soit en l atteignant directement, soit par un effet distant. On parle de coups de foudre direct et indirect. Les coups de foudre directs, bien que très destructeurs, ne peuvent être pris en compte dans le modèle en raison de la précision insuffisante des données. Nous focalisons notre étude sur les coups de foudre indirects. La chute de la foudre en un lieu donné peut affecter les transformateurs environnants sous l effet des surtensions qu elle provoque. Par la suite, les différents types de surtensions indirectes sont détaillés. Surtensions par conduction Des surtensions par conduction ont lieu lorsque le courant de foudre se propage par l intermédiaire du réseau électrique. Le passage de cette grande quantité de courant par les transformateurs se réalise par un couplage capacitif. L amplitude de la surtension est largement diminuée par cette transmission. Le courant de foudre parcourt la ligne en se divisant par deux, d où l augmentation de tension subie par les transformateurs adjacents à cette ligne par la loi d Ohm : U = Z C I/2, avec : I : le courant de foudre Z C : l impédance caractéristique de la ligne Nous nous référons à Le Roy et al. 1984) pour une description détaillée de ce type de surtension. Les transformateurs considérés sont tous équipés de parafoudres à oxyde de zinc. La tension à leurs bornes suite à un coup de foudre ne vaut donc pas Z C I/2. Nous considérons que le courant conduit provient du réseau HTA et que celuici est équipé de parafoudre à oxyde de zinc. Ces parafoudres sont constitués d une résistance variable fortement non linéaire. Lorsque le courant est faible, ils se comportent comme des isolant quasi-parfaits. Lorsque le courant est très fort, en particulier lorsqu un coup de foudre affecte le réseau, l impédance s écroule et ils deviennent 134

6.1. Les surtensions conducteurs. La forte non linéarité de ce type de parafoudre fait qu une forte variation de courant provoque une faible variation de tension Fig.6.2). En faisant une hypothèse sur la forme de l onde de foudre, nous pouvons raisonnablement faire l approximation suivante : la surtension par conduction est la somme de la surtension résiduelle et d une quantité fonction de la longueur de câble que traverse la surtension : U cond U res + f l cond ), 6.1) avec : U res : la surtension résiduelle après passage dans le parafoudre, donnée par la courbe UI des parafoudres à oxyde de zinc Fig.6.2) ; l cond : la longueur de câble HTA que traverse la décharge. Par la suite, nous négligerons la quantité f l cond ) et considérerons alors l approximation U cond U res. Figure 6.2: Valeurs de la tension résiduelle d un parafoudre à oxyde de zinc soumis à une onde de courant donnée Les surtensions par conduction ont lieu lorsque la foudre tombe suffisamment près d une ligne. Nous considérons qu un amorçage a lieu lorsque la distance entre le traceur et la ligne est inférieure à un seuil dépendant de l intensité de la foudre, c est-à-dire lorsque l inégalité suivante est vérifiée : 2dI) x h 1, 6.2) h avec : x : la distance entre le traceur et la ligne ; h : la hauteur de la ligne ; di) : la distance d amorçage, donnée par la relation empirique simple : d = 9, 4I 2/3 où I désigne l intensité de la foudre. Le cas échéant, d autres types de surtensions peuvent apparaître. 135

6. Annexes Surtensions par induction La variation très rapide du champ électromagnétique produite par le coup de foudre entraîne des tensions induites dans les éléments métalliques au voisinage du coup de foudre, en particulier les transformateurs. Le modèle de Rusck permet de calculer la tension induite Ux, t) à un point x d un conducteur d une ligne aérienne de distribution qui se trouve à une hauteur h du sol. Il intègre les contributions des tensions induites localisées à droite et à gauche de x Fig.6.3). Figure 6.3: Tension induite au point x. Rusck a proposé une formule simplifiée pour estimer la valeur crête U ind de la surtension induite sur une ligne longue partant de la valeur crête I de courant de foudre Rusck 1958); Arzag et al. 2009) : où U ind = Z 0Ih y 1 + ) β 2 1 0, 5β 2 ) Z 0 : l impédance caractéristique de la ligne en Ω I : le courant de foudre en ka h : la hauteur de la ligne en mètres y : la distance entre l impact de foudre et la ligne en mètres β : le coefficient de Lundholm et Rusck, β = Surtensions par élévation du potentiel à terre 1 1+ 500 I Lorsque le courant de foudre s écoule par le sol, celui-ci présente un gradient en potentiel autour de l impact. On parle alors de surtension par élévation du potentiel à terre. On considère que la prise de terre par laquelle est injectée le courant est un piquet vertical de longueur l poteau de ligne électrique). L expression du champ électrique dans le sol à une distance r de ce piquet, dans un périmètre pour lequel l inductance peut être négligée, vaut : Vt) = ρit) 2πrl avec : ρ la résistivité du sol en Ω mètre It) l intensité du courant injecté en ka r la distance à l impact de foudre en mètres l la hauteur du piquet en mètres 6.3) 136

6.2. Calcul des surtensions 6.2 Calcul des surtensions Des traitements spatiaux permettent de convertir l information sur les impacts, décrite par le tableau 4.11, en l information sur les surtensions relatives à chacun des transformateurs. Ces traitements sont réalisés sous PostGIS 1. Nous supposons que lorsque la foudre tombe à plus d un kilomètre d un transformateur, elle ne génère pas de surtension sur ce transformateur. Nous calculons les surtensions apparaissant sur le transformateur par effet d induction et par effet de conduction voir en annexe 6.1 pour une description des différents types de surtension) ; nous négligeons les surtensions par élévation du potentiel. En effet, nous avons pu constater sur des exemples numériques avec une valeur de ρ fixée, que les valeurs des surtensions par élévation du potentiel à terre sont généralement très inférieures à celles pouvant être prises par la surtension par conduction ou par induction. Par ailleurs, la très forte variabilité spatiale de ρ rend ce type de surtension difficilement calculable. Nous faisons l hypothèse que lorsqu un coup de foudre survient, seuls deux types de surtension peuvent apparaître : surtension par conduction ou surtension par induction ou exclusif). Le calcul de ces deux types de surtensions pour chacun des composants de l étude s effectue en plusieurs étapes : 1. On détermine pour chaque impact de foudre s il génère une surtension par conduction. Nous considérons que ce type de surtension apparaît lorsque la distance séparant l impact du réseau HTA le plus proche est inférieure à la distance d amorçage données par l équation 6.2). Cette étape est illustrée en figure 6.5. 2. On suppose que la surtension par conduction est celle en sortie du parafoudre tension résiduelle du parafoudre). Pour des raisons techniques, la longueur de ligne parcourue par la foudre n a pu être calculée. Aussi, la deuxième composante de la surtension par conduction dans la formule 6.1) sera négligée. Nous utilisons la courbe UI de la figure 6.4. Les surtensions ainsi déterminées sont affectées à/aux transformateurs) situés à moins d un kilomètre de l impact. 3. Nous supposons que tous les impacts, plus précisément tous les impacts situés à moins d un kilomètre des transformateurs, n ayant pas généré de surtension par conduction sont à l origine d une surtension par induction. La formule 6.3) donne la valeur de cette surtension. Nous prenons Z 0 = 30Ω pour l impédance caractéristique de la ligne et h = 10 mètres pour la hauteur de la ligne. Les distances entre l impact et la ligne sont calculées sous PostGIS. Elles sont représentées sur un exemple en figure 6.6. Les surtensions par conduction sont affectées à/aux transformateurs) situés) à moins d un kilomètre de l impact. 4. Pour chaque transformateur, l effet des impacts simultanés est supposé cumulatif : les surtensions provoquées par des coups de foudre tombés au même instant en deux endroits différents, dans un périmètre de un kilomètre autour d un transformateur, sont sommées pour ce transformateur. 1. PostGIS est un complément qui active la manipulation d informations de géométrie par le système de gestion de base de données PostgreSQL. PostGIS permet le traitement d objets spatiaux dans les serveurs PostgreSQL, autorisant le stockage en base de données pour les systèmes d informations géographiques. La visualisation des résultats est possible avec logiciel SIG Quantum GIS. 137

6. Annexes Tension résiduelle kv) 60 80 100 120 140 1e+02 5e+02 1e+03 5e+03 1e+04 5e+04 1e+05 Courant A) Figure 6.4: Tension résiduelle des parafoudres supposée pour le calcul des surtensions par conduction. Figure 6.5: Détection des surtensions par conduction sous Postgis. Les transformateurs sont représentés par des points rouge, leur zone d influence par des disques gris, la zone d amorçage pour chacun des impacts de foudre survenus entre 2002 et 2010 par des disques violets et le réseau HTA aérien par des segments noirs. La surtension engendrée par les impacts est «conduite» lorsque le réseau intersecte les disques violets. La présence d une surtension par conduction est signalée en vert. 138

6.2. Calcul des surtensions Figure 6.6: Représentation par des segments bleus des distances les plus courtes entre les impacts de foudre violet) et le réseau noir). 139

6. Annexes 6.3 Procédure d estimation dans le cas général La première équation de vraisemblance permet d écrire λ 0 en fonction de β : λ 0 = k n i=1 m i+1 j=1 e β ϕ i j t i,j 6.4) En injectant l expression 6.4) dans la seconde équation de vraisemblance, on obtient : On pose : n i=1 m i +1 j=1 uβ) = δ ij ϕ i j k n i=1 m i+1 j=1 ϕi j eβ ϕ i j t i,j n i=1 J u β) = u β) = n i=1 m i+1 j=1 e β ϕ i j t i,j = 0 m i +1 e β ϕ i j t i,j j=1 n i=1 m i +1 ϕ i ϕ i j eβ j t i,j. 6.5) j=1 uβ) est une valeur de R + et J u β) est un vecteur de dimension p. On note : g : R p R p β gβ) = n i=1 m i +1 δ ij ϕ i j k J uβ) uβ). j=1 L estimateur du maximum de vraisemblance de β, s il existe, est solution du système d équations : gβ) = 0. Ce système n admet pas de solution explicite, nous avons donc recours à une méthode numérique. Nous utilisons l algorithme de Newton-Raphson. Il s agit d une procédure itérative permettant d approximer les valeurs annulant une fonction. Soit J g β) la matrice Jacobienne associée à la fonction g : J g β) = k H uβ)uβ) J u β)j u β) uβ) 2 où H u β) désigne la matrice hessienne de la fonction u : H u β) = 2 n m i +1 β 2 uβ) = i=1 j=1 ϕ i j ϕi j T e β ϕ i j t i,j Partant d une valeur d initialisation β 0), l algorithme de Newton-Raphson consiste à calculer itérativement les valeurs du paramètre β jusqu à la convergence. Connaissant la valeur β l) de β à l étape l, la valeur à l étape suivante est donnée par : 140 β l+1) = β l) J g β l) ) 1 gβ l) )

6.3. Procédure d estimation dans le cas général On retient comme solution β l+1) dès que β l+1) β l) < ɛ, pour un ɛ fixé. On obtient ainsi un estimateur ˆβ du paramètre β. On substitue ensuite β par ˆβ dans l équation 6.4) pour obtenir un estimateur ˆλ 0 du paramètre λ 0 : ˆλ 0 = k i=1 n m i+1 j=1 e ˆβ. ϕ i j t i,j 141

6. Annexes 6.4 Preuve de la proposition 11 1. Résolution de l équation : P t k 0, k 0 ) = P t k 0, k 0 )λ 0 + ν). P t k 0, k 0 ) est de la forme C 0 e λ0+ν)t. Avec la condition initiale P 0 k 0, k 0 ) = 1, on obtient : P t k 0, k 0 ) = e λ 0+ν)t L expression 5.3) est vraie pour n = 0. 2. Résolution de l équation : P t k 0, k 0 + 1) = P t k 0, k 0 + 1)λ 1 + ν) + P t k 0, k 0 )λ 0. Equation sans second membre : P t k 0, k 0 + 1) est de la forme C 1 t)e λ 1+ν)t. Equation avec second membre : P t k 0, k 0 + 1) = C 1 t)e λ 1+ν)t λ 1 + ν)c 1 t)e λ 1+ν)t. On identifie : C 1 t)e λ 1+ν)t = p 0 t)λ 0 C 1 t)e λ 1+ν)t = λ 0 e λ 0+ν)t C 1 t) = λ 0e λ 0 λ 1 )t C 1 t) = λ 0 λ 1 λ 0 e λ 0 λ 1 )t + k 1. Avec la condition initiale P 0 k 0, k 0 + 1) = 0 on obtient : P t k 0, k 0 + 1) = λ 0e νt λ 1 λ 0 e λ 0t e λ 1t ). On a finalement : P t k 0, k 0 + 1) = e νt 1 λ 0 B j,1 e λ jt j=0 ) L expression 5.3) est vraie pour n = 1. 3. Résolution pour n = 2, 3,... de l équation : P t k 0, k 0 + n) = P t k 0, k 0 + n) λ n + ν) + P t k 0, k 0 + n 1)λ n 1 + P t k 0, k 0 + n 2)ν On raisonne par récurrence en résolvant tout d abord le cas n = 2. Nous cherchons donc une solution pour l équation différentielle : P t k 0, k 0 + 2) = P t k 0, k 0 + 2) λ 2 + ν) + P t k 0, k 0 + 1)λ 1 + P t k 0, k 0 )ν Equation sans second membre : P t k 0, k 0 + 2) est de la forme C 2 t)e λ 2+ν)t. 142

6.4. Preuve de la proposition 11 Equation avec second membre : P t k 0, k 0 + 2) = C 2 t)e λ 2+ν)t λ 2 + ν)c 2 t)e λ 2+ν)t. On identifie : C 2 t)e λ 2+ν)t = λ 1 p 1 t) + νp 0 t) [ ] C 2 t)e λ 2+ν)t = e νt 1 λ 0 λ 1 B j,1 e λjt + νe λ 0t j=0 C 2 t) = λ 0λ 1 1 j=0 B j,1 e λ j λ 2 )t + νe λ 0 λ 2 )t. On utilise le fait que B j,1 = λ 2 λ j )B j,2, puis la condition initiale P 0 k 0, k 0 + 2) = 0 : C 2 1 t) = λ 0λ 1 2 λ j )B j,2 e j=0λ λ j λ 2 )t + νe λ 0 λ 2 )t 1 C 2 t) = λ 0 λ 1 B j,2 e λ j λ 2 )t 1 1) + ν e λ 0 λ 2 )t 1) λ j=0 2 λ 0 [ ] P t k 0, k 0 + 2) = e νt 1 λ 0 λ 1 B j,2 e λjt e λ2t 1 ) + ν e λ0t e λ2t ) λ j=0 2 λ 0 En remarquant que on a : 1 j=0 B j,2 = B 2,2 et que 1 λ 2 λ 0 = λ 1 λ 0 )B 0,2 = λ 1 λ 2 )B 2,2, P t k 0, k 0 + 2) = e νt [ P t k 0, k 0 + 2) = e νt [ λ 0 λ 1 2 j=0 B j,2 e λ jt + ν λ 0 λ 1 2 j=0 B j,2 e λ jt + ν λ 1 λ 0 )B 0,2 e λ 0t + λ 1 λ 2 )B 2,2 e λ 2t )] 2 j=0 λ 1 λ j )B j,2 e λ jt ] Donc l expression 5.3) est vraie pour n = 2. On suppose maintenant que la formule est vraie pour n et n + 1. Montrons que cela implique qu elle est vraie pour n + 2. La dernière équation du système d équations différentielle de Chapman-Kolmogorov indique que, pour n N : P t k 0, k 0 + n + 2) = λ n+2 + ν)p t k 0, k 0 + n + 2) + λ n+1 P t k 0, k 0 + n + 1) + νp t k 0, k 0 + n). Equation sans second membre : P t k 0, k 0 + n + 2) est de la forme C n+2 t)e λ n+2+ν)t. Equation avec second membre : 143

6. Annexes P t k 0, k 0 + n + 2) = C n+2 t)e λ n+2+ν)t λ n+2 + ν)c n+2 t)e λ n+2+ν)t. On identifie : C n+2 t)e λ n+2+ν)t = λ n+1 p n+1 t) + νp n t) = e νt λ n+1 k 0 tq 2k n + 1 +ν k 0 tq 2k n On différencie alors le cas pair du cas impair. ν k Ψ n+1,k) ν k Ψ n,k) Si n + 2 est pair, alors n est pair également et : n+1 C n+2 t)e λ n+2t = λ n+1 Ψ n+1,0) j=0 C n+2 t) = λ n+1ψ n+1,0) + k > 0 tq 2k < n + 2 + k > 0 tq 2k < n + 1 + k > 0 tq 2k < n + 2 +ν n 2 +1 Ψ n, n 2 ) n j=0 n j=0 n+1 j=0 Λ n+1,0) j B j,n+1 e λ jt ν k λ n+1 Ψ n+1,k) ν k Ψ n,k 1) n j=0 n+1 j=0 ) Λ n, n 2 ) j B j,n e λ jt ) n+1 Λ n+1,0) j B j,n+1 e λ j λ n+2 )t j=0 ) ν k λn+1 Ψ n+1,k) Ψ n,k 1) n +ν n 2 +1 Ψ n, n 2 ) Λ n, n 2 ) j B j,n e λ j λ n+2 )t j=0 ) Λ n+1,k) j B j,n+1 e λ jt ) Λ n,k) j B j,n e λ jt. ) ) Λ n+1,k) j B j,n+1 e λ jt ) Λ n,k 1) j B j,n e λ jt j B j,n+1 e λ j λ n+2 )t n j=0 Λn,k 1) j B j,n e λ j λ n+2 )t n+1 j=0 Λn+1,k) Or B j,n+1 = λ n+2 λ j )B j,n+2 et P 0 k 0, k 0 + n + 2) = 0, d où : ) n+1 C n+2 t) = λ n+1ψ n+1,0) Λ n+1,0) j λ n+2 λ j )B j,n+2 e λ j λ n+2 )t j=0 + ν k λn+1 Ψ n+1,k) ) Ψ n,k 1) n+1 j=0 Λn+1,k) j λ n+2 λ j )B j,n+2 e λ j λ n+2 )t k > 0 tq n j=0 Λn,k 1) j B j,n e λ j λ n+2 )t 2k < n + 2 ) n +ν n 2 +1 Ψ n, n 2 ) Λ n, n 2 ) j B j,n e λ j λ n+2 )t j=0 ) 144

6.4. Preuve de la proposition 11 C n+2 t) = λ n+1 Ψ n+1,0) + k > 0 tq 2k < n + 2 n+1 Λ n+1,0) ) j B j,n+2 e ) λ j λ n+2 )t 1 j=0 ν k λn+1 Ψ n+1,k) Ψ n,k 1) ) ) n+1 j=0 Λn+1,k) j B j,n+2 e λ j λ n+2 )t 1 n j=0 Λn,k 1) 1 j B j,n n +ν n 2 +1 Ψ n, n 2 ) Λ n, n 2 ) 1 j B j,n e λ j λ n+2 )t 1) ). λ j=0 n+2 λ j ) λ n+2 λ e λ j λ n+2 )t j 1 n+1 De plus, j=0 B j,n+2 = B n+2,n+2 et C n+2 t) = λ n+1 Ψ n+1,0) Or on a posé : + k > 0 tq 2k < n + 2 +ν n 2 +1 Ψ n, n 2 ) n+2 j=0 1 λ n+2 λ j B j,n = λ n+1 λ j )B j,n+2. Donc : ) n+2 Λ n+1,0) j B j,n+2 e λ j λ n+2 )t j=0 ν k λn+1 Ψ n+1,k) ) Ψ n,k 1) n+2 j=0 Λn+1,k) n+2 j=0 Λn,k 1) j ) Λ n, n 2 ) ) j λn+1 λ j Bj,n+2 e λ j λ n+2 )t. λ n+1 Ψ n+1,k), si k = 0 Ψ n+2,k) = λn+1 Ψ n+1,k) ) Ψ n,k 1), si 0 < k < n + 2)/2 1, si k = n + 2)/2 j B j,n+2 e λ j λ n+2 )t ) λn+1 λ j Bj,n+2 e λ j λ n+2 )t et Λ n+2,k) = 1, si k = 0 Λ n+1,k) j, si 0 < k < n + 2)/2 λ n+1 λ j )Λ n,k 1) j λ n+1 λ j )Λ n,k 1) j, si k = n + 2)/2. Finalement, C n+2 t) = k 0 tq 2k n + 2 P t k 0, k 0 + n + 2) = e νt k 0 tq 2k n + 2 ν k Ψ n+2,k) ν k Ψ n+2,k) ) n+2 Λ n+2,k) j B j,n+2 e λ jλ n+2 )t j=0 n+2 j=0 Λ n+2,k) j B j,n+2 e λ jt ) 145

6. Annexes Pour le cas impair, on obtient de la même manière : ) n+2 C n+2 t) = λ n+1 Ψ n+1,0) Λ n+1,0) j B j,n+2 e λ j λ n+2 )t j=0 + ν k λn+1 Ψ n+1,k) ) Ψ n,k 1) k > 0 tq 2k < n + 2 n+2 j=0 Λn+1,k) n+2 j=0 Λn,k 1) j j B j,n+2 e λ j λ n+2 )t ) λn+1 λ j Bj,n+2 e λ. j λ n+2 )t D où l expression de P t k 0, k 0 + n + 2) : p n+2 t) = e νt k 0 tq 2k n + 2 ν k Ψ n+2,k) n+2 j=0 Λ n+2,k) j B j,n+2 e λ jt ) Cette expression est identique au cas pair l indice de la somme k 0 tq 2k n + 2 englobe les cas pair et impair). En supposant l expression 5.3) vraie pour n et pour n + 1, on a montré qu elle était également vérifiée pour n + 2. Elle est donc vraie pour tout n N. 146

6.5. Preuve du théorème 10 6.5 Preuve du théorème 10 Soit V ij n 1, n 2, x, t) la mesure jointe définie par : V ij n 1, n 2, x, t) = P Z t = j, Y t = n 1, X t = n 2, R t x Z 0 = i) V ij n 1, n 2, x, t + ɛ) =P Z t+ɛ = j, Y t+ɛ = n 1, X t+ɛ = n 2, R t+ɛ x Z 0 = i) = P Z t+ɛ = j, Y t+ɛ = n 1, X t+ɛ = n 2, R t+ɛ x, Z t = k Z 0 = i). k i La mesure jointe P Z t+ɛ = j, Z t = k) est non nulle pour trois valeurs de k : V ij n 1, n 2, x, t + ɛ) =P Z t+ɛ = j, Y t+ɛ = n 1, X t+ɛ = n 2, R t+ɛ x, Z t = k Z 0 = i) =P Z t+ɛ = j, Y t+ɛ = n 1, X t+ɛ = n 2, R t+ɛ x, Z t = j Z 0 = i) + P Z t+ɛ = j, Y t+ɛ = n 1, X t+ɛ = n 2, R t+ɛ x, Z t = j 1 Z 0 = i) + P Z t+ɛ = j, Y t+ɛ = n 1, X t+ɛ = n 2, R t+ɛ x, Z t = j η Z 0 = i) =P Z t+ɛ = j, Y t = n 1, X t = n 2, R t x jɛ, Z t = j Z 0 = i) + P Z t+ɛ = j, Y t = n 1 1, X t = n 2, R t x jɛ, Z t = j 1 Z 0 = i) + P Z t+ɛ = j, Y t = n 1, X t = n 2 1, R t x jɛ, Z t = j η Z 0 = i). On peut écrire la mesure V ij en fonction de ces taux de transition P h i, j) définis dans la section 5.3 : V ij n 1, n 2, x, t + ɛ) =P θ ɛ, j, j)p Z t = j, Y t = n 1, X t = n 2, R t x jɛ Z 0 = i) + P θ ɛ, j 1, j)p Z t = j 1, Y t = n 1 1, X t = n 2, R t x jɛ Z 0 = i) + P θ ɛ, j η, j)p Z t = j η, Y t = n 1, X t = n 2 1, R t x jɛ Z 0 = i) =P θ ɛ, j, j)v ij n 1, n 2, x jɛ, t) + P θ ɛ, j 1, j)v i,j 1 n 1 1, n 2, x jɛ, t) + P θ ɛ, j η, j)v i,j 1 n 1, n 2 1, x jɛ, t). La matrice du noyau de transition P t est liée au générateur infinitésimal Q par la relation suivante : { 1 + Qj, j)ɛ + oɛ) si j = k P ɛ k, j) = Qk, j)ɛ + oɛ) si j = k. On peut donc écrire la mesure jointe V ij de la manière suivante : On a donc : V ij n 1, n 2, x, t + ɛ) =1 + Qj, j)ɛ + oɛ))v ij n 1, n 2, x jɛ, t) + Qj 1, j)ɛ + oɛ))v i,j 1 n 1 1, n 2, x jɛ, t) + Qj η, j)ɛ + oɛ))v i,j η n 1, n 2 1, x jɛ, t) =V ij n 1, n 2, x jɛ, t) + ɛ [ Qj, j)v ij n 1, n 2, x jɛ, t) + Qj 1, j)v i,j 1 n 1 1, n 2, x jɛ, t) +Qj η, j)v i,j η n 1, n 2 1, x jɛ, t) ] + oɛ). V ij n 1, n 2, x, t + ɛ) V ij n 1, n 2, x, t)+v ij n 1, n 2, x, t) V ij n 1, n 2, x jɛ, t) =ɛ [ Qj, j)v ij n 1, n 2, x jɛ, t) + Qj 1, j)v i,j 1 n 1 1, n 2, x jɛ, t) +Qj η, j)v i,j η n 1, n 2 1, x jɛ, t) ] + oɛ). 147

6. Annexes On divise les deux termes de l égalité par ɛ et on fait tendre ɛ vers 0. On obtient l équation différentielle : V ij n 1, n 2, x, t) t + j V ijn 1, n 2, x, t) x On peut écrire matriciellement cette relation : Vn 1, n 2, x, t) t =Qj, j)v ij n 1, n 2, x, t) + Qj 1, j)v i,j 1 n 1 1, n 2, x, t) + Qj η, j)v i,j η n 1, n 2 1, x, t). + Vn 1, n 2, x, t) D = Vn x 1, n 2, x, t)q, 6.6) où Vn 1, n 2, x, t) est la matrice formée par les V ij n 1, n 2, x, t), Q est la matrice du générateur infinitésimal et D, la matrice diagonale telle que D i,i = i, i N. Soient V la transformées de Laplace associée à la mesure V ij n 1, n 2, x, t) : V n 1, n 2, x, t) = + 0 e xw Vn 1, n 2, w, t)dw. En prenant la transformée de Laplace des deux membres de l égalité 6.6), on obtient : ) Vn1, n 2, x, t) ) Vn1, n + 2, x, t) D = V n t x 1, n 2, x, t)q t V n 1, n 2, x, t) + xv n 1, n 2, x, t) Vn 1, n 2, 0, t)) D = V n 1, n 2, x, t)q. Or Vn 1, n 2, 0, t) = 0, d où l équation différentielle pour V n 1, n 2, x, t) : t V n 1, n 2, x, t) = V n 1, n 2, x, t) Q xd). En remplaçant les termes du générateur infinitésimal par leurs valeurs voir section 5.2), on obtient : t V ij n 1, n 2, x, t) = jxvij n 1, n 2, x, t) + Qj, j)vij n 1, n 2, x, t) + 1 n1 1Qj 1, j)vi,j 1 n 1 1, n 2, x, t) + 1 n2 1Qj η, j)vi,j η n 1, n 2 1, x, t) = jx + ν + jλ)vij n 1, n 2, x, t) + 1 n1 1j 1)λVi,j 1 n 1 1, n 2, x, t) + 1 n2 1νVi,j η n 1, n 2 1, x, t). 6.7) Ecrivons maintenant : 148 H i u, v, x, s, t) =Eu X t v Y t e xr t s Z t Z 0 = i) = j n 1 0 n 2 0 + 0 u n 2 v n 1 e xw s j PY t = n 1, X t = n 2, R t x, Z t = j Z 0 = i)dw = j = j s j s j n 1 0 n 2 0 n 1 0 n 2 0 u n 2 v n 1 + 0 u n 2 v n 1 Vij n 1, n 2, x, t). } {{ } h ij u,v,x,t) e xw V ij n 1, n 2, x, t)dw

6.5. Preuve du théorème 10 t h iju, v, x, t) = D où : u n 2 v n 1 n 1 0 n 2 0 t V ij n 1, n 2, x, t) [ jxv ij n 1, n 2, x, t) ν + jλ) V ij n 1, n 2, x, t) = u n 2 v n 1 n 1 0 n 2 0 ] +1 n1 1j 1)λVi,j 1 n 1 1, n 2, x, t) + 1 n2 1νVi,j η n 1, n 2 1, x, t) = jx + ν + jλ) u n 2 v n 1 Vij n 1, n 2, x, t) n 1 0 n 2 0 + j 1)λ u n 2 v n 1 Vi,j 1 n 1 1, n 2, x, t) n 1 1 n 2 0 + ν u n 2 v n 1 Vi,j η n 1, n 2 1, x, t) n 1 0 n 2 1 = jx + ν + jλ)h ij u, v, x, t) + j 1)λv u n 2 v n 1 Vi,j 1 n 1, n 2, x, t) n 1 0 n 2 0 + νu u n 2 v n 1 Vi,j η n 1, n 2, x, t) n 1 0 n 2 0 = jx + ν + jλ)h ij u, v, x, t) + j 1)λvh i,j 1 u, v, x, t)1 j 1 + νuh i,j η u, v, x, t)1 j η. t H iu, v, x, s, t) = s j t h iju, v, x, t) j = s j jx + λ) + ν)h ij u, v, x, t) + s j j 1)λvh i,j 1 u, v, x, t) + s j νuh i,j η u, v, x, t) j 0 j 1 j η = x + λ)s js j 1 h ij u, v, x, t) ν s j h ij u, v, x, t) j 0 j 0 + λvs 2 j 1)s j 2 h i,j 1 u, v, x, t) + νu s j h i,j η u, v, x, t) j 1 j η = x + λ)s js j 1 h ij u, v, x, t) ν s j h ij u, v, x, t) j 0 j 0 + λvs 2 js j 1 h i,j u, v, x, t) + νus η s j h i,j u, v, x, t) j 0 j 0 = x + λ)s s H iu, v, x, s, t) νh i u, v, x, s, t) + λvs 2 s H iu, v, x, s, t) + νus η H i u, v, x, s, t) [ = λvs 2 x + λ)s] s H iu, v, x, s, t) + νus η 1)H i u, v, x, s, t). De plus, [ ] H i u, v, x, s, 0) =E u X 0 v Y 0 e xr 0 s Z 0 Z 0 = i [ ] =E s Z 0 Z 0 = i =s i. Donc H i est solution de l équation différentielle 5.28) de conditions initiales H i u, v, x, s, 0) = s i. 149

Bibliographie Aalen, O. 1978). Nonparametric inference for a family of counting processes. Annals of Statistics 14 945 966. Aalen, O. & Gjessing, H. 2001). Understanding the shape of the hazard rate : A process point of view. Statistical Science 16 1 22. Aitkin, M., Laird, N. & Brian, F. 1983). A reanalysis of the Stanford heart transplant data. Journal of the American Statistical Association 78 264 274. Andersen, P., Borgan, O., Gill, R. & N., K. 1993). Statistical Models Based on Counting Processes. Springer Series in Statistic. Andersen, P. & Gill, R. 1982). Cox s regression model for counting processes : a large sample study. The Annals of Statistics 10 1100 1120. Arjas, E. & Dario, G. 1994). Nonparametric bayesian inference from right censored survival data, using the Gibbs sampler. Statistica Sinica 4 205 524. Arzag, B., Ghemri, A., Mimouni, A. & Azzouz, Z. 2009). Utilisation des approches de Rusck pour le calcul des surtensions induites par la foudre sur les lignes aériennes Première conférence nationale sur la compatibilité électromagnétique. Barbosa, E., Colosimo, E. & Louzada-Neto, F. 1996). Accelerated life tests analyzed by a piecewise exponential distribution via generalized linear models. IEEE Transactions on Reliability 45 619 623. Barlow, R. & Proschan, F. 1977). Asymptotic theory of total time on test processes with applications to life testing. In Proceedings of the Fourth International Symposium on Multivariate Analysis. North-Holland. Bartholomew, D. 1957). A problem in life testing. Journal of the American Statistical Association 52 350 355. Bartholomew, D. 1963). The sampling distribution of an estimate arising in life testing. Technometrics 5 361 374. Basu, A. & Ghosh, J. 1980). Asymptotic properties of a solution to the likelihood equation with life-testing applications. Journal of the American Statistical Association 75 410 414. Becker, N. 1970). A stochastic model for two interacting populations. Journal of Appplied Probability 7 544 564. Billingsley, P. 1961). Statistical inference for Markov processes. University of Chicago Press. 151

Bibliographie Billinton 1975). Reliability assessment of transmission and distribution schemes. IEEE Transactions on Power Apparatus and Systems PAS 94 724 732. Brémaud, P. 2001). Markov Chains, Gibbs Fields, Monte Carlo Simulation, and Queues. Springer. Breslow, N. 1972). Contribution to the paper by D.R. Cox. Journal of the Royal Statistical Society. Series B Methodological) 34 216 217. Breslow, N. 1974a). Covariance analysis of censored survival data. Biometrics 30 89 99. Breslow, N. 1974b). A large sample study of the life table and product limit estimates under random censorship. The Annals of Statistics 2 437 453. CEI 1990). Vocabulaire électrotechnique international. Sûreté de fonctionnement et qualité de service CEI 60050-191. Commission Electrotechnique Internationale. Celeux, G. & Diebolt, J. 1986). L algorithme SEM : un algorithme d apprentissage probabiliste pour la reconnaissance de mélanges de densités. Revue de statistique appliquée 34 35 52. Cha, J. & Mi, J. 2007). Study of a stochastic failure model in a random environment. Journal of Applied Probability 44 151 163. Cocozza-Thivent, C. 1997). Processus stochastiques et fiabilité des systèmes. Springer. Colvert, R. & Boardman, T. 1976). Estimation in the piece-wise constant hazard rate model. Communications in Statistics - Theory and Methods 11 1013 1029. Colvert, R. & Boardman, T. 1979). Estimation in the piece-wise constant hazard rate model when the data are grouped. Communications in Statistics - Theory and Methods 8 417 432. Commenges, D. 2003). Likelihood for interval-censored observations from multi-state models. Statistic & Operations Research Transactions 27 1 12. Cooper, M. 2005). Investigation of Arrhenius acceleration factor for integrated circuit early life failure region with several failure mechanisms. IEEE Transactions on components and packaging technologies 28 561 563. Cox, D. 1972). Regression models and life tables. Journal of the Royal Statistical Society. Series B Methodological) 34 187 220. Cox, D. 1975). Partial likelihood. Biometrika 62 269 276. Cramer, H. 1946). Mathematical Methods of Statistics. Princeton University Press. Crank, J. 1979). The mathematics of diffusion. Oxford University Press. Second edition. CRE 2010). Rapport sur la qualité de l électricité diagnostics et propositions relatives à la continuité de l alimentation électrique. URL http://www.cre.fr/documents/publications/rapports-thematiques. CRE 2013). Tarifs d accès au réseau et prestations annexes. URL http://www.cre.fr/reseaux/reseaux-publics-d-electricite. Cygan, P. & Laghari, J. 1990). Models for insulation ageing under electrical and thermal multistress. IEEE Transactions on Electric Insulation 25 923 933. 152

Bibliographie Dehay, D. & Yao, J.-F. 2007). On likelihood estimation for discretely observed markov jump processes. Australian and New Zealand Journal of Statistics 49 93 107. Delyon, B., Lavielle, M. & Mouline, E. 1999). Convergence of a stochastic approximation version of the EM algorithm. The Annals of Statistics 27 94 128. Demarqui, F., Loschi, R., Dey, D. & Colosimo, E. 2012). A class of dynamic piecewise exponential models with random time grid. Journal of Statistical Planning and Inference 142 728 742. Dempster, A., Laird, N. & Rubin, D. 1977). Maximum likelihood from incomplete data with the EM algorithm. Journal of the Royal Statistical Society. Series B Methodological), 39 1 38. Di Crescenzo, A. & Pellerey, F. 1998). On lifetimes in random environments. Naval Research Logistics 45 365 375. Donnet, S. & Rousseau, J. 2013). Bayesian Inference for Partially Observed Branching Processes. URL http://hal.archives-ouvertes.fr/hal-00776926. Doss, C., Suchard, M., Holmes, I., Kato-Maeda, M. & Minin, V. 2012). Great expectations : EM algorithms for discretely observed linear birth-death-immigration process. ARXIV. URL http://arxiv-web2.library.cornell.edu/abs/1009.0893v2. Escobar, L. & Meeker, W. 2006). A review of accelerated test models. Statistical Science 21 552 577. FIDES 2004). Méthodologie de fiabilité pour les systèmes électroniques. DGA. Fleming, T. & Harrington, D. 2005). Counting Processes and Survival Analysis. Wiley Series in Probability and Statistics. Fort, G. & Moulines, E. 2003). Convergence of the Monte Carlo Expectation Maximization for curved exponential families. Annals of Statistics 31 1220 1259. Friedman, M. 1982). Piecewise exponential models for survival data with covariates. The Annals of Statistics 10 101 113. Fulchiron, D. 1992). Surtensions et coordination de l isolement. Cahier Technique Merlin Gerin numéro 151. Gamerman, D. 1991). Dynamic bayesian models for survival data. Journal of the Royal Statistical Society : Series C Applied Statistics) 40 63 79. Gamerman, D. 1994). Bayes estimation of the piece-wise exponential distribution. IEEE Transactions on Reliability 43 128 131. Gaudoin, O. & Soler, J. 1997). Failure rate behavior of components subjected to random stress. Reliability Engineering and System Safety 58 19 30. Glasser, M. 1967). Exponential survival with covariance. Journal of the American Statistical Association 62 561 568. Gouno, E. 2007). Optimum step-stress for temperature accelerated life testing. Quality and Reliability Engineering International 23 915 924. Gourieroux, C. & Montfort, A. 1999). Statistique et modèles économétriques. Economica. 153

Bibliographie Guérineau, L. & Gouno, E. 2011). Estimation du taux de défaillance pour des équipements industriels sous contraintes d environnement. 43 èmes Journées de Statistique, Tunis. Guérineau, L. & Gouno, E. 2012a). Failure rate estimation from field data under time-varying stress. Quality and Reliability Engineering International Publié en ligne. Guérineau, L. & Gouno, E. 2012b). Fiabilité d un système modélisé par un couple de processus aléatoires dépendants. 44 èmes Journées de Statistique, Bruxelles. Guérineau, L. & Gouno, E. 2013). Modélisation de la fiabilité de matériels exposés aux surtensions atmosphériques. 45 èmes Journées de Statistique, Toulouse. Hastings, W. 1970). Monte carlo sampling methods using Markov chains and their applications. Biometrika 57 97 109. Hawkes, A. 1971). Spectra of some self exciting and mutually exciting point processes. Biometrika 58 83 90. Hjorth, U. 1980). A reliability distribution with increasing, decreasing, constant and bathtub-shaped failure rates. Technometrics 22 99 107. Hoadley, B. 1949). Asymptotic properties of maximum likelihood estimators for the independant not identically distributed case. The Annals of Mathematical Statistics 42 1977 1991. Holford, T. 1976). Life tables with concomitant information. Biometrics 32 587 597. Holmes, I. 2005). Using evolutionary expectation maximization to estimate indel rates. Bioinformatics 21 2294 2300. IEEE 1998). IEEE standard 493-1997 gold book). IEEE Recommended Practice for the Design of Reliable Industrial and Commercial Power Systems. Johnson, N., Kotz, S. & Balakrishnan, N. 1994). Continuous Univariate Distributions. Wiley Series in Probability and Mathematical Statistics. Volume 1, Seconde édition. Kalbfleisch, J. & Prentice, R. 1973). Marginal likelihoods based on Cox s regression and life models. Biometrika 60 267 278. Kalbfleisch, J. & Prentice, R. 2002). The Statistical Analysis of Failure Time Data. Wiley Series in Probability and Statistics. Second edition. Kebir, Y. 1991). On hasard rate processes. Naval Research Logistics 38 865 876. Keiding, N. 1975). Maximum likelihood estimation in the birth-and-death process. The Annals of Statistics 3 363 372. Kim, J. & Proschan, F. 1991). Piecewise exponential estimator of the survivor function. IEEE Transactions on Reliability 40 134 139. Kitchin, J., Langberg, N. & Proschan, F. 1983). A new method for estimating life distributions from incomplete data. Statistics and Decisions 1 241 255. Klein, T. & Coauthors 2002). Daily dataset of 20th-century surface air temperature and precipitation series for the european climate assessment. International Journal of Climatology 22 1441 1453. Data and metadata available at http ://eca.knmi.nl[5 April 2012]. 154

Bibliographie Laird, N. & Olivier, D. 1981). Covariance analysis of censored survival data using log-linear analysis techniques. Journal of the American Statistical Association 76 231 240. Lall, P. 1996). Tutorial : temperature as an input to microelectronic-reliability models. IEEE Transactions on Reliability 45. Lawless, J. 2002). Statistical Models and Methods for Lifetime Data. Wiley Series in Probability and Statistics. Second edition. Le Roy, G., Gay, C., Hutzler, B., Lalot, J. & Dubanton, C. 1984). diélectriques de l air et des très hautes tensions. Editions Eyrolles. Les propriétés Lemoine, A. & Wenocur, M. 1986). A note on shot-noise and reliability modeling. Operations research 34 320 323. Liao, H. & Elsayed, E. 2006). Reliability inference for field conditions from accelerated degradation testing. Naval Research Logistics 53 576 588. Malla, G. 2008). Extending the piecewise exponential estimator of the survival function. In 4th Annual Symposium on Graduate Research and Scholarly Projects GRASP). 69 70. Malla, G. & Mukerjee, H. 2010). A new piecewise exponential estimator of a survival function. Statistics and Probability Letters 80 1 15. Meeker, W. & Escobar, L. 1998). Statistical Methods for reliability Data. Wiley series in Probability and Statistics. Metropolis, N., Rosenbluth, A., Rosenbluth, M., Teller, A. & Teller, E. 1953). Equations of state calculations by fast computing machines. J. Chem. Phys. 21 1087 1092. Meyer, B. 1990). Unemployment insurance and unemployment spells. Econometrica 58 757 782. MIL-HDBK-217F 1991). Recueil de données de fiabilité des composants électroniques. Miller, R. 1960). Early failures in life testing. Journal of the American Statistical Association 55 491 502. Mäkeläinen, T. & Schmidt, G. P., Klaus an Styan 1981). On the existence and uniqueness of the maximum likelihood estimate of a vector-valued parameter in fixed-size samples. The Annals of Statistics 9 758 767. Nakagawa, T. 2007). Shock and damage models in reliability theory. Springer Series in Reliability Engineering. Nelson, W. 1972). Theory and applications of hazard plotting for censored failure data. Technometrics 14 945 966. Nelson, W. 1990). Accelerated testing. New York : Wiley. Nielsen, S. 2000). The stochastic EM algorithm : estimation and asymptotic results. Bernouilli 6 457 489. Nikulin, M., Gerville-Reache, L. & Couaillier, V. 2007). Statistique des essais accélérés. Lavoisier. 155

Bibliographie Ogata, Y. 1988). Statistical models for earthquake occurrences and residual analysis for point processes. Journal of the American Statistical Association 83 9 27. Ogata, Y. 1998). Space-time point-process models for earthquake occurrencess. Annals of the Institute of Statistical Mathematics 50 379 402. Ozaki, T. 1979). Maximum likelihood estimation of Hawkes self-exciting point processes. Annals of the Institute of Statistical Mathematics 31 145 155. Peck, D. 1986). Comprehensive model for humidity testing correlation. Reliability physics symposium proceedings 24 44 50. Pham, H. 2006). Springer Handbook of Engineering Statistics. Springer. Proriol, M. 2011). Rapport d information déposé en application de l article 145 du règlement, par la commission des affaires économiques, sur la sécurité et le financement des réseaux de distribution d électricité. Puri, P. 1975). A linear birth and death process under the influence of another process. Journal of Applied Probability 12 1 17. RDF 1993). Recueil de données de fiabilité des composants électroniques. Centre National d Etudes des Télécommunications. Rusck, S. 1958). Induced lightning over voltages on power transmission lines with special reference to the over voltage protection of low voltage networks. Ph.D. thesis, Royal Institute, Stockholm, Sweden. Sandrin, P. 1986). Fiabilité du système électrique : l approche du planificateur. In Conférence Internationale des Grands Réseaux Electriques à Haute tension. 37 42. Schoenfeld, D. 1980). Chi-squared goodness-of-fit tests for the proportional hazards regression model. Biometrika 67 145 153. Simon, C. 1971). Recherche de la fiabilité des câbles exposés à des contraintes de gradient électrique. Revue Générale d Electricité 831 836. Singpurwalla, N. 1995). Survival in dynamic environments. Statistical Science 10 86 103. Tencer, M. 1994). Moisture ingress into nonhermetic enclosures and packages. A quasi-steady state model for diffusion and attenuation of ambient humidity variations. vol. 44 of Electronic components and technology conference. IEEE, 1996 2009. Therneau, T., Grambsch, P. & Fleming, T. 1990). survival models. Biometrika 77 147 160. Martingale-based residuals for Thornes, J., Kishino, H. & Felsenstein, J. 1991). An evolutionary model for maximum likelihood alignment of DNA sequences. Journal of Molecular Evolution 33 114 124. Tsiatis, A. 1981). A large sample study of Cox s regression model. The Annals of Statistics 9 93 108. Wei, G. & Tanner, M. 1990). A Monte Carlo implementation of the EM algorithm and the poor man s data augmentation algorithms. Journal of the American Statistical Association 85 699 704. 156

Bibliographie Westberg, U. & Klefsjö, B. 1994). TTT-plotting for censored data based on the piecewise exponential estimator. International Journal of Reliability, Quality and safety Engineering 1 1 13. Whitehead, J. 1980). Fitting Cox s regression model to survival data using GLIM. Applied Statistics 29 268 275. Willis, H., Welch, G. & Schrieber, R. 2001). Aging Power Delivery Infrastructures. CRC Press. Wong, K. 1988). The bathtub does not hold water any more. Quality and Reliability Engineering International 4 279 282. Wong, K. 1989). The roller-coaster curve is in. Quality and Reliability Engineering International 5 29 36. Wong, K. 1991). The physical basis for the roller-coaster hazard rate curve for electronics. Quality and Reliability Engineering International 7 489 495. Wu, L. 1989). Issues in smoothing empirical hazard rates. Sociological Methodology 19 127 159. Zahalca, C.-A. 1999). Fiabilité de systèmes en environnement aléatoire stressant. Thèse de doctorat, Institut National Polytechnique de Grenoble. 157