devant l Université de Rennes 1



Documents pareils
LE DIAGNOSTIC. Diagnostic clinique

Leucémies de l enfant et de l adolescent

Thérapies par cellules souches dans la SEP

ACTUALITES THERAPEUTIQUES. Dr Sophie PITTION (CHU Nancy) Metz, le 2 Juin 2012

Qu est-ce qu un sarcome?

Pseudotumor cerebri. Anatomie Le cerveau et la moelle épinière baignent dans un liquide clair, appelé le liquide céphalo-rachidien (LCR).

Sujets présentés par le Professeur Olivier CUSSENOT

Tout ce que vous avez toujours voulu savoir sur la scintigraphie osseuse et le TEP-SCAN

Les atouts et faiblesses des caméras TEP dédiées, TEP corps entier, TEP-CT, TEMP pour la quantification

Sclérose en plaques: la maladie aux 1000 visages. Brochure d information des entreprises pharmaceutiques suisses pratiquant la recherche

Lymphome non hodgkinien

Compléments - Chapitre 5 Spectroscopie

Dr E. CHEVRET UE Aperçu général sur l architecture et les fonctions cellulaires

La migraine. Foramen ovale perméable. Infarctus cérébral (surtout chez la femme)

La Dysplasie Ventriculaire Droite Arythmogène

Alemtuzumab (Lemtrada * ) réduit significativement les rechutes dans la sclérose en plaques comparé à l interféron Bêta-1a dans une étude de Phase III

des banques pour la recherche

1ST2S Biophysiopathologie : Motricité et système nerveux La physiologie neuro-musculaire :

Bulletin. Le mot du président Quel avenir pour les interférons et le Copaxone?

Foscolo (1), J Felblinger (2), S Bracard (1) CHU Hôpital central, service de neuroradiologie, Nancy (1) CHU BRABOIS, Centre d investigation clinique

Peut-on reconnaître une tumeur de bas-grade en imagerie conventionnelle? S. Foscolo, L. Taillandier, E. Schmitt, A.S. Rivierre, S. Bracard, CHU NANCY

LIGNES DIRECTRICES CLINIQUES TOUT AU LONG DU CONTINUUM DE SOINS : Objectif de ce chapitre. 6.1 Introduction 86

Le diagnostic de la sclérose en plaques

DON DE SANG. Label Don de Soi

GUIDE PATIENT - AFFECTION DE LONGUE DURÉE. La prise en charge du cancer du rein

Bases physiques de l imagerie en

Document d information dans le cadre de l installation d un cyclotron. à Saint-Louis

Maladie de Hodgkin ou lymphome de Hodgkin

L arthrose, ses maux si on en parlait!

Le GRAND CONSEIL de la République et canton de Genève décrète ce qui suit :

La prise en charge de votre épilepsie

Principales causes de décès selon le groupe d âge et plus

Consensus Scientifique sur. les. Champs statiques

Le Don de Moelle Ça fait pas d mal!

GROUPE CLINIQUE DU MAIL

Le don de moelle osseuse :

Votre guide des définitions des maladies graves de l Assurance maladies graves express

DIPLÔME INTERUNIVERSITAIRE D ECHOGRAPHIE. Examen du Tronc Commun sous forme de QCM. Janvier h à 16 h

G U I D E - A F F E C T I O N D E L O N G U E D U R É E. La prise en charge de votre mélanome cutané

I - CLASSIFICATION DU DIABETE SUCRE

Découvrez L INSTITUT UNIVERSITAIRE DU CANCER DE TOULOUSE

Les sciences de l ingénieur appliquées à la prise en charge du

L IRM pas à pas Un module d enseignement interactif des bases physiques de l Imagerie par Résonance Magnétique.

Communiqué de presse. Merck Serono. 18 septembre 2008

L INSUFFISANCE CARDIAQUE

Quels sont les facteurs qui font augmenter les risques de cancer du rein?

Exposition de la population française aux rayonnements ionisants liée aux actes de diagnostic médical en 2012

LASER DOPPLER. Cependant elle n est pas encore utilisée en routine mais reste du domaine de la recherche et de l évaluation.

TECHNIQUES D AVENIR LASER DOPPLER IMAGING LASER DOPPLER IMAGING LASER DOPPLER IMAGING

Actualités IRM dans la SEP Thomas Tourdias 1, 2

DENSITOMÉTRIE OSSEUSE : CE QUE LE RADIOLOGUE DOIT SAVOIR

La maladie de Horton Artérite temporale Artérite à cellules géantes

Résonance Magnétique Nucléaire : RMN

UE2 CANCEROLOGIE Place de la Médecine Nucléaire

Mieux connaître les publics en situation de handicap

Quel apport de l imagerie dans les traitements anti-angiogéniques?

Qu est-ce que la maladie de Huntington?

Recommandation finale du Comité canadien d expertise sur les médicaments Version en langage clair

Comprendre la mort cérébrale

Résonance magnétique (IRM)

Première partie: Restitution + Compréhension (08 points)

QUELLES SONT LES OPTIONS DU TRAITEMENT DE LA LMC?

MIEUX COMPRENDRE CE QU EST UN ACCIDENT VASCULAIRE CÉRÉBRAL AVC

Anémie et maladie rénale chronique. Phases 1-4

L APS ET LE DIABETE. Le diabète se caractérise par un taux de glucose ( sucre ) trop élevé dans le sang : c est l hyperglycémie.

Compte rendu d hospitalisation hépatite C. À partir de la IIème année MG, IIIème années MD et Pharmacie

Migraine et céphalées de tension: diagnostic différentiel et enjeux thérapeutiques

Le logiciel EduAnatomist.

PLATE-FORME COMMUNE UNE SOLUTION LOGICIELLE UNIQUE POUR AMÉLIORER LA PRODUCTIVITÉ. Logiciel DIRECTVIEW V5 pour CR et DR

Le don de moelle osseuse

Quelles sont les options?

Sérodiagnostic de la polyarthrite rhumatoïde


La Greffe de Cellules Souches Hématopoïétiques

IRM du Cancer du Rectum

Intérêt de la TEP-FDG dans les cancers de l ovaire

Guide de Mobilisation. de cellules souches pour mon. Autogreffe AVEC LE SOUTIEN DE. Carnet d informations et de suivi pour le patient et sa famille

Simulation d'un examen anthropomorphique en imagerie TEMP à l iode 131 par simulation Monte Carlo GATE

Information à un nouveau donneur de cellules souches du sang

La lutte contre la tuberculose est régie par l arrêté royal du 17 octobre 2002.

La prise en charge de votre polyarthrite rhumatoïde

Céphalées de tension. Hélène Massiou Hôpital Lariboisière, Paris

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

Les troubles non moteurs de la maladie de Parkinson. Comprendre la maladie de Parkinson

Le but de la radioprotection est d empêcher ou de réduire les LES PRINCIPES DE LA RADIOPROTECTION

DIFFRACTion des ondes

La maladie de Huntington, une maladie du cerveau

L agénésie isolée du corps calleux

Accidents des anticoagulants

La prise en charge de l AVC ischémique à l urgence

Numéro 18 l l Traitements pharmacologiques et SEP

Dossier thématique de la. Fondation de l'avenir. Chirurgie du futur SOMMAIRE

Délivrance de l information à la personne sur son état de santé

admission aux urgences

Les mécanismes de la récupération neurologique. PPradat-Diehl DU de Rehabilitation neuropsychologique 2007

Maladies neuromusculaires

LE SYNDROME DE BUDD CHIARI

Don de moelle osseuse. pour. la vie. Agence relevant du ministère de la santé. Agence relevant du ministère de la santé

Transcription:

N o d ordre: 3437 THÈSE présentée devant l Université de Rennes 1 pour obtenir le grade de : Docteur de l université de Rennes 1 Mention Traitement du Signal et Télécommunications par Laure Soraya Aït-Ali Équipe d accueil : VisAGeS - IRISA École Doctorale : Matisse Composante universitaire : SPM Titre de la thèse : Analyse spatio-temporelle pour le suivi de structures évolutives en imagerie cérébrale multi-séquences Soutenue le 4 décembre 2006 devant la commission d examen M. : Patrick Bouthemy Président MM. : Jean-Paul Armspach Rapporteurs Grégoire Malandain M. : Gilles Édan Examinateur M. : Christian Barillot Directeur de thèse MM. : Sylvain Prima Invités Sean Morissey

Remerciements Ces travaux ont été réalisés à l IRISA, d abord au sein de la composante médicale du projet VISTA, puis dans l unité projet VisAGeS. Tout d abord, merci à M. Patrick Bouthemy d avoir accepté de présider mon jury de thèse. Je remercie également M. Jean-Paul Armspach et M. Grégoire Malandain d avoir accepté la charge de rapporteur, ainsi que M. Gilles Édan qui a bien voulu participer au jury. Merci à M. Christian Barillot qui a encadré ma thèse et à l ensemble du projet VisAGeS et de ses collaborateurs pour les conseils, la disponibilité et le soutien que chacun m a apporté. Parmi eux, je souhaite remercier plus particulièrement Sylvain Prima qui a participé activement à ces travaux ; ses conseils scientifiques ont été une aide précieuse. Je remercie également Sean Patrick Morissey pour ses conseils avisés en tant qu expert médical. Je remercie également les services de neurologie et de radiologie du CHU Pontchaillou de Rennes. En particulier, les diverses rencontres avec M. Gilles Édan ont toujours été bénéfiques. Je remercie chaleureusement Mme. Béatrice Carsin-Nicol pour sa compréhension et sa disponibilité. Je tiens également à remercier M. Patrick Bouthemy et le projet VISTA, au sein duquel s est déroulé le début de ma thèse. De façon plus générale, ces remerciements s adressent également à toute l équipe Lagadic, que nous ayons eu directement l occasion de travailler ensemble ou non, ainsi qu aux membres de l IRISA qui m ont entourée, conseillée et avec qui j ai partagé ces trois années de doctorat. Mes pensées les plus amicales vont à Cybèle Ciofolo avec qui j ai partagé mon bureau pendant plus de 2 ans et demi. Enfin, merci pour tout à ma famille et mes amis. Je remercie plus particulièrement Pierre Le Neindre pour la relecture de ce manuscrit et ses conseils tout au long de mon doctorat. Les entités suivantes ont participé au financement de ce travail : la région Bretagne, l institut national de recherche en informatique et en automatique (INRIA), l association pour la recherche sur la sclérose en plaques (ARSEP).

Table des matières Table des matières 1 Introduction 5 I Contexte 9 1 Application : sclérose en plaques et IRM 11 1.1 La sclérose en plaques............................ 12 1.1.1 Cause................................. 12 1.1.2 Symptômes et signes......................... 15 1.1.3 Traitement.............................. 17 1.1.4 Diagnostic............................... 18 1.1.5 Formes cliniques........................... 20 1.2 L imagerie par résonance magnétique (IRM)................ 22 1.2.1 Imagerie médicale.......................... 22 1.2.2 Principes de l IRM.......................... 24 1.2.3 Artefacts IRM............................ 26 1.2.4 Types de séquences d IRM conventionnelles............ 29 1.2.5 L utilité des différents types de séquences d IRM en SEP..... 30 1.2.6 L utilité des IRM longitudinales en SEP.............. 36 2 Quel type de méthode utiliser et pour quel type d analyse? 39 2.1 Introduction.................................. 39 2.2 La problématique de la segmentation en imagerie médicale........ 41 2.2.1 Objectifs et propriétés souhaitables pour la segmentation.... 41 2.2.2 Difficulté de la tâche de segmentation................ 42 2.3 Approches transversales........................... 42 2.3.1 Méthodes de classification non paramétriques........... 44 2.3.2 Méthodes de classification paramétriques............. 48 2.3.3 Segmentation des lésions....................... 53 2.4 Approches longitudinales.......................... 54 2.4.1 Méthodes avec segmentation.................... 55 2.4.2 Méthodes sans segmentation.................... 55 1

2 Table des matières 2.5 Discussion et conclusion........................... 58 II Méthode 61 3 Prétraitements 63 3.1 Correction de biais.............................. 63 3.2 Recalage.................................... 65 3.2.1 Méthodes existantes......................... 65 3.2.2 Présentation de la méthode utilisée................. 67 3.3 Correction d intensité............................ 69 3.3.1 Problématique............................ 69 3.3.2 Présentation de la méthode utilisée................. 70 3.4 Extraction du cerveau............................ 70 3.4.1 Méthodes existantes......................... 70 3.4.2 Présentation de la méthode utilisée................. 72 3.5 Présentation de la chaîne de prétraitement................. 72 4 Segmentation des tissus cérébraux 75 4.1 Introduction.................................. 75 4.2 Modélisation du problème.......................... 75 4.3 Algorithme d Espérance-Maximisation (EM)................ 77 4.3.1 Cadre général............................. 78 4.3.2 Classification dans le cadre d un modèle de mélange....... 79 4.3.3 Application aux mélanges de gaussiennes multivariées...... 80 4.3.4 Segmentation longitudinale d IRM multi-séquences par EM... 81 4.3.5 Discussion............................... 82 4.4 Notre approche : EM robuste spatio-temporel (STREM)......... 83 4.4.1 Présentation de l estimateur de vraisemblance tamisée (TLE).. 83 4.4.2 Présentation de notre algorithme d estimation robuste...... 85 4.4.3 Segmentation longitudinale d IRM multi-séquences par STREM 86 4.5 Conclusion.................................. 88 5 Détection et classification des lésions 91 5.1 Introduction.................................. 91 5.2 Manifestation des lésions de SEP en IRM................. 91 5.2.1 Trous noirs.............................. 92 5.2.2 Lésions actives............................ 92 5.2.3 Zones hyper-intenses sur les images pondérées en T2 et DP... 92 5.3 Notre méthode................................ 93 5.3.1 Détection des lésions......................... 93 5.3.2 Classification des lésions....................... 94 5.3.3 Méthode................................ 98 5.4 Discussion et conclusion........................... 99

Table des matières 3 III Validation 103 6 Validation sur données sans lésion 105 6.1 Introduction.................................. 105 6.2 Matériel.................................... 105 6.2.1 BrainWeb............................... 105 6.2.2 Base IBSR.............................. 106 6.2.3 Mesure utilisée pour la validation.................. 107 6.3 Validation sur BrainWeb........................... 107 6.3.1 Segmentation multi-séquentielle................... 107 6.3.2 Segmentation longitudinale..................... 108 6.3.3 Segmentation robuste........................ 109 6.4 Validation sur la base IBSR......................... 111 6.5 Discussion sur les résultats et la validation................. 115 6.6 Conclusion.................................. 116 7 Validation sur données simulées avec lésions 117 7.1 Introduction.................................. 117 7.2 Validation sur BrainWeb avec lésions.................... 117 7.2.1 Segmentation multi-séquentielle................... 118 7.2.2 Segmentation longitudinale..................... 120 7.3 Variation de la MB d apparence normale.................. 123 7.3.1 Variation de la MB d apparence normale en SEP......... 123 7.3.2 Base utilisée............................. 123 7.3.3 Résultats et discussion........................ 125 7.4 Atrophie cérébrale.............................. 128 7.4.1 L atrophie cérébrale en SEP..................... 128 7.4.2 Base utilisée............................. 128 7.4.3 Résultats et discussion........................ 129 7.5 Conclusion.................................. 134 8 Vers une étude clinique 135 8.1 Collaboration avec l hôpital Pontchaillou du CHU de Rennes...... 135 8.1.1 Les objectifs............................. 136 8.1.2 Les données.............................. 136 8.1.3 Méthode................................ 137 8.1.4 Résultats qualitatifs......................... 139 8.2 Projet Neuromime.............................. 142 8.2.1 Les objectifs............................. 142 8.2.2 Les données.............................. 142 8.2.3 Méthode................................ 143 8.2.4 Résultats qualitatifs et quantitatifs................. 145 8.3 Discussion................................... 147 8.3.1 Discussion des résultats....................... 147

4 Table des matières 8.3.2 Discussion de la méthode de validation............... 149 8.3.3 Amélioration des résultats pour la sclérose en plaques...... 150 Conclusion 176 A La sclérose en plaques 179 A.1 Le système immunitaire........................... 179 A.2 Le diagnostic clinique............................ 180 B Preuve d existence pour l estimateur de vraisemblance tamisée 183 B.1 Point de rupture............................... 183 C Validation sur données simulées avec lésions 185 Bibliographie 212 Publications 213 Table des figures 215

Introduction Comprendre le corps humain et améliorer l état de santé des patients : ces deux motivations ont conduit au développement d une grande variété de systèmes d imagerie médicale. Les protocoles traditionnels de diagnostic n ont pas suivi la même progression et se révèlent souvent inadaptés à l utilisation conjointe de cet ensemble d information. Depuis trois décennies, la médecine a en effet à sa disposition de nouvelles données dont le nombre et la qualité évoluent rapidement. De plus en plus de temps est consacré à trier ces données, regrouper les informations utiles et écarter celles qui n apportent rien, laissant de moins en moins de temps à l interprétation et au diagnostic. Pour pallier ce problème, les méthodes automatiques de traitement et d analyse d images médicales se sont multipliées depuis une vingtaine d années. Ces méthodes passent par l établissement d une coopération entre des méthodes génériques issues du domaine de la vision par ordinateur. Les enjeux, les motivations et les contraintes de la médecine sont très particulières et demandent une très bonne connaissance du problème à traiter, ainsi qu une étroite collaboration avec les cliniciens. Les méthodes d analyse et de traitements d images médicales sont donc des outils génériques adaptés à des problèmes spécifiques. Parmi ces méthodes, trois grandes catégories se distinguent : la fusion de données, c est-à-dire les méthodes de mise en correspondance d images ; la segmentation de structures d intérêt ou extraction de formes ; et la modélisation des données. Cette thèse se situe dans la seconde catégories et s est attachée à la segmentation, au suivi et à la quantification automatique de structures évolutives dans des séries temporelles d images médicales. Ceci est un vaste sujet, et nous n avons pas eu la prétention de le résoudre dans sa totalité. Nous avons choisi un champ d application dans lequel ces structures et leur évolution sont importantes pour le clinicien dans sa démarche diagnostique et de suivi des patients ainsi que pour les firmes pharmaceutiques qui cherchent à mettre sur le marché de nouveaux traitements : la sclérose en plaques (SEP). Cette maladie est très répandue en Occident et particulièrement en France et en Bretagne, ce qui en fait un thème majeur de la recherche médicale. De plus, les symptômes peuvent rapidement devenir handicapant pour le patient : la qualité et la rapidité du diagnostic, de la prise en charge et du suivi des malades sont déterminantes 5

6 Introduction pour leur bien-être. Aujourd hui l évaluation clinique reste la référence et la mesure principale pour le diagnostic, le pronostic, le suivi et l évaluation de thérapies chez les patients atteints de SEP. Cependant les marqueurs cliniques sont subjectifs et sujets à une grande variabilité intra- et inter-observateur. Étant à la fois objective et très sensible, l imagerie par résonance magnétique (IRM) est devenue ces vingt dernières années un marqueur de substitution de la SEP. Aujourd hui, malgré le paradoxe clinico-radiologique (c est-à-dire la faible corrélation entre les événements cliniques et l IRM), l IRM est largement utilisée dans les études thérapeutiques de phase III. Pour ces dernières, plusieurs séquences d images sont acquises au cours du temps dans différents centres d étude et sur de nombreux patients. De telles bases, par leur importance, nécessitent l implémentation de chaînes de traitements automatiques des images générant des marqueurs IRM. Cette automatisation doit être maximale, de façon à assister le plus possible le clinicien dans sa tâche d analyse et de synthèse des données, mais elle se doit également d être reproductible. Par ailleurs, elle ne doit pas fournir des résultats moins pertinents que ceux des médecins. La méthode proposée dans ces travaux permet d une part, la segmentation en tissus sains et d autre part, la classification en trois sous-types de lésions. La segmentation en tissus sains utilise une nouvelle méthode générique permettant d effectuer une classification robuste de données spatio-temporelles. Le modèle utilisé pour la classification en différents types de lésions est adaptée aux pathologies neuro-dégénératives. L utilisation clinique des IRM par les radiologues et les neurologues dans le cadre de la SEP a inspiré nos méthodologies pour l analyse automatique de ces données. Ce document est organisé en trois parties. La partie I présente le contexte de nos travaux, sur le plan applicatif d une part et sur le plan méthodologique d autre part. Elle est constituée des chapitres 1 et 2. La partie II situe notre approche par rapport au contexte présenté dans la partie I. Le chapitre 3 expose d abord les prétraitements propres à l application. Ensuite le chapitre 4 décrit le socle de notre méthode puis nos contributions, c est-à-dire un modèle spatio-temporel et l introduction d un nouvel estimateur robuste dans le processus de segmentation. Enfin, le chapitre 5 propose un nouveau schéma de classification des lésions. La partie III valide la méthode présentée dans la partie II sur trois types de données, répartie en trois chapitres : des données de sujets sains, des données simulées avec lésions et des données cliniques de patients atteints de sclérose en plaques. Partie 1 Chapitre 1 Ce chapitre a pour objectif de présenter les aspects de la sclérose en plaques et les notions d imagerie médicale nécessaires à la compréhension de nos travaux. Ce chapitre permet de mieux comprendre l utilisation de l IRM pour le diagnostic et le suivi de la

Introduction 7 sclérose en plaques, ainsi que la nécessité de prétraiter les images avant toute détection et mesure quantitative. Chapitre 2 Dans ce chapitre, les principales méthodes de segmentation en imagerie cérébrale dans le cas de pathologies sont abordées. Partie 2 Chapitre 3 Les prétraitements sont proposés afin de réduire les différents artefacts propres aux données utilisées dans ces travaux. Les méthodes utilisées pour la correction de biais spatial et temporel, le recalage inter-patient ainsi que l extraction du cerveau sont présentées. Chapitre 4 Ce chapitre décrit la méthodologie utilisée pour la segmentation des tissus. Un modèle spatio-temporel original est d abord présenté. La méthode générale de segmentation des tissus est ensuite expliquée, puis nous exposons nos contributions. Chapitre 5 Ce chapitre décrit la méthode utilisée pour extraire et classer les lésions de sclérose en plaques en se basant sur l utilisation clinique des IRM. Partie 3 Chapitre 6 Ce chapitre valide les différentes contributions du chapitre 4 sur des données de sujets sains. Chapitre 7 Nous proposons dans ce chapitre de calibrer la méthode proposée dans le chapitre 5. Dans un premier temps, l algorithme est évalué quantitativement sur des données simulées avec lésion. Dans un second temps, la robustesse aux artefacts de la maladie est évaluée. Chapitre 8 Ce chapitre présente des résultats sur données cliniques. Enfin, nous terminons ce manuscrit par quelques perspectives pour les travaux à venir.

8 Introduction m séquences au temps d acquisition t1 m séquences au temps d acquisition t2 (1) histogramme joint histogramme joint Histogramme joint global Estimation robuste des paramètres de classes des tissus sains (2) Elimination des données atypiques Connaissances a priori pour spécifier les lésions (3) Étiquetage des données Segmentation au temps t1 Segmentation au temps t2 Fig. 1 Méthode proposée pour la segmentation spatio-temporelle robuste de lésions évolutives en IRM 3D ; exemple pour deux instants t1 et t2. Contribution 1 : modélisation spatio-temporelle des données. Contribution 2 : estimation robuste des paramètres du modèle de tissus sains via un schéma d optimisation itératif. Contribution 3 : détection et classification des lésions selon leur type.

Première partie Contexte : applications et état de l art 9

Chapitre 1 Sclérose en plaques et IRM Introduction Ce chapitre a pour objectif de présenter la sclérose en plaques sous ses différents aspects et les notions d imagerie médicale nécessaires à la compréhension de nos travaux. Dans un premier temps, nous abordons les causes potentielles de la sclérose en plaques (SEP), les symptômes qu elle peut engendrer, les différents traitements existants, l importance et la difficulté du diagnostic. Enfin nous donnons quelques éléments pour comprendre la complexité de la maladie par la présentation de ses différentes formes d évolution cliniques. La sclérose en plaques étant une maladie extrêmement complexe, ce chapitre n a pas pour vocation d être exhaustif sur les différents aspects de la SEP mais de situer le contexte de nos travaux. Le lecteur intéressé pourra se reporter aux nombreux ouvrages 1 entièrement dédiés à la sclérose en plaques et ressources en ligne 2 fournissant à la fois une information pédagogique et des liens vers des documents plus précis. L annexe A de ce manuscrit apporte quelques détails supplémentaires. Nous reviendrons néanmoins plus en détail sur certains des aspects de la sclérose en plaques tout au long de ce manuscrit lorsque cela sera nécessaire à la compréhension de nos travaux. Puis, dans un second temps, nous présentons brièvement les différentes techniques d imagerie médicale et plus particulièrement l IRM. L utilité de l IRM conventionnelle dans le cadre de la sclérose en plaques est abordée plus en détail. 1 Par exemple le livre de Marteau [Marteau 1998] ou la revue du praticien de juin 2006 dédiée à la SEP [Confavreux 2006]. 2 Par exemple www.mult-sclerosis.org ou www.msif.org. 11

12 Application : sclérose en plaques et IRM 1.1 La sclérose en plaques La sclérose en plaques (SEP) est une maladie inflammatoire démyélinisante du système nerveux central 3. Cette maladie entraîne 4 une démyélinisation du système nerveux central, c est-à-dire une atteinte voire une disparition de la myéline, substance lipidique entourant les fibres nerveuses de la substance blanche. Cette atteinte de la myéline est accompagnée d un durcissement (cicatrisation) dû à un dépôt anormal de tissu conjonctif. Ce durcissement est nommé sclérose et apparaît en plusieurs endroits du cerveau et de la mœlle épinière sous forme de plaques. La sclérose en plaques atteint principalement les adultes jeunes des deux sexes avec une prédominance féminine (60 % des cas). Actuellement, la sclérose en plaques affecte environ 2,5 millions de personnes dans le monde dont environ 50 000 5 en France (avec 1500 à 2000 nouveaux cas par an)[sabouraud 1998]. La sclérose en plaques est la deuxième cause de handicap neurologique chez les jeunes adultes après les accidents de la route. 1.1.1 Cause Les causes de la sclérose en plaques ne sont pas connues, mais l intervention conjointe de plusieurs facteurs est probable, principalement environnementaux et génétiques. Auto-immunité On pense qu il s agit d une maladie auto-immune. Deux hypothèses s affrontent cependant. Selon la première hypothèse, le système immunitaire de l organisme attaquerait la myéline comme si celle-ci était un corps étranger. Dans ce cas, l autoimmunisation aboutissant à la destruction sélective de la myéline est dite primaire. Selon la seconde hypothèse, le système immunitaire attaquerait un autre organe ou tissu, la destruction de la myéline ne serait alors qu un effet de bord de cette attaque. Sous cette hypothèse, l auto-immunisation aboutissant à la destruction sélective de la myéline est secondaire à ce processus. Les observations chez l être humain ne permettent pas de trancher en faveur de l une ou l autre des deux hypothèses. Cependant, sur le modèle animal l hypothèse d auto-immunité primaire est favorisée [Hohlfeld 1997]. L apparition d une nouvelle lésion est corrélée avec la rupture de la barrière hématoencéphalique c est-à-dire la barrière entre le sang et le cerveau. Cette barrière, lorsqu elle est intacte, protège le cerveau de tout ce qui circule dans le sang. Dans des conditions normales, les constituants du tissu cérébral n entrent donc pas en contact avec le système immunitaire 6. Mais, en cas de rupture de cette barrière, des lymphocytes T et 3 Le système nerveux central est constitué de l encéphale (le cerveau) et de la mœlle épinière. L ensemble baigne dans le liquide céphalo-rachidien. 4 On ne sait pas aujourd hui si la sclérose en plaques entraîne une atteinte de la myéline ou si c est l atteinte de la myéline qui est responsable du déclenchement de la SEP. 5 Source www.doctissimo.fr 6 Des précisions sur la barrière hémato-encéphalique et le système immunitaire sont données en annexe A.1.

La sclérose en plaques 13 B, cellules de défense immunitaire 7 apparaissent dans la matière blanche (éventuellement la matière grise). Ce phénomène initie, participe et entretient ce qu on appelle la réponse inflammatoire (fig. 1.1.a). Pendant l inflammation, la myéline est atteinte et devient de plus en plus mince (fig. 1.1.b). C est ce qu on appelle une démyélinisation (fig. 1.1.c). Enfin, l inflammation peut aussi aboutir à une altération voire une destruction de l axone (fig. 1.1.d). Cet axone permet la transmission du signal nerveux, son altération peut donc conduire à différents symptômes selon la localisation de la zone endommagée. Corps cellulaire (neurone) Inflammation de la myéline Axone Myéline atteinte Démyélinisation Axone rompu Messages déformés ou perdus Messages déformés ou perdus Messages déformés ou perdus Messages perdus a. Inflammation de la myéline b. Myéline atteinte c. Myéline détruite d. L axone démyélinisé se rompt Fig. 1.1 Schéma des différentes étapes de la destruction neuronale. (a) Le système immunitaire se défend et engendre une inflammation. (b) Le manchon de myéline entourant la fibre nerveuse est atteint et devient plus fin. (c) Le manchon de myéline n existe plus (démyélinisation), la fibre nerveuse n est plus protégée. (d) La gaine de myéline ne protège plus les fibres nerveuses qui finissent par se rompre. Illustration tirée de www.msdecisions.org.uk modifiée. Facteurs environnementaux Des facteurs environnementaux sont également mis en cause. En effet, il existe un gradient nord-sud de répartition de la prévalence 8 de la maladie, avec des prévalences élevées au nord et plus faibles au sud dans l hémisphère nord [Haahr 1997]. la répartition de la SEP dans l hémisphère sud ne présente pas un gradient aussi schématique. D autre part, dans les zones de prévalence forte et moyenne, on observe une distribution inégale, avec des foyers, dans une ville ou une zone rurale (c est le cas en Bretagne). Une carte de prévalence de la maladie est proposée sur la figure 1.2. Cette carte indique que la maladie est plus fréquente dans les pays à climat tempéré plutot que des les pays tropicaux : la sclérose en plaques est d autant plus fréquente que l on s éloigne de l équateur. Bien que 7 L immunité spécifique met en jeu diverses cellules appartenant aux globules blancs dont les lymphocytes T, les lymphocytes B et les macrophages (voir annexe A.1). 8 La prévalence d une maladie est le nombre de sujets atteints à un moment donné ou pendant une durée d observation retenue.

14 Application : sclérose en plaques et IRM la sclérose en plaques soit présente au Japon, en Chine et dans d autres pays d Orient tempérés, elle est beaucoup plus rare qu en Occident pour les mêmes latitudes. D autre part, à égale distance de l équateur, l incidence 9 de la maladie est plus élevée dans l hémisphère nord que dans l hémisphère sud. La répartition géographique des patients atteints de SEP n est pas encore bien comprise. Deux caractéristiques se distinguent : l inégale répartition de la maladie entre les régions tempérées et les régions tropicales, et le taux plus grand dans les pays développés. En dehors de ces régions tempérées, la sclérose en plaques est aussi plus répandue chez les gens ayant passé leur enfance dans ces mêmes régions [Alter 1966, Gale 1995]. Par exemple, un enfant qui émigrerait d un pays équatorial à un pays tempéré (ou inversement) avant sa puberté (l âge de 15 ans est le plus fréquemment avancé) acquière le risque correspondant à la zone dans laquelle il s est déplacé. Si cette personne retourne plus tard dans son pays d origine, elle conservera néanmois le risque de la zone qu elle vient de quitter. Ce qui peut laisser supposer que des origines liées à l environnement rentrent en jeu. Toutefois, la nature du facteur environnemental est controversée et il n existe actuellement aucune preuve d une origine vitale. Fig. 1.2 Carte de prévalence de la sclérose en plaques (source www.mipsep.org). Cause pathogène D autres théories scientifiques proposent une cause pathogène à la sclérose en plaques [Kurtzke 1995]. Quelques travaux ont montré des liens statistiquement signifi- 9 L incidence d une maladie est le nombre de sujets nouvellement atteints par année.

La sclérose en plaques 15 catifs avec certains virus et bactéries comme l herpès par exemple [Berti 2002]. Néanmoins, cette hypothèse de cause bactériologique ou virale nécessite d être approfondie pour pouvoir être validée [Clark 2004]. Facteurs génétiques Enfin, l intervention de facteurs génétiques est probable. Des études ont démontré que la probabilité d un individu de développer une sclérose en plaques sachant qu un membre de sa famille au premier degré est déjà atteint est 20 à 40 fois supérieur à l incidence de SEP dans la localité où il a grandi. Cependant ce lien est beaucoup plus faible que pour les maladies héréditaires classiques. En effet, il est fort probable que cette susceptibilité génétique fasse intervenir plusieurs gènes 10. De plus, il est aussi fort probable que d autres facteurs soient en cause. Des études sur des jumeaux homozygotes (mêmes gènes) ont montré que si l un des deux est atteint de SEP alors le deuxième a seulement 30% de chances de développer la maladie [Sadovnick 1993]. 1.1.2 Symptômes et signes La gaine de myéline entoure les fibres nerveuses (axones) et permet d accélérer la transmission du signal nerveux entre deux neurones (1.3(a)). Les plaques empêchent les fibres nerveuses atteintes de conduire l influx nerveux (1.3(b)). Ces plaques entraînent Transmission rapide du message (~ 400 km/h) Transmission lente du message (~ 4km/h) Neurone normal la gaine de myéline est intacte (a) Neurone sain Neurone abîmé la gaine de myéline est abîmée ou détruite (b) Neurone malade Fig. 1.3 Conséquence de la destruction de la myéline sur la transmission du signal nerveux (source ms-gateway.com, modifiée). La gaine de myéline permet au signal nerveux d être transmis rapidement par «sauts». Lorsque la myéline est atteinte, la signal nerveux se propage linéairement et de façon très ralenti. donc des troubles d intensité et de localisation très variables, en fonction de la zone où elles apparaissent (différentes parties du cortex, la mœlle épinière ou les nerfs optiques). Les plaques sont arrondies ou ovoïdes et leur diamètre varie de quelques millimètres à quelques centimètres. Elles peuvent aussi confluer et devenir irrégulières. Un examen microscopique de ces plaques montre que les fibres nerveuses ont été remplacées par un tissu cicatriciel. Une plaque est généralement hétérogène et peut se composer de 10 On parle alors de maladie pluri-génique.

16 Application : sclérose en plaques et IRM nécrose (le liquide céphalo-rachidien vient remplir cette cavité nécrotique), d œdème, de gliose 11 (zone démyélinisée totalement) et d une zone inflammatoire (voir figure 1.4). oedème péri plaque oedème, zone inflammatoire gliose nécrose Fig. 1.4 Une zone lésée se présente sous forme d une plaque sclérosée. Une plaque est généralement hétérogène et peut se composer de nécrose (le liquide céphalo-rachidien vient remplir cette cavité nécrotique), d œdème, de gliose (zone démyélinisée totalement) et d une zone inflammatoire. Tout autour de la plaque, une couronne œdémateuse peut apparaître. Illustration tirée de [Rey 2002b]. Ces plaques se situent presque exclusivement dans la matière blanche (zone anatomique contenant les axones alors que la matière grise contient le corps cellulaire des neurones et leurs dendrites) et sont réparties de manière très irrégulière d un patient à l autre bien que certaines localisations soient fréquentes et évocatrices. La substance grise est peu touchée. Les lésions du cerveau les plus volumineuses et les plus nombreuses se trouvent dans le voisinage des ventricules cérébraux 12 et sur le bord inférieur du corps calleux (lésions dites sous-corticales). Les plaques situées dans cette zone sont dites lésions périventriculaires ou sous épendymaires. Les nerfs optiques et la mœlle épinière sont aussi des zones privilégiées d évolution ou d apparition de plaques. En plus de ces plaques, des études post-mortem ont revélé des changements subtils dans la matière blanche d apparence normale 13 chez le patient atteint de sclérose en plaques [Adams 1977, Allen 1979]. Ces changements révèlent, entre autres, un amincissement de la myéline [Arstila 1973] et une perte axonale [Allen 1979, Mader 2000, Filippi 2001, Arnold 2001]. Il a par ailleurs été démontré que ces changements microscopiques peuvent précéder la formation de nouvelles plaques [Filippi 1998b, Goodkin 1998, Narayana 1998, Rocca 2000]. D autre part, la destruction de la myéline et principalement la perte axonale qui affectent certaines lésions chroniques [Charcot 1868, Lassmann 1994] peuvent causer à terme une atrophie cérébrale [Miller 2002]. Cette atrophie se caracté- 11 La gliose est par définition la prolifération anormale de la névroglie (tissu de soutien du système nerveux). 12 Au milieu du cerveau se trouvent deux cavités remplies de liquide céphalo-rachidien que l on nomme ventricules. 13 C est parce que la matière blanche est normale à l IRM et «anormale» à l histologie que l on introduit le concept de matière blanche d apparence normale.

La sclérose en plaques 17 rise par une perte de tissu dans la matière blanche ou la matière grise ou les deux simultanément. L espace laissé alors vacant est occupé par du liquide céphalo-rachidien. La maladie se manifeste habituellement sous forme de poussées 14 de courte durée, suivies d une régression des signes. Les premières manifestations de la sclérose en plaques peuvent être très variées. Elles peuvent concerner les fonctions sensitives. Le patient peut alors ressentir des fourmillements (paresthésie) ou des impressions anormales au toucher (dysesthésis). Ces manifestations peuvent aussi concerner les fonctions motrices. Le patient peut alors être atteint de paraparésie 15 ou de paralysie transitoire d un membre. La sclérose en plaques peut aussi se manifester par des troubles de la vision. La vision peut alors devenir floue, une baisse brutale de l acuité visuelle d un œil peut être observée. La maladie peut aussi se manifester par des troubles de l équilibre ou du contrôle des urines (incontinence). Cette liste n est malheureusement pas exhaustive. 1.1.3 Traitement Le traitement des poussées se fonde sur la corticothérapie à fortes doses, administrée de préférence par perfusion pendant quelques jours en milieu hospitalier, mais aussi par voie orale. Depuis une dizaine d années, on utilise aussi des immunomodulateurs : les interférons β et l acétate de glatiramère. Les immunomodulateurs agissent en régulant le système immunitaire. Ces traitements sont proposés dans les formes rémittentes (voir 1.1.5) de la maladie, ou après un premier évènement chez les patients à risque précoce d une seconde poussée sur des critères cliniques et IRM. Ils s administrent par voie parentale (injections sous-cutanée ou intramusculaire) et sont utilisés sur des périodes longues. Enfin, on utilise dans certains cas un immunosuppresseur comme la mitoxantrone. Ce traitement, par exemple en perfusion intraveineuse mensuelle, pouvant avoir de forts effets secondaires (potentielle toxicité cardiaque et hématologique), est réservé, en France, aux formes agressives de la maladie. L impact bénéfique de ce traitement est plus franc que celui des immunomodulateurs. Les symptômes de la SEP sont également traités spécifiquement, par exemple par le traitement médicamenteux des troubles urinaires, la rééducation par kinésithérapie visant à renforcer la musculature, etc. Certaines études apportent des arguments en faveur de l utilisation précoce de traitement avant qu un handicap irréversible ne soit accumulé. Dans cette perspective, l apport de l IRM est fondamental car elle permet de faire un diagnostic précoce. Le paragraphe suivant ( 1.1.4) aborde le problème du diagnostic de la sclérose en plaques. 14 La poussée de sclérose en plaques se définit par l apparition de nouveaux symptômes, la réapparition d anciens symptômes ou l aggravation de symptômes persistants. La durée minimale du symptôme requise pour évoquer une poussée est 24 heures. 15 La paraparésie est une paralysie partielle affectant les membres inférieurs.

18 Application : sclérose en plaques et IRM 1.1.4 Diagnostic La SEP est une maladie du système nerveux central avec des symptômes neurologiques disséminés dans l espace et dans le temps. Le diagnostic clinique de la sclérose en plaques repose principalement sur l observation des symptômes (voir annexe A.2). Au début de la maladie, l apparition brutale de troubles témoignant d une atteinte multifocale et leur régression rapide en quelques jours ou en quelques semaines, chez un jeune adulte, sont très caractéristiques de la maladie. Néanmoins, lorsqu une atteinte multifocale clinique (dissémination spatiale) et dans le temps (plusieurs poussées) n est pas cliniquement évidente, l imagerie par résonance magnétique (IRM), procédé permettant le mieux de visualiser les plaques, devient un outil indispensable pour le diagnostic. En effet, les critères de McDonald et coll. [McDonald 2001], récemment actualisés [Polman 2005], ont succédé à ceux de Poser [Poser 1983] de façon à pouvoir établir un diagnostic précoce de la SEP en prenant plus en compte les données IRM. Ces critères sont présentés sur la figure 1.5. Lorsque deux poussées séparées d au moins un mois dans des territoires cliniques distincts sont détectées, alors aucun autre examen complémentaire n est nécessaire pour affirmer le diagnostic positif de la sclérose en plaques. Si dans le cas de deux poussées, une seule région est touchée, alors l IRM devient indispensable pour se prononcer. Elle doit démontrer une dissémination spatiale suivant les critères de Barkhof 16 (voir figure 1.6). Dans le cas d une seule poussée, le diagnostic peut être prononcé si la dissémination spatiale est démontrée, soit par la clinique (deux signes neurologiques orientant vers des lésions distinctes) soit par l IRM, et si la dissémination temporelle (voir figure 1.7) est démontrée par l IRM qui est réalisée au moins trois mois après l épisode initial. Si le liquide céphalo-rachidien est anormal, les critères radiologiques de dissémination spatiale sont moins sévères et le diagnostic peut être prononcé si au moins deux lésions sont présentes à l IRM. Enfin dans le cas particulier des formes progressives primaires de la sclérose en plaques, formes évoluant sans poussée, il faut associer aux critères radiologiques de dissémination spatiale 17 et temporelle un profil oligoclonal du liquide céphalo-rachidien. Les critères de dissémination spatiale peuvent être plus faibles 18 si les potentiels évoqués visuels sont altérés. La dissémination temporelle en IRM peut être remplacée par la progression de la maladie pendant au moins un an. Le diagnostic de la SEP s appuie donc essentiellement sur les données cliniques et 16 Dans le cas d un liquide céphalo-rachidien anormal, les critères de dissémination spatiale sont plus souples et deux lésions au moins présentes à l IRM suffisent pour conclure. 17 Dans le cas des formes progressives primaires, les critères de dissémination spatiale diffèrent de ceux de la figure 1.6 : 9 lésions ou plus à l IRM cérébrale, ou 2 lésions médullaires, ou 1 lésion médullaire et 4 à 8 encéphaliques. 18 Les critères de dissémination spatiale sont alors 4 à 8 lésions encéphaliques ou 1 lésion médullaire et moins de 4 lésions encéphaliques.

La sclérose en plaques 19 Fig. 1.5 Critères de McDonald et coll. [McDonald 2001] et tests complémentaires pour le diagnostic de la sclérose en plaques (illustration extraite de [Compston 2002] modifiée). IRM : images par résonance magnétique ; LCR : liquide céphalo-rachidien ; PEV : potentiels évoqués visuels. la présence de signaux anormaux 19 sur les IRM pondérées en T2 20 cérébrale et médullaires [Polman 2005]. Cependant, comme nous l avons évoqué, un certain nombre d examens complémentaires permettent de porter le diagnostic avec plus de certitude. Ainsi, l examen du liquide céphalo-rachidien, recueilli par ponction lombaire, peut montrer la présence des bandes oligoclonales et de lymphocytes, une légère augmentation du taux de protéines et une élévation du pourcentage des gammaglobulines (anticorps). Les potentiels évoqués (enregistrement de l activité électrique du cerveau) permettent de rechercher des atteintes encore latentes établissant le caractère multifocal des plaques et donc des lésions neurologiques. Malgré ces efforts pour déterminer des critères fiables, le diagnostic de la sclérose 19 Dans ce cas, il s agit d un signal plus clair, appelé aussi «hyper-signal», par rapport à la matière blanche (voir 1.2.4). 20 La pondération en T2 est un type de séquence IRM que nous expliquons ultérieurement.

20 Application : sclérose en plaques et IRM Fig. 1.6 Critères radiologiques de dissémination spatiale [McDonald 2001]. Fig. 1.7 Critères radiologiques de dissémination dans le temps [McDonald 2001]. en plaques reste un diagnostic d exclusion et non un diagnostic positif. Cependant ces nouveaux critères, basés sur l utilisation des données IRM, permettent souvent un diagnostic plus précoce. En effet, le diagnostic de la sclérose en plaques peut maintenant être fait dès la première poussée à condition que l IRM montre une lésion rehaussée par le gadolinium. 1.1.5 Formes cliniques Selon le résultat d un sondage entre neurologues américains, il existe quatre principales formes d évolution de la maladie [Lubin 1996]. Les graphes de la figure 1.8 illustrent les niveaux d invalidité au cours du temps. Parfois deux lignes sont présentes, elles dénotent deux évolutions possibles pour une même forme. La forme la plus courante est la forme récurrente-rémittente (RR). Elle se caractérise par une succession de poussées clairement définies entrecoupées de rémissions de durées très variables avec récupération partielle ou totale des déficits engendrés par les poussées. Le plus souvent, il n y a pas de progression 21 de la maladie entre les épisodes. Après un certain nombre d années, les patients ayant commencé par une forme récurrente-rémittente évoluent vers la forme secondaire progressive (SP) de la maladie. Cette forme est caractérisée par une accumulation progressive des déficits entre les poussées, ce qui aboutit à une invalidité progressive. Après dix ans, déjà 50% des patients ayant commencé par une forme RR évoluent vers la forme secondaire progressive de la maladie [Weinshenker 1989, Runmarker 1993]. Après 25 à 30 ans, cette évolution a lieu dans 90% des cas. 21 La progression de la sclérose en plaques est définie comme une aggravation continue des symptômes neurologiques sur une période d au moins six mois, voire douze mois pour certains auteurs.

La sclérose en plaques 21 Forme RR Forme SP Forme PR Forme PP Fig. 1.8 Schéma des différentes formes connues d évolution clinique de sclérose en plaques. RR : forme récurrente-rémittente ; SP : forme secondaire-progressive ; PR : forme progressive-rémittente ; PP : forme primaire-progressive (source www.multsclerosis.org). La forme progressive-rémittente (PR) se caractérise par une aggravation progressive des déficits mais au cours de la maladie, il y a des évènements aigus d aggravation voire des poussées. Enfin, la forme primaire-progressive est caractérisée par l évolution progressive et continue de la maladie. Pour cette forme, les premières activités de la maladie se situent souvent au niveau de la mœlle épinière plutôt qu au niveau de l encéphale. Le début de la maladie se fait sous la forme récurrente-rémittente dans 85% des cas environ et sous les formes progressives d emblée (la forme primaire progressive et la forme progressive rémittente) dans les 15% restant. Conclusion Les quelques éléments présentés dans cette section ne donnent pas toutes les subtilités de la maladie mais ils permettent de prendre conscience de la complexité de la sclérose en plaques. Les causes de la maladie sont encore ignorées. Les symptômes sont très nombreux et très variés selon la localisation des plaques et le patient. Bien qu un consensus ait été trouvé pour déterminer différentes formes d évolution de la sclérose en plaques à l échelon collectif, l évolution de la maladie reste propre à chaque patient et ne permet pas au clinicien de fournir les indications individuelles souvent désirées par le malade. Cette complexité rend le diagnostic et le traitement de la sclérose en plaques difficiles. La solution pour une meilleure compréhension de la maladie, un diagnostic plus précoce et plus précis, et donc probablement un traitement plus adapté, viendra sans doute par une approche paraclinique, notamment par l imagerie par résonance magnétique (IRM). La section suivante introduit donc brièvement les différentes techniques d imagerie médicale, puis présente l IRM et ce qu elle peut apporter dans le cadre de la sclérose en plaques.

22 Application : sclérose en plaques et IRM 1.2 L imagerie par résonance magnétique (IRM) Nous proposons dans cette section une brève introduction à l imagerie par résonance magnétique (IRM). Après avoir situé l IRM par rapport aux autres techniques d imagerie ( 1.2.1) et brièvement présenté ses principes physiques ( 1.2.2) et les artefacts pouvant la perturber ( 1.2.3), nous abordons les aspects importants de l IRM dans le cadre de la sclérose en plaques. Dans ce sens, nous présentons d abord les différents types de séquences d IRM ( 1.2.4) puis nous montrons leur utilité dans l étude de la sclérose en plaques ( 1.2.5), enfin, nous mettons en évidence l utilité des IRM longitudinales ( 1.2.6). 1.2.1 Imagerie médicale L imagerie médicale est par définition une discipline médicale consistant à produire des images du corps humain vivant, à les interpréter et à les utiliser à des fins diagnostiques ou thérapeutiques 22. On distingue quatre catégories d imagerie 23. La radiographie et le scanner reposent sur l utilisation des rayons X. L échographie, ou ultrasonographie, exploite la propagation des ultrasons. La médecine nucléaire se fonde sur les propriétés radioactives de molécules chimiques, naturelles ou artificielles. Enfin, l imagerie par résonance magnétique (IRM) et la spectroscopie par résonance magnétique (SRM) utilisent la résonance magnétique nucléaire (RMN). Radiographie et scanner X. Ces techniques reposent sur l utilisation des rayons X et sont utilisées pour le diagnostic et le traitement des maladies. La radiographie a été introduite par un physicien allemand, Wilhelm Conrad Röntgen en 1895. Cette technique permet de visualiser les organes en fonction de leur perméabilité aux rayons X et enregistre l image d une région anatomique sur un film radio-sensible. Cet enregistrement peut se faire sans préparation ou après administration d un produit de contraste. La radioscopie permet d observer des organes en mouvement sur un écran phosphorescent. La tomographie est une technique de reconstruction qui permet d obtenir une radiographie en coupe et de préciser ainsi une image qui apparaît indistincte sur une radiographie d ensemble en supprimant les superpositions des autres plans. Le scanner X 24 ou tomodensitométrie, dérivé important de la radiographie, utilise le balayage (d où le choix du terme scanner, littéralement «balayeur» en anglais) par rayons X pour visualiser un organe par coupes, et l interprétation immédiate par ordinateur des densités radiologiques obtenues (la densitométrie). C est une technique plusieurs centaines de fois plus sensible que la radiographie conventionnelle et a l avantage d être tridimensionnelle. Des capteurs remplacent le film radio-sensible et l ordinateur reconstruit l image point par point. L apparition de l imagerie par résonance magnétique, dont on parle plus loin, n a pas fait diminuer l intérêt diagnostique du scanner 22 Citation du Larousse médical. 23 En médecine, l imagerie médicale est divisée en deux catégories seulement : la radiologie et la médecine nucléaire. Dans un but pédagogique, nous avons séparé la radiologie en trois catégories selon la technique utilisée : rayons X, ultrasons et résonance magnétique nucléaire. 24 Le scanner X est parfois désigné par l acronyme anglais CT (computed tomography).

L imagerie par résonance magnétique (IRM) 23 notamment avec les scanners de dernière génération. Son apport diagnostique est primordial dans les pathologies abdominales (foie, reins, surveillances post-opératoires), les mesures orthopédiques (genoux, bassins), ou encore les pelvimétries avant les accouchements. Cependant, elle ne différencie pas les tissus mous, notamment les tissus cérébraux. Échographie. L échographie a été introduite en 1950. Cette technique est basée sur l émission et la réflexion d ondes ultrasonores. Elle permet d étudier principalement le cœur, les organes pleins de l abdomen et plus généralement les organes non masqués derrière des structures osseuses ou de l air. L atout majeur de cette modalité d image est de permettre l étude des organes en mouvement. L échographie a par ailleurs permis de faire de grandes avancées dans la surveillance du fœtus au cours de la grossesse. Cette technique est aussi très souvent utilisée dans le domaine angiologique en utilisant le phénomène Doppler mesurant la variation entre la fréquence émise par une sonde et celle du faisceau réfléchi par le sang circulant. Médecine nucléaire. La médecine nucléaire est basée sur l utilisation d un isotope radioactif. En effet, l introduction d un isotope à vie brève, fixé sur une molécule à destinée connue permet un marquage tissulaire sélectif dans l organisme. Cette radioactivité temporaire est détectée par un appareillage spécialisé. La scintigraphie, ou imagerie par émission, est donc une technique qui permet d obtenir une sorte de cartographie isotopique. La tomoscintigraphie complète cette dernière en permettant les images en coupe. Parmi ces techniques, on peut citer la tomographie par émission de positon (TEP 25 ) qui utilise comme traceur une molécule semblable au glucose marquée par un isotope radioactif 26 (dit émetteur de positons), ou encore la tomographie par émission monophotonique (TEMP 27 ). Ces techniques récentes ne permettent pas aujourd hui d obtenir une bonne résolution spatiale ( 6 mm, 3 4 mm pour les appareils récents). Imagerie par résonance magnétique. L imagerie par résonance magnétique (IRM) est une technique indiquée dans le diagnostic des pathologies du système nerveux central. L IRM fournit un très bon contraste entre les différents tissus normaux (la matière blanche et la matière grise par exemple) mais aussi entre les tissus normaux et pathologiques (lésions de SEP, tumeurs, œdème, etc). Contrairement aux techniques de la médecine nucléaire, elle n expose pas le sujet à des rayonnements ionisants. De nos jours, l IRM représente dans les pays développés, 70% de l imagerie neurologique soit en complément du scanner X, soit en première indication. Elle permet aussi le diagnostic des maladies osseuses, articulaires et musculaires. Parmi les développements les plus récents de cette technique, il faut citer l IRM angiographique (images des vaisseaux sanguins) et l imagerie fonctionnelle du cerveau. 25 Acronyme anglais : PET (positron emission tomography). 26 Cet isotope se fixe alors au niveau des tissus qui utilisent beaucoup de glucose comme les tissus cancéreux ou le muscle cardiaque ou encore le cerveau, pour émettre de façon temporaire des rayonnements que l on peut suivre dans l organisme du patient grâce à une caméra spéciale. 27 Acronyme anglais : SPECT (single photon emission computed tomography).

24 Application : sclérose en plaques et IRM L IRM fonctionnelle (IRMf) a été développée en 1992. Cette technique est fondée sur l observation en temps réel de l activation neuronale. La localisation des zones cérébrales activées est basée sur l effet BOLD (Blood Oxygen Level Dependant), lié à l aimantation de l hémoglobine contenue dans les globules rouges du sang. L hémoglobine se trouve sous deux formes : les globules rouges oxygénés par les poumons contiennent de l oxyhémoglobine, molécule diamagnétique ; les globules rouges désoxygénés par les tissus contiennent de la désoxyhémoglobine, molécule paramagnétique donc visible en RMN. Dans les zones activées, une petite augmentation de la consommation d oxygène par les neurones est surcompensée par une large augmentation de flux sanguin. Il en résulte une diminution de la concentration de désoxyhémoglobine par rapport à la concentration d oxyhémoglobine. Ce changement du rapport des concentrations entraîne une augmentation du signal mesuré. L IRMf permet donc d identifier les zones du cerveau impliquées dans différentes fonctions spécialisées comme la vision, l audition ou les aires du langage. En complément avec l IRM conventionnelle, elle peut aider à la préparation d interventions chirurgicales dans le cas de lésions cérébrales. L imagerie du tenseur de diffusion 28 est une technique basée sur l IRM qui permet de visualiser la position, l orientation et l anisotropie des faisceaux de matière blanche du cerveau. Enfin, l IRM par transfert d aimantation 29 fournit d autres informations physiologiques liées aux échanges d aimantation entre les protons libres et fixes. Cette nouvelle modalité est très prometteuse pour la sclérose en plaques puisqu il est possible qu elle permette de quantifier la perte de myéline et une réduction de la masse axonale. Cependant, elle n est que très faiblement utilisée en clinique aujourd hui. 1.2.2 Principes de l IRM Le principe physique des dispositifs d IRM est fondé sur le phénomène de résonance magnétique nucléaire (RMN), technique spectroscopique utilisée par les chimistes pour l analyse moléculaire. Felix Bloch and Edward Purcell ont indépendemment découvert le phénomène en 1946. Plus précisément, cette technique est basée sur l interaction des protons, notamment ceux présents dans les molécules d eau, avec un champ magnétique extérieur. En effet, le spin de certains protons placés en présence d un champ magnétique extérieur B 0 s aligne sur ce champ, comme pourrait le faire un aimant de moment magnétique µ. Ces spins sont alors animés d un mouvement de précession autour de B 0 à une fréquence précise, la fréquence de Larmor. Dans un second temps, les protons sont excités par une onde électromagnétique B 1, appelée l impulsion radiofréquence, de même fréquence que la fréquence de précession des spins, la fréquence de Larmor. Les protons entrent alors en résonance avec l onde et basculent tous ensemble selon le même angle. Dans un troisième temps, l onde radiofréquence est brutalement interrompue. Les spins reviennent alors à leur état initial en restituant de l énergie enregistrable sous forme d un signal (une onde électromagnétique dite de résonance) capté par une antenne réceptrice. Ce signal permet de mesurer le temps (temps dit de relaxation) pris par les spins pour retrouver 28 Acronyme anglais : DTI (diffusion tensor imaging). 29 Acronyme anglais : MTR (magnetization tranfer ratio).

L imagerie par résonance magnétique (IRM) 25 leur alignement (voir figure 1.9). Ce temps dépend du champ magnétique constant B 0 mais également de la nature des tissus. Pour obtenir une image IRM, il est nécessaire de repérer la position des spins dans l espace. Au lieu d un champ constant, on applique alors un champ variable qui croît linéairement dans les trois directions de l espace (champ de gradient). La fréquence de résonance dépendra alors de la position dans l espace. En chaque point, on obtient donc un signal qui dépend à la fois de sa position et de la quantité de spins qui émettent un signal, c est-à-dire de la quantité de protons (et plus largement la quantité d eau) présente dans le tissu en ce point. En décomposant les fréquences du signal par transformée de Fourier, on reconstruit donc une image dont les niveaux de gris dépendent de la composition des tissus visualisés (voir figure 1.10). S N Signal RF N N N S Équilibre dans un champ N S S Changement d état S N S Retour à l état d équilibre Signal émis par le noyau N S Champ de gradient signal fréquence Fig. 1.9 Illustration d un changement d état du spin d un noyau en présence d un champ radiofréquence et de son retour à l état d équilibre en émettant un signal permettant de mesurer les propriétés physiques de l objet (tirée de [Ciofolo 2005a]). Fig. 1.10 Formation de l image : un champ de gradient permet d obtenir en chaque point un signal qui dépend à la fois de la position spatiale de ce point et de la quantité d eau présente (d après [Hornak 1996] modifié). Pour plus de précision sur le principe de l IRM, le lecteur intéressé pourra se référer à l ouvrage en ligne d Hornak [Hornak 1996] contenant de nombreuses illustrations. En français, la thèse de David Rey [Rey 2002a] décrit de façon pédagogique le principe physique de l IRM. Les cours en ligne de Grégoire Malandain 30 proposent plus de détails sur les principes physiques pour chacune des quatre modalités d imagerie présentées dans le paragraphe 1.2.1. 30 http://www-sop.inria.fr/epidaure/personnel/malandain/cours/imagerie-medicale/

26 Application : sclérose en plaques et IRM 1.2.3 Artefacts IRM Les artefacts d acquisition en IRM sont très nombreux et peuvent être liés à différents facteurs 31. Nous décrivons dans cette partie les artefacts de mouvement, les problèmes de bruit aléatoire et les hétérogénéités radiofréquences (RF). Artefacts de mouvement Les artefacts de mouvement proviennent du mouvement du patient pendant l examen. Les yeux, la tête peuvent bouger pendant l acquisition, la pulsation du flux sanguin ainsi que les mouvements respiratoires peuvent aussi avoir une influence sur les images. Selon le moment de l acquisition où interviennent ces mouvements, l artefact visible sur l IRM peut être différent. Mais en général, il se traduit par des images fantômes de la structure en mouvement qui apparaissent en différents endroits de l image (voir figure 1.11). Sur certains volumes de la base IBSR 32 étudiée dans le chapitre 6, on voit apparaître des artefacts dus au mouvement de la tête comme le montre la flèche sur la figure 1.12. Lorsque ces images fantômes apparaissent superposées aux structures à segmenter, elles perturbent leur niveau de gris et rendent la segmentation plus difficile. (a) Image normale (b) Mouvement Fig. 1.11 Artefact de mouvement sur un fantôme (sources UCLA, University of Illinois). Fig. 1.12 Artefact dû au mouvement de la tête sur une IRM de la base IBSR. Bruit aléatoire Un bruit aléatoire gaussien apparaît dans le domaine de Fourier de l image acquise. L image est obtenue en calculant le module de la transformée de Fourier inverse. Cette distribution gaussienne devient donc une distribution de Rice [Sijbers 1998]. La 31 Nous avons choisi de ne présenter dans ce manuscrit que les artefacts les plus classiques. Une liste plus complète est disponible à l adresse suivante : http://wwwrad.pulmonary.ubc.ca/ stpaulsstuff/mrartifacts.html. 32 Ces volumes sont disponibles à l adresse suivante : http://www.cma.mgh.harvard.edu/ibsr/ et sont présentés dans le chapitre 6 de ce manuscrit.

L imagerie par résonance magnétique (IRM) 27 figure 1.13 présente l effet du bruit sur un volume de la base BrainWeb 33, base de données simulées sur laquelle notre méthode est testée (voir chapitres 6 et 7). Dans les régions où l intensité n est pas proche de zéro, cette distribution est approximativement gaussienne. Dans les régions d intensité proche de zéro, l extérieur du crâne par exemple, elle est proche d une distribution de Raleigh. Nous reviendrons sur ces propriétés dans le chapitre 4 pour justifier la modélisation du problème. (a) IRM simulée (b) IRM simulée avec bruit Fig. 1.13 Problème de bruit aléatoire en IRM. Le bruit d une IRM suit une distribution de Rice qui peut être approchée par une distribution gaussienne dans les régions où l intensité de l image n est pas proche de zéro. Hétérogénéités du champ de radio-fréquence Les hétérogénéités de champ 34 sont des artefacts très courants en IRM. Elles sont responsables de variations lentes de signal en fonction du niveau de coupe et des régions dans une même image. L image d un objet dont la densité protonique est homogène n est donc pas d un gris uniforme mais présente des modifications du niveau de gris (voir figure 1.14 et figure 1.15). Si ce champ de biais n est pas gênant pour le clinicien dont l étude est basée sur l interprétation visuelle des images, il pose problème pour toutes les méthodes de traitement d images fondées sur les intensités de l image (segmentation, recalage, etc.). 33 La base BrainWeb est disponible à l adresse suivante : http://www.bic.mni.mcgill.ca/brainweb/. Nous revenons plus en détails sur cette base dans le chapitre 6 de ce manuscrit. 34 Il s agit du champ oscillant B 1.

28 Application : sclérose en plaques et IRM (a) Image normale (b) RF Fig. 1.14 Artefact dans le champ de radiofréquence provoqué artificiellement en introduisant une plaque métallique qui produit une distorsion RF (sources UCLA, University of Illinois). Fig. 1.15 Images affectées par une hétérogénéité RF, en dessous, l artefact isolé. Les voxels du lobes temporal et du lobe frontal sont plus intenses que leurs homologues dans l autre hémisphère ; la tendance est inversée pour le lobe occipital (source Prima et coll. [Prima 2001]).

L imagerie par résonance magnétique (IRM) 29 D autres artefacts moins fréquents peuvent apparaître comme des distorsions géométriques dues aux variations dans l intensité du champ magnétique, éventuellement à cause d objets dont la susceptibilité magnétique n est pas constante. La chapitre 3 de ce manuscrit présente les méthodes utilisées pour gérer certains de ces artefacts dans le cadre de ces travaux. 1.2.4 Types de séquences d IRM conventionnelles En IRM, le contraste est dominé par trois principales propriétés physiques, la densité de protons, et les temps de relaxation longitudinale (T1) et transversale (T2). Plus précisément, il se trouve que des phénomènes physiques différents caractérisent la relaxation de l aimantation longitudinale et de l aimantation transverse. Ces phénomènes sont caractérisés par deux échelles temporelles que l on a coutume de paramétrer par deux constantes de temps T1 et T2. Pour les tissus biologiques, les valeurs typiques des temps de relaxation T1 vont d environ 50 ms à quelques secondes. En général les temps de relaxation T2 sont plus petits et vont de quelques microsecondes pour les tissus biologiques solides à quelques secondes pour les liquides. Ces valeurs dépendent néanmoins de la puissance du champ magnétique. La table 1.1 présente, à titre d exemple, quelques valeurs pour un champ de 1,5 Tesla. La capacité de l imagerie par résonance magnétique à créer des images de cerveau de fort contraste dépend de la différence entre les temps de relaxation longitudinales et transversales des structures cérébrales. Basé sur ces paramètres inhérents aux tissus, le contraste des images par résonance magnétique peut être manipulé par l utilisateur en choisissant, d une part, l intervalle entre les impulsions et d autre part, le temps d écho (TE). L intervalle de temps qui sépare deux impulsions est appelé temps de répétition ou TR. TR est le temps qu on laisse aux tissus pour récupérer totalement ou partiellement leur magnétisation. Bien que le TR n est pas le seul paramètre qui entre en jeu, son choix est donc fondamental pour obtenir des images à dominante T1 ou T2. L autre paramètre réglable par le radiologue pour favoriser un temps de relaxation par rapport à l autre est le temps d écho ou TE. L écho permet de mesurer la véritable valeur de T2, et non pas celle qui est émise directement par les spins, appelée T2*. Le TE est le temps pendant lequel on laisse le signal décroître avant de l enregistrer. Le temps d écho influence la différence T2 des tissus. L annexe B de la thèse de Rey [Rey 2002b] explique de façon plus complète ce phénomène. Lorsque le contraste est à dominante T1, les images sont dites pondérées en T1. Cette pondération est aussi parfois appelée anatomique parce qu elle permet de bien distinguer les différentes structures cérébrales. Sur ces images, la matière blanche apparaît plus claire que la matière grise. Le liquide céphalo-rachidien apparaît lui nettement plus foncé. Ces séquences sont également utilisées après injection d un produit de contraste pour caractériser une anomalie. A l inverse, lorsque le contraste est à dominante T2, les images sont dites pondérées en T2. Cette pondération est aussi parfois appelée tissulaire. Le contraste est inversé par rapport aux images pondérées en T1. La matière blanche et la matière grise apparaissent presque confondues mais d autres

30 Application : sclérose en plaques et IRM Tissus T1 (ms) T2 (ms) Muscle 870 45 Cœur 865 55 Foie 490 50 Rein 650 60 Rate 650 58 Graisse 262 85 Cerveau matière grise 920 100 Cerveau matière blanche 785 90 Tab. 1.1 Valeurs des temps de relaxation longitudinale (T1) et transversale (T2) pour quelques tissus pour un champ magnétique de 1,5 Tesla (table tirée du cours en ligne de G. Malandain). caractéristiques peuvent être observées, comme les lésions. En effet, l eau et l œdème apparaissent en hypersignal. Enfin, les images appelées à densité de protons (DP) sont obtenues en minimisant les effets des contrastes T1 et T2, notamment en baissant le temps d écho par rapport aux images pondérées en T2 [Barkhof 1999]. A partir de ces pondérations, les recherches en radiologie ont introduit d autres types de séquences, basées sur l une ou l autre des pondérations. Les séquences FLAIR 35 par exemple, séquences en inversion-récupération, permettent d obtenir des images pondérées en T2 tout en supprimant la contribution du signal hyper-intense du liquide céphalo-rachidien. Dans ce manuscrit, nous employons le terme séquence pour parler de ces principaux types de pondération d IRM. Dans la littérature on trouve parfois le terme modalité bien qu en réalité ce terme soit plus adapté pour parler de différents types d imagerie (TEMP, IRM, scanner-x). On peut trouver aussi le terme multi-spectral pour désigner une étude ou une méthode utilisant plusieurs pondérations d IRM, ou encore multi-paramétrique ou multi-canal 36. Bien que le terme séquence soit ambigu en vision puisqu on parle aussi de séquence vidéo ou de séquence longitudinale, nous choisissons ce terme qui est celui le plus fréquemment utilisé par les cliniciens. Nous parlons donc d analyse multi-séquentielle lorsque plusieurs types de séquences d IRM sont utilisées. 1.2.5 L utilité des différents types de séquences d IRM en SEP L importance de l IRM dans le cadre de l étude de la sclérose en plaques s est fortement accrue ces dernière années, tant pour l aide au diagnostic que pour la mesure d efficacité des traitements et d évolution de la maladie dans le cadre d essais cliniques. 35 Fluid Attenuated Inversion Recovery. 36 Ce terme est surtout utilisé dans le milieu anglo-saxon, multi-channel.

L imagerie par résonance magnétique (IRM) 31 Les différents types de séquences d IRM en SEP The various MR imaging methods provide somewhat disparate pieces of the information relating to the MS puzzle 37 [Udupa 1997]. En effet, chacune des séquences existantes en IRM conventionnelle permet d obtenir des informations différentes et complémentaires sur la sclérose en plaques. Dans la sclérose en plaques, les altérations de la composition du tissu cérébral sont responsables d une augmentation des temps de relaxation T2 se traduisant par un hyper-signal en comparaison des substances blanches et grises avoisinantes. Ainsi, pour le diagnostic de la sclérose en plaques, les images pondérées en T2 sont utilisées en routine. Leur sensibilité est indiscutable en comparaison avec des scans postmortem [Newcombe 1991, Barkhof 1993]. Les lésions sclérotiques typiques qui ont été détectées macroscopiquement en post-mortem apparaissent clairement en un signal très élevé sur les images pondérées en T2. De plus, des anomalies plus petites et moins lumineuses, qui peuvent être difficiles à voir macroscopiquement, peuvent être observées. La pondération en T2 fournit un outil pour repérer la composante myélinique dans les lésions au niveau de la matière blanche. Ces lésions se traduisent par une petite composante en T2, soit un hyper-signal. Mais cette séquence permet aussi la mise en évidence de l expansion de l espace extra-cellulaire, ce qui se traduit par une grande composante en T2 (hypo-signal). L utilité de la pondération T2 est indiscutable, cependant, son manque de spécificité et sa faible corrélation avec les signes cliniques nécessitent l étude d autres séquences en complément. Les images de densité de protons complètent l information des images pondérées en T2. Cette séquence met elle aussi en évidence la composante myélinique dans les lésions. Elles se traduisent par un hyper-signal. La double validation grâce à la combinaison de ces deux séquences permet aux cliniciens de minimiser le biais des faux positifs lors de la détection des lésions. Les séquences FLAIR sont plus sensibles que les séquences conventionnelles T2 pour la détection des lésions de SEP à l étage supratentoriel [Tourbah 1996]. Annulant le signal du LCR, ces séquences permettent une meilleure détection des lésions périventriculaires et paracorticales (voir figure 1.17). Le contraste des lésions de la substance grise est plus élevé en séquence FLAIR qu en séquence T2 rapide, ce qui permet une meilleure détection des lésions corticales et des noyaux gris centraux. Le désavantage majeur des séquences FLAIR est leur faible sensibilité à l étage sous-tentoriel [Bastianello 1997]. De plus, certaines lésions ayant un hypo-signal sur les images pondérées en T1 apparaissent iso-intenses en séquence FLAIR [Tourbah 2001]. Les lésions hypo-intenses persistantes (trous noirs) sur les images pondérées en T1, elles, sont pour la plupart significatives d une destruction irréversible des tissus avec perte axonale [Brex 2000]. Cette augmentation du temps de relaxation T1 ne se produit que pour une partie des zones hyper-signal T2 (ZHST2). Ces trous noirs montrent une meilleure corrélation avec le handicap clinique que celle observée pour les lésions sur les 37 Les diverses méthodes d imagerie par résonance magnétique fournissent des parties d informations quelque peu disparates concernant le puzzle qu est la sclérose en plaques.

32 Application : sclérose en plaques et IRM images pondérées en T2. Les études de biopsie des lésions après autopsie ont montré que le degré d hypo-intensité sur les images pondérées en T1 est fortement corrélé avec l élargissement de l espace extra-cellulaire ce qui est le résultat d une perte axonale ou d œdème. Le gadolinium (Gd) est un agent de contraste paramagnétique, appelé aussi agent de contraste extrinsèque. L injection de ce produit entraîne un raccourcissement du temps de relaxation T1 et T2 des protons avoisinants et donc un rehaussement du signal. Cette substance ne peut passer la barrière hémato-encéphalique si elle est intacte. C est donc un marqueur de l intégrité de cette barrière. Or la destruction de cette barrière est corrélée histopathologiquement avec la phase inflammatoire du développement de la lésion (voir annexe A.1). Une image pondérée en T1 après injection de gadolinium reflète l existence de lésions dites actives avec infiltration macrophagique. La dose usuelle de gadolinium est de 0,1 mmol/kg de poids. L utilisation de triples doses augmente considérablement la détection des lésions actives [Filippi 1997]. Le tableau 1.2 présente l information pathologique que l on peut extraire de l information dans l IRM selon ses paramètres. La figure 1.16 montre une coupe axiale commune d IRM pour quatre types de séquences : pondérée en T1 avant et après injection de gadolinium, pondérée en T2 et densité de protons. La figure 1.17 complète la figure 1.16 en présentant une coupe sagittale du même sujet pour une séquence pondérée en T2 FLAIR (la coupe axiale étant de très faible résolution, sa présentation apporte très peu d information et est de ce fait peu pertinente). Paramètres d IRM Interprétation dans l IRM Interprétation pathologique Temps de relaxation T1 - prolongation modérée - œdème intracellulaire, (zones sombres) gliose - prolongation forte - élargissement de l espace («trous noirs») extra cellulaire et perte axonal Temps de relaxation T2 - petite composante réduite - perte de myéline (c.-à-d. hyper-signal) - grande composante augmentée, - augmentation du liquide (c.-à-d. hypo-signal) libre extra cellulaire Rehaussement - réduit le temps de relaxation - rupture de la barrière hématopar le gadolinium (c.-à-d. hyper-signal) encéphalique significatif de lésions actives inflammatoire Tab. 1.2 Types de séquences d IRM et histopathologies corrélées [Barkhof 1999]

L imagerie par résonance magnétique (IRM) 33 (a) T1 (b) T1 gadolinium (c) T2 (d) Densité de protons Fig. 1.16 Différents types de séquences d IRM pour la sclérose en plaques. Les lésions actives sont rehaussées par le gadolinium et apparaissent comme des zones d hypersignal sur les images pondérées en T2 et densités de protons. Ces lésions peuvent parfois apparaître comme un hypo-signal temporaire sur les images pondérées en T1 avant injection du produit de contraste (flèche verte sur l image). La pondération en T1 permet de mettre en évidence les lésions nécrotiques (flèche violette sur l image). Enfin, les zones démyélinisées et inflammatoires, qu elles soient nécrotiques ou non, actives ou non, apparaissent comme des zones d hyper-signal sur les images pondérées en T2 et densité de protons (flèche bleu sur l image).

34 Application : sclérose en plaques et IRM Fig. 1.17 Coupe sagittale d une IRM pondérée en T2 FLAIR (fluid attenuation inversion recovery). Dans certaines images pondérées en T2 ou en densité de protons, il peut être difficile de distinguer des lésions proches des ventricules. L IRM FLAIR permet d atténuer le signal des fluides, et notamment celui du liquide céphalo-rachidien contenu dans les ventricules. Les lésions périventriculaires (flèches bleues sur l image) se voit alors beaucoup mieux. Sur cet exemple, la lésion ayant un hypo-signal sur l IRM pondérée en T1 (flèche violette sur l image) apparaît bien hypo-intense.

L imagerie par résonance magnétique (IRM) 35 Le paradoxe clinico-radiologique Des corrélations entre les paramètres cliniques sont étudiées en calculant les volumes des ZHST2 du cerveau (charge lésionnelle), le volume des trous noirs, le volumes ou le nombre des lésions actives auxquelles on ajoute les nouvelles ZHST2 reflétant l activité lésionnelle. Il est établi que les ZHST2 permettent d évaluer l atteinte non spécifique des tissus : œdème, gliose, démyélinisation réversible, atteinte axonale irréversible. En ce qui concerne les ZHST2, la meilleure valeur prédictive pour l apparition d une SEP cliniquement définie et l évolution de la maladie sur 10 ans est celle observée dans les syndromes cliniques isolés : 30 % des patients présentant une IRM anormale développent une SEP dans l année qui suit [Brex 1999] ; 50 % après 5 ans et 83 % après 10 ans [O Riordan 1998]. A titre de comparaison, si l IRM est normale, le risque de la survenue d un deuxième épisode à 10 ans est de 10 %. De plus, l apparition de nouvelles ZHST2 trois mois plus tard augmente fortement le risque d apparition de SEP cliniquement définie [Brex 1999]. La corrélation entre le nombre de ZHST2 ou la charge lésionnelle T2, avec le temps séparant la première et la deuxième poussée est forte. Dans ce cas, l IRM conventionnelle est donc un biomarqueur pour le développement de la SEP cliniquement définie [Barkhof 1997]. En revanche, la plupart des études croisées concernant les formes rémittentes de la maladie et utilisant des quantificateurs issus de séquences T2 ont présenté des corrélations faibles avec les marqueurs cliniques, en particulier concernant l aggravation de la charge lésionnelle globale et la progression du handicap fonctionnel. On parle alors de paradoxe clinico-radiologique. Le volume des trous noirs est mieux corrélé avec le handicap clinique [VanWalderveen 1995]. Cependant un tel quantificateur est difficile à exploiter notamment parce que l atteinte tissulaire est extrêmement variable d une lésion à l autre [Li 2003]. Actuellement, aucune des métriques issues de l IRM conventionnelle ne respecte les pré-requis nécessaires pour être un substitut d un marqueur clinique. Le paradoxe clinico-radiologique incite à chercher des anomalies en dehors des lésions observées en IRM conventionnelle. L apport des techniques non conventionnelles pour la SEP L IRM de transfert de magnétisation permet de détecter les protons liés aux macromolécules 38 par l intermédiaire de leurs interactions avec les protons libres [Wolff 1989]. Le calcul de ces échanges peut être exprimé sous la forme d un ratio. Ce ratio est plus faible dans la substance blanche d apparence normal des patients atteints de SEP que pour les sujets sains. Ce ratio a l avantage de fournir une mesure quantitative en relation directe avec l atteinte tissulaire. 38 D une façon plus précise, l IRM de transfert de magnétisation permet de détecter les protons immobiles dans des structures telles que les protéines ou les lipides à la surface des macromolécules.

36 Application : sclérose en plaques et IRM L IRM de diffusion est basée sur l application des gradients de résonance magnétique dont le résultat est le déphasage de l intensité du signal lié aux mouvements des protons libres [Filippi 1999]. Les protons libres diffusent plus vite le long des fibres myélinisées et le coefficient de diffusion apparent est restreint de manière directionnelle dite anisotropique. Dans la SEP, une augmentation de la diffusion reflète l œdème et l expansion de l espace extra-cellulaire, alors que sa diminution serait plutôt liée à la démyélinisation. L IRM spectroscopique est également très intéressante car elle fournit des mesures quantitatives sur l inflammation associée à l attaque de la myéline et l atteinte axonale [Pendlebury 2000, Viala 2000]. Cette dernière permet une étude neurochimique fournissant notamment un marqueur de la perte axonale ou un index de la viabilité neuronal, le N-acétyl-aspartate (NAA) [Nakano 1998]. Une réduction de la résonance de cette molécule révèle directement un changement de métabolisme des neurones. Cependant, le rapport signal à bruit est assez faible et les durées d acquisition sont beaucoup trop importantes pour permettre une utilisation en milieu clinique. Les deux principaux avantages de ces trois types de séquence sont : d une part, la possibilité d estimer l atteinte sur la totalité du cerveau, y compris celle de la matière blanche d apparence normale en IRM conventionnelle ; d autre part l apport des mesures physiques directement quantitatives en comparaison avec les mesures, dérivées, d intensité en IRM conventionnelle. La nécessité de l analyse multi-séquentielle Même si ces technologies semblent beaucoup plus adaptées à la sclérose en plaques que l IRM conventionnelle, elles demeurent trop récentes pour être utilisées en milieu clinique, ou en tout cas en routine sur de nombreux centres permettant une étude statistiquement valable sur la maladie ou dans le cas d une validation thérapeutique. En revanche, alors que les moyens informatiques se généralisent de plus en plus en milieu hospitalier, il est nécessaire d exploiter au maximum, et si possible de manière automatique, l IRM conventionnelle. Il paraît alors évident que l utilisation d une seule séquence ne donne pas toute l information nécessaire pour une bonne analyse de la maladie. L étude des différentes séquences semble donc primordiale pour le développement de marqueurs plus spécifiques de la sclérose en plaques. 1.2.6 L utilité des IRM longitudinales en SEP Une IRM longitudinale est une suite d acquisitions (de volumes IRM) espacées dans le temps par quelques jours, quelques mois ou années. Cette suite peut être monoséquence, c est-à-dire ne comportant qu un type de séquence d IRM ou multi-séquences. Dans ce cas, chaque temps d acquisition est constitué de plusieurs types de séquences. Étant à la fois objective et très sensible, l IRM est un marqueur de substitution de la sclérose en plaques pour les études thérapeutiques [Paty 1993, Miller 1996, Sormani 1999]. Par ailleurs, la recherche en SEP a démontré l intérêt d utiliser des IRM

L imagerie par résonance magnétique (IRM) 37 longitudinales [Guttmann 1995]. Outre l évidence de leur utilité pour le suivi des patients ou l étude de l efficacité d un médicament, les IRM longitudinales peuvent aussi être importantes pour mieux comprendre la sclérose en plaques et définir des marqueurs permettant d aider au pronostic. Par exemple, beaucoup de lésions actives détectées par un hyper-signal sur les images après injection de gadolinium peuvent aussi engendrer temporairement un hyposignal sur les images pondérées en T1 sans injection de gadolinium. Ce phénomène est probablement dû à la présence d un œdème, d une inflammation cellulaire et d une démyélinisation incomplète voire d une remyélinisation. En d autres termes, les trous noirs persistants sont plutôt révélateurs de perte tissulaire alors qu au contraire, les trous noirs temporaires, accompagnés d un hyper-signal avec injection de gadolinium sont plutôt significatifs de présence d œdème et d inflammation ainsi que de remyélinisation. Conclusion Ce chapitre situe le contexte de notre étude. Nous avons dans un premier temps présenté les principaux aspects de la sclérose en plaques de façon à mettre en évidence la complexité de cette maladie. Cette présentation permet au lecteur de mieux comprendre le but et l impact de cette étude. Dans un deuxième temps, les grands principes de l imagerie par résonance magnétique et son apport dans le cadre de la sclérose en plaques ont été présentés. Le lecteur peut ainsi mieux prendre conscience des difficultés d une segmentation automatique des lésions de SEP en terme de traitement d image d une part et en terme de choix des données à utiliser d autre part. Le chapitre suivant présente les principales méthodes existantes pour l analyse des lésions de sclérose en plaques et permet ainsi de situer notre méthode par rapport à la littérature.

38 Application : sclérose en plaques et IRM

Chapitre 2 Quel type de méthode utiliser et pour quel type d analyse? 2.1 Introduction L imagerie par résonance magnétique (IRM) a un impact majeur sur le diagnostic et la connaissance de la sclérose en plaques. En effet, comme nous l avons vu dans le chapitre précédent, l IRM est réalisée en routine pour confirmer le diagnostic de sclérose en plaques lorsque le caractère monofocal des symptômes, une sémiologie inhabituelle, un âge avancé ou la normalité de l analyse du liquide céphalo-rachidien (LCR) ne permettent pas d affirmer d emblée le diagnostic [Fazekas 1998]. Une fois le diagnostic posé, aucun critère clinique ne permet de prédire l évolution de la maladie alors que l IRM permet, dans certains cas, d évaluer la fréquence des poussées évolutives à court terme et peut-être le handicap fonctionnel au cours des dix années suivant la poussée inaugurale [Grimaud 2001]. Enfin, l IRM permet aussi d évaluer l efficacité d un traitement [Miller 1996, Barkhof 1997, Sormani 1999] et d effectuer des études rétrospectives permettant une meilleure compréhension de la maladie. Dans le cas d évaluation de thérapie, l IRM a été utilisée en routine pour tester l efficacité de thérapies comme l interféron β-1b [Paty 1993]. La quantification du volume et de l évolution des lésions ont été effectués manuellement. Cependant, les éléments recueillis pour ce type de recherches sont à la fois très nombreux et très riches en informations, surtout depuis le développement des études multi-centriques. La quantité de données disponibles pour chaque patient devient alors de plus en plus grande, nécessitant soit plus de temps d analyse, soit une sélection très restrictive des données à utiliser. De plus, la reproductivité des méthodes de segmentation manuelle est souvent très médiocre. Les coefficients de variations inter- et intra-observateur sont forts [Grimaud 1996]. La nécessité de développer des outils permettant la segmentation automatique des lésions de sclérose en plaques devient alors évidente, que ce soit pour rendre moins fastidieux le processus de détection, mais aussi pour s affranchir au maximum de la subjectivité humaine. De nombreuses équipes de recherche y travaillent activement et la littérature est abondante. Cependant, aucune méthode ne donne en- 39

40 Quel type de méthode utiliser et pour quel type d analyse? tière satisfaction à ce jour. La segmentation automatique, ou classification 1, consiste à diviser (partitionner) l image en zones homogènes selon un critère choisi, par exemple les niveaux de gris ou la texture. Il existe dans la littérature de très nombreuses techniques de segmentation en IRM cérébrales [Pham 2000, Suri 2002] (états de l art). Ce manuscrit se concentre sur la segmentation cérébrale dans le cas de pathologies 2 et en particulier dans le cas de la sclérose en plaques (SEP). Les techniques de segmentation peuvent être classées suivant différents critères. Les différentes techniques peuvent être présentées selon un angle méthodologique classique. Elles sont alors regroupées en approche paramétriques, non paramétriques et géométriques. D autres états de l art présentent les différentes techniques en différenciant les approches classiques des approches récentes [Boudraa 2000, DugasPhocion 2005]. Pour notre part, nous avons décidé de les classer selon le type d analyse qu elles permettent, à savoir une analyse transversale ou longitudinale des données. Analyse des lésions en IRM cérébrale Transversale Longitudinale Hybride Modèle Paramétrique Non paramétrique Avec segmentation Sans segmentation Critère à optimiser Comparaison d intensité Analyse du champ de déformation Méthode d optimisation Paramétrique Non paramétrique Fig. 2.1 Classification des différentes méthodes de segmentation en IRM cérébrale dans le cas de pathologie. En effet, il existe différents types d analyse automatique des lésions de sclérose en plaques en IRM. Certains travaux utilisent une seule séquence d IRM pour segmenter les lésions. Cependant cette approche est de moins en moins utilisée puisque la communauté scientifique a aujourd hui conscience de l importance de l utilisation des différentes séquences, tant pour l hétérogénéité des manifestations de la SEP en IRM que pour la complémentarité d information en terme de traitement d image. En effet, en 1 Nous utiliserons dans ce manuscrit les deux terminologies. 2 On s intéresse particulièrement aux études concernant les lésions de la matière blanche (épilepsie, lésions de vieillesse, lésions liées au diabète, SEP).

La problématique de la segmentation en imagerie médicale 41 plus d apporter des informations utiles sur les différents aspects de la maladie, la complémentarité des différentes séquences d IRM permet de réduire sensiblement le taux de faux positifs par rapport aux approches mono-séquentielles [Bosc 2003b]. D autre part, l étude de l évolution des lésions est primordiale dans le cas d évaluation thérapeutique et pour le suivi du patient. Nous nous intéressons donc aux travaux utilisant plusieurs acquisitions temporelles. Ces études sont dites longitudinales. En conclusion, nous abordons un nouveau type d approche permettant d analyser les lésions et leur évolution de façon unifiée. Nous nommons ces études hybrides puisqu elles utilisent à la fois l apport de plusieurs séquences et de plusieurs acquisitions temporelles. La figure 2.1 résume la classification que nous avons choisie pour présenter quelques méthodes de segmentation d IRM cérébrales dans le cas de pathologie. Avant de présenter les différentes méthodes de la littérature permettant une étude automatique des lésions du cortex en imagerie cérébrale, nous définissons les objectifs et les difficultés de la segmentation dans ce cadre particulier. 2.2 La problématique de la segmentation en imagerie médicale La segmentation d image divise (partitionne) l image en zones homogènes selon un critère choisi. Le procédé de segmentation est fortement lié, voire confondu, avec les tâches de classification et d étiquetage, et les définitions de ces traitements diffèrent selon les auteurs. Dans le cadre de ce manuscrit, nous adoptons indifféremment le terme segmentation ou classification. Néanmoins nous parlons plutôt de segmentation en tissus et de classification en différents types de lésions. 2.2.1 Objectifs et propriétés souhaitables pour la segmentation Précision. Le premier critère d utilisation d une méthode de segmentation est la précision des résultats. Cela implique de fournir une validation quantitative convaincante des méthodes proposées. De nombreux efforts sont d ailleurs faits dans ce sens. Robustesse. De toute évidence, les algorithmes doivent être robustes au bruit et aux perturbations en tout genre. Dans le contexte médical, la notion de robustesse prend un sens particulier. Il est en effet fréquent, lorsque l on traite un ensemble de sujets, que les histogrammes des volumes varient fortement d un sujet à l autre. Dans ces conditions, il est souhaitable que la méthode utilisée fonctionne pour tous les sujets. Un algorithme qui produit peu ou pas de cas d échec et une moyenne de résultats acceptable sera alors considéré plus robuste qu un algorithme produisant d excellents résultats sur certains sujets, et donc une meilleure moyenne, mais générant des cas d échecs plus nombreux. Automatisation. L automatisation complète est un objectif important. La segmentation manuelle est une opération longue, fastidieuse et dont les résultats sont incertains en raison de l importance de la variabilité inter- et intra-observateur. Pour ces raisons, il est donc extrêmement important de concevoir des méthodes aussi automatiques que

42 Quel type de méthode utiliser et pour quel type d analyse? possibles, c est-à-dire de réduire le degré d interactivité avec l utilisateur. L automatisation complète de la segmentation parait indispensable pour le traitement de grandes bases d images comme c est l objectif dans notre application. Vitesse d exécution. Bien que souvent mentionnée comme critère d évaluation des méthodes de segmentation en général, la vitesse d exécution n est critique en imagerie médicale que dans le cas où de très grosses bases de données sont traitées ou dans un contexte intra-opératoire. La complexité des problèmes traités implique souvent de concevoir des algorithmes sophistiqués et donc assez lents. De nombreuses applications autorisent donc une attente assez longue (30h dans [MacDonald 2000]). De plus, la progression constante et exponentielle de la puissance des machines doit être prise en compte et permet de considérer comme acceptables des traitements durant jusqu à quelques heures. 2.2.2 Difficulté de la tâche de segmentation. Faible contraste. Bien que l IRM fournisse un excellent contraste pour les différents tissus du parenchyme cérébral (matière blanche, matière grise, LCR), les lésions ne sont pas toujours bien contrastées et leur segmentation est rendue plus difficile par l effet de volume partiel avec les tissus environnants, particulièrement le LCR. Ceci est particulièrement vrai dans le cas de lésions jeunes avec une zone œdémateuse au sein de laquelle l intensité varie progressivement. Nature discrète des images. Le terme «volume partiel» est utilisé dans le milieu de l imagerie médicale pour désigner les problèmes dus à l échantillonnage de l image. En effet, les voxels ne sont associés qu à un niveau de gris alors qu ils représentent les données contenues dans un petit volume. Les voxels situés à l interface entre deux tissus contiennent des informations provenant de ces deux tissus, et dont le niveau de gris ne peut donc être associé clairement à aucune des deux classes. Hétérogénéité des intensités. Des régions considérées comme homogènes telles que la matière blanche peuvent présenter des variation d intensité [Marroquin 2002] selon leur structure microscopique (concentration en fibres). Ceci est particulièrement vrai dans le cas de la sclérose en plaques [Filippi 2004]. Cette hétérogénéité peut aussi être due à un défaut du système d imagerie. Artefacts. Les artefacts sont de nature diverse selon la modalité d image utilisée. Dans le cas de l IRM, les principaux artefacts ont été présentés dans le chapitre 1 ( 1.2.3). Dans le cas de la segmentation, l artefact le plus souvent cité est l artefact d hétérogénéité de champ qui se manifeste par une variation lente de l intensité des tissus sur l image. 2.3 Approches transversales On nomme transversales les études utilisant plusieurs séquences d IRM. Ces séquences peuvent être utilisées de différentes façons. Elles peuvent être analysées séparément (en parallèle l une de l autre). Dans ce cas, les résultats issus de chacune

Approches transversales 43 des séquences sont souvent fusionnés par la suite pour permettre une meilleure analyse [Johnston 1996]. Les séquences peuvent être analysées de façon jointe [Sajja 2006, Wu 2006]. Enfin, les différentes séquences peuvent être utilisées de façon hiérarchique (l une après l autre) [DugasPhocion 2004]. Dans ce cas on utilise la segmentation d une séquence pour initialiser la segmentation d une autre. Les séquences utilisées varient selon les études. La plupart des études utilisent les informations provenant des images pondérées en T2 et densité de protons qui mettent principalement en évidence l œdème, la gliose et la démyélinisation réversible. Certaines utilisent en plus des images pondérées en T1 de façon à pouvoir détecter les trous noirs qui marquent principalement la destruction irréversible des tissus. Cette destruction irréversible des tissus montrerait un meilleure corrélation avec le handicap clinique que les zones lésées visibles sur les images pondérées en T2 et densité de protons. Dans les travaux plus récents, les protocoles contiennent souvent des IRM pondérées en T1 après injection d un produit de contraste, le gadolinium, mettant en évidence la rupture de la barrière hémato-encéphalique. Par ailleurs, la pondération FLAIR 3 est très souvent utilisée pour les méthodes de quantification automatique car elle offre un contraste très prononcé entre le liquide céphalo-rachidien et les lésions. La plupart des méthodes de segmentation que nous décrivons dans cette section peut être vue comme un problème d optimisation où la segmentation recherchée minimise une fonction d énergie ou une fonction de coût définie par l application. Sachant une image y, on cherche une segmentation ˆx telle que : ˆx = arg min L(x, y) (2.1) x où L, la fonction de coût, dépend de l image observée y et de la segmentation x. L intérêt de définir le problème de segmentation en problème d optimisation est de pouvoir choisir la fonctionnelle L adéquate. On peut alors la définir selon les propriétés de l image que l on souhaite étudier, comme par exemple les intensités, les contours ou encore la texture [Yu 1999]. En plus de l information sur l image observée y, on peut y ajouter des connaissances a priori sur l image recherchée x pour améliorer la performance de la segmentation comme c est souvent le cas pour les modèles déformables ou encore dans le cas de régularisation markovienne. Pour plus de clarté dans notre présentation, nous avons séparé les méthodes non paramétriques (section 2.3.1) et paramétriques (section 2.3.2). Les méthodes paramétriques requièrent en effet la définition du modèle et de l estimateur des paramètres. Le problème de segmentation des lésions est très complexe et, bien souvent, les études proposent un post-traitement pour améliorer les résultats. D autre part, il est très difficile de paramétrer les lésions de sclérose en plaques puisqu il n en existe pas de modèle simple connu. Dans le cas des méthodes paramétriques, la segmentation des lésions intervient souvent après le processus de segmentation des tissus. La section 2.3.3 présente donc les différentes techniques de post-traitement pour segmenter les lésions. 3 Fluid Attenuated Inversion Recovery.

44 Quel type de méthode utiliser et pour quel type d analyse? 2.3.1 Méthodes de classification non paramétriques Nous avons choisi de présenter dans ce paragraphe quelques méthodes non paramétriques les plus utilisées pour la segmentation d IRM cérébrales dans le cas de pathologie. La plupart de ces groupes de méthodes ont leur analogue paramétrique qui sera proposé dans le paragraphe suivant. Nous présentons trois types de méthodes : les classifieurs, les machines d apprentissage et les algorithmes de regroupement. L ouvrage de référence de Duda et coll. apporte des précisions sur ces méthodes de classification génériques [Duda 2000]. Classifieurs non paramétriques. Les classifieurs sont des techniques de reconnaissance de forme dont le but est de partitionner un espace de caractéristiques issues de l image en utilisant des données avec étiquettes connues. L espace des caractéristiques est souvent constitué des intensités de l image mais peut aussi être complété par les coordonnées spatiales des voxels de l image [Anbeek 2003, Anbeek 2004b, Anbeek 2004a]. Les classifieurs sont connus pour être des méthodes dites supervisées puisqu elles nécessitent un ensemble d apprentissage constitué de données préalablement segmentées qui va servir de référence pour segmenter automatiquement les nouvelles données. En imagerie médicale, cette base d apprentissage est encore bien souvent constitué manuellement. Le classifieur le plus simple est le classifieur du plus proche voisin. Chaque voxel est classé dans la même classe que la donnée d apprentissage de plus proche caractéristique. Le classifieur des k-plus proches voisins [Friedman 1975] est une généralisation de cette approche. Chaque voxel est classé dans la même classe que la majorité des k données d apprentissage de plus proche caractéristique. La méthode des k-plus proches voisins est une méthode non paramétrique puisqu elle ne fait aucune hypothèse quant à la distribution statistique des données. Anbeek et coll. [Anbeek 2004b, Anbeek 2004a] ont utilisé cette méthode pour classifier les différents tissus cérébraux et les lésions de sclérose en plaques. En plus des intensités des cinq séquences d IRM (images pondérées en T1, IR, T2, FLAIR et densité de protons), l espace des caractéristiques contient les coordonnées spatiales des voxels. Les résultats en sont améliorés. Wu et coll. [Wu 2006] combinent cette technique avec une segmentation guidée par un modèle de façon à affiner la segmentation des tissus cérébraux et des différents types de lésions. Kamber et coll [Kamber 1995] utilisent un arbre de décision pour segmenter les lésions de sclérose en plaques. L apprentissage se fait en créant un modèle de probabilité pour chaque tissu à partir de douze sujets sains. Chaque image est recalée dans l espace de Talairach puis moyennée dans cette espace de façon à obtenir des modèles de probabilités pour chaque tissu. Le modèle le plus pertinent est celui qui confine les lésions aux régions de possible matière blanche. Cependant, on sait aujourd hui que les lésions de sclérose en plaques peuvent aussi atteindre la matière grise [Inglese 2004]. Un autre classifieur non paramétrique est la classification par fenêtre de Parzen [Parzen 1962]. Cette technique est très proche du classifieur des k-plus proches voisins. La principale différence réside dans le fait qu au lieu de chercher parmi les k voxels les plus proches, tous les voxels à une distance donnée sont considérés. Les travaux de Sajja et coll. utilisent cette technique pour segmenter le liquide céphalo-

Approches transversales 45 rachidien et les lésions de sclérose en plaques de façon à ne pas faire d hypothèse sur la distribution de ces tissus [Sajja 2006]. Cependant ils souhaitent conserver les avantages des méthodes paramétriques pour la classification de la matière blanche et de la matière grise. Ils combinent donc un classifieur par fenêtres de Parzen avec un algorithme d Espérance-Maximisation contenant un a priori markovien [Zhang 2001]. Machines d apprentissage. La segmentation des tissus cérébraux et des lésions peut aussi se faire par le biais d une machine d apprentissage 4 tels les réseaux de neurones ou les machines à vecteur de support 5. Les réseaux de neurones artificiels [Simpson 1990, Haykin 1998] miment les réseaux de neurones naturels. Ils sont donc composés de neurones ou unités. Les plus simples comprennent un ou plusieurs neurones d entrée et un ou plusieurs neurones de sortie. Certains sont complétés par une ou plusieurs couches 6, dites cachées, de neurones. Ces neurones sont liés par des connexions. Généralement chaque connexion est définie par un poids w jk qui détermine l effet du neurone j sur le neurone k. Ces poids sont déterminés selon les règles d apprentissage et la fonction d activation choisies. Le schéma de la figure 2.2 représente un exemple de perceptron multi-couche. x 1 w w 12 11 u 1 w 1 v x 2 w 21 w 22 u 2 w 2 Fig. 2.2 Exemple d un réseau de neurones : le perceptron multi-couche. Les réseaux de neurones peuvent être utilisés de différentes façons. La plus fréquente dans le cadre de la segmentation d IRM cérébrales est l utilisation des réseaux de neurones comme un classifieur. Les poids sont alors déterminés en utilisant une base d apprentissage. Le réseau alors entraîné 7 peut segmenter de nouvelles données. Dans ce cadre, les neurones d entrée peuvent être les différentes pondérations d IRM disponibles (volumes à analyser) et les neurones de sortie, les différentes classes recherchées [Zijdenbos 1994]. On peut aussi introduire des informations a priori en plus des volumes. Ainsi Zijdenbos et coll. améliorent leur méthode en introduisant trois neurones d entrée de plus correspondant à trois cartes de probabilités anatomiques (matière blanche, grise et liquide céphalo-rachidien) [Zijdenbos 1998, Zijdenbos 2002]. Dans ce dernier cas, les auteurs ne cherchent plus à segmenter les tissus cérébraux. Les deux neurones de sortie représentent d une part les lésions et d autre part le reste de l image. 4 En anglais Machine learning. 5 En anglais : Support Vector Machine (SVM). 6 Les réseaux sont alors appelés multi-couches. 7 C est ce qu on appelle alors un réseau de neurones supervisé.

46 Quel type de méthode utiliser et pour quel type d analyse? Cette méthode a montré des résultats très pertinents par rapport à ceux obtenus par des experts en terme de critères ANOVA 8 et de z-score. Dans la même catégorie de méthodes, les machines à vecteur de support [Vapnik 1998] ont été utilisées pour segmenter les lésions chez des patients diabétiques [Lao 2006]. L espace de caractéristiques utilisé pour ces travaux comprend pour chaque voxel non seulement les intensités pour plusieurs séquences d IRM (images pondérées en T1, T2, FLAIR et densité de protons) mais aussi les intensités des voxels voisins. Le principe des machines à vecteur de support est simple : déplacer un problème de segmentation complexe, non linéaire, dans un espace où le problème est linéaire. On projette alors les données dans un espace de Hilbert séparable (F) de dimension supérieure et on réalise alors une estimation d un séparateur linéaire dans F. Comme pour les classifieurs, l inconvénient majeur de ce type de méthode est la nécessité d une interaction manuelle pour obtenir les données d apprentissage. Méthodes de regroupement non paramétriques. De façon à compenser le manque d ensemble d apprentissage, les méthodes de regroupement 9 itèrent entre la segmentation de l image et la caractérisation des propriétés de chaque classe. L algorithme des k-moyennes 10 regroupe les données en calculant de façon alternée la moyenne des caractéristiques pour chaque classe et la segmentation de l image en attribuant à chaque voxel l étiquette de la classe de moyenne la plus proche. L algorithme des c-moyennes floues 11, introduit par Dunn [Dunn 1973] et développé par Bezdek [Bezdek 1981, Bezdek 1999], généralise l algorithme des k-moyennes en permettant la classification floue basée sur la théorie des ensembles flous. La fonctionnelle L à minimiser dans le cas de l algorithme des c-moyennes floues est : L = J w (x, v : y) = n k=1 i=1 c (x ik ) w y k v i 2 A (2.2) avec n le nombre de voxels du volume à traiter, c le nombre de classes désirées. x = [x ik ] R c n, avec x ik [0, 1] 1 i c et 1 k n, est la c-partition floue de y et doit vérifier : c x ik = 1 pour 1 k n, i=1 n x ik > 0 pour 1 i c. i=1 w [1, + ] est le poids de fuzzification. v = (v 1,..., v c ) est le vecteur des centres de classes.. A est un produit scalaire où A est une matrice définie positive. Une version plus rapide de cet algorithme existe en basant les calculs sur l histogramme et non plus sur l image à traiter. Cet algorithme est utilisé dans le cadre de la segmentation des lésions de sclérose en plaques dans les travaux de Boudraa et 8 Analyse de la variance. 9 En anglais : clustering. 10 En anglais : k-means 11 En anglais : fuzzy c-means

Approches transversales 47 coll. [Boudraa 2000] de façon à segmenter un masque du liquide céphalo-rachidien et des lésions puis, à partir de ce masque, à segmenter plus précisément les lésions. L algorithme des c-moyennes floues a aussi été utilisé en première étape pour la classification des tissus sains dans le cadre d un processus de classification des lésions de sclérose en plaques [Ardizzone 1999, Alonge 2001]. L étude de Admiraal-Behloul et coll. utilise un algorithme des c-moyennes floues pour définir des classes d intensités floues (par exemple : clair, moyen, sombre). Ces classes sont ensuite utilisées par le biais d un système d inférence floue pour segmenter les lésions de la matière blanche chez les personnes âgées [AdmiraalBehloul 2005]. Udupa et Samarasekera ont introduit le concept de connexion floue [Udupa 1996]. Ce concept est basé sur le fait que les informations dans une IRM sont par définition floues et les propriétés locales de l image (connectivité) sont aussi un phénomène flou. La théorie développée dans ces travaux, qui peut être vue comme une extension de la théorie des sous-ensembles flous, repose sur la définition des relations floues. En particulier, l affinité entre deux voxels prend en compte les niveaux de gris des voxels et leur distance dans l image. Ces définitions sont donc fondées sur l interaction entre les différentes structures de l image. L application de ces travaux à la sclérose en plaques [Udupa 1997] détecte donc les lésions potentielles comme étant les zones de trous entre les différents tissus cérébraux. Le principal inconvénient de cette méthode est l intervention manuelle d un opérateur pour valider, ou non, la lésion potentielle. De façon à pallier à ce problème et pouvoir appliquer ce concept à une très grande base, les auteurs associent la méthode à une méthode de recherche de graphe [Udupa 2001]. D autres auteurs ont repris ce concept pour la segmentation des tissus cérébraux mais segmentent les lésions en post-traitement en utilisant un réseau de neurones [Admasu 2003]. Pour ces méthodes basées sur le concept de connexion floue, il n y pas de réel apprentissage, mais une intervention manuelle qui consiste à pointer chacun des tissus à segmenter pour initialiser l algorithme. Autres approches. Il existe aussi des méthodes plus classiques telles que les méthodes de seuillage [Rovaris 1997, Filippi 1998a] ou de segmentation par croissance de région [Filippi 2001]. Cependant, dans le cadre de la segmentation de pathologies, ces méthodes simples sont difficilement exploitables dans le but d une automatisation totale et sont utilisées de façon semi-automatique et supervisées par un expert. Nous ne les présenterons donc pas en détails. Par ailleurs, nous aurions pu aussi aborder les méthodes de modèles déformables, que ce soit non paramétriques [Osher 1988] (les ensembles de niveaux 12 ) ou paramétriques [Kass 1987] (paradigme des snakes). Dans les deux cas, le principe est de faire évoluer un contour ou une surface en direction des frontières de l objet que l on souhaite segmenter. Cette évolution peut être exprimée directement, au moyen de forces qui déforment le contour, ou plus globalement grâce à une approche énergétique ou variationnelle. Cependant, ces méthodes, bien que très utilisées en vision mais aussi en imagerie médicale pour la segmentation des tissus [Ciofolo 2005a] ou du cortex, sont 12 En anglais : Level sets.

48 Quel type de méthode utiliser et pour quel type d analyse? peu adaptées à la segmentation des lésions. En effet, il n existe pas d a priori suffisamment fort sur la forme des lésions et l imprécision des frontières des lésions rend la tâche très difficile. Il existe néanmoins certains travaux où un modèle déformable a été utilisé dans le cas de la segmentation des lésions de la matière blanche. Ainsi, Yang et coll. détectent les zones de lésions en utilisant un algorithme des c-moyennes floues sur des images pondérées en T1 et en T2 [Yang 2004]. Cette première étape est utilisée pour initialiser un modèle de contours actifs discret et ainsi segmenter plus précisément les lésions présentes sur les images pondérées en T1. 2.3.2 Méthodes de classification paramétriques Dans le cas des méthodes paramétriques, il peut exister pour une même méthode différentes modélisations possibles. D autre part, selon le modèle choisi, et parfois selon la méthode que l on souhaite utiliser, il existe différentes fonctions de coût (ou estimateurs dans le cas de modèles paramétrés) possibles. Dans la suite de cette section sont donc présentés les modèles les plus fréquemment utilisés en imagerie médicale puis les estimateurs associés à ces modèles. Enfin, les méthodes d optimisation sont présentées en faisant le lien avec les différents modèles et les différents estimateurs existants. Modélisation Les deux principaux modèles les plus utilisés en imagerie médicale sont, d une part, les modèles de mélange de gaussiennes pour modéliser les intensités de l image observée et d autre part, les champs de Markov aléatoires pour modéliser la segmentation désirée. Mélanges de gaussiennes. Les propriétés particulières des IRM cérébrales permettent de modéliser les intensités de l image comme étant générées par un modèle de mélange de gaussiennes, multivariées ou non, selon qu on utilise une ou m séquences conjointement : f(y i ; θ) = k α j (2π) m/2 Σ j 1/2 exp ( 1 2 (y i µ j ) T Σ 1 j (y i µ j ) ), (2.3) j=1 où y i est le vecteur d intensité du voxel i si on utilise plusieurs séquences (y i est un scalaire sinon), α j sont les proportions de mélange, µ j et Σ j sont respectivement le vecteur de moyennes et la matrice de covariances de chaque composante du mélange. La plupart du temps, ce mélange est constitué de trois composantes représentant les trois tissus cérébraux : matière blanche, matière grise et liquide céphalo-rachidien. Cependant, de plus en plus de travaux introduisent des classes supplémentaires pour modéliser les effets de volume partiel ou les lésions. Certains travaux se contentent de modéliser chaque tissu comme suivant une distribution gaussienne, et non pas les intensités de l image de façon globale [Achiron 2002]. Dans ces travaux, les proportions de mélange α j ne sont donc pas estimées.

Approches transversales 49 Généralement les lésions de sclérose en plaques ne sont pas considérées comme une composante du mélange. Elles sont parfois modélisées par une autre distribution, une distribution uniforme par exemple [Schroeter 1998, VanLeemput 1999b], ou encore, peuvent être considérées comme des données atypiques du modèle et rejetées [DugasPhocion 2004]. Champs de Markov aléatoire. La modélisation des intensités de l image comme un mélange de gaussiennes ne tient généralement pas compte de la répartition spatiale des voxels. On peut ajouter cette information par le biais d une hypothèse markovienne. Les champs de Markov [Geman 1984] modélisent les interactions spatiales entre un voxel et son voisinage. En imagerie médicale, ils permettent de tenir compte du fait que la plupart des voxels appartiennent à la même classe que ses voisins. L hypothèse markovienne sera donc faite sur l image de classification recherchée x et introduite comme a priori. On rappelle que le théorème d Hammersley-Clifford définit un champ de Markov comme suivant une distribution de Gibbs. Ainsi, la réalisation de l image de classification recherchée x est modélisée par une distribution de Gibbs : P (x = x) = exp( U(x)) Z (2.4) avec Z = x Ω exp { c C U c(x) } est la fonction de partition, U c est le potentiel de clique 13, C l ensemble des cliques relatif au système de voisinage donné, U(x) = c C U c(x) est la fonction d énergie. Elle est faible pour les configurations les plus probables et élevée pour les configurations les moins probables. Cette hypothèse markovienne sur la distribution a priori de l image de classification a pour conséquence une régularisation des classes comme illustrée sur la figure 2.3. Les approches se distinguent par la manière dont les paramètres sont estimés, soit par des méthodes avec apprentissage (classifieurs bayésiens par exemple), soit par des méthodes itératives (méthodes de regroupement) ; les voxels sont classés, soit de façon douce en mixel 14 [Li 2003], soit de façon dure. Les approches peuvent aussi se distinguer selon le modèle markovien choisi (champs de Markov caché [Zhang 2001] ou non ; modèle de Potts [VanLeemput 2001], modèle markovien-gaussien, modèle semi-quadratique) ; ou encore le système de voisinage choisi. Comme pour les approches variationnelles, une difficulté associée aux modèles de champs de Markov est la sélection des paramètres contrôlant l influence du terme de régularisation (l a priori markovien que l on fait sur l image recherchée x) par rapport au terme d attache aux données (l image observée y). On peut aussi se poser la question 13 Une clique est soit un singleton soit un ensemble de sites voisins, au sens du système de voisinage choisi, les uns des autres. 14 Mixel : un voxel contenant un mélange de tissu.

50 Quel type de méthode utiliser et pour quel type d analyse? a. b. c. Fig. 2.3 Segmentation d une IRM cérébrale : a. image originale, b. segmentation en utilisant un algorithme des k-moyennes, c. segmentation en utilisant un algorithme des k-moyennes avec un a priori markovien (source [Pham 2000]). de l effet de la régularisation dans le cas de petites lésions. Une homogénéisation spatiale pourrait tendre à les faire disparaître. Estimation des paramètres Lorsque le modèle choisi est paramétré, il faut estimer ses paramètres. Il existe dans la littérature différents estimateurs (différentes fonctions de coût L) permettant ce calcul. L estimateur dépend à la fois du modèle choisi et de la méthode d optimisation que l on souhaite utiliser par la suite. Nous présentons dans ce paragraphe les estimateurs les plus courants dans le cadre de la segmentation des lésions de sclérose en plaques : l estimateur de vraisemblance et l estimateur du maximum a posteriori. Dans un cadre plus général, ce sont souvent les mêmes estimateurs qui sont utilisés en segmentation pour l imagerie médicale. Estimateur du maximum de vraisemblance. On pose f la distribution de l image observée y et θ le paramètre (ou l hyper-paramètre) à estimer. Un des estimateurs les plus classiques dans la littérature est l estimateur de maximum de vraisemblance (MV). La vraisemblance des données est n i=1 f(y i; θ) sous l hypothèse que les données soient indépendantes et identiquement distribuées. Pour des raisons de facilité de calcul (notamment dans le cas de distributions gaussiennes), c est le logarithme de la vraisemblance qui est le plus souvent utilisé. La fonction de coût à minimiser devient : L = log n f(y i ; θ). (2.5) i=1 Cet estimateur est malheureusement très sensible aux données atypiques. En effet,

Approches transversales 51 puisque lim f(y;θ) 0 log f(y; θ) =, la contribution d une seule donnée atypique peut biaiser l estimation des paramètres. Une façon de diminuer la contribution des données atypiques est de modéliser une petite fraction des données ɛ [0, 1] comme étant une classe de données rejetées et qui serait uniformément distribuée [Schroeter 1998] : f ɛ (y i ; θ) = (1 ɛ)f(y i ; θ) + ɛδ. La fonction de coût à minimiser devient donc : L = n log(f(y i ; θ) + λ) (2.6) i=1 avec λ = ɛδ/(1 ɛ). Van Leemput et coll. [VanLeemput 2001] expriment cette fonctionnelle en fonction de la distribution des données f et d un poids t : L = n t i log f(y i ; θ) i=1 Ces poids sont calculés de façon itérative en fonction du paramètre θ et de la distribution f. Ils représentent le degré de typicalité de l échantillon i par rapport à la distribution gaussienne : pour les données représentatives du modèle, t i 1 ; pour les données atypiques t i 0. Cette formulation met en évidence la diminution de l influence des données atypiques dans l estimation des paramètres du modèle. Le schéma d optimisation choisi dans ce cas alterne entre le calcul des poids et celui des paramètres du modèle d où le nom de W-estimateur 15 que l on peut aussi trouver dans la littérature. Estimateur du maximum a posteriori. L estimateur de maximum a posteriori (MAP) est lui aussi un estimateur très répandu : L = P (x = x/y = y). (2.7) C est par exemple l estimateur le plus souvent utilisé lorsqu on utilise un modèle avec régularisation markovienne, bien que d autres estimateurs soient aussi appropriés (MPM 16 et TPM 17 par exemple). Par ailleurs, le MAP peut aussi être utilisé pour estimer les intensités de l images observée comme par exemple dans le cas des classifieurs bayésiens [Achiron 2002]. En utilisant la loi de Bayes, on peut expliciter la probabilité a posteriori : P (x = x/y = y) = P (y = y/x = x)p (x = x) P (y = y) 15 W pour weight, poids en anglais. 16 Maximum a posteriori de la marginale. 17 Cet estimateur consiste pour chaque voxel à prendre la moyenne conditionnelle locale donnée par la loi a posteriori d où le nom en anglais Thresholded Posteriori Mean. Cependant cet estimateur est peu adapté à une problématique de segmentation car la moyenne des étiquettes n a aucun sens.

52 Quel type de méthode utiliser et pour quel type d analyse? Reprenons l exemple d un modèle markovien pour la segmentation désirée, c est la probabilité a priori P (x = x) qui contient l hypothèse markovienne (eq. 2.4). On souhaite maximiser la probabilité a posteriori par rapport à x. La probabilité P (y = y) ne dépend pas de x, l estimateur du MAP consiste alors à maximiser le numérateur. On obtient donc comme fonctionnelle dans le cas d une régularisation markovienne : L = log n i=1 f(y i ; θ) + c C U c, (2.8) avec f(y i ; θ) la distribution choisie pour les données observées. Très souvent, f est la distribution d un modèle de mélange de gaussiennes (2.3). On peut remarquer que l équation 2.8 est composée de deux termes. Le premier représente l attache aux données, le second, la régularisation. La performance d un tel modèle dépend beaucoup de l influence que l on souhaite donner à l un ou l autre de ces deux termes. Dans le cas d une recherche de MAP avec a priori markovien, les algorithmes les plus utilisés sont l algorithme des modes conditionnels itérés ou le recuit simulé. Cependant, d autres algorithmes sont fréquemment utilisés en segmentation d images médicales comme le classifieur gaussien ou l algorithme d Espérance-Maximisation 18 (EM) que nous verrons par la suite. Récemment des travaux ont combiné les champs de Markov avec un réseau bayésien supervisé de façon à déterminer la composition des plaques de sclérose sur des images pondérées en T1 [Liu 2006]. Méthodes d optimisation Selon l estimateur choisi, il existe différentes méthodes, dites paramétriques, permettant le calcul des paramètres du modèle ou, en d autres termes, permettant la minimisation (l optimisation) de la fonction de coût L. On peut les diviser en deux groupes : les méthodes nécessitant un apprentissage et les méthodes itératives. Classifieurs bayésiens. Le classifieur bayésien est parfois aussi appelé classifieur de maximum de vraisemblance. Dans le cadre de la segmentation cérébrale, l hypothèse la plus fréquente faite sur la distribution des intensités des tissus cérébraux est une hypothèse gaussienne. Comme tout classifieur, une base d apprentissage est nécessaire pour obtenir un échantillon représentatif pour chaque classe du mélange et estimer les paramètres du modèle θ j = (µ, Σ). La classification est ensuite obtenue en attribuant à chaque voxel l étiquette de la classe de plus grande probabilité a posteriori (MAP). On peut obtenir les paramètres par apprentissage classique [Achiron 2002] mais aussi en utilisant un modèle probabiliste des tissus [Kamber 1995]. Méthodes de regroupement bayésiens. La méthode semi-automatique décrite par Johnston et coll. [Johnston 1996] utilise un algorithme des modes conditionnels itérés (ICM 19 ) modifié pour segmenter séparément des images pondérées en T2 et densité 18 En anglais : Expectation-Maximization. 19 En anglais : Iterated Conditional Modes.

Approches transversales 53 de protons en cartes de probabilité. Ces cartes sont ensuite combinées puis seuillées en utilisant une technique basée sur les moments invariants 20 afin d obtenir un masque contenant la matière blanche et les lésions. L algorithme ICM est alors appliqué de nouveau mais sur une région restreinte définie par ce masque de façon à segmenter les lésions. L algorithme EM applique les mêmes principes de regroupement que les algorithmes des k-moyennes et des c-moyennes floues vus précédemment. La différence principale réside dans le fait que l EM fait une hypothèse sur la distribution des données. Souvent, en imagerie médicale, les données sont considérées comme générées selon un modèle de mélange de gaussiennes (eq. 2.3). L algorithme alterne les étapes de calcul des probabilités a posteriori et le calcul du maximum de vraisemblance pour estimer les paramètres du modèle, c est-à-dire les moyennes, variances et proportions de mélange de chaque classe. Nous reviendrons plus en détail sur l EM dans le chapitre suivant. Une des premières études [Wells 1996] 21 qui a utilisé l EM comme algorithme de segmentation d images médicales a montré sa supériorité sur les méthodes de classifications supervisées. Cependant l EM est un algorithme très sensible au bruit puisque l estimateur que l algorithme cherche à optimiser est l estimateur de maximum de vraisemblance. Or, comme nous l avons vu dans le paragraphe 2.3.2, une seule donnée atypique peut biaiser cet estimateur. Néanmoins, le schéma itératif de l EM permet d introduire des nouvelles étapes de façon à ajouter par exemple des contraintes spatiales par le biais de champs de Markov [VanLeemput 1999b, VanLeemput 2001, Datta 2006, Li 2003] ou encore un schéma d éjection de données atypiques de façon à rendre plus robuste l EM aux artefacts de l IRM (bruit, effets de volume partiel, etc.) mais aussi aux voxels pathologiques tels les voxels de lésions de sclérose en plaques [VanLeemput 2001, DugasPhocion 2004]. Certains travaux basés sur l EM permettent de segmenter directement les lésions en introduisant les a priori nécessaires au sein même de la minimisation alternée par le biais de pondération par exemple [VanLeemput 2001] mais d autres utilisent l EM pour classifier seulement certains tissus et effectuent la segmentation des lésions par un autre biais [Datta 2006, Sajja 2006]. 2.3.3 Segmentation des lésions Souvent la segmentation des lésions intervient en post-traitement d une segmentation des tissus. En effet, les images sont souvent segmentées à partir des propriétés des voxels seulement. Le clinicien, pourtant, utilise non seulement les propriétés de l image mais aussi des connaissances anatomiques, d expériences antérieures, etc. Ces connaissances a priori permettent d améliorer les résultats de la segmentation, notamment en réduisant les faux positifs et négatifs. Ces connaissances peuvent être apportées par des techniques d intelligence artificielle comme les réseaux de neurones [Alonge 2001, Admasu 2003] ou les systèmes 20 En anglais : Moments-Preserving Thresholding [Tsai 1985]. 21 Dans le cas des travaux de Wells et coll., l algorithme introduisait une étape de correction de biais dans le schéma itératif de classification.

54 Quel type de méthode utiliser et pour quel type d analyse? d inférence floue. Les connaissances anatomiques peuvent aussi être introduites en utilisant deux fois la même méthode de regroupement. La première fois, l algorithme est appliqué à tout le cerveau et le résultat permet de générer un masque. La deuxième fois, l algorithme est appliqué à l image masquée pour segmenter les lésions. Ce masque peut permettre de limiter la recherche des lésions à la matière blanche [Johnston 1996] ou encore de restreindre l étude au liquide et aux lésions en y ajoutant des contraintes de connexité [Boudraa 2000]. Par ailleurs, un post-traitement peut être utilisé pour diminuer le nombre de faux positifs en éliminant les données ne correspondant pas au modèle des lésions. Ce modèle peut être celui défini par l apprentissage comme c est le cas dans les travaux de Lao et coll. [Lao 2006] où les vecteurs ayant un profil ne ressemblant pas à ceux observés lors de l apprentissage sont éliminés. Le modèle peut aussi être défini par un a priori sur les lésions. Bien souvent il s agit d un a priori sur la localisation des lésions. Ainsi, Zijdenbos et coll. éliminent les voxels classés comme des lésions mais étant localisés au niveau du bord de cerveau ou adjacents au liquide céphalo-rachidien des sillons. Certaines études éliminent de la classe des lésions tous les voxels qui sont hors de la matière blanche [Wu 2006]. Parfois il s agit d un a priori sur les intensités des lésions selon la séquence d IRM choisie. Ainsi, Datta et coll. [Datta 2006] segmentent les trous noirs en utilisant une recherche de minima locaux à partir des images pondérées en T1 et érosion géodésique. Ils délimitent ensuite les lésions grâce aux techniques de connectivité floue. 2.4 Approches longitudinales Les lésions peuvent varier au cours du temps en taille, forme, composition et localisation à cause du processus naturel de la pathologie ou sous l effet d une thérapie. Il est donc très important d analyser cette variation temporelle pour mieux comprendre la maladie et son évolution, mais encore pour pouvoir étudier l efficacité d un médicament dans le cadre d essais thérapeutiques. Ce qu on appelle étude longitudinale est l étude de l évolution de la maladie entre au moins deux instants distincts. Cette analyse amène donc à comparer des images acquises à des moments différents. Entre ces moments le patient n a pas exactement la même position dans l appareil, il est donc primordial de commencer toute étude longitudinale par une étape de recalage intra-sujets. D autre part il est possible que la machine ait été recalibrée, les images à deux instants distincts peuvent donc avoir une distribution d intensité différente. Il est alors important d utiliser au préalable un algorithme de normalisation d intensité. Nous reviendrons plus en détail sur ces algorithmes dans le chapitre 3 de ce manuscrit. Les méthodes peuvent se diviser en deux catégories. Les méthodes avec segmentation et les méthodes sans segmentation. À l exception des méthodes s intéressant au profil d évolution des lésions, les méthodes présentées dans ce paragraphe sont plutôt des méthodes de comparaison entre deux images que des méthodes réellement longitudinales comme on l entend en vision.

Approches longitudinales 55 2.4.1 Méthodes avec segmentation La façon la plus simple et la plus intuitive pour étudier l évolution des lésions au cours du temps est la comparaison des lésions entre deux instants. La segmentation des lésions peut être faite manuellement, de façon semi-automatique, ou encore de façon automatique telles les méthodes que nous avons présentées précédemment (voir 2.3). Pour que les segmentations puissent être comparées de façon pertinente, il faut au préalable appliquer un algorithme de recalage entre les segmentations des différents instants. 2.4.2 Méthodes sans segmentation Comparaison par analyse d un champ de déformation Certains travaux étudient l évolution des lésions de sclérose en plaques non pas en analysant directement les évolutions d intensité comme c est le cas pour les méthodes du paragraphe suivant, mais en estimant et en analysant le champ de déformation existant entre deux acquisitions consécutives. La figure 2.4 illustre ce champ de déformation lors d un rétrécissement de lésion au cours du temps. Ce champ peut être calculé en utilisant une technique de grille déformable proche des techniques de flot optique [Thirion 1999]. Un opérateur mathématique intéressant pour détecter les lésions dites actives (évoluant au cours du temps) peut être le jacobien qui donne un sens physique aux valeurs de l image d évolution et rend donc plus aisée l interprétation des résultats [Rey 2002b]. Image 1 Image 2 Champ de déplacement Fig. 2.4 Comparaison par analyse d un champ de déformation entre deux instants consécutifs [Rey 2002b]. Comparaison directe des intensités Les approches présentées dans ce paragraphe comparent les intensités des images voxel par voxel ou sur une petite région entourant le voxel. Cette comparaison peut se faire soit de façon paramétrique [Bosc 2003b, Prima 2003], soit de façon non paramétrique [Gerig 2000, Welti 2001].

56 Quel type de méthode utiliser et pour quel type d analyse? a Fig. 2.5 Analyse par profil d évolution issus des travaux de Gerig et coll. [Gerig 2000]. (a.) IRM cérébrale comprenant une lésion ; profils d intensité (b.) pour la matière blanche (voxel représenté par la croix fine sur l image a.) ; (c.) pour la lésion marquée par la croix épaisse sur l image a. ; (d.-e.) pour d autres lésions. La méthode la plus simple pour caractériser l évolution des lésions entre deux acquisitions successives est le seuillage des images de soustraction pour extraire automatiquement les zones d évolution [Lemieux 1998]. D autres méthodes plus sophistiquées sont basées sur la théorie des détections de changements statistiques [Kay 1998]. Ainsi, Bosc et coll. [Bosc 2003b] étendent les travaux de Hsu et coll. [Hsu 1984] en utilisant des données multi-séquences (images pondérées en T1 et FLAIR). Ils utilisent un modèle gaussien multivarié des intensités de l image. Contrairement aux méthodes précédentes qui sont plutôt adaptées à une suite de deux images, les méthodes présentées par la suite sont faites pour étudier des séquences longues. La détection de l activité de la maladie peut être vue comme un problème de détection de point de rupture. Ainsi, pour Prima et coll. [Prima 2002], détecter un changement biologique revient à détecter un changement au niveau de la moyenne du profil d évolution d un voxel donné. Les auteurs font l hypothèse que le profil d évolution de chaque voxel suit une distribution gaussienne. La détection de ce changement est basée sur le critère de Neyman-Pearson où une hypothèse nulle H 0 est confrontée à une hypothèse H 1. Dans ce cas, l hypothèse H 1 représente un changement entre deux points successifs dans la série. Prima et coll. étendent leur méthode au domaine multi-séquences et complexifient leur modèle de l évolution en intégrant la variance [Prima 2003]. Gerig et coll. [Gerig 2000] ont présenté un ensemble d expériences sur la valeur discriminante du domaine temporel dans une série d IRM dans le but de détecter les lésions. Les auteurs créent pour chaque voxel de l image un signal unidimensionnel représentant son profil temporel (voir figure 2.5). Des opérateurs scalaires sont appliqués à ces profils permettant de déterminer les voxels avec un changement d intensité significatif. La théorie de Dempster-Shafer est ensuite utilisée pour fusionner les informations

Approches longitudinales 57 issues de ces différents opérateurs et ainsi obtenir des cartes 3D de probabilités d évolution des régions. Des résultats très prometteurs ont été obtenus. Plus récemment, les travaux de Welti et coll. [Welti 2001] ont étendu la méthode en tenant compte de la cohérence spatiale des voxels. Les méthodes précédentes prennent en compte l information temporelle pour chaque voxel. Rey et coll., quant à eux, proposent une analyse rétrospective basée sur l évolution temporelle des intensités des voxels en tenant compte de la cohérence spatiale et temporelle [Rey 2001b, Rey 2001a]. Ces travaux visent à définir un modèle d évolution dont les paramètres ont des valeurs différentes dans le cas de zones pathologiques ou non. Les zones dont les valeurs des paramètres indiquent clairement une évolution pathologique sont détectées. Ces travaux ont initié un troisième type de méthode qui repose non plus sur la détection des changements mais sur l étude des caractéristiques des lésions au cours du temps. Ce type de méthode s éloigne des autres méthodes présentées précédemment puisqu il ne s agit pas de détection ou de suivi automatique des lésions mais de modélisation. Ainsi, Meier et coll. [Meier 2003] ont présenté une méthode d analyse de série temporelle pour étudier les changements longitudinaux dans la composition biologique des tissus. Les auteurs étendent leur méthode et étudient la dynamique des nouvelles lésions T2 en utilisant un modèle mathématique basé sur la pathologie [Meier 2006]. Ils définissent deux modèles : le premier correspondant à l inflammation et la dégénérescence, le second correspondant à la résorption du déficit. A partir de ces modèles, trois types de profils de caractéristiques d évolution de lésions sont extraits : l hyperintensité, l hyper-intensité résiduelle et la durée de la transition (voir figure 2.6). Dans ces travaux, la détection des régions d intérêt, c.-à-d. les lésions, est faite manuellement. Wang et coll. [Wang 2003] proposent une méthode multi-séquentielle de quantification de changement qui prend en compte la localisation spatiale de la lésion. Les auteurs utilisent une somme pondérée des distances des vecteurs de caractéristiques pour chaque voxel entre deux instants. Les vecteurs de caractéristiques contiennent les coordonnées des voxels ainsi qu un code pour la présence ou l absence de pathologie pour les différentes séquences étudiées. Ces caractéristiques sont issues de la base IPT 22 de Makedon et coll. [Makedon 2003]. Les poids sont estimés en maximisant la corrélation avec l EDSS par la méthode quasi newtonnienne. Le but de ces travaux n est pas de détecter les lésions ou leur évolution mais de définir une nouvelle métrique plus corrélée avec les mesures cliniques. Ce type de travaux sur la modélisation des lésions est très prometteur pour la connaissance a priori qu ils pourraient apporter dans le cadre de processus automatique de détection et de suivi. 22 In-vivo Pathology Tracking.

58 Quel type de méthode utiliser et pour quel type d analyse? Fig. 2.6 a. Modélisation de la formation de nouvelles lésions T2 : le profil d évolution de chaque voxel est modélisé par la superposition de deux processus opposés, l inflammation (I 1 ) et la rémission (I 2 ). α 0 correspond à l intensité dite normale, α 1, respectivement α 2, correspond à l amplitude de l inflammation, respectivement de la rémission. γ 1, respectivement γ 2, correspond aux délais du processus d inflammation, respectivement de rémission. b. Les trois profils principaux : rémission complète, rémission partielle, pas de rémission. Ces trois profils sont extraits des sept paramètres du modèle : F1 = pic d hyper-intensité, F2 = déficit résiduel (relatif au pic d hyperintensité), F3 = temps de la phase de transition. Cette figure est issue des travaux de Meier et coll. [Meier 2006]. 2.5 Discussion et conclusion Approche transversale ou longitudinale? Les méthodes présentées dans le paragraphe précédent ont l avantage d étudier l évolution de la maladie. Cependant le suivi des lésions n est pas effectué conjointement à la segmentation. Nous nous intéressons à un nouveau type d approche, que nous nommons hybride, qui permet de résoudre le problème de suivi et de segmentation de manière unifiée. Cela signifie que la segmentation en un point donné est utilisée pour améliorer le suivi, ce qui pouvait déjà être le cas dans les méthodes présentées dans la section 2.4, mais aussi que le suivi temporel permet d améliorer la segmentation en un point donné en limitant notamment les artefacts. Cette nouvelle approche d analyse des données semble très prometteuse. Cependant, à notre connaissance, il existe peu de travaux effectués dans cette optique. Shahar et coll. [Shahar 2004] développent un schéma statistique pour classifier conjointement plusieurs instants. L espace de caractéristiques utilisé inclut, en plus des intensités, les

Discussion et conclusion 59 coordonnées spatiales des voxels. L algorithme EM est utilisé pour segmenter les tissus à partir des coupes 2D d images pondérées en T2. Comme nous l avons expliqué dans le chapitre 1 et dans l introduction de ce chapitre, l utilisation de l information de plusieurs séquences est extrêmement importante pour une bonne segmentation des différents types de lésions. Par ailleurs, nous souhaitons étudier l évolution des lésions au cours du temps. En effet, nous pensons que nous pourrions obtenir des marqueurs IRM plus corrélés avec les signes cliniques, en définissant des profils d évolution selon le type de lésion ou le type de sclérose en plaques. Enfin, nous souhaitons combiner l information spatiale et temporelle de façon unifiée. Cette approche à l avantage de pouvoir exploiter la continuité et la différentiabilité temporelle pour améliorer la segmentation. Approche paramétrique ou non paramétrique? Certaines méthodes comme les réseaux de neurones par exemple pourraient être utilisées pour ce type d analyse. En effet, nous pourrions avoir comme neurones d entrée les différentes séquences pour les différents instants d acquisition et en sortie la classification de plusieurs types de lésions et d évolution. Cependant cette technique nécessite un entraînement du réseau sur un ensemble d apprentissage. Or, le cerveau humain peut être extrêmement différent d un patient à l autre. A moins d entraîner le réseau de neurones sur une très grande base d apprentissage, ce qui consisterait un très lourd travail pour le clinicien, le réseau de neurones ne peut pas être robuste à tous les types de morphologie et encore moins à tous les types de lésions. L approche par méthode supervisée n est donc pas retenue et nous optons pour une méthode non supervisée. La question qui se pose alors est le choix entre une méthode paramétrique ou non paramétrique. Lorsque le modèle est vérifié, une méthode paramétrique donnera de meilleurs résultats qu une méthode non paramétrique. Si les données suivent réellement une distribution gaussienne, l estimateur de maximum de vraisemblance sera très précis. Cependant, dans le cas de l IRM cérébrale, il n est pas évident que l hypothèse soit toujours vérifiée. En effet, les effets de volumes partiels ainsi que la présence de lésions ne permettent pas de garantir le modèle. Comme nous l avons abordé dans ce chapitre, les travaux utilisant une méthode non supervisée paramétrique, comme l algorithme EM, pallient le problème en intégrant différents a priori : régularisation markovienne, modélisation de la distribution des volumes partiels ou des lésions, rejet des données atypiques, traitement non paramétrique des lésions et du liquide céphalo-rachidien, etc. Conclusion Nous proposons d utiliser un estimateur robuste à la place de l estimateur du maximum de vraisemblance de façon à pouvoir bénéficier des avantages d une méthode paramétrique sans être dépendant des données atypiques du modèle. Nous pourrions utiliser comme estimateur robuste le W-estimateur que nous avons présenté dans ce chapitre. Cependant, nous ne souhaitons pas modéliser les données atypiques. En par-

60 Quel type de méthode utiliser et pour quel type d analyse? ticulier, aucune preuve ne permet de soutenir l hypothèse d une distribution uniforme pour les lésions de sclérose en plaques. Nous utilisons donc un nouvel estimateur : l estimateur de vraisemblance tamisée. Sous ces hypothèses, nous pensons qu une régularisation markovienne n est pas indispensable pour faire face au bruit. Ce choix nous évite ainsi d avoir un paramètre de plus à gérer. De plus, cette régularisation peut nuire à la détection de petites lésions. Un a priori spatial est cependant introduit par le biais de l initialisation du schéma itératif en utilisant un atlas probabiliste. La partie II de ce manuscrit propose donc une méthode permettant de segmenter les lésions de sclérose en plaques en utilisant de façon unifiée différentes séquences d IRM et plusieurs instants d acquisition. Nous allons plus loin dans cette approche que les travaux de Shahar et coll. [Shahar 2004] en utilisant plusieurs séquences 3D. De plus nous proposons une méthode robuste en éliminant à chaque itération de l EM les données atypiques du modèle. Une fois la classification des tissus effectuée, les données atypiques seront traitées de façon à différentier dans un premier temps lésions et données atypiques (effet de volume partiel, vaisseaux, etc..) puis chaque lésion sera classée selon son type (nécrotique, gliotique, oedème, inflammation) grâce à un modèle. Le chapitre 3 présente les prétraitements nécessaires avant d appliquer une telle méthode. Le chapitre 4 propose une modélisation particulière du problème m (3D+t). Nous rappelons ensuite le principe de l algorithme EM pour estimer les paramètres d un tel modèle. Puis, l estimateur robuste est présenté. Enfin, un nouvel algorithme est proposé pour optimiser le calcul des paramètres du modèle et ainsi obtenir une classification des tissus cérébraux sains. Le chapitre 5 présente la classification des lésions en trois types.

Deuxième partie Méthode 61

Chapitre 3 Prétraitements Dans la section 1.2.3, les principaux défauts (artefacts) d acquisition en IRM qui peuvent poser problème pour effectuer une analyse automatique ont été présentés. Dans ce chapitre, nous proposons des solutions pour gérer certains de ces artefacts dans le cadre de l application de notre méthode. Par exemple, les hétérogénéités de champ causent une variation lente des intensités au sein d un même tissu qui peut engendrer des erreurs dans le cas d une méthode de classification fondée sur les intensités de l image. Par ailleurs, dans le cadre de nos travaux, nous utilisons plusieurs séquences d IRM et plusieurs temps d acquisition. Tous les volumes doivent être alignés géométriquement avant d être analysés. De plus, pour pallier les problèmes de stabilité de la machine au cours du temps, engendrant alors une variation d intensité entre deux mêmes séquences, une correction intensité longitudinale est indispensable. Enfin, les IRM cérébrales contiennent l image de la tête entière, comme beaucoup d études dans ce domaine, nous choisissons de nous focaliser sur l étude des tissus cérébraux seulement. D une part, l analyse sur la partie du volume contenant les informations et non sur tout le volume permet un gain de temps. D autre part, et c est le plus important, une bonne extraction du cerveau permet de réduire le nombre de faux positifs. 3.1 Correction de biais Le biais spatial, ou artefact radio-fréquence (RF), est inhérent à l IRM et causé par les limitations du matériel et les interactions induites par le patient [Sled 1998a]. Ce biais peut causer de mauvaises classifications quand des techniques de segmentation basées sur l intensité sont utilisées. Des méthodes prospectives sont classiquement utilisées pour limiter ces variations lors de l acquisition [Narayana 1988]. Elles sont en général capables de corriger une grande partie des défauts propres à l aimant, mais pas le biais dû au patient lui-même. Ainsi, de nombreuses méthodes cherchent à estimer et corriger ce biais rétrospectivement. Ces algorithmes reposent généralement sur une modélisation de l image qui 63

64 Prétraitements relie l intensité réelle du voxel avec l intensité observée. Mathématiquement parlant, étant donné un voxel i de l image, son intensité y i est considérée comme étant reliée à l intensité réelle x i selon l équation suivante 1 : y i = b i x i + ɛ mea i. Le biais b i est généralement considéré comme une fonction des coordonnées variant lentement dans le volume. Il est supposé multiplicatif en accord avec la nature intrinsèque des phénomènes physiques sous-jacents [Sled 1998b]. Le bruit aléatoire ɛ mea i est souvent considéré comme un bruit blanc gaussien stationnaire additif. En général, ce biais est corrigé par un traitement préliminaire à la segmentation. Selon les autres traitements utilisés, certains auteurs utilisent un simple filtrage, passebas [Bosc 2003b] ou homomorphique [Kamber 1995, Johnston 1996]. D autres éliminent le biais avec un critère de type entropique [Mangin 2000, LearnedMiller 2005]. Cependant, il arrive également que la variation d intensité soit prise en compte au sein même de la méthode de segmentation. La technique consiste alors à alterner segmentation et correction de biais. Wells et coll. introduisent ce schéma itératif au sein de l algorithme EM [Wells 1996]. Van Leemput et coll. améliorent la méthode pour une automatisation complète du processus en introduisant des cartes de probabilités a priori à la place du modèle préalablement construit manuellement [VanLeemput 1999a]. De nouvelles méthodes très prometteuses permettent de corriger le biais en intégrant des informations multi-séquences [Vovk 2006]. Dans la pratique, nous utilisons la méthode de Prima et coll. [Prima 2001]. (a) IRM originale (b) Biais (c) IRM corrigée Fig. 3.1 Exemple de correction du biais spatial sur un volume pondéré en T1. (b) Le biais spatial isolé est visualisé avec une échelle de gris adaptée. 1 Notation de Prima et coll. [Prima 2001].

Recalage 65 3.2 Recalage Avant d étudier deux volumes correspondant au même objet physique, il faut établir une concordance de position spatiale entre les deux volumes. Le recalage est donc une étape indispensable dans beaucoup de processus : la comparaison avec un atlas par exemple ; la comparaison par rapport au patient lui même, soit au cours d une même séance d acquisition soit par rapport à un examen précédent (notamment pour le suivi temporel) ; ou encore dans le cadre de la comparaison d images anatomiques et fonctionnelles. Il existe aussi des algorithmes de recalage entre différentes modalités d image, par exemple échographie et IRM pour des applications à la chirurgie guidée par l image. Les usages du recalage sont donc multiples en imagerie médicale. Le cadre de notre étude pratique est cependant assez restreint. Les méthodes utilisées dans les chapitres 4 et 5 se placent dans un espace multi-séquences longitudinal, où chaque voxel de coordonnées fixées représente la même entité physique dans les différentes images étudiées. Il est donc indispensable d avoir une méthode la plus précise possible, qui permette, pour un même patient, de positionner toutes les acquisitions dans le même référentiel. D autre part, l algorithme développé dans le chapitre 4 permet un schéma d initialisation avec un atlas probabiliste. Pour utiliser correctement les informations fournies par cet atlas, il est nécessaire de le placer dans le même repère que les images du patient. 3.2.1 Méthodes existantes Il est difficile d établir un état de l art exhaustif dans ce domaine tant il est étudié au niveau de la communauté internationale depuis plusieurs années. On peut néanmoins citer [Brown 1992, Maintz 1998, Hajnal 2001, Modersitzki 2003] qui font un résumé de la plupart des méthodes développées. On peut distinguer deux catégories de méthodes : les méthodes géométriques et les méthodes basées sur l intensité ; et deux types de transformations [Barillot 1999] : linéaires 2 et non linéaires 3. Méthodes géométriques Les approches géométriques sont les méthodes les plus intuitives, basées sur la localisation d amers 4 dans les deux images que l on souhaite recaler. Ces amers, ou «repères», peuvent être des points [Thirion 1996, Thompson 2005], des courbes [Subsol 1998], des surfaces [Bookstein 1989, Lemoine 1994, Schwartz 1996, Montagnat 1998], etc. Ces amers peuvent être identifiés soit manuellement, soit automatiquement. Les méthodes géométriques dites extrinsèques utilisent soit un repérage visible sur la modalité d imagerie utilisée, soit des repères anatomiques externes du patient, soit 2 Les transformations linéaires sont le plus souvent des transformations rigides ou affine. 3 On parle aussi de déformable dans ce cas. 4 On appelle amers un sous-ensemble de primitives, ou plus vulgairement de «repères», extraits dans chacune des deux images étudiées dans le but de rechercher la transformation existante entre ces deux sous-ensembles.

66 Prétraitements des marqueurs ou un cadre stéréotaxique 5. Le recalage est fait par rapport aux repères extérieurs à la boite crânienne. Les méthodes dites intrinsèques utilisent des repères anatomiques. Ces méthodes, à l exception du recalage dit de Talairach [Talairach 1988] nécessite souvent d avoir recours à des procédures d analyse d image. En effet, bien que l extraction de ces repères puisse être réalisée manuellement par un expert à l aide d un logiciel approprié, on peut aussi chercher à automatiser cette extraction, essentiellement pour des raisons de reproductibilité mais aussi parce que c est une tâche laborieuse pour les médecins. Le problème majeur consiste alors à rendre cette segmentation suffisamment robuste [Corouge 2003]. Une fois les amers identifiés, une mise en correspondance entre les amers des différents espaces doit être calculée. La procédure de recalage consiste alors à trouver la transformation qui recale un amer en son correspondant. Ces transformations sont de même type pour les méthodes géométriques et celles basées sur l intensité. Nous les abordons dans le paragraphe suivant. Méthodes basées sur l intensité Les méthodes basées sur l intensité comparent localement les intensités des images. Pour déterminer le niveau de proximité entre deux intensités, un critère de ressemblance est construit, appelé aussi mesure de similarité. Ce critère peut être simple, comme par exemple la différence (au sens de la soustraction) des intensités. Il peut aussi prendre en compte des aspects beaucoup plus complexes (la corrélation par exemple) et notamment permettre de réaliser un recalage entre des images ayant des intensités très différentes (comme c est le cas entre deux types de séquences différentes) : rapport de corrélation, information mutuelle. Le critère doit être adapté à la relation physique entre les intensités des images à recaler et son choix dépend donc essentiellement du problème pratique de recalage ; recalage mono-séquence ou multi-séquences par exemple [Hellier 2000]. En plus de la mesure de similarité, deux autres aspects sont fondamentaux pour le recalage : l espace dans lequel on cherche la transformation et la méthode utilisée pour optimiser la mesure de similarité. Dans le cadre du suivi longitudinal de patients atteints de sclérose en plaques, le recalage rigide, rotation et translation, est utilisé dans [Hajnal 1995, Rey 2002b]. Le recalage affine 6, qui propose en plus de la rotation et de la translation un changement de taille, permet d obtenir des résultats plus précis [Lemieux 1998, Freeborough 1996, Maes 1997], notamment pour le recalage entre différents sujets. Cependant cette transformation ne compense pas les déformations complexes. Pour compenser ces phénomènes complexes, il est nécessaire d employer des méthodes de recalage non linéaires (déformable). Le choix entre ces différentes transformations découle de ce que l on cherche à comparer et dépend évidemment du problème 5 Un cadre stéréotaxique vissé dans le crâne du patient permet de fixer sa tête sur la table de la machine. Les marqueurs stéréotaxiques, quant à eux, peuvent être vissés ou collés. Ces techniques sont très pénibles pour les patients et ne sont utilisées que dans des cas très particuliers. 6 Une extension de cette transformation concerne l utilisation de transformation affine par morceaux, utilisées dans le cas de recalage inter-sujets. La méthode de Quadrillage Proportionnel de Talairach en est l exemple le plus connu [Talairach 1988].

Recalage 67 posé. Par exemple, dans le cas de recalage inter-sujet, le recalage déformable est souvent utilisé [Thirion 1998, Toga 1998, Thompson 1999, Hellier 2000] alors qu il est très peu utilisé pour le recalage intra-sujet. En effet, il peut potentiellement détruire des petites modifications inter-image [Bosc 2003a]. La méthode d optimisation est quant à elle choisie en fonction de sa capacité à éviter les extrema locaux et à favoriser ainsi la robustesse de l estimation. 3.2.2 Présentation de la méthode utilisée Aucun marqueur ou cadre stéréotaxique n est présent dans nos images, les méthodes de recalage basées sur l intensité ont donc été préférées. L espace de recherche dépend de l application. Dans le cas du recalage entre les séquences d un même patient, nous choisissons une transformation rigide permettant de corriger les mouvements latéraux, verticaux ou de rotation qui peuvent survenir entre deux acquisitions successives. Dans le cas du recalage avec un atlas, nous préférons une transformation non linéaire. Recalage intra-patient Le recalage intra-patient est la mise en correspondance, avec une grande précision, de deux images d un même patient qui n ont pas été acquises simultanément. Y compris lors d un même «temps d acquisition», le patient peut bouger de quelques millimètres dans une ou plusieurs des trois directions de l espace. Il est donc important d effectuer un recalage entre les différents instants d acquisition mais aussi, pour un même instant, entre les différentes séquences. Le volume choisi comme référence dans nos travaux est le volume pondéré en T1 de la première acquisition. La transformation choisie est une transformation rigide avec le schéma d optimisation NEWUOA 7 [Powell 2004, WiestDaesslé 2007]. Ce schéma d optimisation cumule la robustesse de la méthode du simplexe [Nelder 1965] et la précision de l algorithme de Powell [Powell 1964]. De plus, il permet une très grande rapidité de calcul et donc l utilisation de mesure de similarité telles que l information mutuelle pondérée par les gradients [Pluim 2000] qui étaient parfois trop lourdes avec les algorithmes de type déterministe classique. La figure 3.2 illustre un exemple de recalage linéaire à six paramètres. 7 En anglais : NEW Unconstrained Optimization Algorithm.

68 Prétraitements (a) (b) (c) Fig. 3.2 Un exemple de recalage où les objets ne se déforment pas d une image à l autre, seule la position des objets est différente. Une transformation rigide 3D à 6 paramètres entre les deux IRM. (a) Une IRM dont on voit les projections sur les directions de l espace d un patient atteint de sclérose en plaques. (b) Une image du même patient acquise 12 mois plus tard ; un même point anatomique n a pas la même coordonnée dans les deux images temporelles. (c) Après recalage rigide de la deuxième image, les mêmes points anatomiques ont des coordonnées identiques.

Correction d intensité 69 Recalage avec un atlas statistique Comme nous allons le voir par la suite, le processus de segmentation est basé sur une analyse statistique de l intensité de chaque voxel des volumes dans l espace multiséquences et longitudinal. Un atlas peut être utilisé pour donner la probabilité a priori pour chaque voxel d appartenir à l une des classes que l on cherche à segmenter. Dans ce cas, il est nécessaire de placer dans le même repère les images du patient et l atlas. Il est préférable de recaler l image de l atlas sur le patient afin de préserver la qualité des IRM originales. Le recalage est fait en deux étapes : une transformation affine est calculée entre le référentiel de l atlas et le volume pondéré en T1 de la première acquisition de la base traitée puis une transformation non-linéaire permet d améliorer le résultat [Hellier 2001]. Cette succession de deux transformations permet de réduire le temps de calcul et augmente la robustesse. 3.3 Correction d intensité ou biais temporel 3.3.1 Problématique On peut observer de grandes variations d intensité d un instant à l autre. En effet les conditions d acquisition d IRM (température, taux d humidité, etc.) peuvent varier et, bien que la machine et le protocole d acquisition soient les mêmes, il est quasiment impossible d obtenir des images de même intensité lors de deux acquisitions temporelles différentes. Ceci est particulièrement vrai lorsque le temps entre deux acquisitions est de l ordre du mois ou de l année, ce qui est souvent le cas pour les protocoles de SEP. Il n existe pas à proprement parler de calibration de la machine qui garantisse la stabilité des images au cours du temps. Un même point anatomique peut donc avoir deux intensités différentes dans deux acquisitions temporelles, même si l image ne comporte pas de biais spatial. En général, les méthodes qui permettent de corriger ce problème sont plutôt fondées sur la comparaison des histogrammes de deux images [Malandain 2003] ou sur l analyse de leur histogramme joint. Cette dernière analyse n est possible que si les images ont été préalablement recalées avec une bonne précision, c est-à-dire que les points anatomiques ont les mêmes coordonnées tout au long de la série temporelle. Rappelons brièvement ce qu est l histogramme joint de deux images. Son abscisse et son ordonnée représentent respectivement l intensité de chacune des deux images (typiquement des axes allant de 0 à 255 pour des images codées sur 8 bits). La troisième dimension de l histogramme joint représente le nombre d occurrences rencontrées pour chaque point de la grille d intensité. Un histogramme joint entre m images est plus difficile à représenter graphiquement mais le principe est le même : les m premières dimensions représentent les intensités des m images (ou volumes) et la (m + 1)e dimension représente le nombre d occurrences rencontrées pour chaque point de la grille d intensité. L histogramme joint d une image avec elle-même donne un morceau de plan dans la diagonale y = x.

70 Prétraitements 3.3.2 Présentation de la méthode utilisée La solution employée dans diverses approches [Lemieux 1998, Rey 2002b] est l utilisation d un modèle linéaire décrivant les changements d intensité. L intensité de l image J corrigée est alors considérée comme une fonction linéaire f(x) = ax + b de l image de référence I : J f(i). Cependant, les variations d intensité entre deux acquisitions peuvent être fortement non-linéaires [Prima 2002, Bosc 2003a]. Ces changements peuvent alors être modélisés par une fonction polynomiale de bas degré (d 3) : f = d a k x k. k=0 Une évolution pathologique est caractérisée par des points de mêmes coordonnées qui changent d intensité à cause de la modification de tissu et non pas à cause du biais temporel. Il est donc primordial de ne pas tenir compte de ces variations particulières lors de l estimation de la fonction de correction. Pour rendre la méthode de correction d intensité robuste à ces changements (par exemple en sclérose en plaques : les lésions évolutives ou l atrophie cérébrale), les coefficients a k de la fonction polynomiale sont calculés en utilisant un estimateur robuste. Dans notre cas, un M-estimateur est utilisé. La fonction à optimiser est alors une fonction semi-quadratique, la fonction de Geman et McClure : φ(u) = de façon très simplifiée que si un voxel de l image à corriger a une intensité très «différente» (au sens du paramètre δ) de celle de l image de référence alors il n est pas pris en compte dans l estimation des paramètres de la fonction et sera considéré comme une donnée atypique du modèle (voir figure 3.3). Un autre estimateur robuste aurait pu être utilisé comme par exemple l estimateur des moindres carrés tamisés 8 [Prima 2002]. Cette correction d intensité est mono-séquence. Pour chaque séquence, la référence choisie dans ces travaux est arbitrairement le premier temps d acquisition. 3.4 Extraction du cerveau u2 δ+u. Ce qui signifie 2 L extraction du parenchyme cérébral (matière blanche, matière grise et liquide céphalo-rachidien) est un problème difficile sur les IRM cérébrales, en particulier pour les volumes pondérés en T1. Cependant c est une étape nécessaire avant de pouvoir effectuer la segmentation des différents tissus cérébraux. Les difficultés de l extraction du cerveau sont principalement dues aux intensités qui peuvent être similaires entre les structures corticales et non corticales et parce que ces régions (par exemple les yeux) apparaissent souvent connectées sur l IRM, notamment à cause du phénomène de volume partiel. 3.4.1 Méthodes existantes De nombreuses méthodes d extraction du parenchyme cérébral ont été utilisées et décrites dans la littérature. Une description complète de toutes ces méthodes, par sa lon- 8 En anglais : least trimmed squares (LTS).

Extraction du cerveau 71 (a) Image I (b) Image J (c) Image des voxels atypiques (d) Image f(i) Fig. 3.3 Correction d intensité robuste entre deux temps d acquisitions pour des volumes pondérés en T2. Des lésions apparaissent entre les deux temps d acquisition. La figure (c) représente la carte des données atypiques. Les voxels sombres sur l image sont les voxels atypiques. Ils n ont pas été inclus dans l estimation du modèle. Les évolutions d intensité liées à la pathologie sont donc conservées. gueur, sortirait du cadre de ce document. On peut cependant se référer à l état de l art de Suri et coll. [Suri 2002] ou à l étude comparative de Boesen et coll. [Boesen 2004]. Les méthodes utilisées sont néanmoins très proches de celles présentées dans le chapitre 2. Ces méthodes incluent la délimitation manuelle par un expert de l espace intradural pour chaque coupe, ce qui est robuste mais très coûteux en temps. Quant aux approches automatiques ou semi-automatiques, la plupart sont basées sur des informations a priori (méthodes dites basées atlas), sur des méthodes de classification par regroupement, sur des modèles déformables, sur des méthodes de détection de contours ou encore sur des méthode de seuillage d intensité. Afin d affiner les résultats de la segmentation, de nombreux travaux utilisent des approches modulaires qui combinent plusieurs méthodes [Rex 2004]. Des approches basées atlas peuvent être utilisées. Utiliser un atlas consiste à mettre en correspondance une image de référence et l image traitée au moyen d un algorithme de recalage. Par exemple, Collins et coll. utilisent un recalage non linéaire des volumes à analyser sur un masque prédéfini du cerveau [Collins 1998]. Des méthodes de seuillage d intensité et de morphologie mathématique peuvent aussi être utilisées [Höhne 1992, Achiron 2002]. L algorithme Brain Extraction Tool, BET [Smith 2002] effectue une estimation basée sur l intensité du seuil entre les tissus cérébraux et non-cérébraux. Puis l algorithme détermine le centre de gravité de la tête et définit une sphère initiale basée sur ce centre de gravité. Enfin, la sphère est déformée vers l extérieur jusqu à atteindre la surface du cerveau.

72 Prétraitements 3.4.2 Présentation de la méthode utilisée Dans ces travaux, nous utilisons une méthode basée sur les contours actifs implicites 9 [Baillard 2001, Ciofolo 2005a] pour extraire le cerveau. Pratiquement, pour tous les volumes traités, un masque grossier du cerveau est calculé à partir d un atlas recalé. Le recalage est fait en deux étapes : d abord une transformation rigide est calculée entre l atlas et le volume traité, puis une transformation linéaire à 12 paramètres (affine) permet d améliorer le résultat [WiestDaesslé 2007]. Nous n utilisons pas de recalage non linéaire parce qu il n est pas nécessaire pour un simple masque initialisation. Le contour actif est initialisé en utilisant une érosion morphologique de ce masque recalé. Enfin, l espace de recherche du contours est défini par un masque issu d une dilatation morphologique de l atlas recalé. Ce masque dilaté assure que la totalité du cerveau soit bien incluse à l intérieur, quel que soit le sujet traité. La figure 3.4 présente un exemple d extraction de cerveau sur des données cliniques. (a) Initialisation (b) Segmentation Fig. 3.4 Extraction du cerveau par une méthode de contours actifs implicites. 3.5 Présentation de la chaîne de prétraitement Les différents prétraitements présentés dans ce chapitre permettent de placer les volumes dans un unique espace où le positionnement des tissus et leur signal IRM sont uniformisés. 1. Correction du biais spatial. La correction de biais utilisée maximise l uniformité du signal au sein d une même classe. Elle est appliquée sur chacun des 9 Segmentation par ensembles de niveau ou level sets en anglais.

Présentation de la chaîne de prétraitement 73 volumes indépendamment. Utilisée en première étape, elle facilite le processus de recalage et d extraction de cerveau. 2. Recalage multi-séquences intra-patient. À coordonnées égales, chaque voxel des différentes séquences et des différents temps d acquisition doit représenter la même entité anatomique dans le repère IRM. Tout algorithme de recalage rigide fonctionne. Nous choisissons comme volume de référence le volume pondéré en T1 de la première acquisition. Une interpolation par splines cubiques est utilisée pour préserver la qualité des images. 3. Correction de biais temporel. Cette étape doit obligatoirement intervenir après l étape de recalage. Une relation polynomiale entre deux mêmes séquences issues de deux temps d acquisitions différents est calculée. Dans le cas d une application à l étude d une pathologie, les changements temporels dus à cette pathologie ne doivent pas être supprimés par la transformation. Il est donc extrêmement important d utiliser un estimateur robuste (par exemple M-estimateur, LTS) pour calculer les paramètres de la relation entre les deux acquisitions. Les volumes de référence choisis sont arbitrairement ceux du premier temps d acquisition. La correction se fait séquence par séquence. 4. Extraction du cerveau. Le masque est calculé sur le volume pondéré en T1 du premier temps d acquisition corrigé en biais. Tous les volumes étant préalablement recalés, le masque ainsi obtenu est appliqué aux autres séquences et acquisitions temporelles. Enfin, l algorithme développé dans le chapitre 4 donne la possibilité à l utilisateur d utiliser une initialisation par un atlas statistique. Dans ce cas, un algorithme de recalage non rigide est favorisé. La transformation est calculée de l atlas vers le patient et est appliquée à l atlas de façon à ne pas altérer la qualité des volumes à étudier. Une fois les données IRM prétraitées, l analyse peut commencer. Étant donnée la variabilité du signal des lésions de sclérose en plaques, il est plus évident de procéder a contrario. En effet, à partir d une bonne caractérisation des tissus sains, la segmentation des lésions est plus facile à obtenir. Le chapitre 4 a donc pour objectif de présenter une nouvelle méthode de classification des tissus cérébraux adaptée à la présence de pathologies du système nerveux central.

74 Prétraitements

Chapitre 4 Segmentation des tissus cérébraux 4.1 Introduction Suite aux différents prétraitements présentés dans le chapitre précédent, l ensemble des volumes acquis pour un même patient ont été placés dans un même repère, que ce soit en terme d espace ou d intensité. Le biais spatial inhérent à chaque volume a été corrigé et le cerveau a été extrait. Le problème est maintenant de segmenter les volumes afin de détecter et de classer les lésions de sclérose en plaques. Il ne faut pas perdre cet objectif de vue : même si la segmentation en tissus développée dans ce chapitre est une étape cruciale dans le processus de détection des lésions, elle n est pas un but en soi. Dans le choix de la technique, il faudra un modèle particulièrement robuste à la présence de points atypiques. Ce chapitre propose une méthode de classification robuste pour les tissus cérébraux en IRM dans le cadre de pathologies du système nerveux central. Deux contributions principales y sont présentées. La première contribution est une modélisation originale des données pour l utilisation jointe de différentes séquences d IRM longitudinales. La seconde contribution est l estimation robuste des paramètres de ce modèle. La partie 4.2 introduit la modélisation originale que nous avons choisie pour traiter ce problème. La partie 4.3 présente une méthode classique pour estimer et calculer les paramètres de ce modèle. Enfin, la partie 4.4 détaille notre nouvelle approche pour estimer et calculer les paramètres du modèle de façon robuste. 4.2 Modélisation du problème Présentation et modélisation du problème Le bruit d acquisition d une IRM suit une distribution de Rice. Cette distribution est assez bien approchée par une distribution gaussienne dans les zones où le rapport signal à bruit est élevé [Sijbers 1998]. Sur les IRM, les structures cérébrales font partie 75

76 Segmentation des tissus cérébraux de ces zones où le rapport signal à bruit est élevé. Supposons que la distribution des intensités de chaque structure cérébrale est aussi bien approchée par une loi gaussienne, il est alors usuel de considérer que les intensités de l image sont générées par un mélange de gaussiennes. Pour les IRM cérébrales, trois structures ont des intensités relativement homogènes. Elles constituent alors les trois composantes du modèle gaussien : la matière blanche (MB), la matière grise (MG) et le liquide céphalo-rachidien (LCR). Nous avons fait le choix de développer un modèle permettant l utilisation des différentes pondérations d IRM qui peuvent être disponibles pour un protocole donné de façon à utiliser les différentes informations complémentaires qu elles peuvent apporter. Il s agit d une méthode multi-séquentielle. D autre part, dans le cas de la sclérose en plaques ou de pathologie en général, l étude longitudinale est essentielle. Dans ce contexte, nous proposons de développer une méthode de segmentation multiséquentielle pour plusieurs temps d acquisition (1,..., t) avec une approche robuste. Si on considère m différentes séquences d IRM à t instants simultanément, chaque voxel i, i {1,..., n}, est décrit par un vecteur d intensité m-dimensionnel y i = (yi 1,..., ym i ). Ces vecteurs sont considérés comme les réalisations d une variable aléatoire suivant un modèle de mélange de gaussiennes m-dimensionnelles défini comme suit : f(y i ; θ) = k α j (2π) m/2 Σ j 1/2 exp ( 1 2 (y i µ j ) T Σ 1 j (y i µ j ) ), (4.1) j=1 où k est le nombre de composantes du modèle (pour notre application k = 3) et θ = (α, µ, Σ) est l hyper-paramètre du modèle. L ensemble des données peut être noté Y = {Y (1),..., Y (t) }, où Y (l) = (y (l) 1,..., y(l) q l ) est l ensemble des données multi-séquences au temps d acquisition l, q l est le nombre de voxels à l instant l (q l n). On peut remarquer que pour notre application, il y a le même nombre de voxels pour chaque instant, donc q l = q = n/t, l. En effet, le même masque cérébral est appliqué à toutes les IRM 3D précédemment recalées pour un même patient (voir chapitre 3). Nous faisons par ailleurs l hypothèse d un protocole homogène, c est-à-dire que nous supposons que les mêmes pondérations d IRM sont disponibles au cours du temps. A partir de ces données observées, nous cherchons une segmentation en trois tissus X (l) pour chaque instant d acquisition l. En d autres termes, les paramètres du modèle sont recherchés sur l ensemble des données longitudinales, puis, à partir de ces paramètres estimés et des données, une image de segmentation pour chacun des instants est reconstruite. Données du problème Les différentes données du problème sont résumées dans l énumération qui suit. On considère m différentes séquences d IRM. On considère t différents instants.

Algorithme d Espérance-Maximisation (EM) 77 Pour tous les instants l {1,..., t}, chaque voxel i, i {1,..., n}, est décrit par un vecteur d intensité m-dimensionnel y i. Les vecteurs d intensité y i sont indépendants, identiquement distribués et suivent un modèle de mélange de gaussiennes multivariées de paramètres θ = (α, µ, Σ). Les (α j ) sont les proportions du mélange, j {1,..., k}. Les (µ j ) sont les vecteurs de moyennes, j {1,..., k}. Les (Σ j ) sont les matrices de covariances, j {1,..., k}. k est le nombre de composantes du modèle et correspond au nombre de tissus cérébraux, c est-à-dire trois. c j est une des trois composantes du mélange, c est-à-dire une des trois classes de tissus. Y (l) est l ensemble des données multi-séquences au temps d acquisition l. Y = (Y (1),..., Y (t) ) est l ensemble des données observées. x i est l étiquette attribuée au voxel i, x i {c 1,..., c k }. L image X (l) = (x (l) 1,..., x(l) q l ) est l image de segmentation que l on cherche pour les données observées Y (l) à l instant l. Résolution du problème Le but est de donner une étiquette x i à chaque voxel i, avec x i {c 1,..., c k }, c j étant une des trois composantes. Pour chaque instant l une image de segmentation est calculée. L image résultante X (l) = (x (l) 1,..., x(l) q l ) est l image de segmentation des données Y (l) = (y 1 (l),..., y (l) ql ) à l instant l. Pour calculer les images de segmentation, il faut, une fois le modèle paramétrique défini, estimer et optimiser le calcul des paramètres θ = (α, µ, Σ). La section 4.3 présente une méthode classique pour l estimation de ces paramètres alors que la section 4.4 propose une méthode originale pour calculer ces paramètres de façon robuste. 4.3 Algorithme d Espérance-Maximisation (EM) L estimateur de maximum de vraisemblance est fréquemment utilisé pour estimer les paramètres inconnus des modèles de mélange de gaussiennes en utilisant l algorithme d Espérance-Maximisation 1 (EM) comme schéma d optimisation. Nous faisons dans cette partie quelques rappels sur le cadre général de l EM ( 4.3.1). Puis nous focalisons notre étude à l application de l EM pour l estimation des paramètres de modèles de mélange ( 4.3.2). Enfin, nous détaillons le cas de l utilisation de l EM dans le cadre d un modèle de mélange de gaussiennes ( 4.3.3). Pour conclure, l application de l EM dans le cadre d une classification en mélange fini de gaussiennes pour les différents tissus cérébraux sur des IRM multi-séquences 3D est présentée dans le paragraphe 4.3.4. 1 En anglais : Expectation-Maximization.

78 Segmentation des tissus cérébraux 4.3.1 Cadre général L algorithme itératif d espérance-maximisation est une technique statistique fréquemment utilisée pour maximiser des vraisemblances complexes et pour résoudre des problèmes dit de données incomplètes. Il se situe dans un cadre beaucoup plus général que la segmentation d images. À chaque itération, deux étapes se succèdent : 1. l étape E consiste en la projection d une fonctionnelle appropriée contenant les données augmentées dans l espace des données originales (données incomplètes) ; 2. l étape M consiste à maximiser cette fonctionnelle. On attribue généralement cet algorithme à Dempster, Laird et Rubin [Dempster 1977] même s il y a eu antérieurement quelques travaux connexes [Healy 1956, McKendrick 1926]. On suppose que la variable aléatoire observée y appartenant à l ensemble d échantillons Y est liée à une variable aléatoire non-observée x X par y = H(x), où H est une transformation surjective de X dans Y. En d autres termes, il y a des données complètes x partiellement observées sous la forme des données incomplètes y. On note z la donnée additionnelle ou variable cachée, x = [y, z]. On pose g(x θ) la distribution paramétrique de x, où θ est un vecteur de paramètres prenant ses valeurs dans Θ R r. Si x était totalement observée, la log-vraisemblance de θ serait log L c (θ) = log g(x θ). (4.2) La relation H de X dans Y étant surjective, à un x X donné correspond un et un seul y dans Y. La distribution des données incomplètes y peut donc être calculée en intégrant la distribution des données complètes x : f(y θ) = g(x θ). (4.3) H(x)=y La distribution de y, f(y θ) est donc aussi paramétrée par θ. L astuce de l EM consiste à estimer log g(x θ) à partir de y et à utiliser cette fonction de vraisemblance estimée pour obtenir l estimateur de maximum de vraisemblance ˆθ. On peut démontrer que le meilleur estimateur de log g(x θ), sachant une valeur courante θ des paramètres et y, est l espérance conditionnelle Q(θ, θ ) = E[log g(x θ) y, θ ]. (4.4) Cette fonctionnelle est appelée Q-fonction. Soit θ (0), la valeur initiale de θ, à la p e itération de l algorithme EM, les étapes E et M peuvent alors s exprimer formellement de la façon suivante : l étape E : calcul de la Q-fonction Q(θ, θ (p) ) Q(θ, θ (p) ) = E[log g(x θ) y, θ (p) ], (4.5)

Algorithme d Espérance-Maximisation (EM) 79 l étape M : choisir θ (p+1) qui maximise Q(θ, θ (p) ) θ (p+1) arg max θ Θ Q(θ, θ(p) ), (4.6) où θ (p) est la valeur du paramètre à la p e itération. On itère les étapes E et M jusqu à ce que le critère de convergence soit atteint. Généralement ce critère est un critère sur la variation de la log-vraisemblance. Théorème : si Q(θ, θ ) Q(θ, θ ) alors L(θ) L(θ ). La preuve de la croissance monotone de la vraisemblance entre deux itérations successives de l EM est détaillée dans de nombreux travaux (par exemple [Couvreur 1996]). La convergence de l algorithme EM est locale. Il arrive donc en théorie que l algorithme ne trouve pas le maximum global de la vraisemblance. Cette convergence est très sensible à l initialisation du paramètre θ. Il existe de nombreuses versions de l algorithme EM. Parmi elles, on peut noter l EM stochastique, le SEM (Stochastic Expectation Maximisation) [Celeux 1986]. Cette version utilise une étape d apprentissage probabiliste entre l étape E et l étape M. Cet algorithme est moins sensible à l initialisation que l EM. D autres versions sont expliquées dans le manuel en ligne de Roche [Roche 2003]. 4.3.2 Classification dans le cadre d un modèle de mélange Dans un modèle de mélange [McLachlan 2000], la fonction de densité est définie comme une somme pondérée de k fonctions paramétriques ayant pour ensemble de paramètres φ j. Une famille de mélange fini de densité est donc de la forme suivante : f(y θ) = k α j f j (y φ j ), y R d. (4.7) j=1 Les α j sont les proportions de mélange et doivent respecter les propriétés suivantes : α j 0, k j=1 α j = 1. f j (y φ j ) est une distribution paramétrée par φ j et θ = (α 1,..., α k, φ 1,..., φ k ). Soit y = (y 1, y 2,..., y n ) un échantillon de n observations indépendantes et identiquement distribuées (i.i.d.) et tel que chacun des y i suit la distribution f(y i, θ). Sous cette hypothèse, la log-vraisemblance log L(θ) s écrit : n log L(θ) = log f(y θ) = log f(y i θ) = i=1 n k log α j f j (y i φ j ). i=1 j=1 Dans le cadre d une application à la classification, on considère la donnée incomplète z comme la classe d appartenance de chacun des éléments à classifier. On écrit pour l élément y i : { 1 si yi appartient à la classe c z ij = j 0 sinon

80 Segmentation des tissus cérébraux Généralement, les z i = (z i1,..., z ik ) sont pris comme des réalisations indépendantes suivant une distribution multinomiale. En d autres termes, dans le cas d un modèle de mélange, la variable cachée z devient alors l appartenance de chaque échantillon à l une des k classes. Les données complètes sont donc x = (x 1, x 2,..., x n ) avec x i = (y i, z ij ) et la vraisemblance associée s écrit : P (y i, z i ) = P (y i z i )P (z i ) = f 1 (y i φ 1 )) z i1 α z i1 1... f k (y i φ k )) z ik α z ik k La log-vraisemblance complète associée est donc : log L c (θ) = log g(x θ) = n k z ij log(α j f j (y i φ j )) (4.8) i=1 j=1 L algorithme EM répète deux phases. Étape E On calcule l espérance conditionnelle de la log-vraisemblance complète log c L(θ) Q(θ, θ (p) ) = E[log L c (θ) y, θ (p) ]. (4.9) Comme la log-vraisemblance complète (4.8) est une fonction linéaire des z ij, ce calcul se limite à remplacer les z ij par leur espérance conditionnelle : E[z ij y i, θ (p) ] = α (p) j f j (y i φ (p) j ) k l=1 α(p) l f l (y i φ (p) l ) (4.10) Étape M On recherche la valeur θ qui maximise (4.9). Cette étape dépend complètement du modèle de mélange choisi. Dans le paragraphe suivant, nous allons expliciter le calcul dans le cas d un mélange de gaussiennes. 4.3.3 Application aux mélanges de gaussiennes multivariées Nous nous intéressons au cas d un mélange de gaussiennes puisque, comme expliqué dans la section 4.2, nous faisons l hypothèse que la distribution de chacune des structures cérébrales peut être approchée par une distribution gaussienne. Sous cette hypothèse, nous pouvons considérer que les intensités de l image sont générées par un mélange de gaussiennes. Dans un premier temps, rappelons l expression d une densité de gaussienne multivariée de dimension m et de paramètre φ j = (µ j, Σ j ) : f j (y i ; φ j ) = (2π) m/2 Σ j 1/2 exp ( 1 2 (y i µ j ) T Σ j 1 (y i µ j ) ), (4.11)

Algorithme d Espérance-Maximisation (EM) 81 où µ j et Σ j sont respectivement le vecteur moyenne et la matrice de covariance de la j e gaussienne. Le calcul de l espérance conditionnelle eq.(4.10) revient à remplacer les z ij par leur estimation : α (p) j f j (y i φ (p) j ) ẑ ij = P (x i = c j y i ; θ (p) ) = k l=1 α(p) l f l (y i φ (p) l ) Dans ce cas particulier, la phase de maximisation peut se réduire à trois formules de ré-estimation des paramètres : estimation de la probabilité a priori de la j e classe ˆπ j, ˆπ (p) j = n i=1 ẑij estimation du vecteur moyenne de la j e, classe ˆµ j n ; (4.12) ˆµ j (p) = n i=1 ẑijy i n ; (4.13) i=1 ẑij estimation de la matrice de covariance de la j e, classe ˆΣ j n ˆΣ (p) i=1 j = ẑij(y i ˆµ (p) j )(y i ˆµ (p) j ) T n i=1 ẑij. (4.14) Les calculs pour aboutir à ces trois formules sont disponibles dans plusieurs travaux comme par exemple ceux de Flandin [Flandin 2004]. 4.3.4 Segmentation longitudinale d IRM multi-séquences avec l algorithme EM Modélisation Nous utilisons le modèle original présenté dans la section 4.2. Les t différents instants et les m différentes séquences d IRM sont traités conjointement. Chaque voxel i, i {1,..., n} est décrit par un vecteur d intensité m-dimensionnel y i = (yi 1,..., ym i ). Ces vecteurs sont vus comme les réalisations d une variable aléatoire suivant un modèle de mélange de gaussiennes m-dimensionnelles défini comme suit : k f(y i ; θ) = α j (2π) m/2 Σ j 1/2 exp ( 1 2 (y i µ j ) T Σ 1 j (y i µ j ) ), (4.15) j=1 où k est le nombre de composantes du modèle (pour notre application k = 3) et θ = (α, µ, Σ) est l hyper-paramètre du modèle. Estimation Une fois le problème modélisé, on calcule les paramètres pour pouvoir attribuer une étiquette à chaque voxel. Comme cela a été vu dans le chapitre 2, ce calcul est souvent basé sur l estimation au sens du maximum de vraisemblance 2 (MLE) de l hyper- 2 En anglais : Maximum Likelihood Estimator.

82 Segmentation des tissus cérébraux paramètre θ du modèle : Optimisation ˆθ MLE = arg max θ Θ n f(y i ; θ). (4.16) L optimisation du calcul des paramètres se fait via l algorithme EM. L algorithme EM, pour cette application (voir 4.3.3), se réduit au schéma itératif suivant : 1. étape préliminaire : initialisation des probabilités a posteriori ẑ ij, 2. estimer les paramètres des classes et les proportions de mélange en maximisant la vraisemblance des données (étape M) : α p j = 1 card(y ) i=1 n P (x i = c j Y, θ (p 1) ), i=1 µ j p = n i=1 P (x i = c j Y, θ (p 1) )y i n i=1 P (x i = c j Y, θ (p 1) ), Σ j p = n i=1 P (x i = c j Y, θ (p 1) )(y i µ j p )(y i µ j p ) T n i=1 P (x i = c j Y, θ (p 1) ) ; 3. mettre à jour les probabilités a posteriori (étape E) : ẑ ij = P (x i = c j Y ; θ (p) ) = 4. itérer les étapes (2) et (3) jusqu à convergence. Classification α(p) j f j (y i x i = c j ; θ (p) ) k l=1 α(p) k f l(y i x i = c l ; θ (p) ) Après convergence, une estimation ˆθ de l hyper-paramètre est obtenue. Les probabilités finales P (x i = c j Y ; ˆθ) peuvent donc être calculées. On attribue ensuite à chaque vecteur y i l étiquette de la classe c j de plus grande probabilité. 4.3.5 Discussion L estimateur de maximum de vraisemblance est fréquemment utilisé pour estimer les paramètres inconnus des modèles de mélange de gaussiennes via l algorithme d espérance-maximisation. Il est pourtant bien connu que cet estimateur est très sensible aux données atypiques. En fait, une seule donnée atypique peut complètement anéantir l estimation par maximum de vraisemblance [Neykov 2004]. Or, dans le cadre de notre application, la détection des lésions de sclérose en plaques sur des séquences d IRM cérébrales m(3d + t), de nombreux artefacts peuvent induire en erreur l estimateur. En effet, les vaisseaux, les erreurs de recalage, les effets de volumes partiels et

Notre approche : EM robuste spatio-temporel (STREM) 83 surtout les anomalies pathologiques (les lésions de SEP) ne sont pas bien gérés par le modèle de mélange de gaussiennes. Nous proposons donc dans la section 4.4, une méthode originale, robuste aux données atypiques, permettant de calculer les paramètres du modèle précédemment présenté dans la section 4.2. 4.4 Notre approche : EM robuste spatio-temporel (STREM) Cette section présente une méthode originale pour la segmentation des structures cérébrales en IRM. Cette méthode est basée sur l estimateur de vraisemblance tamisée introduit par Vandev et Neykov en 1998 [Vandev 1998]. Le schéma d optimisation utilisé pour calculer cette estimateur est dérivé du schéma d optimisation du critère des moindres carrés tamisés de Rousseeuw et Leroy [Rousseeuw 1987] et a été développé par Neykov et Müller en 2003 [Neykov 2003] et appliqué aux mélanges de gaussiennes en 2004 [Neykov 2004]. Cet algorithme a été adapté et appliqué pour la première fois à la classification robuste des tissus cérébraux en IRM cérébrale dans nos travaux en 2005 [AïtAli 2005]. Le paragraphe 4.4.1 introduit l estimateur robuste. Le paragraphe 4.4.2 explique le schéma d optimisation pour le calcul de cet estimateur. Enfin, le paragraphe 4.4.3 résume notre méthode. 4.4.1 Présentation de l estimateur de vraisemblance tamisée (TLE) Par définition, l estimateur de vraisemblance tamisée 3 (TLE) détermine les h observations parmi un échantillon de taille n pour lesquels la vraisemblance est maximale. L estimateur pondéré tamisé Avant de présenter l estimateur spécifique à la vraisemblance, nous présentons le cas général de l estimateur pondéré tamisé. Soit un ouvert Ψ = {ψ (i) : Θ R +, pour i = 1,..., n} avec Θ R r, l estimateur tamisé pondéré est défini par : W h := arg min θ Θ h ω (i) ψ (i) (θ), (4.17) avec ψ (i) (θ) ψ (i+1) (θ), h est le paramètre de tamisage, ω (i) 0 pour i = 1,..., n sont les pondérations et ω (h) > 0. i=1 3 En anglais : Trimmed Likelihood Estimator.

84 Segmentation des tissus cérébraux L estimateur de vraisemblance tamisée pondéré L estimateur de vraisemblance tamisée pondéré a été proposé indépendamment par Hadi et Luceño [Hadi 1997] d une part et Vandev et Neykov [Vandev 1998] d autre part. On peut trouver l estimateur de vraisemblance tamisée pondéré à partir de l estimateur pondéré tamisé en choisissant la fonction ψ telle que ψ (i) (θ) = log f(y i, θ) avec y i R m pour i = (1,..., n), n observations indépendantes et identiquement distribuées ayant pour fonction de densité f(y, θ). Cette fonction de densité dépend du paramètre θ Θ R r. L estimateur de vraisemblance tamisée pondéré est donc défini comme suit : W h = ˆθ W T LE = arg min θ Θ avec ψ ν(i) (θ) ψ ν(i+1) (θ), ν = (ν(1),..., ν(n)) sont les permutations des indices, h est le paramètre de tamisage, ω ν(i) 0 pour i = 1,..., n sont les pondérations et w k > 0. Quelques équivalences h ω ν(i) ψ(y ν(i) ; θ) (4.18) L estimateur de vraisemblance tamisé pondéré peut être réduit : à l estimateur du maximum de vraisemblance si h = n et ω ν(i) = 1 ; à l estimateur de vraisemblance tamisée si ω ν(i) = 1 pour i = 1,..., h et ω ν(i) = 0 sinon ; aux estimateurs de moindres carrés médians (LMS 4 ) et de moindres carrés pondérés 5 (LTS) de Rousseeuw et Leroy [Rousseeuw 1987] dans le cas d une régression normale et d un choix approprié des poids. Pour plus de détails concernant ces équivalences, nous conseillons au lecteur de se reporter aux travaux de Vandev et coll. [Vandev 1993a, Vandev 1998]. i=1 L estimateur de vraisemblance tamisée (TLE) On prend ω ν(i) = 1 pour i = 1,..., h et ω ν(i) = 0 sinon. On explicite l équation 4.18 et on obtient alors l estimateur robuste de θ : ˆθ T LE = arg max θ Θ h f(y ν(i) ; θ), (4.19) h est le paramètre de tamisage et ν = (ν(1),..., ν(n)) sont les permutations des indices telles que f(y ν(i) ; θ) f(y ν(i+1) ; θ). 4 En anglais : Least Median of Squares. 5 En anglais : Least Trimmed Squares. i=1

Notre approche : EM robuste spatio-temporel (STREM) 85 L apport du TLE sur le MLE en terme de robustesse est le même que celui du critère des moindres carrés tamisés (LTS) sur le critère des moindres carrés 6 (LS). La fonctionnelle (4.19) ne contient que les h observations les plus probables pour un θ donné. Ce qui veut dire que les autres observations, c est à dire, les n h moins probables pour un modèle paramétrique donné, n influencent pas directement la fonctionnelle de l estimateur de maximum de vraisemblance tamisée. Donc si le nombre de données de l échantillon ne représentant pas bien le modèle est inférieur à n h alors, le TLE n est pas influencé par ces données et estime les paramètres du modèle en utilisant seulement le reste des données correspondant au modèle. Preuve de convergence La convergence de Fisher, la normalité asymptotique ainsi que la différentiabilité compacte de l estimateur de vraisemblance tamisée pour les distributions normales avec variances inconnues ont été prouvées par Bednarski et Clarke [Bednarski 1993]. La convergence et les propriétés asymptotiques ont été étudiées par Čìžek [Čìžek 2002][Čìžek 2004]. Les conditions générales pour l existence d une solution à l équation 4.19 ont été prouvées par les travaux de Dimova et Neykov [Dimova 2004]. Le point de rupture 7 de l estimateur de vraisemblance tamisée est supérieur ou égal à 1 n min{n h, h d}, d est une constante qui dépend de la densité considérée. Le point de rupture dépend donc du choix du paramètre h. Dans le cas particulier des modèles linéaires généralisés, Müller et Neykov [Müller 2003] ont démontré que d = N (x) + 2, N (x) étant le nombre de variables explicatives du système. Il est recommandé dans ces travaux que h soit égal à (n + N (x))/2 pour que le point de rupture soit maximal. 4.4.2 Présentation de notre algorithme d estimation robuste Bien que continue, la fonctionnelle 4.19 n est pas différentiable et peut avoir plusieurs minima locaux. Nous avons donc besoin pour la calculer d un schéma d optimisation combinatoire et régularisé. L algorithme EM abordé dans la section 4.3 permet de résoudre des problèmes complexes d estimation au sens du maximum de vraisemblance en les divisant en plusieurs problèmes simples. Cette conséquence est certainement très utile dans le cas de classification de mélanges par estimation au sens du maximum de vraisemblance mais elle l est aussi dans le cas de classification robuste. En effet, on peut remplacer l étape de maximisation de l EM par une étape d estimation robuste appropriée et obtenir ainsi une estimation robuste des paramètres du mélange. Dans ce cadre, Neykov et Müller [Neykov 2003] proposent un algorithme appelé FAST-TLE qui dérive de l algorithme FAST-LTS de Rousseeuw et van Driessen [Rousseeuw 1999a, Rousseeuw 1999b]. 6 En anglais : Least Squares. 7 Le point de rupture d un estimateur est la plus petite proportion de contamination pouvant engendrer des valeurs arbitraires pour l estimateur.

86 Segmentation des tissus cérébraux De façon à s assurer qu il existe toujours une solution au problème d optimisation 4.19, on suppose que l ensemble Φ est d-complet 8 et que h d. Étant donné un ensemble H (p 1) = {y j1,..., y jh } {y 1,..., y n } alors on choisit arbitrairement ˆθ (p 1) ou on calcule l estimateur de θ, ˆθ (p 1), maximisant la vraisemblance du sous-ensemble H (p 1) ; on définit Q (p 1) := h i=1 ψ(y j i, ˆθ (p 1) ) ; on trie ψ(y i, ˆθ (p 1) ) = log f(y i, ˆθ (p 1) ) pour i = 1,..., n par ordre croissant, log f(y ν(i), ˆθ (p 1) ) log f(y ν(i+1), ˆθ (p 1) ) ; on prend le nouveau sous-ensemble H (p) = {y ν(1),..., y ν(h) } contenant les h vecteurs ayant les plus grandes vraisemblances pour le ˆθ (p 1) donné ; on calcule l estimateur de θ, ˆθ (p), maximisant la vraisemblance du sous-ensemble H (p) ; on définit Q (p) := h i=1 ψ(y ν(i), ˆθ (p) ). Proposition : A chaque itération la fonctionnelle (eq. 4.18) que nous souhaitons minimiser diminue, c-à-d Q (p) Q (p 1). Preuve : Par définition de H (p), on a h i=1 ψ(y ν(i), ˆθ (p 1) ) h i=1 ψ(y j i, ˆθ (p 1) ) = Q (p 1). Puisque Q (p) est l estimateur du maximum de vraisemblance sur le sousensemble H (p) alors Q (p) = h i=1 ψ(y ν(i), ˆθ (p) ) h i=1 ψ(y ν(i), ˆθ (p 1) ) Q (p 1). La convergence est garantie après un nombre fini d itération puisqu il y a seulement un nombre fini de sous-ensembles H parmi les n!/k!(n k)! possibles. On peut noter que cette condition est nécessaire mais non suffisante pour atteindre le maximum global de la fonctionnelle de vraisemblance tamisée (eq. 4.18). 4.4.3 Segmentation longitudinale d IRM multi-séquences avec l algorithme STREM Modélisation du problème Nous utilisons le modèle original présenté dans la section 4.2. Les différents instants et les différentes séquences d IRM sont traités conjointement. Chaque voxel i, i {1,..., n} est décrit par un vecteur d intensité m-dimensionnel y i = (y 1 i,..., ym i ). Ces vecteurs sont vus comme les réalisations d une variable aléatoire suivant un modèle de mélange de gaussiennes m-dimensionnelles défini comme suit : f(y i ; θ) = k α j (2π) m/2 Σ j 1/2 exp ( 1 2 (y i µ j ) T Σ 1 j (y i µ j ) ), (4.20) j=1 où k est le nombre de composantes du modèle (pour notre application k = 3) et θ = (α, µ, Σ) est l hyper-paramètre du modèle : (α j ) j {1,...,k} sont les proportions de mélange, 8 La définition de la d-complétude est donnée en annexe

Notre approche : EM robuste spatio-temporel (STREM) 87 (µ j ) j {1,...,k} sont les vecteurs de moyennes, (Σ j ) j {1,...,k} sont les matrices de covariance. Une fois les images pré-traitées comme indiqué dans le chapitre 3, on construit pour chaque temps un histogramme joint m-dimensionnel. Ensuite, chacun de ces t histogrammes joints sont combinés en un seul histogramme joint global contenant les informations de toutes les séquences et de tous les temps d acquisition. Estimation robuste des paramètres de classes Pour que la classification soit moins sensible au bruit, aux erreurs de recalage, aux effets de volume partiel et surtout aux anormalités pathologiques (c.-à-d. les lésions de SEP) qui ne sont pas bien gérés par le modèle de mélange de gaussiennes, nous proposons de remplacer l estimateur du maximum de vraisemblance par l estimateur de vraisemblance tamisée proposé par Neykov et coll. [Neykov 2004] dans le cadre d estimation des paramètres de mélange de gaussiennes multivariées. L hyper-paramètre optimal est celui qui maximise la vraisemblance tamisée des données : θ = arg max θ Θ h f(y ν(i) ; θ) (4.21) i=1 où ν(i) sont les permutations de i = {1,..., n} telles que log f(y ν(i) ; θ) f(y ν(i+1) ; θ). Optimisation On choisit H (0) comme étant l ensemble des données et non plus un sous-ensemble. Pour notre application, l initialisation de l hyper-paramètre θ 0 peut être faite de façon aléatoire ou par un recalage non rigide d un atlas statistique contenant, pour chaque voxel, les probabilités d appartenance aux trois tissus. Dans ce cas, l hyper-paramètre ˆθ 0 est ensuite calculé à partir de ces probabilités a posteriori. On peut résumer le schéma d optimisation itératif comme suit : 1. maximisation de la vraisemblance de toutes les données en utilisant un EM, donnant une première estimation de l hyper-paramètre ˆθ (p 1), ˆθ (p 1) = arg max θ Θ n f(y i ; θ), 2. tri des résidus r i = log f(y i ; ˆθ (p 1) ) pour i = 1,..., n, 3. maximisation de la vraisemblance pour les vecteurs ayant les h plus petit résidus donnant une nouvelle estimation θ (p) (toujours en utilisant un EM), 4. retour à l étape 2 jusqu à convergence. La convergence est considérée comme atteinte lorsque les proportions de mélange n évoluent plus à ɛ près. i=1

88 Segmentation des tissus cérébraux H initialisé à tout l ensemble Estimateur du maximum de vraisemblance sur H Calcul des résidus H ne contient plus que les h données de plus petit résidus Fig. 4.1 Schéma itératif pour l estimation robuste des paramètres du modèle. Pour le cas des gaussiennes multivariées, d = r + 1 [Vandev 1993a] (θ Θ R r ) et N (x) = k(r+1). En théorie, la taille de l échantillon minimal pour calculer le maximum de vraisemblance est donc h = (n + k(r + 1))/2. Néanmoins, compte-tenu des propriétés des mélanges de gaussiennes, Neykov et coll. recommandent en pratique de prendre 80% ou 90% des données. Nous revenons plus en détail sur ce point dans le chapitre 7. Le schéma d optimisation est résumé sur la figure 4.1. Classification Finalement, l ensemble des images des segmentations X = (X 1,..., X t ), avec X l = (x l i, xl i {c 1,..., c k }) la segmentation pour l acquisition l, est construit selon les vecteurs originaux y i et leur étiquette x i. L étiquette x i attribuée au voxel i est celle donnant la plus grande probabilité a posteriori (équation 4.10), sachant l hyperparamètre θ estimé. Les images X 1,..., X t sont les segmentations des tissus sains pour les différents temps d acquisition. Il est important de noter que, pour cette partie de la méthode, le rejet de données atypiques est utilisé exclusivement pour l estimation des paramètres. Lors de l étape finale d étiquetage, à tous les voxels est attribuée une classe de tissus sains. Nous appelons cet EM robuste spatio-temporel : STREM 9. 4.5 Conclusion Nous avons proposé dans ce chapitre une méthode robuste pour classer les tissus cérébraux sains. Mais contrairement à ce qui se fait majoritairement dans la littérature, 9 En anglais : Spatio-Temporal Robust Expectation-Maximization.

Conclusion 89 nous utilisons à la fois plusieurs séquences d IRM et plusieurs temps d acquisition pour notre étude. En ce qui concerne notre objectif de classification des lésions de sclérose en plaques en IRM cérébrale, utiliser plusieurs séquences d IRM devient indispensable pour étudier les différents types de lésions de sclérose en plaques, marquées différemment selon la pondération favorisée. Quant au fait d utiliser plusieurs temps d acquisition, cela permet d étudier l évolution des lésions au cours du temps. Pour que l estimation des paramètres ne soit pas biaisée par le bruit, les effets de volume partiel ou les anormalités pathologiques telles les lésions de sclérose en plaques, nous avons proposé de remplacer l estimateur du maximum de vraisemblance par un estimateur robuste, l estimateur de vraisemblance tamisée. Un schéma original d optimisation permet de calculer cet estimateur. L existence d une solution pour l estimateur ainsi que la convergence du schéma d optimisation ont été démontrées. Une fois les paramètres des classes des trois tissus sains estimés de façon robuste, on peut extraire les données atypiques du modèle final et classer parmi elles les lésions de sclérose en plaques. C est le thème du chapitre suivant.

90 Segmentation des tissus cérébraux

Chapitre 5 Détection et classification des lésions 5.1 Introduction À ce moment de l étude, plusieurs points importants ont été réglés dans la résolution du problème initial. Les étapes de prétraitements ont permis une uniformisation spatiale et temporelle des images ainsi que l extraction du parenchyme cérébral. L algorithme STREM quant à lui a permis une caractérisation au niveau des intensités : chaque tissu «sain» possède maintenant, dans le cadre d un modèle de mélange de gaussiennes, une caractérisation dans un espace d intensités m-d selon les séquences disponibles. L objectif de ce chapitre est de proposer une méthode de segmentation spatio-temporelle spécifique des lésions de sclérose en plaques. Dans ce but, nous nous intéressons à l utilisation clinique des IRM par les radiologues et les neurologues dans le cadre de la sclérose en plaques. Dans ce sens, la section 5.2 rappelle brièvement les différents types de lésions que l on peut observer selon les séquences d IRM conventionnelle. La section 5.3 explique comment exploiter cette information au sein d un processus automatique de segmentation. 5.2 Manifestation des lésions de SEP en IRM Comme cela a été abordé dans le chapitre 1, les données de l IRM conventionnelle ne permettent pas une description complète et spécifique de la sclérose en plaques. En revanche, la classification en trois principaux groupes de lésions est largement acceptée et a montré une bonne utilité lors d essais cliniques [Barkhof 2001, Paty 2001]. Les lésions chroniques sévères sont hypo-intenses sur les images pondérées en T1 : les trous noirs T1 (TNT1). Les lésions aiguës montrent une rupture de la barrière hématoencéphalique sur les images pondérées en T1 rehaussées par le gadolinium : les lésions actives ou marquées. L atteinte tissulaire est hyper-intense sur les images pondérées en T2 et densité de protons : les zones d hyper-signal T2 (ZHT2) ou lésions T2. 91

92 Détection et classification des lésions 5.2.1 Les trous noirs sur les images pondérées en T1 : TNT1 Zones hypo-intenses chroniques sur les images pondérées en T1. Comme cela a été expliqué dans le chapitre 1, les trous noirs parfois observés sur les séquences pondérées en T1 ont une signification ambiguë : ils reflètent soit une lésion inflammatoire aiguë qui est alors rehaussée par le gadolinium, soit une destruction de matière avec perte axonale [Uhlenbrock 1989, VanWalderveen 1998]. La plupart cependant, reflète les lésions chroniques et garde un signal faible sur les séquences pondérées en T1 après injections de gadolinium [Brex 2000]. L étude de Truyen et coll. montre que ces lésions chroniques sont fortement corrélées avec les changements dans le score donné par l échelle 1 étendue de l état de déficience [Kurtzke 1983] sur une période de trois ans [Truyen 1996]. Cette corrélation avec les facteurs cliniques pourrait faire de la détection et de la quantification objectives des trous noirs un excellent marqueur de substitution de la SEP. 5.2.2 Lésions actives Zones hypo-intenses temporaires sur les images pondérées en T1. Parmi les lésions hypo-intenses sur les images pondérées en T1, certaines peuvent refléter des lésions aiguës, qui sont rehaussées par le produit de contraste [Uhlenbrock 1989, VanWalderveen 1998]. Dans ce cas, ces trous noirs ne seront pas persistants au cours du temps. Zones hyper-intenses après injection de gadolinium sur les images pondérées en T1. Les lésions marquées dans les IRM après injection du gadolinium, produit de contraste paramagnétique, sont caractéristiques de zones avec une rupture de la barrière hémato-encéphalique et une intense inflammation [McDonald 1992, Katz 1993]. Aux endroits où le gadolinium passe la barrière, le temps de relaxation T1 est réduit, on observe donc un hyper-signal. Bien que Filippi et coll. aient suggéré qu on pouvait constater des changements subtils au sein de la matière blanche d apparence normale avant l apparition de ces lésions [Filippi 1998b], cette anomalie est considérée comme la première étape visible en IRM conventionnelle de la formation de lésions de SEP. La présence de ces lésions rehaussées, dites aussi actives ou marquées, est actuellement l indice le plus sensible de l activité de la maladie [Miller 1993]. Bien que ces lésions soient peu spécifiques, leur détection automatique dans le cadre d essais cliniques peut s avérer très pertinente. 5.2.3 Zones hyper-intenses sur les images pondérées en T2 et densité de protons : ZHT2 En premier lieu, il faut remarquer que les trous noirs et les lésions actives présentés précédemment sont aussi des zones hyper-intenses sur les images pondérées en T2 et en densité de protons. Cependant des lésions non visibles sur les séquences pondérées en 1 Voir annexe A.2.

Notre méthode 93 T1 avant ou après injection de gadolinium peuvent apparaître comme hyper-intenses sur les séquences pondérées en T2 et en densité de protons. La charge lésionnelle extraite du duo séquences pondérées en T2 et densité de protons reste la mesure de base de l atteinte générique de la maladie [Filippi 2002]. Cette faculté en fait un outil très intéressant pour quantifier l état du patient. L évolution à la fois en nombre et en volume des ZHT2 et des lésions actives est donc utilisée dans le cadre d essais thérapeutiques [Molyneux 1998]. L extraction de la charge lésionnelle dans ces séquences est l un de nos objectifs. Comme on peut le constater dans le chapitre 2, la plupart des méthodes automatiques de la littérature pour la sclérose en plaques sont des méthodes de segmentation de ZHT2 [Kikinis 1999, Guttmann 1999, VanLeemput 2001, Zijdenbos 2002]. À l inverse, peu de méthodes automatiques [He 2002] ou semi-automatiques permettant de détecter les lésions marquées par le gadolinium ont été publiées. Malgré le fort potentiel des trous noirs comme marqueur de substitution de la SEP, la littérature sur leur identification et leur quantification objectives est relativement peu abondante. Même si certains travaux récents permettent une automatisation du processus [Datta 2006], la plupart des méthodes existantes sont manuelles ou semiautomatiques [Adams 1999, Molyneux 2000, Filippi 2001]. Les travaux de Wu et coll. sont les seuls à notre connaissance qui classifient les lésions en différents sous-types [Wu 2006]. Cependant cette classification exploite seulement l information multi-séquences et n utilise pas l aspect longitudinal du problème. En outre, la méthode utilisée pour la segmentation est un classifieur supervisé qui nécessite une intervention humaine avec tous les défauts que cela peut engendrer (voir chapitre 2). Nous proposons donc une nouvelle méthode automatique qui utilise l ensemble des séquences disponibles d un protocole donné dans le but d identifier et de quantifier, selon les séquences disponibles 2, ces trois types de lésions conjointement. 5.3 Notre méthode Maintenant que la caractérisation des différentes lésions dans l espace des images est faite, il est temps de s intéresser à la manière dont cette information peut être intégrée au processus de segmentation. 5.3.1 Détection des lésions La segmentation issue du modèle présenté dans le chapitre 4 permet d obtenir une caractérisation des différents tissus sains (matière blanche, matière grise et liquide céphalo-rachidien). Les vecteurs de moyennes µ j et les matrices de covariances Σ j 2 Si par exemple, dans le protocole choisi par le neuro-radiologue, il n y a pas d images pondérées en T1 après injection de gadolinium, l algorithme ne sera pas en mesure de quantifier les lésions marquées.

94 Détection et classification des lésions pour chaque classe de tissus c j ont été estimés dans chacun des types des séquences d IRM disponibles. Une fois le modèle spatio-temporel établi de façon robuste par STREM, il est alors aisé d en extraire les données atypiques. Pour chaque voxel i {1,..., n}, la distance de Mahalanobis entre le vecteur y i et chaque classe c j est : d i,j = (y i µ j ) T Σ j 1 (y i µ j ). Cette distance mesure le degré d appartenance de i au modèle. Pour des données multivariées m-dimensionnelles suivant une loi gaussienne, la valeur de la distance de Mahalanobis d i,j suit une loi du chi 2 à m degrés de liberté (χ 2 m). Ceci est vrai sous l hypothèse que les données soient indépendantes. Donc si cette distance, pour un vecteur y i donné est supérieure à la valeur critique de la distribution du χ 2 (voir table 5.1) pour toutes les classes, alors le vecteur n est pas représentatif du modèle et doit être considéré comme une donnée atypique. p value m 0,5 0,1 0,05 0,01 1 0.4549 2.7055 3.8414 6.6349 2 1.3862 4.6051 5.9914 9.2103 3 2.3659 6.2513 7.8147 11.3449 4 3.3567 7.7794 9.4877 13.2767 Tab. 5.1 Valeurs critiques s de la distribution du χ 2 selon le nombre de degrés de liberté m et la valeur de la p value. Si on souhaite avoir une probabilité d appartenance au modèle de 95%, ce qui correspond à une p value = 0.05, alors le seuil s sur la distance de Mahalanobis est 3.8414 si on utilise une séquence d IRM, 5.9914 pour deux types de séquence d IRM différents, etc. Remarque : Une première approche intuitive serait d extraire les données atypiques de la même façon que dans le chapitre précédent, c est-à-dire en excluant les (n h) voxels de plus grands résidus. Cependant ce choix implique que h dépende directement de la proportion des lésions à détecter. Nous ne souhaitons pas utiliser de seuil ad hoc et préférons extraire toutes les données atypiques du modèle et non un certain nombre. Le paramètre h n intervient pas dans cette partie de la méthode. Seule la p value détermine les données atypiques du modèle. 5.3.2 Classification des lésions Nous avons choisi un seuil de Mahalanobis très sensible (p value = 0, 05) de façon à ce qu aucune lésion ne soit oubliée. Cette forte sensibilité peut entraîner, selon le type de séquence utilisé, le rejet de données atypiques comprenant notamment les effets de volume partiel et les vaisseaux sanguins (voir figure 5.1). De façon à discriminer, d une part, les lésions réelles des faux positifs et d autre part les différents types de lésions,

Notre méthode 95 nous apportons des connaissances a priori sur la SEP et son incidence sur les intensités de l IRM. (a) Séquence pondérée en T2 (b) Séquence pondérée en T1 (c) Données atypiques Fig. 5.1 Exemple d extraction de données atypiques sur données cliniques, dernier instant d acquisition. Huit instants d acquisition sur quatre ans et trois types de séquences ont été utilisés (pondérée en T1, T2 et DP). Les lésions de sclérose en plaques sont ensuite détectées et classifiées à partir de ce masque. Définition des «vecteurs-types» Les lésions de SEP apparaissent en hypo- ou hyper-signal par rapport à la matière blanche d apparence normale selon leur type et les séquences d IRM. La combinaison de ces différentes informations nous permet de définir des «vecteurs-types» propres aux différents types de lésions. On peut définir les TNT1 chroniques en terme d intensité comme des régions d intensité similaires ou plus faibles que le signal de la matière grise [VanWalderveen 2001] et correspondant à une région hyper-intense pour les images pondérées en T2. Nous considérons dans ces travaux qu un trou noir correspond à une intensité équivalente à la matière grise, ou plus faible, pour les images pondérées en T1 (avant ou après injection de gadolinium) et une intensité correspondant à un hyper-signal par rapport à la matière blanche pour les images pondérées en T2 et densité de proton. Ce qui se traduit mathématiquement parlant par l ensemble des voxels i appartenant aux données atypiques ( j, d ij > s) et dont l intensité y i vérifie : y T 1 i µ T 1 MG + 3ΣT 1 MG et yt 1 Gd i µ T 1 Gd MG 1 Gd + 3ΣT MG µ T 2 MB + 3Σ T 2 MB y T 2 i et µ P D MB + 3Σ P D MB y P D i.

96 Détection et classification des lésions y XX µ XX Y Y Σ XX Y Y i est l intensité dans l image pondérée en XX du voxel i. est la moyenne estimée du tissu YY sur les images pondérées en XX. XX YY est la variance estimée du tissu YY sur les images pondérées en XX. prend ses valeurs dans l ensemble des séquences disponibles. prend ses valeurs dans l ensemble {matière blanche (MB), matière grise (MG), liquide céphalo-rachidien (LCR)}. Les lésions actives peuvent s exprimer comme étant un hyper-signal par rapport à la matière blanche pour les images pondérées en T1 après injection de gadolinium et sur les images pondérées en T2 et densité de protons. Le signal de ces lésions sur les images pondérées en T1 avant injection de gadolinium est soit normal soit hypointense par rapport à la matière blanche. Nous choisissons de ne pas détecter les lésions actives marquées par une zone sombre sur les images pondérées en T1 avant injection de gadolinium. Nous abordons ce point dans les perspectives présentées dans la conclusion. Une lésion active sera donc traduite mathématiquement par l ensemble des voxels i appartenant aux données atypiques ( j, d ij > s) et dont l intensité y i vérifie : µ T Gd MB Gd + 3ΣT MB Gd yt i et µ T MB 2 + 3ΣT MB 2 yt i 2 et µ P MB D + 3ΣP MB D yp i D et µ T 1 MB 3Σ T 1 MB y T 1 i µ T 1 MB + 3Σ T 1 MB La signature des ZHT2 est souvent proche de la matière grise [Warfield 1995] ou du liquide céphalo-rachidien sur les séquences pondérées en T2 ou DP. La double validation grâce à la combinaison de ces deux séquences permet aux cliniciens de minimiser le biais des faux positifs. Cependant, pour un traitement automatique des images il est primordial de disposer d autres séquences ou d a priori spatial fort pour distinguer les ZHT2 de ces tissus. Nous considérons dans ces travaux que le signal d une ZHT2 est hyper-intense par rapport à la matière blanche sur les images pondérées en T2 et densité de protons et normale par rapport à la matière blanche sur les images pondérées en T1 avant et après injection de gadolinium. Une ZHT2 sera donc traduite mathématiquement par l ensemble des voxels i appartenant aux données atypiques ( j, d ij > s) et dont l intensité y i vérifie : µ T MB 2 + 3Σ T MB 2 yi T 2 et µ P MB D + 3Σ P MB D yi P D et Y Y {T 1, T 1 Gd} µ Y MB Y 3Σ Y MB Y yi Y Y µ Y Y MB + 3Σ Y Y MB Les images binaires des ZHST2 qu on obtient, en plus des images de segmentation, en sortie de l algorithme contient les lésions visibles uniquement sur les séquences pondérées en T2 et en DP mais aussi les ZHST2 qui sont marquées par le gadolinium sur les séquences pondérées en T1 après injection et les ZHST2 qui sont hypo-intenses sur les séquences pondérées en T1 avant ou après injection. Cette connaissance a priori est synthétisée dans la table 5.2, où 1, +1 et 0 dénotent respectivement un hypo-signal, un hyper-signal, et une apparence normale par rapport à la matière blanche d apparence normale.

Notre méthode 97 T1 T1 Gd T2 DP Lésions actives 0 +1 +1 +1 ZHT2 0/-1 0/-1/+1 +1 +1 TNT1-1 -1 +1 +1 Tab. 5.2 Connaissances a priori sur les manifestation de la SEP en IRM : 1, +1 et 0 dénotent respectivement un hypo-signal, un hyper-signal, et une apparence normale par rapport à la matière blanche. Lésions actives : zones marquées par le gadolinium (Gd). ZHT2 : zones hyper-intenses sur les volumes pondérés en T2 et densité de protons. TNT1 : trous noirs sur les volumes pondérés en T1. Il est important de noter qu en ce qui concerne les TNT1, le signal varie d une intensité similaire à la matière grise à une intensité similaire au liquide céphalo-rachidien selon la nécrose. On comprend alors que la validation de la détection des trous noirs s avère difficile. D une part, certains experts estiment qu une lésion est un trou noir seulement lorsque son signal apparaît similaire à celui du liquide. Dans ce cas, notre algorithme aura tendance à surévaluer les TNT1. D autre part, dans le cas extrême de lésions nécrosées au point que le tissu soit entièrement remplacé par le liquide céphalorachidien, l algorithme peut segmenter la lésion ou une partie de la lésion comme étant du liquide céphalo-rachidien et les TNT1 seront alors sous-estimés. Nous aborderons ces aspects dans le chapitre 8. Le tableau de règles 5.2 a été élaboré en utilisant les informations de la littérature sur les lésions de sclérose en plaques mais aussi grâce aux nombreuses discussions avec les neurologues et neuro-radiologues avec qui j ai eu l occasion de travailler. Étiquetage Les voxels i qui ne sont pas rejetés comme données atypiques selon la distance de Mahalanobis, c est-à-dire les voxels pour lesquels d ij s pour au moins une des trois classes c j, sont étiquetés de la même façon que dans le chapitre 4. L étiquette x i attribuée au voxel i est celle donnant la plus grande probabilité a posteriori sachant les paramètres θ = (α j, µ j, Σ j ) estimés du modèle et son vecteur d intensité y i : P (x i = c j Y ; θ) = α jf j (y i x i = c j ; θ) k l=1 α kf l (y i x i = c l ; θ) En ce qui concerne les voxels i détectés comme étant atypiques selon la distance de Mahalanobis ( j d ij > s) deux catégories se distinguent. Premièrement, les voxels qui ne respectent aucune des règles du tableau 5.2 sont «ré injectés» avec les voxels dits «normaux» et étiquetés de la même façon. On leur attribue l étiquette x i donnant la plus grande probabilité a posteriori (équation 4.10), sachant les paramètres estimés du modèle. Deuxièmement, les voxels qui sont des lésions au sens du tableau de règles 5.2 sont étiquetés selon les règles de connaissance a priori. On attribue aux voxels

98 Détection et classification des lésions classifiés comme lésions actives l étiquette c k+1 3. Les voxels classifiés comme ZHT2 se voient attribuer l étiquette c k+2. Enfin, les TNT1 sont étiquetés c k+3. Finalement, les images segmentées X = (X 1,..., X t ), avec X l = (x l i {c 1,..., c k }, c k+1, c k+2, c k+3 ) la segmentation à l instant d acquisition l, sont construites en utilisant les vecteurs originaux y i et leurs étiquettes x i ou c k+.. La figure 5.2 illustre cet étiquetage. Le protocole n inclue pas d images pondérées en T1 après injection de gadolinium. On peut néanmoins bien distinguer les trois classes {c 1, c 2, c 3 } correspondant aux trois tissus sains : matière blanche en vert, matière grise en kaki et liquide céphalo-rachidien en bleu. L étiquette c k+2 apparaît en rouge selon la table de couleur utilisée et représente les ZHT2. L étiquette c k+3 apparaît en jaune selon notre table de couleur et représente les TNT1. (a) Séquence pondérée en T2 (b) Séquence pondérée en T1 (c) Images d étiquettes Fig. 5.2 Exemple de segmentation par STREM avec classification des lésions de SEP sur données cliniques pour une étude longitudinale de plus de 4 ans à intervalles irréguliers (8 instants d acquisition). Le dernier temps d acquisition est présenté. (c) En rouge, les lésions marquées par un hyper-signal sur les volumes pondérés en T2 et densité de protons ; en jaune les lésions marquées par un hypo-signal sur les volumes pondérés en T1. Les images pondérées en T1 après injection de gadolinium ne sont pas disponibles pour ce protocole. Pour les tissus «sains» : en vert, la matière blanche ; en kaki, la matière grise et en bleu, le liquide céphalo-rachidien. 5.3.3 Méthode de classification des lésions SEP sur des IRM cérébrales m(3d + t) La chaîne de traitement comprend donc les étapes suivantes : 1. uniformisation spatiale et temporelle des images ; 3 On rappelle que k est le nombre de tissus que l on souhaite segmenter avec STREM ; dans ces travaux, k = 3.

Discussion et conclusion 99 correction du biais spatial (hétérogénéités d intensité) ; recalage rigide intra-patient des différentes séquences sur l image pondérée en T1 de la première acquisition ; correction de biais temporel (homogénéisation des intensités au cours du temps) ; extraction du parenchyme cérébral ; 2. estimation robuste des paramètres des tissus sains en utilisant l estimateur de maximum de vraisemblance tamisée (TLE) ; 3. extraction des données atypiques en utilisant la distance de Mahalanobis ; 4. classification des lésions en trois types ; 5. étiquetage des images pour chaque instant d acquisition. La méthode complète pour la segmentation des lésions de SEP est résumée par le schéma de la figure 5.3. 5.4 Discussion et conclusion La table de règle présentée ici ne reflète pas complètement l hétérogénéité de la maladie. De plus, elle n exploite pas suffisamment les données temporelles. Par exemple, nous ne segmentons pas les trous noirs temporaires marqués par le gadolinium alors que nous pourrions les détecter très facilement en utilisant l information temporelle. Cependant cela suppose de traiter exclusivement des protocoles où les instants d acquisition sont suffisamment espacés pour déterminer si le trou noir détecté est persistant ou non, ce qui n est pas le cas de tous les protocoles. Nous avons néanmoins introduit cette information temporelle dans le cas de protocoles particuliers. En effet, dans certains cas, nous analysons des protocoles où les séquences T1 avant injection ne sont pas disponibles. La classification est faite en utilisant des séquences pondérées en T2, densité de protons et T1 après injection de gadolinium. Selon le tableau de règles 5.2, il n est pas possible sans les séquences T1 avant injection de différentier les vaisseaux et les lésions de sclérose en plaques. Ces vaisseaux sont en effet des données atypiques du modèle et, comme les lésions actives, ont un signal hyper-intense pour les trois séquences disponibles. Une lésion active n est plus marquée par le gadolinium au bout de quatre à six semaines environ après l apparition de la lésion. Les acquisitions temporelles de ce protocole étant espacées de trois à quatre mois nous avons pu définir une nouvelle règle basée sur la variation d intensité au cours du temps cette fois, permettant d éliminer de la classe des lésions actives les vaisseaux sanguins. Un voxel i considéré comme une lésion active au temps l est réellement une lésion active s il n est plus marqué au temps l + 1. Dans le cas où le voxel est toujours marqué trois mois après alors c est un vaisseau sanguin qui sera vraisemblablement étiqueté dans la classe du liquide céphalo-rachidien. Cette règle ne peut être utilisée telle quelle en l absence d a priori sur les protocoles utilisés. En effet, le temps entre deux acquisitions peut varier selon le protocole testé. Malgré leurs limitations, ces règles a priori sont un premier pas. La discrimination automatique de ces trois types de lésions de SEP dans un même processus longitudinal

100 Détection et classification des lésions multi-séquences n a pas encore été, à notre connaissance, abordé dans la littérature. De plus, bien que cette méthode permette seulement la discrimination de ces trois types de lésions principales, elle est facilement généralisable à d autres types de lésions. Si par exemple on dispose d un protocole utilisant des séquences FLAIR, de nouvelles règles pourraient être facilement ajoutées et adaptées à cette séquence. On peut aussi facilement envisager d ajouter des données d IRM non conventionnelle comme par exemple l IRM de diffusion pour détecter par exemple les lésions corticales 4. L avantage d une telle analyse multi-dimensionnelle est double. D un point de vue technique, l utilisation d un maximum de données permet d augmenter le rapport signal sur bruit et donc d obtenir une segmentation plus précise. Par exemple, l analyse multi-séquentielle fournit une information redondante alors que les artefacts, eux, ne sont pas corrélés entre séquences [Bosc 2003a]. D un point de vue clinique, nous utilisons l information des différentes séquences ce qui nous permet de mettre en évidence les différents types de lésions. L information des différentes acquisitions temporelles permet d étudier l évolution des lésions au cours du temps. En conclusion, cette partie propose une méthode paramétrique robuste de segmentation sur des données 3D multi-séquences longitudinales ayant pour objectif de classer en trois principaux types les lésions de sclérose en plaques. Pour effectuer cette classification, nous utilisons des règles de connaissances a priori sur la sclérose en plaques et son incidence en IRM conventionnelle. La figure 5.3 résume la méthode. La partie III propose une validation de la méthode présentée dans cette partie. Le chapitre 6 valide les différentes contributions du chapitre 4, à savoir, le modèle spatiotemporel et l algorithme d estimation robuste des paramètres. Le chapitre 7 calibre la méthode proposée dans ce chapitre sur des données simulées avec lésions. Enfin, le chapitre 8 présente les résultats obtenus sur des données cliniques. Nous discutons de la qualité de ces résultats mais surtout nous les comparons avec des segmentations manuelles d experts afin de les valider objectivement. 4 Les lésions corticales sont des lésions juxtacorticales qui se sont étendues à la matière grise environnante ou des lésions nées dans le cortex.

Discussion et conclusion 101 m séquences au temps d acquisition t1 m séquences au temps d acquisition t2 prétraitements prétraitements (1) histogramme joint histogramme joint Histogramme joint global Estimation robuste des paramètres (TLE) (2) Extraction des données atypiques grâce à la distance de Mahalanobis Connaissances a priori pour spécifier les lésions (3) Étiquetage des données Segmentation au temps t1 Segmentation au temps t2 Fig. 5.3 Méthode proposée pour la segmentation spatio-temporelle robuste de lésions évolutives en IRM 3D ; exemple pour deux instants t1 et t2. Contribution 1 : modélisation spatio-temporelle des données. Contribution 2 : estimation robuste des paramètres du modèle de tissus sains via un schéma d optimisation itératif. Contribution 3 : détection et classification des lésions en trois types.

102 Détection et classification des lésions

Troisième partie Validation et expérimentation de la méthode 103

Chapitre 6 Validation sur données sans lésion 6.1 Introduction Dans ce chapitre sont validées les différentes contributions du chapitre 4, à savoir, la modélisation originale multi-séquentielle et multi-temps, d une part, l estimation robuste des paramètres, d autre part. L objectif de ce chapitre est de montrer l apport de notre méthode pour l estimation des paramètres des classes de tissus sains, en particulier, l apport de l estimateur robuste de vraisemblance tamisée par rapport à l estimateur du maximum de vraisemblance. Aucun prétraitement particulier ne sera utilisé dans ce chapitre puisque que nous souhaitons ici valider l algorithme STREM indépendamment du prétraitement. 6.2 Matériel Nous disposons de plusieurs jeux de données afin d évaluer qualitativement et quantitativement les résultats de la segmentation des tissus. Cela permet de tester notre algorithme sur des données de qualité variable. Ces bases sont présentées ci-dessous. 6.2.1 BrainWeb La base de données BrainWeb est une base de volumes IRM simulés disponibles à l adresse http://www.bic.mni.mcgill.ca/brainweb/. Le simulateur BrainWeb produit des images par résonance magnétique en utilisant les principes basiques de l IRM avec en entrée : un modèle anatomique [Collins 1998], les caractéristiques des tissus 1 (T1, T2, T2* et la densité de protons) ainsi que les paramètres d acquisition de l image (TE, TR, etc.) [Kwan 1999]. 1 Pour plus de détails sur les paramètres des tissus, on peut se référer au fichier disponible à l adresse suivante : http://www.bic.mni.mcgill.ca/brainweb/tissue_mr_parameters.txt. 105

106 Validation sur données sans lésion Le jeu de données comprend des volumes représentant les degrés d appartenance aux différents tissus, ainsi qu un modèle discret indiquant le tissu majoritaire pour chaque voxel. Ce modèle discret sert de vérité terrain pour comparer les différentes expérimentations que nous faisons pour cette base. Nous utilisons des volumes pondérés en T1, T2 et densité de protons (DP) correspondant à un modèle sain. Chacun de ces volumes est composé de 60 coupes de taille 181 217 voxels. Ces voxels sont anisotropes et ont une épaisseur de 3 mm. Des volumes plus haute résolution, avec des voxels isotropes de 1 mm d épaisseur, sont aussi disponibles. Néanmoins, une telle résolution est rare dans le cadre des protocoles cliniques ; il nous a semblé inadapté de tester la validité de notre algorithme sur ces volumes 2. Ces volumes sont générés avec 3% de bruit et 20% d inhomogénéité dans le champ de radiofréquence. Ces paramètres par défaut proposés par le simulateur nous ont semblé en adéquation avec les données cliniques que nous pouvons obtenir. Ce niveau de bruit de 3% a été choisi sur la base d acquisitions multi-séquences (images pondérées en T1, T2 et DP) de cinq volontaires en calculant la déviation standard du bruit de fond proportionnellement à la moyenne d intensité du tissu de plus haute intensité. Les proportions calculées variaient de 2% à 4% et un niveau de 3% a donc été sélectionné comme valeur par défaut [Kollokian 1996]. En ce qui concerne le pourcentage d hétérogénéité, la valeur «standard» de 20% est déduite de douze acquisitions [Sled 1998b]. Nous notons S 1 la base composée de ces différents volumes (pondérés en T1, T2 et densité de protons) directement disponibles sur le site. Pour les tests concernant la classification multi-séquentielle longitudinale, nous générons avec le simulateur une nouvelle base multi-séquences, la base S 2 composée elle aussi de volumes pondérés en T1, T2 et densité de protons avec des paramètres de bruit différents de la base S 1. Nous utilisons la base S 1 comme premier temps d acquisition et la base S 2 comme second temps d acquisition. Pour cette base, les tests ne requièrent aucun prétraitement. Le masque du cerveau est simplement calculé à partir de la vérité terrain. Les différents volumes sont tous dans le même référentiel, il n est donc pas nécessaire de les recaler. 6.2.2 Base IBSR La base IBSR est disponible à l adresse http://www.cma.mgh.harvard.edu/ibsr/. Elle est constituée de 18 volumes IRM pondérés en T1, acquis en orientation coronale sur des sujets sains. Les volumes sont constitués de 128 coupes de taille 256 256. L épaisseur de coupe varie entre 0.84 mm et 1 mm d un volume à l autre, et l écart entre les coupes est égal à 1,5 mm. Nous disposons pour cette base d une segmentation manuelle de la matière blanche (MB), de la matière grise (MG) et du liquide céphalo-rachidien (LCR) ce qui en fait un jeu idéal pour l évaluation quantitative des résultats. Les hétérogénéités de champ sont déjà corrigées grâce à un algorithme du Center for Morphometric Analysis. Chaque volume représente l examen d un patient, nous les 2 On peut se référer au protocole standard conseillé en SEP par Traboulsee et coll. [Traboulsee 2003, Simon 2006]

Validation sur BrainWeb 107 traitons chacun séparément, aucun recalage n est donc nécessaire. Le masque du cerveau est calculé grâce à la segmentation manuelle des différents tissus. 6.2.3 Mesure utilisée pour la validation Afin d évaluer quantitativement nos résultats, nous calculons un indice de recouvrement S entre la segmentation manuelle et le volume segmenté pour chaque tissu : S = 2 Card(R V ) Card(R) + Card(V ), où R est le résultat de la segmentation et V la vérité terrain. Plus la segmentation est conforme à la vérité terrain, plus l indice est proche de 1. On trouve cet indice fréquemment dans la littérature, avec des appellations variées, dont Dice Similarity Coefficient (DSC). Nous avons conservé celle qui est proposée dans [Zijdenbos 1994]. On trouve dans ce même article la preuve que l indice S est équivalent au coefficient de similarité kappa (κ), qui permet d estimer l accord entre plusieurs observateurs ou techniques [Cohen 1960]. Une valeur de S supérieure à 0,7 est généralement considérée comme très bonne, en particulier lorsque les structures segmentées sont petites [Zijdenbos 1994]. 6.3 Validation sur BrainWeb Dans cette section nous testons les différents apports du chapitre 4 sur des données simulées. De façon à tester les contributions indépendamment les unes des autres, les expériences concernant la modélisation sont effectuées en utilisant un algorithme EM pour la classification des tissus. Le nombre de classes choisi pour la segmentation est trois : matière blanche, matière grise et liquide céphalo-rachidien. 6.3.1 Validation pour la segmentation multi-séquentielle (T1, T2 et DP) Comme le montre le chapitre 5, l analyse multi-séquentielle est très intéressante d un point de vue clinique pour étudier les différents types de lésions de SEP. Nous illustrons ici l amélioration apportée par l étude multi-séquentielle y compris dans le cas d un modèle de tissus sains par rapport à une étude mono-séquence. Nous montrons empiriquement que l utilisation de plusieurs séquences améliore la segmentation en utilisant les sept expériences résumées dans le tableau 6.1. Les trois premières expériences testent l algorithme pour une segmentation monoséquence sur chacune des séquences disponibles. Les expériences 4 à 6 testent l algorithme pour deux séquences simultanément. Enfin, l expérience 7 teste l algorithme pour une segmentation utilisant l information de toutes les séquences du protocole : volumes pondérés en T1, T2 et densité de protons. Comme le montre la figure 6.1, le liquide céphalo-rachidien n est pas segmenté en utilisant seulement l image de densité de proton et une classification non robuste (EM). Le contraste est trop peu prononcé sur cette séquence pour différencier la matière grise

108 Validation sur données sans lésion 1 séquence 2 séquences 3 séquences T1 T2 DP T1T2 T1DP T2DP T1T2DP exp. 1 exp. 2 exp. 3 exp. 4 exp.5 exp. 6 exp. 7 Tab. 6.1 Description des différentes expériences menées pour montrer l impact de l analyse multi-séquentielle. Les données utilisées sont celles de la base S 1 (données simulées par BrainWeb directement accessible sur le site). du liquide céphalo-rachidien. La mesure de recouvrement pour cette classe n existe donc pas dans le tableau de résultats 6.2. En revanche, en utilisant l information de l image pondérée en T2 conjointement à celle de densité de protons, la classification est bien meilleure. Comme cela était prévisible compte tenu du bon contraste fourni par les IRM pondérées en T1, l ajout du volume pondéré en T1 dans le processus de segmentation améliore les mesures de similarité par rapport aux segmentations utilisant seulement les volumes pondérés en T2 (pour la matière blanche par exemple : 0, 79 en utilisant seulement le volume pondéré en T2 contre 0, 90 en utilisant en plus le volume pondéré en T1) ou en densité de protons (pour la matière blanche par exemple : 0, 73 en utilisant seulement le volume de densité de protons contre 0, 87 en utilisant le volume pondéré en T1). Ce qui peut paraître plus surprenant c est l amélioration que peuvent apporter les autres séquences par rapport à la segmentation utilisant seulement le volume pondéré en T1. En effet, on note une amélioration du DSC pour la matière blanche lorsqu on utilise la classification multi-séquentielle, sur les images pondérées en T1 et en T2 (0, 90) par exemple, y compris par rapport à la classification sur l image pondérée en T1 (0, 87) qui est connue pour obtenir un bon contraste entre les différents tissus. Classes 1 séquence 2 séquences 3 séquences T1 T2 DP T1T2 T1DP T2DP T1T2DP MB 0,87 0,79 0,73 0,90 0,87 0,87 0,91 MG 0,89 0,79 0,76 0,84 0,89 0,81 0,84 LCR 0,61 0,54-0,54 0,58 0,54 0,53 Tab. 6.2 Impact de l analyse multi-séquentielle sur les données de la base S 1 (EM). Indices de similarité entre les résultats de différentes expériences (exp. 1-7) et la segmentation manuelle pour la base. 6.3.2 Validation pour la segmentation longitudinale multi-séquentielle Pour les tests concernant la classification multi-séquentielle longitudinale, nous générons une nouvelle base multi-séquence, la base S 2 composée elle aussi de volumes pondérés en T1, en T2 et en densité de protons avec un bruit différent de la base S 1. Nous utilisons la base S 1 comme premier temps d acquisition et la base S 2 comme second temps d acquisition. Les expériences menées sont les suivantes :

Validation sur BrainWeb 109 Segmentations Données DP T2 T2DP Fig. 6.1 Impact de l analyse multi-séquentielle. DP : volume de densité de protons ; T2 : volume pondéré en T2 ; T2DP : résultat issu de la combinaison des informations du volume pondéré en T2 et densité de protons. Le résultat de la segmentation utilisant seulement le volume de densité de protons n est pas satisfaisant. Le liquide céphalorachidien n est pas segmenté correctement. Le volume pondéré en T2 est mieux segmenté mais il reste quelques artefacts dans la matière blanche (les points jaunes dans le rouge). Lorsque l on utilise ces deux séquences conjointement (exp. 6) le volume de segmentation obtenu est bien meilleur que les résultat des expériences exp. 2 et exp. 3. segmentation multi-séquentielle sur la base S 1 (exp.7 du 6.3.1), segmentation multi-séquentielle sur la base S 2, segmentation longitudinale multi-séquentielle sur les bases S 1 et S 2 conjointement. Les résultats sont présentés dans le tableau 6.3. Pour ces données, les résultats sont identiques avec ou sans analyse longitudinale. Cette analyse ne semble donc pas apporter une grande amélioration en terme de mesure de similarité. On peut cependant constater qu elle ne détériore pas la segmentation par rapport à l analyse multi-séquentielle. En revanche, il ne faut pas perdre notre objectif de vue. L analyse longitudinale est primordiale dans le cadre d études temporelles sur des patients atteints de SEP. 6.3.3 Apport de la segmentation robuste La validation de la méthode robuste semble peu pertinente sur les données simulées. En effet, les données atypiques sont peu nombreuses et l algorithme EM fonctionne donc bien pour les images de la base BrainWeb.

110 Validation sur données sans lésion On peut cependant illustrer l intérêt d une méthode robuste en s intéressant au volume de densité de protons. En effet, ce dernier est très peu contrasté, l algorithme EM classique ne segmente pas le liquide céphalo-rachidien et ne différencie pas correctement la matière blanche de la matière grise (voir figure 6.2). Or lorsqu on utilise STREM, même si on ne rejette que 1% de données pour l estimation des paramètres, on obtient un bien meilleur résultat et la classe de LCR est mieux segmentée (voir tableau 6.4). Segmentation par un algorithme EM Segmentation par l algorithme STREM (h=99%) Fig. 6.2 Apport de l algorithme robuste par rapport à l EM classique pour la segmentation d un volume pondéré en densité de protons. L EM classique (à gauche) n est pas en mesure de dissocier la matière blanche et la matière grise, le contraste étant trop peu prononcé. L algorithme robuste, STREM, (à droite) pallie ce problème (h = 99% des données). Classes 3 séquences 3 séquences 2 temps S 1 S 2 S 1 (S 1, S 2 ) S 2 (S 1, S 2 ) MB 0,91 0,92 0,92 0,91 MG 0,84 0,83 0,85 0,84 LCR 0,53 0,53 0,54 0,53 Tab. 6.3 Indices de similarité entre les résultats et la segmentation manuelle ; comparaison des résultats entre un temps d acquisition et plusieurs (EM). Classes EM STREM (h = 99%) MB 0,73 0,81 MG 0,76 0,78 LCR - 0,18 Tab. 6.4 Valeur des mesures de similarité pour les résultats avec un algorithme EM et avec l algorithme STREM pour une classification sur un volume pondéré en densité de protons.

Validation sur la base IBSR 111 6.4 Validation sur la base IBSR Les expériences sur la base BrainWeb sont intéressantes puisqu elles permettent de valider notre modélisation spatio-temporelle. Cependant, elles ne sont pas suffisantes pour montrer l apport de l estimateur robuste dans le processus de segmentation. En effet, les images simulées ne contiennent pas les artefacts souvent présents sur les IRM cliniques et peuvent être correctement segmentées avec un simple algorithme EM. STREM est donc testé sur les IRM cliniques de la base IBSR. Cette base ne contient que des volumes pondérés en T1 pour un seul temps d acquisition, nous sommes donc contraints d utiliser une segmentation mono-séquence pour ces expériences. Segmentation en trois classes Le nombre de classes choisi est de trois : matière blanche, matière grise et liquide céphalo-rachidien. La proportion h d observation utilisée pour estimer les paramètres des gaussiennes varie de 5 en 5, excepté entre 90% et 100% où h varie de 1 en 1. Nous rappelons qu en dessous de 50% des données conservées pour l estimation des paramètres il n y a plus de preuve de convergence de l algorithme (voir chapitre 4). La qualité des données n est pas très bonne. On peut noter de nombreux artefacts, notamment dus aux mouvements de la tête du patient, ainsi qu une dynamique d intensité réduite voire très réduite pour certains volumes (à titre d exemple la dynamique d intensité de certains volumes est restreinte à l intervalle [0, 85] sur les 256 niveaux de gris possibles). Les mesures de similarité pour le liquide céphalo-rachidien sont particulièrement faibles. Cela peut s expliquer, d une part par la très mauvaise qualité de certains volumes qui rend quasi impossible la détection des ventricules. D autre part, le liquide considéré par la segmentation manuelle de référence est exclusivement le liquide interne (les ventricules cérébraux) ce qui correspond à une classe de très faible proportion. Lorsqu une région est très petite, le DSC est très sensible, sa valeur peut chuter pour un seul voxel mal classé. De plus, le liquide externe est bien présent à l intérieur du masque et donc détecté par STREM bien qu il n apparaisse pas dans la segmentation manuelle de référence (voir figure 6.3). On peut cependant noter à titre d exemple que pour un volume de bonne qualité, l utilisation de la segmentation robuste avec un faible taux de données rejetées améliore la classification par rapport à un EM simple (voir figure 6.4(a)). D autre part, pour un volume de très mauvaise qualité, avec un artefact de mouvement très important, l utilisation de la segmentation robuste permet de segmenter les trois classes correctement alors que l EM simple ne le permet pas (voir figure 6.4(b)).

112 Validation sur données sans lésion (a) IRM (b) Segmentation manuelle (c) Segmentation par STREM Fig. 6.3 Segmentation du liquide céphalo-rachidien (LCR) sur les volumes de la base IBSR. Le LCR externe n est pas segmenté par la segmentation manuelle de référence (b), alors qu il l est par la segmentation automatique (c). En rouge : la matière blanche ; en jaune : la matière grise ; en vert : le LCR.

Validation sur la base IBSR 113 (a) IRM de bonne qualité (b) IRM avec un fort artefact de mouvement Fig. 6.4 Mesures de similarité pour différentes proportions h possibles, deux exemples de classification. La courbe en rouge désigne le pourcentage total de voxels bien classés. MB : matière blanche ; MG : matière grise ; LCR : liquide céphalo-rachidien. Segmentation en deux classes Le liquide céphalo rachidien externe n étant pas segmenté sur la vérité terrain, nous avons donc choisi de faire les tests précédents sur un masque de la matière blanche - matière grise en segmentant seulement ces deux classes. Les résultats de ces tests sont concluants et démontrent, pour tous les sujets, une amélioration apportée par STREM par rapport à un algorithme EM notamment en ce qui concerne la matière blanche. Les figures 6.5 et 6.6 présentent les valeurs de la mesure de similarité pour l algorithme EM et pour l algorithme STREM avec h = 85% des données pour tous les sujets de la base. Cette valeur de h correspond à la plus grande valeur de similarité en moyenne sur les 18 sujets. Les résultats de l algorithme EM ne sont donc pas comparés avec le meilleur résultat obtenu par la classification avec l algorithme STREM. Pour le sujet 14 par exemple les DSC pour la classification avec l algorithme EM sont 0, 79 pour la matière blanche et 0, 91 pour la matière grise. Ces valeurs sont meilleures que celles obtenues par STREM avec h = 85% des données (0, 78 et 0, 91). Cependant, STREM est toujours meilleur que l EM lorsqu on choisit un paramètre h adapté au sujet, par exemple pour h = 91%, les DSC sont 0, 81 et 0, 92. On peut noter que STREM donne des résultats plus stables que l EM sur l ensemble des sujets, qu ils soient de bonne qualité ou non. Par exemple, les valeurs de la mesure de similarité pour une classification EM sur des sujets avec un fort artefact de mouvement (voir en particulier les résultats pour les sujets 4 et 17) sont beaucoup plus mauvaises que pour les autres sujets alors que les valeurs pour STREM sont moins variées.

114 Validation sur données sans lésion (a) Matière blanche (b) Matière grise Fig. 6.5 Mesure de similarité pour la segmentation par EM et par STREM sur les 18 sujets de la base IBSR (h = 85% des données). Fig. 6.6 Moyennes des mesures de similarité pour la segmentation en deux classes avec différents pourcentages de rejet sur les 18 sujets de la base IBSR (h = 100% des données correspond à un EM).

Discussion sur les résultats et la validation 115 6.5 Discussion sur les résultats et la validation Les différentes contributions apportées par STREM ont pu être évaluées quantitativement et qualitativement dans deux situations expérimentales. La base BrainWeb permet de valider quantitativement la modélisation longitudinale multi-séquentielle puisqu elle offre à la fois la possibilité de générer des volumes avec différents paramètres d acquisition et une vérité terrain pour permettre l évaluation quantitative des résultats. Cependant il est difficile de démontrer l apport de la segmentation robuste par rapport à l algorithme EM sur cette base de données. En effet, mis à part le bruit, qui vérifie les hypothèses gaussiennes liées à l EM, ces données comportent peu d artefacts contrairement à ce qui peut être observé dans le cas de données cliniques. L algorithme EM donne donc d assez bons résultats. En revanche, d autres artefacts classiques en IRM comme les vaisseaux sanguins par exemple sont peu présents sur ces volumes, ce qui limite l intérêt d une méthode robuste pour la segmentation. Il devient alors nécessaire de pouvoir effectuer cette validation sur des données cliniques. L intérêt de la base IBSR est de toute évidence la présence de segmentations manuelles qui peuvent être considérées comme vérité terrain et qui permettent donc d évaluer quantitativement les résultats sur plus d un sujet. Cependant, le problème de segmentation du LCR externe fausse l évaluation de la méthode et nous oblige à effectuer la validation avec deux classes seulement. Or la plupart des données atypiques sur une IRM de sujet sain se situent justement dans cette classe de tissu. Le liquide céphalorachidien, notamment les ventricules, est la classe dont les paramètres sont les plus difficiles à estimer (chapitre 5 de [DugasPhocion 2005]), certains même rejettent l hypothèse gaussienne pour le LCR [Datta 2006, Sajja 2006]. Une autre remarque concerne la mesure de similarité utilisée pour l évaluation quantitative des résultats. Comme cela a été évoqué, cet indice est très sensible à la taille de la structure traitée. A titre d exemple, Ciofolo a calculé la valeur de cet indice obtenue en comparant la segmentation manuelle d une petite structure (un thalamus) et le résultat d un érosion morphologique avec un élément structurant de taille 1 sur cette segmentation manuelle. La valeur obtenue est seulement de 0, 77. Cela justifie le fait que l on admette en général les valeurs supérieures à 0, 7 comme représentatives de bons résultats [Ciofolo 2005a]. En effet, une erreur moyenne d un voxel peut être considérée comme admissible, car la segmentation manuelle utilisée comme référence a été effectuée par un seul expert. Elle ne tient donc pas compte de la variabilité intra et inter-observateur qui apparaît lors des tâches manuelles et, par conséquent, n est pas une vérité terrain au sens propre. Pour des grandes structures, telles que les tissus cérébraux, ce problème ne se pose pas mais cette particularité est très importante lorsqu on calcule cet indice pour les lésions de SEP, particulièrement dans le cas de charge lésionnelle faible.

116 Validation sur données sans lésion 6.6 Conclusion Les résultats présentés dans ce chapitre valident de façon suffisante les propositions du chapitre 4. Les principales conclusions sont que l analyse multi-séquentielle améliore la segmentation par rapport à l analyse sur une seule séquence et l analyse longitudinale n entraîne pas d erreur de segmentation par rapport à l analyse d un seul instant d acquisition. Enfin, nous montrons quantitativement la pertinence de la segmentation robuste par rapport à la segmentation effectuée par un algorithme EM classique dans le cas de données réelles. Cette validation est effectuée sur des données de sujets sains, simulées ou non. Les chapitres suivants ont pour objectif de valider la méthode sur des sujets présentant des pathologies. Le chapitre 7 propose un calibrage de l algorithme sur des données simulées avec lésions et différents artefacts. Le chapitre 8 valide notre méthode qualitativement et quantitativement pour des données cliniques de patients atteints de sclérose en plaques.

Chapitre 7 Validation sur données simulées avec lésions et autres manifestations de la SEP en IRM 7.1 Introduction Le chapitre précédent a validé les différentes contributions du chapitre 4 sur des données simulées et cliniques de patients sains. Ce chapitre a pour but d évaluer la méthode complète (chapitres 4 et 5) sur des données simulées avec des lésions de sclérose en plaques. Les objectifs de ce chapitre sont : la calibration de la méthode, l évaluation des limites d utilisation, l influence du paramètre, la simulation dans le cadre des différentes formes de la pathologie. Dans ce but, nous testons dans un premier temps l algorithme sur des données multiséquences de charges lésionnelles variables. Puis nous testons l amélioration apportée par l étude longitudinale (section 7.2). Ensuite nous testons notre méthode sur une séquence longitudinale où l intensité de la matière blanche d apparence normale varie au cours du temps (section 7.3). Enfin, la méthode est testée sur une séquence longitudinale avec apparition d atrophie cérébrale entre les deux instants étudiés (section 7.4). 7.2 Validation sur BrainWeb avec lésions BrainWeb [Collins 1998] permet la simulation d IRM avec lésions de sclérose en plaques. Le simulateur propose des IRM avec trois différentes charges lésionnelles : faible (411 mm 3 ), modérée (3861 mm 3 ) et sévère 1 (10131 mm 3 ). Ces trois modèles ont été générés en insérant dans le modèle présenté au chapitre 6 des lésions obtenues à 1 Nous verrons dans le chapitre suivant des charges lésionnelles allant jusqu à 70 cm 3. 117

118 Validation sur données simulées avec lésions partir de données de patients atteints de SEP. Ils sont présentés sur la figure 7.1 pour les volumes pondérés en T2. Faible Modérée Sévère Base L f Base L m Base L s Fig. 7.1 Différentes charges lésionnelles sur des images pondérées en T2 via le simulateur BrainWeb [Collins 1998]. Tous les volumes simulés dans ce chapitre sont composés de 60 coupes de taille 181 217 avec des voxels anisotropes de 3 mm d épaisseur. Ces volumes sont générés avec 3% de bruit et 20% d hétérogénéité dans le champ de radio-fréquence. Comme nous l avons mentionné dans le chapitre précédent, ces paramètres par défaut proposés par le simulateur nous ont paru en adéquation avec les données cliniques que nous pouvons obtenir. Nous notons base L f la base de volumes avec une charge lésionnelle faible. Nous notons base L m la base de volumes avec une charge lésionnelle modérée. Enfin, nous notons base L s la base de volumes avec une charge lésionnelle sévère. Pour chacune de ces bases, on utilise trois séquences : pondération en T1, en T2 et en densité de protons. Bien qu étant des données simulées, les données de BrainWeb sont intéressantes car on dispose d une vérité terrain pour différentes charges lésionnelles. Dans ce chapitre, nous ne nous contentons pas seulement de la classification des tissus, mais nous mettons en application le rejet, puis le filtrage des données atypiques qui nous permettent de détecter les lésions de sclérose en plaques. Comme cela a été présenté dans le chapitre 5, cette éjection de données atypiques fait intervenir la distance de Mahalanobis. Le seuil utilisé pour cette distance sera fixe tout au long de ce chapitre et correspond à une p value égale à 0, 05. 7.2.1 Validation pour la segmentation multi-séquentielle Comme dans le chapitre 6, le nombre de classes choisi est de trois et correspond aux structures suivantes : matière blanche, matière grise et liquide céphalo-rachidien. Les tests ont été effectués avec plusieurs valeurs du paramètre h. La proportion

Validation sur BrainWeb avec lésions 119 d observations h utilisée pour estimer les paramètres des gaussiennes varie de 5 en 5, excepté entre 90% et 100% où h varie de 1 en 1. En effet, il nous a semblé intéressant de faire une étude plus précise pour les faibles proportions de données atypiques. Comme cela a été précisé dans le chapitre 4, en dessous de 50% des données conservées pour l estimation des paramètres il n y a plus de preuve de convergence de l algorithme. On rappelle que pour h = 100% des données, l algorithme de segmentation des tissus est équivalent à un algorithme EM. La figure 7.2 présente les courbes des mesures de recouvrement (DSC 2 ) selon le paramètre h pour chacun des tissus. On rappelle que la mesure de recouvrement S entre la segmentation manuelle et le volume segmenté pour chaque tissu est : S = 2 Card(R V ) Card(R) + Card(V ), où R est le résultat de la segmentation et V la vérité terrain. Plus la segmentation est conforme à la vérité terrain, plus l indice est proche de 1. Sur le même graphique sont présentés les DSC pour les trois bases : L f, L m et L s. Pour plus de précision, les tableaux C.1, C.2 et C.3 contiennent les valeurs des DSC. On constate que pour h 80%, la classification se détériore. Ce pourcentage de données rejetées pour le calcul des paramètres est trop important et l algorithme n a pas convergé. Nous étudions dans la suite les résultats pour h > 80%. Les DSC sont tout à fait satisfaisants pour la matière blanche et la matière grise quelle que soit la base étudiée. En ce qui concerne les lésions, les DSC sont très bons pour les bases L m et L s correspondant aux charges lésionnelles modérée et sévère alors qu ils sont assez faibles pour la base L f correspondant à une charge lésionnelle faible. Ce phénomène s explique assez facilement par le fait que le DSC est une mesure très sensible à la taille des objets observés. En effet, pour une petite structure, une erreur de un voxel engendre une baisse conséquente du DSC alors que la même erreur sur une grande structure, telle que la matière blanche par exemple, n influencera que très peu le DSC. Ce phénomène explique en partie les DSC faibles pour les lésions de la base L f. La deuxième explication réside dans le fait que pour la base L f il y a très peu de données atypiques, 137 voxels de lésions sur un total de 651736 voxels de volume cérébral, soit 0, 02%. Sur des images simulées nous n avons pas d artefacts dus aux vaisseaux ou aux problèmes d acquisition, les autres voxels correspondent donc théoriquement au modèle. Les données rejetées lors du calcul des paramètres des gaussiennes sont alors des données contenant de l information. Les gaussiennes ne sont donc pas estimées de façon optimale et trop de données atypiques sont rejectées dans la classification finale donnant lieu à des faux positifs très nombreux. Cela a pour conséquence une diminution du DSC. D autre part, on peut noter que le DSC du liquide céphalo-rachidien est faible, en dessous de 0,7 et ce quelle que soit la valeur de h. Ce phénomène a plusieurs explications. La première est liée à la taille de la structure. La classe de liquide céphalo-rachidien 2 Dice Similarity Coefficient.

120 Validation sur données simulées avec lésions DSC pour la matière blanche DSC pour la matière grise DSC pour le liquide céphalo-rachidien DSC pour les lésions de SEP Fig. 7.2 Présentation des mesures de similarité (DSC) selon la charge lésionnelle (faible, modérée et sévère) et la proportion h de données utilisées pour l estimation des paramètres est la classe contenant le moins de voxels et comme nous venons de la voir, le DSC est une mesure sensible à la taille de la structure étudiée. La seconde raison qui peut expliquer ce phénomène est l existence d une classe de plus dans la vérité terrain, le glial. Cette classe se situe entre le liquide céphalo-rachidien et la matière grise. Tous les voxels contenus dans cette classe seront donc considérés comme faux positifs pour le liquide. On peut aussi penser à un effet de volume partiel entre la matière grise et le liquide [DugasPhocion 2005]. 7.2.2 Validation pour la segmentation multi-séquentielle longitudinale Dans cette section nous testons l algorithme STREM sur des données longitudinales. La charge lésionnelle augmente au cours du temps. Le premier instant est simulé par la base L f, le second instant, par la base L m et le troisième par la base L s. Il est important de noter que les lésions évoluent de manières différentes. Elles peuvent diminuer voire

Validation sur BrainWeb avec lésions 121 disparaître à l instant suivant. Elles peuvent au contraire s étendre entre deux instants. Enfin, de nouvelles lésions peuvent apparaître à des endroits différents. La robustesse de l algorithme est donc testée pour tout type d évolution. La figure 7.3 et les tableaux C.4 et C.5 mettent en évidence l amélioration quantitative apportée par l étude longitudinale. Les DSC pour la base L f sont fortement améliorés avec la classification longitudinale. Les DSC des charges lésionnelles modérée et sévère sont préservés. Enfin, la figure 7.4 met en évidence l amélioration qualitative apportée par l étude longitudinale. Charge lésionnelle faible (base L f ) Charge lésionnelle modérée (base L m ) Charge lésionnelle sévère (base L s ) Fig. 7.3 Présentation des mesures de similarité (DSC) des lésions de SEP pour la classification multi-séquentielle (traits noirs) et la classification longitudinale multiséquentielle (pointillés rouges) selon la charge lésionnelle (faible, modérée et sévère). Les DSC pour la base L f sont supérieurs avec la classification longitudinale. Les DSC des bases L m et L s sont relativement préservés.

122 Validation sur données simulées avec lésions Base L f Base L m Base L s Base L f (L f, L m, L s ) Base L m (L f, L m, L s ) Base L s (L f, L m, L s ) Vérité terrain de la base L f Vérité terrain de la base L m Vérité terrain de la base L s Fig. 7.4 Première ligne : résultats pour la classification multi-séquentielle. Deuxième ligne : résultats pour la classification multi-séquentielle longitudinale. Troisième ligne : vérité terrain pour les différentes bases. Les résultats de l étude longitudinale sont qualitativement meilleurs notamment pour la base L f.

Variation de la MB d apparence normale 123 7.3 Variation de la matière blanche d apparence normale 7.3.1 Variation de la matière blanche d apparence normale en SEP Des études post-mortem pathologiques et biochimiques ont revélé des changements subtils dans la matière blanche d apparence normale chez le patient atteint de sclérose en plaques [Adams 1977, Allen 1979]. Plus récemment d autres études ont mis en évidence ces anormalités in vivo lors d études quantitatives utilisant des IRM spectroscopiques de proton [Mader 2000, He 2005] ou encore des IRM de transfert de magnétisation [Filippi 1995, Filippi 2004]. Ces anormalités se manifestent par des changements pathologiques microscopiques dans la matière blanche d apparence normale en IRM classique. Ces changements révèlent, entre autres, un amincissement de la myéline [Arstila 1973] et une perte axonale [Allen 1979, Mader 2000, Filippi 2001, Arnold 2001]. Par ailleurs, il a été démontré que ces changements microscopiques peuvent précéder la formation de nouvelles lésions de sclérose en plaques [Filippi 1998b, Goodkin 1998, Narayana 1998, Rocca 2000]. Cette variation de la matière blanche peut s apparenter à des lésions de très faible variation d intensité, avec les mêmes propriétés de diffusions de l intensité du centre vers l extérieur de la zone lésée. Il est à noter aussi que ces changements sont plus sévères autour des lésions visibles [Filippi 1995]. Cette perte axonale induit une augmentation de la densité de protons au sein de la matière blanche et donc un signal plus élevé, respectivement plus faible, pour les images pondérées en T2 et densité de protons, respectivement pour les images pondérées en T1. Bien que nous ne nous intéressions pas, dans ce manuscrit, à cette manifestation de la sclérose en plaques en IRM, nous souhaitons cependant tester la robustesse de notre algorithme à ce phénomène. En effet notre méthode est basée sur l analyse des intensités et fait l hypothèse que la distribution de la matière blanche d un temps d acquisition à un autre ne varie pas ou peu. Il faut donc vérifier que la faible variation d intensité de la matière blanche que peut engendrer la maladie ne perturbe pas l algorithme. Il est bien évident que si l intensité de la matière blanche varie, le contraste entre cette dernière et les lésions sera moins prononcé. Ce problème sera le même quelle que soit la méthode utilisée. Néanmoins nous devons vérifier que cette variation n entraîne pas d erreur lorsque l on pratique une étude longitudinale. 7.3.2 Base utilisée Le premier temps d acquisition correspond à la base L m de la section 7.2 et est composé de trois séquences : volumes pondérés en T1, T2 et densité de protons. Ces volumes correspondent à un modèle de sclérose en plaques modérée et sont directement disponibles à l adresse : http://www.bic.mni.mcgill.ca/brainweb/. Le deuxième temps d acquisition, la base L m Var, est lui aussi composé de trois séquences : volumes pondérés en T1, T2 et densité de protons. Ces volumes correspondent à la base L m sur laquelle nous simulons une légère variation d intensité de la matière blanche.

124 Validation sur données simulées avec lésions Pour simuler cette variation, nous utilisons des noyaux gaussiens qui nous permettent de générer des zones de variation d intensité diffuse. Une fois les centres des lésions déterminés, une convolution avec un noyau gaussien est appliquée en ce point. Cette transformation est appliquée exclusivement à la matière blanche. Pour déterminer la matière blanche, un masque est créé à partir de la vérité terrain. La taille du noyau est choisi de telle sorte que l intensité de la matière blanche varie dans un rayon d environ 5 mm autour de la lésion. Les écarts-types σ des gaussiennes sont égaux à un quart de la taille du noyau. Ceci correspond à un seuil de coupure de 2σ. L amplitude des gaussiennes et le seuil de coupure ont été choisis de telle sorte que l intensité globale de la matière blanche augmente pour les volumes pondérés en T2 et densité de protons, et diminue pour les volumes pondérés en T1, tout en étant invisible à l œil comme c est le cas lorsque cette variation apparaît dans le cas réel de patients atteints de sclérose en plaques. De façon à atteindre un pourcentage de variation d intensité raisonnable, nous avons été contraint, en plus de cette transformation, d augmenter (de diminuer pour les images pondérées en T1) arbitrairement l ensemble de l intensité de la matière blanche de 1%. La figure 7.5 présente une coupe de la base originale L m pour le volume pondéré en T2, une coupe de la base avec variation de l intensité de la matière blanche L m Var pour le volume pondéré en T2, ainsi qu une coupe du volume de différence. La variation de la matière blanche entre le volume original et le volume avec simulation de variation est d environ 2%. Base L m Base L m var Volume de différence Fig. 7.5 Simulation de la variation d intensité de la matière blanche d apparence normale. La colonne de gauche correspond au premier instant (base L m ). La colonne du milieu correspond au deuxième instant (base L m Var). Les volumes ont subi une variation d intensité au sein de la matière blanche. La colonne de droite correspond à la différence entre les deux instants. L intensité de la matière blanche varie autour des lésions de façon diffuse. Cette variation est modélisée par des convolutions avec des noyaux gaussiens.

Variation de la MB d apparence normale 125 7.3.3 Impact de la classification longitudinale dans le cas d une variation de l intensité de la matière blanche normale Le protocole expérimental est le même que dans la section 7.2. Le nombre de classes choisi est de trois et correspond aux structures suivantes : matière blanche, matière grise et liquide céphalo-rachidien. Les tests ont été effectués avec plusieurs valeurs du paramètre h. La proportion d individus h utilisée pour estimer les paramètres des gaussiennes varie de 5 en 5, excepté entre 90% et 100% où h varie de 1 en 1. Comme on pouvait s y attendre, le contraste moins prononcé entre la matière grise et la matière blanche pour les différentes pondérations engendre une surestimation de la matière grise et parfois des lésions comme on peut le constater sur la figure 7.6. D autre part, la variation de l intensité de la matière blanche générée pour cette expérience induit des lésions plus diffuses. On peut donc observer une baisse des DSC par rapport aux volumes originaux et une surestimation des lésions par rapport à la vérité terrain. En effet, on constate sur la figure 7.7 que les DSC des lésions de la base L m V ar sont inférieurs à 0.7 alors que celles des DSC des lésions pour la base L m avoisinent 0, 8. Ces différences sont dues à la variation de l intensité de la matière blanche et seraient les mêmes quelle que soit la méthode basée sur l intensité utilisée. Nous nous intéressons maintenant à l impact de la classification longitudinale lors d une variation d intensité de la matière blanche d apparence normale au cours du temps. On peut observer sur la figure 7.7 une très légère baisse des DSC pour la matière blanche et la matière grise de la base ayant subi une variation des intensités de la matière blanche d apparence normale (base L m V ar) dans le cas de la segmentation longitudinale. Néanmoins, la classification des lésions est améliorée lorsqu on utilise les deux instants, bases L m et L m V ar. De plus, on observe une légère hausse des DSC pour la base originale (base L m ) lorsque la classification est effectuée de façon jointe avec la base ayant subi une variation des intensités de la matière blanche d apparence normale (base L m V ar). D autre part, on remarque que lorsqu on effectue la classification pour chacune des bases séparément, l algorithme converge pour h 85 alors qu avec la classification jointe, la convergence est correcte pour h 80. Pour plus de précisions sur les DSC, on peut se reporter au tableau C.6. Ces résultats montrent que la classification longitudinale avec STREM est possible et pertinente même dans le cas d une variation de l intensité de la matière blanche d apparence normale.

126 Validation sur données simulées avec lésions Base L m Base L m V ar Vérité terrain pour la base L m Base L m (L m, L m var) Base L m V ar (L m, L m var) Vérité terrain pour la base L m Fig. 7.6 Résultats de la classification dans le cas d une variation de l intensité de la matière blanche d apparence normale. La première ligne correspond aux résultats de la classification multi-séquentielle pour chaque base prise séparément (L m et L m V ar) et h = 90%. On peut constater une légère surestimation de la matière grise et des lésions due à une diminution du contraste avec la matière blanche. La seconde ligne correspond aux résultats de la classification multi-séquentielle longitudinale pour ces mêmes bases (L m (L m, L m var) et L m V ar (L m, L m var)) et h = 90%. La classification longitudinale n engendre pas d erreur par rapport à la classification pour chaque instant pris séparément.

Variation de la MB d apparence normale 127 Base L m : DSC pour la matière blanche Base L m V ar : DSC pour la matière blanche Base L m : DSC pour la matière grise Base L m V ar : DSC pour la matière grise Base L m : DSC pour les lésions de SEP Base L m V ar : DSC pour les lésions de SEP Fig. 7.7 Comparaison des DSC entre la classification multi-séquentielle (traits noirs) et la classification longitudinale multi-séquentielle (pointillés rouges) dans le cas d une variation de l intensité de la matière blanche d apparence normale. La classification longitudinale n engendre pas d erreur par rapport à la classification multi-séquentielle seule.

128 Validation sur données simulées avec lésions 7.4 Atrophie cérébrale 7.4.1 L atrophie cérébrale en SEP La destruction de la myéline et principalement la perte axonale qui affectent certaines lésions de sclérose en plaques chroniques [Charcot 1868, Lassmann 1994] peuvent causer à terme une atrophie cérébrale [Miller 2002]. Cette atrophie se caractérise par une perte de tissu dans la matière blanche ou la matière grise ou les deux simultanément. L espace laissé alors vacant est occupé par du liquide céphalo-rachidien. Cette atrophie reflète à la fois l inflammation wallérienne 3 induite par la perte axonale et la neuro-dégénérescence post-inflammatoire. Bien que l atrophie cérébrale soit visible à tous les stades de la maladie, son évolution suit l évolution des lésions inflammatoires. Comme illustré par la figure 7.8, l atrophie se manifeste par un élargissement des ventricules, une augmentation de l espace cérébro-spinal des sillons [Rao 1985] et une atrophie du corps calleux [Barnard 1974]. Des informations supplémentaires sur l atrophie cérébrale sont disponibles dans la revue de Miller et coll. [Miller 2002]. 7.4.2 Base utilisée Bien que ce ne soit pas toujours le cas, une forte atrophie cérébrale correspond souvent à une charge lésionnelle forte. Nous utilisons donc un modèle de sclérose en plaques sévère. Le premier temps d acquisition correspond à la base L s de la section 7.2 et est composée de trois séquences : volumes pondérés en T1, T2 et densité de protons. Le deuxième temps d acquisition, la base L s Atr, est elle aussi composée de trois séquences : volumes pondérés en T1, T2 et densité de protons. Ces volumes correspondent à la base L s sur laquelle nous simulons une atrophie cérébrale. Nous utilisons une méthode de morphologie mathématique pour modéliser l atrophie sur les volumes de la base L s. Il existe des méthodes plus précises et plus évoluées pour modéliser l atrophie cérébrale [Karaçali 2006, Studholme 2006]. Cependant, une érosion du masque matière blanche - matière grise permet de simuler de façon extrêmement simple et rapide une perte de tissu pour pouvoir tester notre algorithme. L intensité des voxels laissés vacants par l érosion est échantillonnée selon une loi normale. Les paramètres de cette loi ont été calculés à partir de la distribution de l intensité du liquide céphalo-rachidien avant épanchement. Le noyau utilisé pour l érosion du masque matière blanche - matière grise est de rayon 1. L épaisseur des voxels étant 3 mm, ce rayon constitue une assez forte érosion. En effet, cette érosion modélise une atrophie de 22%. Le pourcentage du volume cérébral par rapport au volume intracrânien (BPV 4 ) varie de 80.9% avant érosion à 63.28% après. Dans une étude sur 36 patients et 20 sujets sains [Ge 2000], Ge et coll. calculent 3 L inflammation wallérienne est une forme de dégénérescence des fibres nerveuses suite à leur division cellulaire vient du nom du Dr. Waller qui publia le premier sur le sujet en 1850 [Waller 1850]. 4 En anglais : Brain Parenchyma Volume

Atrophie cérébrale 129 a. c. b. d. Fig. 7.8 Illustration de l atrophie cérébrale pour une femme de 30 ans atteinte de sclérose en plaques de forme récurrente-rémittente à 4 ans d intervalle entre l instant a et b. L atrophie est de 8,3% comme le reflète l élargissement des ventricules (flèche A dans a et b) et des sillons (flèche B dans a et b) (tiré de [Ge 2000]). une variation moyenne du parenchyme entre patients et sujets sains de 11%. L atrophie simulée pour cette expérimentation est donc plus importante. La figure 7.9 présente la variation du volume de la matière blanche - matière grise et du liquide céphalo-rachidien pour les données utilisées dans le cadre de cette expérimentation. On crée la nouvelle vérité terrain en appliquant le nouveau masque du liquide céphalo-rachidien à la vérité terrain de la base L s. 7.4.3 Impact de l atrophie cérébrale dans le cas de la classification longitudinale Le protocole expérimental est le même que dans les sections précédentes. Le nombre de classes choisi est de trois et correspond aux structures suivantes : matière blanche, matière grise et liquide céphalo-rachidien. Les tests ont été effectués avec plusieurs

130 Validation sur données simulées avec lésions a. c. b. d. Fig. 7.9 Simulation de l atrophie cérébrale sur les volumes de BrainWeb. Le premier instant a, sans atrophie, est modélisé par la base L s. Le deuxième instant b, avec atrophie, est modélisé par la base L s Atr. L atrophie est de 22%. valeurs du paramètre h. Ce paramètre varie de 5 en 5, excepté entre 90% et 100% où h varie de 1 en 1. Même avec une forte atrophie cérébrale, la classification longitudinale donne des résultats tout à fait satisfaisants qualitativement. Par exemple, la figure 7.10 montre les résultats de classification pour h = 99%. A partir de h < 90%, les DSC des lésions pour la base L s deviennent inférieurs au seuil de 0, 7. Comme on peut l observer sur la figure 7.11, ces faibles valeurs ne correspondent pas à une mauvaise classification des lésions mais à une surestimation de ces lésions, notamment dans la zone ayant subi une atrophie à l instant suivant. La figure 7.12 compare les DSC de la classification multi-séquentielle simple avec ceux de la classification multi-séquentielle longitudinale. On peut constater que la classification longitudinale d un cerveau dont le volume a évolué dans le temps ne pose pas de problème pour l algorithme. Bien au contraire, la classification du cerveau ayant

Atrophie cérébrale 131 Classification pour la base L s Vérité terrain pour la base L s Classification pour la base L s Atr Vérité terrain pour la base L s Atr Fig. 7.10 Résultats de la classification longitudinale pour les séquences base L s et base L s Atr pour h = 99. Le résultat est qualitativement satisfaisant, les lésions sont détectées. subi une atrophie (base L s Atr) est améliorée si on tient compte de l information à l instant précédent, sans atrophie (base L s ). Par ailleurs il est important de noter que la classification du cerveau n ayant pas subi d atrophie ne souffre pas de la classification longitudinale. L information du volume atrophié ne perturbe pas la classification, pour certaines valeurs de h, la classification est même améliorée (cf. tableau C.7). On peut donc conclure que STREM est robuste à l atrophie cérébrale.

132 Validation sur données simulées avec lésions Classification pour la base L s Vérité terrain pour la base L s Classification pour la base L s Atr Vérité terrain pour la base L s Atr Fig. 7.11 Résultats de la classification longitudinale pour les séquences base L s et base L s Atr pour h = 80. A partir de h < 90%, le DSC des lésions pour la base L s devient inférieur au seuil de 0, 7. Ce faible DSC correspond à une sur-estimation de ces lésions, notamment dans la zone ayant subi une atrophie à l instant suivant.

Atrophie cérébrale 133 Base L s : DSC pour la matière blanche Base L s Atr : DSC pour la matière blanche Base L s : DSC pour la matière grise Base L s Atr : DSC pour la matière grise Base L s : DSC pour les lésions de SEP Base L s Atr : DSC pour les lésions de SEP Fig. 7.12 Comparaison des DSC entre la classification multi-séquentielle (traits noirs) et la classification longitudinale multi-séquentielle (pointillés rouges) dans le cas d une atrophie cérébrale. La classification longitudinale n engendre pas d erreur, y compris dans le cas d une atrophie cérébrale. Au contraire, utiliser une séquence longitudinale stabilise la classification et donne de meilleurs résultats en terme de DSC pour les données avec atrophie cérébrale en préservant la classification des données sans atrophie cérébrale.

134 Validation sur données simulées avec lésions 7.5 Conclusion Ce chapitre a mis en évidence trois points importants. Dans un premier temps, nous avons montré la pertinence de l algorithme sur des données simulées avec des lésions de sclérose en plaques. Trois séquences ont été utilisées : des volumes pondérés en T1, T2 et densité de protons. L étude longitudinale a permis d améliorer la classification que ce soit pour les tissus ou pour les lésions de sclérose en plaques. Ces expériences nous ont permis de conclure que STREM peut gérer tout type d évolution temporelle, que ce soit la diminution ou l élargissement, la disparition complète ou encore l apparition de lésions de sclérose en plaques. Après avoir démontré la pertinence de l étude longitudinale dans le cas de données avec lésions, il est important de vérifier que cette étude n induit pas d erreur dans certains cas particuliers propres à la sclérose en plaques. Dans un deuxième temps nous avons donc testé la robustesse de notre algorithme dans le cas d une variation de l intensité de la matière blanche d apparence normale entre les deux instants étudiés. L algorithme réussit à segmenter correctement les deux instants de façon jointe. Enfin, la robustesse de l algorithme a été testé dans le cas d une atrophie cérébrale. Là encore, STREM se comporte très bien. L étude longitudinale n est pas un problème y compris dans le cas d une atrophie cérébrale. Au contraire, elle permet d améliorer la classification par rapport à une étude multi-séquentielle seule. L utilisation de données simulées a l avantage de fournir une vérité terrain bien contrôlée, qui permet d évaluer précisément l impact des différents paramètres. Cependant, il est largement reconnu que les données simulées sont souvent biaisées. Elles ne reproduisent pas toujours de manière réaliste tous les facteurs complexes qui peuvent apparaître dans des données réelles. Il est donc extrêmement important de valider notre méthode sur des données cliniques. C est l objet du chapitre 8.

Chapitre 8 Vers une étude clinique L enjeu de notre travail est avant tout d apporter, à notre niveau, une aide aux cliniciens dans l exploitation des données IRM multi-séquences longitudinales pour la sclérose en plaques. Il faut alors prouver que notre algorithme fournit des résultats qui sont en adéquation avec ceux que les cliniciens produisent avec leurs moyens d investigation habituels, et en particulier qu ils sont au moins aussi utiles et aussi pertinents. Notre but est d alléger cette tâche et de rendre les résultats indépendants de l observateur humain. Nous présentons ici les premiers résultats obtenus sur des images cliniques (sections 8.1 et 8.2). Nous discutons bien entendu de leur qualité mais surtout nous les comparons avec des segmentations manuelles d experts, lorsqu elles sont disponibles, afin de les valider objectivement. Cependant, l évaluation de la performance d un système de détection, et encore plus de classification, des lésions est une tâche difficile. Il n est pas facile d accéder à une vérité terrain solide et de nombreuses segmentations sont sujets à débat, même après une analyse détaillée par des experts. Par exemple, de fortes variabilités dans la charge lésionnelle totale évaluée par différents experts ont été observées, entre autres par Mitchel et coll. [Mitchell 1996]. Nous discutons de la méthode de validation utilisée dans la section 8.3. 8.1 Collaboration avec l hôpital Pontchaillou du CHU de Rennes Ces travaux sont les premiers traitant de la sclérose en plaques au sein du projet Visages. Pour les rendre possibles une collaboration a été mise en place avec l hôpital Pontchaillou du CHU de Rennes. Plusieurs médecins ont collaboré avec le projet Visages dans le but de confronter nos travaux avec la réalité clinique. Le service de Neurologie a été un de nos partenaires principaux, en particulier les docteurs Sean Patrick Morrissey et Gilles Édan, le chef de service. Le service de radiologie et plus particulièrement l équipe IRM ont été très sollicités pour choisir au mieux les protocoles d images que nous utilisons. Le docteur Béatrice Carsin-Nicol et son chef de service, Michel Carsin, nous ont permis de travailler 135

136 Vers une étude clinique dans les meilleures conditions. 8.1.1 Les objectifs Comme dans toute collaboration, le premier objectif est de mettre en commun les connaissances, les attentes et les contraintes de chaque partie. Cette mise en commun est souvent longue et complexe. Chacun a des pré-requis très différents et un vocabulaire spécifique. Pour notre part, il est nécessaire de bien comprendre à quels besoins cliniques doit répondre le traitement d image pour la sclérose en plaques ainsi que la démarche adoptée par les cliniciens pour l analyse de ces images. En d autres termes, notre collaboration a pour but de bien cerner de quelle façon nos travaux peuvent être adaptés puis utilisés par les médecin en routine clinique, mais aussi de quelle manière ces outils peuvent servir la recherche médicale, typiquement pour mieux comprendre les mécanismes de la sclérose en plaques. 8.1.2 Les données Le service de radiologie de l hôpital nous a permis de travailler sur deux protocoles différents. Protocole BENEFIT Une première étude a été menée sur des images de patients provenant d un protocole standard pour des essais thérapeutiques multi-centriques : BENEFIT. Ce protocole a été mis en place lors d une étude française sur 5 ans fondée sur l administration à haute dose d interféron β (Betaferon / Betaseron ) comme traitement initial dans le cas de SEP débutante (première poussée). Benefit - pour Betaferon in Newly Emerging Multiple Sclerosis For Initial Treatment - est une étude randomisée réalisée en double aveugle contre placebo. Ce protocole est composé d une séquence 3D pondérée en T1 pour le premier instant d acquisition. Pour tous les instants d acquisition, le jeu de données contient : une séquence d IRM pondérée en T1 après injection de gadolinium (TR = 460 ms, TE = 20 ms), une séquence d IRM pondérée en T2 (TR = 2740 ms, TE 91,7 ms) et une séquence d IRM en densité de protons (DP) (TR = 2740 ms, TE 22,9 ms). La taille des images, exceptée pour la séquence T1 3D de la première acquisition, est de 256 256 46 coupes transversales de 3 mm d épaisseur. Remarque : Il est important de noter qu avec ce protocole particulier nous ne disposons pas de la séquence T1 au cours du temps. Nous n utilisons donc pour la classification que trois séquences (pondérée en T2, DP et T1 avec gadolinium). L extraction du parenchyme cérébral est néanmoins effectuée sur l image pondérée en T1 de la première acquisition.

Collaboration avec l hôpital Pontchaillou du CHU de Rennes 137 Second protocole Par ailleurs, le docteur Béatrice Carsin-Nicol a fourni au projet Visages trois jeux de données de patients de l hôpital Pontchaillou de Rennes. Il s agit de trois femmes atteintes de sclérose en plaques âgées de 38 à 42 ans. Ces jeux sont composés de quatre séquences : une séquence d IRM pondérée en T1 (TR = 700 ms, TE = 20 ms), une séquence d IRM pondérée en T1 après injection de gadolinium (TR = 700 ms, TE = 20 ms), une séquence d IRM pondérée en T2 (TR = 2700 ms, TE 91 ms), et une séquence d IRM en densité de protons (TR = 2700 ms, TE 23 ms). La résolution spatiale des IRM est de 1.02 1.02 3 mm 3. Ces images ont été acquises sur un imageur Genesis-SIGNA 1,5 Tesla de GE Medical systems, tous les ans pendant trois ans. On peut voir un exemple de ces images sur la figure 8.1. (a) T2 (b) DP (c) T1 (d) T1 Gd Fig. 8.1 Un exemple d images du second protocole. T2 : séquence pondérée en T2. DP : séquence de densité de protons. T1 : séquence pondérée en T1. T1 Gd : séquence pondérée en T1 après injection de gadolinium. Le principal avantage de ces jeux de données est de disposer de quatre types de séquences d IRM longitudinales permettant d évaluer la performance de notre algorithme sur les trois types principaux de lésions de sclérose en plaques. 8.1.3 Méthode Initialisation Pour les expériences menées dans les chapitres précédents (6 et 7), l initialisation de STREM est aléatoire. La convergence globale n étant pas démontrée théoriquement, pour chaque expérience, 50 STREM ont été effectués avec différentes initialisations aléatoires. Le résultat donnant la plus grand vraisemblance a été conservé. Nous avons cependant constater qu en pratique, à quelques exceptions près, les 50 résultats étaient toujours identiques (ce qui n est pas le cas avec un algorithme EM).

138 Vers une étude clinique On peut néanmoins ajouter un a priori spatial à STREM en l initialisant avec un altas probabiliste. Cet altlas donne alors la probabilité a priori pour chaque voxel d appartenir à l une des classes que l on cherche à segmenter. L atlas mis à disposition par le Montreal Neurological Institute 1 permet une segmentation a priori du parenchyme cérébral en trois classes : matière blanche, matière grise et liquide céphalo-rachidien. D un point de vue pratique, il a été construit à partir de 152 IRM pondérées en T1 à partir desquelles une segmentation semi-automatique a été effectuée. Plusieurs images sont fournies : une image du patient «moyen 2» pour les séquences pondérées en T1, T2 et densité de protons, ainsi qu une image des a priori pour chaque classe. Pour utiliser correctement les informations fournies par l atlas probabiliste, il est nécessaire de le recaler de façon non linéaire avec le sujet à étudier (voir chapitre 3). Un recalage rigide est d abord effectué entre la séquence pondérée en T1 de l image du patient «moyen» et la séquence pondérée en T1 de la première acquisition pour le patient traité. À partir de ce premier recalage, un recalage non linéaire est ensuite effectué. Les deux transformations obtenues sont ensuite appliquées aux trois cartes de probabilités (voir figure 8.2). (a) Matière blanche (b) Matière grise (c) LCR Fig. 8.2 Cartes de probabilités a priori des tissus sains. Chaque carte a été recalée dans le référentiel du patient. LCR : liquide céphalo-rachidien. Une fois les images de probabilités mises dans le même référentiel que le patient, les probabilités a priori sont utilisées pour calculer la première estimation des paramètres du modèle. Prétraitement Pour ces données, nous utilisons la chaîne de prétraitement standard présentée dans le chapitre 3, à savoir, une correction de biais (hétérogénéité dans le champ radio- 1 http://www.bic.mni.mcgill.ca/cgi/icbm_view/ 2 La moyenne est ici la moyenne arithmétique des IRM. La construction a priori suit le même processus : c est la moyenne des étiquetages binaires.

Collaboration avec l hôpital Pontchaillou du CHU de Rennes 139 fréquence), un recalage rigide des différentes séquences et instants d acquisition vers l image pondérée en T1 de la première acquisition, une correction d intensité pour uniformiser l intensité au cours du temps et une extraction du parenchyme cérébral sur l image pondérée en T1 de la première acquisition. Le masque obtenu est ensuite appliqué aux autres images préalablement recalées. Méthode La segmentation des différents tissus cérébraux est calculé pour les différentes séquences et acquisitions disponibles. La proportion des données h utilisée pour calculer les paramètres du modèle est adaptée au protocole. Dans le cas du protocole BENEFIT, il s agit d une première poussée, peu de données atypiques seront dues aux lésions, nous choisissons h = 95%. Pour le second protocole nous choisissons h = 80%. La classification en 2 ou 3 types de lésions est effectuée selon les règles de connaissance a priori du tableau 5.2 sur l incidence de la sclérose en plaques sur l intensité des IRM. Dans le cas du protocole BENEFIT, il n y pas de séquence pondérée en T1. De façon à éliminer les vaisseaux sanguins de la classification des lésions marquées, nous avons introduit une nouvelle règle à celles du tableau 5.2. Les voxels détectés comme lésion active sont réellement conservés dans la classe des lésions actives si au temps d acquisition suivant, espacé de plus de six semaines, le voxel de mêmes coordonnées n est plus classé comme lésion active. 8.1.4 Résultats qualitatifs Un exemple de résultat est présenté pour chacun des protocoles. La figure 8.3 met en évidence la classification d une lésion active marquée par le gadolinium. Comparée aux résultats sans utiliser de règles longitudinales, la classification contient beaucoup moins de fausses détections. Les données étudiées sont des données de patients atteints de SEP au début de la maladie. Il est très intéressant de constater que la méthode proposée permet de détecter les premières petites lésions. La figure 8.4 quant à elle est un bon exemple pour illustrer la classification de plusieurs types de lésions et de l évolution de ces types dans le temps. Cette collaboration avec l hôpital est nouvelle. Il s agit d une première étude et nous ne disposons donc pas encore de vérité terrain permettant de valider quantitativement la méthode. Cependant ces tests sont une première validation qualitative de la méthode sur des données cliniques. Toutefois une étude quantitative de la performance de notre méthode est indispensable avant de pouvoir l intégrer dans un contexte clinique. Il s agit alors de pouvoir disposer d une base de données avec segmentations manuelles.

140 Vers une étude clinique Temps d acquisition 2 Temps d acquisition 1 Image T1_Gd Image T2 Image DP Image de segmentation Fig. 8.3 Classification des lésions pour un des patients du protocole BENEFIT fourni par l hôpital Pontchaillou de Rennes en ajoutant une règle de décision longitudinale : en jaune, les lésions marquées par le gadolinium ; en vert, la matière blanche ; en rouge, la matière grise ; et en bleu le liquide céphalo-rachidien.

Collaboration avec l hôpital Pontchaillou du CHU de Rennes 141 Temps d acquisition 3 Temps d acquisition 2 Temps d acquisition 1 Images T1 Images T1 Gd Images T2 Images DP Images de Segmentation Fig. 8.4 Classification des lésions pour un des patients du second protocole fourni par l hôpital Pontchaillou de Rennes : en rouge les lésions hyper-intenses sur les images pondérées en T2 et densité de protons ; en orange, les lésions marquées par le gadolinium ; en jaune, les lésions hypo-intenses sur les images pondérées en T1. Pour les tissus cérébraux, la répartition des étiquettes est la suivante : en vert, la matière blanche ; en kaki, la matière grise ; et en bleu le liquide céphalo-rachidien.

142 Vers une étude clinique 8.2 Projet Neuromime Le projet Neuromime 3 est issu de la récente collaboration entre l équipe Visages et le Montreal Neurological Institute 4 (MNI), université de Mc Gill, dans le cadre programme INRIA «équipe associée» et avec l objectif de partager les efforts respectifs en recherche neuro-informatique des équipes Visage et Image Processing Laboratory (IPL) et bénéficier ainsi des apports croisés des deux équipes. 8.2.1 Les objectifs Un des objectif de cette équipe associée est l amélioration de l exploitation neurologique des données IRM multi-séquences longitudinales issues de l étude des pathologies cérébrales. C est dans ce cadre que notre méthode est testée sur les données du MNI. En effet, le MNI s est construit au cours des ans une grande base de données IRM multi-séquences longitudinales de patient atteints de sclérose en plaques. À partir de ces données, notre objectif est la validation qualitative et quantitative de la classification en sous classes de lésions. 8.2.2 Les données Dans le cadre de cette collaboration, le docteur Arnold nous a fourni dix jeux de données de patients atteints de sclérose en plaques récurrente-rémittente avec différentes charges lésionnelles (de 1, 1 cm 3 à 79, 2 cm 3 ). Il s agit de trois patients hommes et sept patients femmes. Deux d entre eux ont été mis sous traitement Betaseron au cours de l étude. La table 8.1 donne, pour chaque patient, la charge lésionnelle lors de la première acquisition, le nombre d acquisitions et le laps de temps entre la première et la dernière acquisition. Ces données sont composées de trois séquences : une séquence d IRM pondérée en T1 (TR = 35 ms, TE = 10 ms), une séquence d IRM pondérée en T2 (TR = 70 ms, TE = 90 ms), et une séquence d IRM en densité de protons (TR = 20 ms, TE = 30 ms). Les données sont acquises sur un imageur Philips Medical Systems 1,5 Tesla Gyroscan. Pour chaque patient on dispose d au moins quatre instants d acquisition. La taille des images, quelle que soit la séquence, est de 256 256 multiplié par 50 à 60 coupes transversales de 3 mm d épaisseur de façon à couvrir l intégralité du cerveau (du vertex au foramen magnum). Après recalage dans l espace stéréotaxique, la taille des images réellement traitées est 181 217 181 avec des voxels isotropes de 1mm 3. La segmentation manuelle a été faite par un seul expert par patient (pas nécessairement le même pour tous les patients). Pour ce faire, les trois séquences ont été utilisées simultanément, le BIC dispose d un logiciel permettant de visualiser simultanément l ensemble des séquences pour minimiser les erreurs. Les lésions hyper-intenses 3 Neuromime pour Objective Medical Image Methods Evaluation for Neurological and Neurosurgical Procedures soit en français : évaluation objective de méthodes en imagerie médicale appliquées aux procédures neurologiques et neurochirurgicales. 4 McConnell Brain Imaging Centre (BIC) et Image Processing Laboratory (IPL).

Projet Neuromime 143 Patients Charges lésionnelles Nombre d acquisitions Temps de l étude lond 1,1 cm 3 6 3 ans mclf 3,7 cm 3 8 4 ans howd 6,4 cm 3 8 5 ans canj 7,7 cm 3 6 3 ans berl 10,5 cm 3 4 2 ans pioc 13,6 cm 3 6 3 ans nadl 22,6 cm 3 8 5,5 ans ducm 28,6 cm 3 6 3 ans huys 45,0 cm 3 7 5 ans vals 79.2 cm 3 7 4 ans Tab. 8.1 Charges lésionnelles lors du premier examen, nombre d acquisitions et temps entre la première et la dernière acquisition pour les dix patients du protocole du MNI. T2 (ZSHT2) sont segmentées sur les images pondérées en T2 et densité de protons. Les trous noirs (TNT1) sont identifiés sur les images pondérées en T1 mais les séquences pondérées en T2 et densité de protons peuvent être utilisées lorsqu il y a une ambiguïté. Enfin, l expert se sert de l ensemble de la séquence longitudinale pour affiner sa segmentation. L avantage de ces données réside dans la présence de segmentation manuelle de deux types de lésions : les lésions marquées par un hyper-signal sur les images pondérées en T2 et densité de protons et les lésions marquées par un hypo-signal sur les images pondérées en T1. C est donc le jeu de données idéal pour l évaluation quantitative des résultats. En revanche, l absence d image pondérée en T1 après injection de gadolinium ne nous permet pas de valider quantitativement notre méthode pour les lésions dites actives, marquées par le gadolinium. 8.2.3 Méthode Initialisation L initialisation de STREM est la même que celle utilisée pour les données provenant de l hôpital Pontchaillou. Nous utilisons une carte de probabilité recalée de façon non linéaire sur nos données. Ces probabilités a priori sont utilisées pour initialiser les paramètres du modèle. Prétraitements Nous avons reçu les images recalées au préalable dans l espace stéréotaxique. D autre part la correction de biais a elle aussi déjà été effectuée. Le prétraitement, en local, pour ces jeux de données est donc limité à la correction d intensité et à l extraction du cortex.

144 Vers une étude clinique Méthode L algorithme STREM est appliqué aux trois séquences longitudinales. La proportion des données h utilisée pour calculer les paramètres du modèle est la même pour tous les patients, h = 80% et le seuil de la distance de Mahalanobis choisi correspond à une p value de 0, 05. Il nous semble important d insister sur le fait que, quelle que soit la charge lésionnelle, ce sont les mêmes paramètres qui ont été utilisés. En effet, les résultats pourraient être améliorés avec des paramètres plus adaptés à la charge lésionnelle. En particulier, trop de données atypiques sont probablement extraites du calcul des paramètres pour les jeux de données avec une faible charge lésionnelle alors que trop de données atypiques sont peut être conservées pour les charges lésionnelles sévères. Mais il nous semble très important dans le cadre d une application clinique de pouvoir traiter un ensemble de sujets correctement avec le même jeu de paramètres de façon à ce que le processus soit entièrement transparent pour le clinicien. La classification en différents types de lésions est effectuée selon les règles de connaissance a priori du tableau 5.2 sur l incidence de la sclérose en plaques sur l intensité des IRM. Ce protocole ne contient pas de séquences pondérées en T1 après injection de gadolinium, seuls deux types de lésions sont donc classifiés : les ZHST2 et les TNT1. Mesures quantitatives Comme dans les chapitres précédents, afin d évaluer quantitativement les résultats nous calculons l indice de recouvrement S entre la vérité terrain et le volume segmenté pour chaque types de lésions : S = 2 Card(R V ) Card(R) + Card(V ), où R est le résultat de la segmentation et V la vérité terrain. Plus la segmentation est conforme à la vérité terrain, plus l indice est proche de 1. Nous complétons cette évaluation par le calcul des mesures de sensibilité et de spécificité. Rappelons d abord les quatre populations recherchées dans le cadre de ces mesures. Un vrai positif (VP) est un voxel classé par la méthode automatique comme étant une lésion et étant réellement une lésion selon la vérité terrain. Un faux négatif (FN) est un voxel n étant pas classé par la méthode automatique comme étant une lésion mais étant réellement une lésion selon la vérité terrain. Un faux positif (FP) est un voxel classé par la méthode automatique comme étant une lésion mais n étant pas réellement une lésion selon la vérité terrain. Un vrai négatif (VN) est un voxel n étant pas classé par la méthode automatique comme étant une lésion et n étant pas réellement une lésion selon la vérité terrain. La sensibilité est la proportion de vrais positifs : Se = V P V P + F N.

Projet Neuromime 145 La spécificité est la proportion de vrais négatifs : S = V N V N + F P. Plus la segmentation est conforme à la vérité terrain, plus ces mesures sont toutes les deux proches de 1. On peut d ores et déjà constater que le nombre de faux positifs (au maximum égal au nombre de voxels classés manuellement comme lésions) sera négligeable par rapport au nombre de vrais négatifs, c est-à-dire l ensemble des voxels n étant pas classés comme une lésion à la fois par la classification automatique et par la classification manuelle (c.- à-d. l ensemble du cerveau excepté les lésions, 10 6 voxels). Avant même de calculer ces mesures, on comprend que, dans le cadre de la validation de segmentation de structures aussi petites que les lésions, l échelle du voxel risque de ne pas être adaptée. Nous reviendrons sur cet aspect dans la section 8.3. 8.2.4 Résultats qualitatifs et quantitatifs Les planches d images 8.9 à 8.27 représentent les résultats sur une coupe représentative, pour tous les patients de la base et tous les temps d acquisition. Pour une meilleure comparaison entre les segmentations manuelles et automatiques, les segmentations binaires (manuelle et automatique) sont fusionnées avec les IRM. Les segmentations des ZHST2 sont fusionnées avec les images pondérées en T2 et celles des TNT1 avec les images pondérées en T1. Ces résultats mettent en évidence différents points positifs de notre méthode. Premièrement, mis à part quelques faux positifs notamment au niveau du liquide céphalorachidien, les résultats semblent corrects qualitativement. Sur la figure 8.19, le patient pioc montre la bonne détection d une nouvelle lésion. Au temps d acquisition 4, une lésion à droite du ventricule apparaît. Elle n existait pas au temps d acquisition précédent et disparaît au temps d acquisition suivant. L algorithme gère cette variation sans problème. Sur la figure 8.20, la deuxième ligne correspondant à l acquisition 1 pour le patient nadl montre aussi l apparition d une nouvelle lésion, à gauche des ventricules. Les critères de la méthode automatique pour détecter les TNT1 semblent plus sensibles que ceux utilisés par l expert. On peut par exemple constater pour le patient ducm (voir figures 8.22 et 8.23) que la méthode automatique surestime les trous noirs par rapport à la segmentation manuelle. Cependant, les TNT1 détectées par l algorithme sont réellement hypo-intenses par rapport à la matière blanche. Il se peut que l expert ayant effectué la segmentation ne considère pas un signal iso-intense par rapport à la matière grise comme un TNT1 mais seulement les intensités proches du LCR. Il serait intéressant de valider, si a posteriori, l expert ne serait pas d accord avec la segmentation automatique dans ces cas précis. Même si parfois les lésions sont un peu sous-évaluées (en ce qui concerne les ZHST2), notre algorithme permet de détecter toutes les lésions. Certaines lésions peuvent ne pas apparaître sur certaines coupes (voir par exemple le temps d acquisition

146 Vers une étude clinique 4 pour le patient pioc sur la figure 8.19) mais lorsque l on étudie le volume 3D, on constate qu elles sont toujours détectées. Ce dernier point est extrêmement important. En effet, pour la segmentation des lésions de sclérose en plaques, une bonne sensibilité de détection est très importante. Dans le cadre d un système d aide au diagnostic, par exemple, un faux négatif, c est-à-dire une lésion manuelle non détectée par le système, doit être cherchée par le clinicien dans l ensemble de l image, ce qui coûte énormément de temps. Par contre, un faux négatif peut être corrigé a posteriori. De la même façon, si la lésion est bien détectée mais pas parfaitement «contourée», par exemple, un peu sous-évaluée, l expert pourra effectuer la correction a posteriori sans que ce ne soit trop coûteux. Une fois l analyse qualitative des résultats effectuées, nous nous intéressons à la validation quantitative de notre méthode. Les mesures de recouvrement ont été calculées pour chacun des temps d acquisition puis moyennées par patient. Les figures 8.5(a) et 8.5(b) représentent les valeurs des DSC et les valeurs de sensibilité moyennes pour les résultats de chaque patient. La spécificité varie entre 0,99 et 1. Remarque : Il est important de rappeler que pour le patient lond, un seul TNT1 est (a) (b) Fig. 8.5 Mesures quantitatives de la performance de l algorithme sur les données cliniques du projet Neuromime. (a) Mesures de recouvrement DSC. (b) Mesures de sensibilité. La spécificité est égale à 1 pour les deux types de lésions et tous les patients. détecté manuellement et exclusivement pour le temps d acquisition 2, ce qui représente, au total, 133 voxels. Il est donc assez normal d obtenir un DSC si faible (et une sensibilité relativement forte). Les figures 8.6(a) et 8.6(b) montre la corrélation entre la charge lésionnelle obtenue manuellement et la charge lésionnelle obtenue par STREM. Pour plus de précision il faudrait calculer le rapport de corrélation. Néanmoins, on peut constater une meilleure corrélation pour le volume des ZHST2 que pour les TNT1. Dans l ensemble, les corrélations entre la segmentation manuelle et automatique des ZHST2 semblent plutôt

Discussion 147 bonnes. Seule la charge lésionnelle pour le patient vals, la plus sévère de toutes (79 cm 3 ), présente une très mauvaise corrélation. On peut en effet constater sur les images de classification que les lésions sont sous évaluées. Nous expliquons pourquoi dans la section suivante. Excepté pour les patients huys et vals pour lesquels la charge lésionnelle est très forte, l algorithme automatique semble surestimer les TNT1. Cette remarque valide ce que nous avons constaté sur les images. Les TNT1 détectés par l expert sont hypointenses par rapport à la matière grise, ceux détectés par STREM sont, par hypothèse, hypo-intenses par rapport à la matière blanche (c.-à-d. iso-intenses ou hypo-intenses par rapport à la matière grise). Pour les charges lésionnelles très sévères le phénomène inverse se présente. Nous expliquons quelles peuvent en être les causes dans la section suivante. (a) Charges lésionnelles T2 (b) Charges lésionnelles T1 Fig. 8.6 Mesures de corrélation entre la charge lésionnelle obtenue par segmentation manuelles et celle obtenue par STREM. 8.3 Discussion 8.3.1 Discussion des résultats Les résultats obtenus sont dans l ensemble satisfaisants. Cependant nous devons reconnaître certaines limitations. Tout d abord, pour les faibles charges lésionnelles en particulier, notre méthode renvoie un très grand nombre de faux positifs ; ce qui fait largement chuter les mesures quantitatives. Ces faux positifs se situent essentiellement dans le liquide céphalorachidien mais aussi aux endroits où le masque cérébral n est pas parfait comme au niveau des yeux par exemple. Compte-tenu de leur localisation, ils ne sont pas gênants pour le clinicien. Cependant, dans le but d automatiser le calcul de la charge lésionnelle, ces faux positifs peuvent être problématiques.

148 Vers une étude clinique Type de lésions Wu Aït-Ali ZHT2 70% 69% TNT1 62,3% 55% Tab. 8.2 Sensibilités en pourcentage obtenues par la méthode de Wu et coll. [Wu 2006] et par la notre. Ces mesures n ont pas été obtenues sur la même base de données. De plus, on peut constater sur les images des patients huys et surtout vals une sous-évaluation des TNT1 (voir figures 8.24 à 8.27). En effet, ces deux patients ont une charge lésionnelle très sévère (45 et 79 cm 3 ). Certains TNT1 sont si nécrotiques que la partie centrale s est nécrosée au point de se remplir de liquide céphalo-rachidien. La segmentation automatique classe ces voxels dans la classe du liquide céphalo-rachidien et non dans la classe des TNT1 (ceci est particulièrement visible pour la dernière acquisition du patient vals, voir la figure 8.27 ). Comme nous l avons évoqué dans le paragraphe précédent, particulièrement pour les patients aux charges lésionnelles sévères, la segmentation automatique sous estime certaines ZHST2. Cette sous-estimation est probablement due aux règles de décisions. En effet, lorsqu on étudie la carte des données atypiques, ces voxels sont bien détectés comme non représentatifs du modèle mais, à l étape suivante, les règles de connaissances a priori excluent ces voxels des classes de lésions. Nous avons tenu à comparer nos résultats avec ceux obtenus par Wu et coll. qui sont les seuls à notre connaissance à classifier les lésions selon leur type [Wu 2006]. Leurs travaux utilisent des données multi-séquences : images pondérées en T1 avant et après injection de gadolinium, en T2 et densité de protons. La méthode se décompose en trois étapes : Un algorithme des k-plus proches voisins est utilisé pour la segmentation des tissus et des lésions. La méthode est seulement semi-automatique puisqu elle nécessite une intervention humaine pour sélectionner un échantillon de voxels représentatifs pour chaque classe (le fond, les trois tissus sains et les trois types de lésions). Les résultats issus de cette segmentation sont affinés en ajoutant un a priori spatial sur la localisation des lésions dans la matière blanche basé sur le recalage non linéaire d un atlas. Enfin, ils affinent la segmentation des TNT1 pour introduire les trous noirs faiblement hypo-intenses (iso-intenses par rapport à la matière grise). Wu et coll. valident leur méthode en calculant les mesures de similarité, de spécificité et de performance ((V N + V P )/(V N + V P + F N + F P )) pour dix sujets. Le tableau 8.2 présente les mesures de sensibilité (en pourcentage) pour les TNT1 et les ZHST2 obtenues en utilisant la méthode de Wu et coll. et en utilisant notre méthode. Comme pour notre étude, la spécificité de leur méthode avoisine 100%. Cette comparaison n est pas très objective puisque les jeux de données utilisés sont différents cependant elle permet une première évaluation de nos travaux. On constate à première vue que les résultats de Wu et coll. sont meilleurs que les nôtres. Cependant il faut rappeler que

Discussion 149 cette étude est faite en utilisant l information des images pondérées en T1 avec injection de gadolinium dont nous ne disposons pas. De plus, faire l hypothèse que les lésions se situent exclusivement dans la matière blanche n est pas tout à fait juste [Inglese 2004]. Même si cela permet d éliminer de nombreux faux positifs, il est possible d éliminer aussi des lésions de la matière grise, même si elles sont plus rares. Enfin, il semblerait que, contrairement à la segmentation manuelle dont nous disposons, la segmentation manuelle utilisée dans ces travaux inclut les TNT1 iso-intenses par rapport à la matière grise. Enfin, rappelons que, bien que les résultats présentés par Wu et coll. soient très intéressants, notre méthode permet l étude longitudinale et a l avantage non négligeable d être entièrement automatique. 8.3.2 Discussion de la méthode de validation Les buts de la segmentation automatique d IRM cérébrales pour la sclérose en plaques sont multiples : aide au diagnostic, suivi de l évolution de l état du patient, tests cliniques, etc. Selon l application désirée, les objectifs ne sont pas les mêmes. Dans tous les cas une bonne détection des lésions est importante. Cependant la qualité du contourage, une fois la lésion détectée, peut aussi être importante si l on souhaite calculer la charge lésionnelle ou son évolution par exemple. Comparer le masque binaire de la segmentation manuelle avec celui de la segmentation automatique voxel à voxel n est pas suffisant pour juger des applications possibles de la méthode, en particulier, elle ne permet pas de valider séparément la détection et le contourage. Les mesures effectuées sur l ensemble du cerveau compte tenu de la proportion de lésions par rapport à l ensemble des voxels sont peu pertinentes. Par exemple, dans le cas de la segmentation des lésions, une spécificité égale à 100% ne permet pas de conclure que la méthode donne des résultats spécifiques. De la même façon, des valeurs de DSC faibles ne sont pas forcement significatives d une mauvaise classification. Dugas-Phocion propose donc d effectuer ces mesures (spécificité et sensibilité) en choisissant la lésion et non le voxel comme unité [DugasPhocion 2005]. La figure 8.7 présente les mesures utilisées pour l évaluation de la détection alors que la figure 8.8 présentent celles utilisées pour le contourage. Par ailleurs, ce travail de validation n est pas complètement achevé. Il parait primordial de passer du temps avec l expert pour regarder à nouveau les images en les confrontant aux résultats obtenus automatiquement. Enfin, il est très important d évaluer la reproductibilité de notre méthode. Or la reproductibilité d un quantificateur est difficile à juger, d autant plus que nous n avons qu un seul expert pour l évaluation, ce qui nous interdit toute étude de la variabilité inter-experts. Il serait intéressant de demander à plusieurs experts de segmenter les images. Ainsi un algorithme de type STAPLE [Warfield 2004] pourrait nous aider dans l établissement d un étalon or.

150 Vers une étude clinique Fig. 8.7 Calcul des quantificateurs pour évaluer la détection des lésions : comparaison entre les lésions manuelles (trait continu) et les lésions automatiques (trait pointillé). Par rapport aux mesures classiques de spécificité et de sensibilité, deux difficultés se créent : la notion de faux négatif n est pas accessible, et les vrais positifs sont définis comme des vrais positifs automatiques V P a ou des lésions détectées LD m selon que l on regarde les lésions automatiques ou les lésions manuelles. La sensibilité Se reste d actualité, mais la spécificité n est pas calculable faute de vrais négatifs : le poids des faux négatifs est regardé en utilisant la valeur prédictive positive V pp. Illustration tirée de [DugasPhocion 2005]. 8.3.3 Amélioration des résultats pour la sclérose en plaques Masque de la matière blanche Dans beaucoup de méthodes, un masque de la matière blanche est utilisé pour limiter le nombre de faux positifs. Cependant faire l hypothèse que les lésions sont localisées exclusivement dans la matière blanche élimine de la classification les lésions de la matière grise. Limiter la recherche des lésions à un masque matière blanche et matière grise pourrait être une solution. Cependant, il est extrêmement difficile d obtenir ce masque dans le cas justement de pathologie. En effet, comme nous le constatons sur les images de résultats, de nombreuses lésions se situent aux bords des ventricules, les lésions périventriculaires. Avec des méthodes basées sur l intensité, l extraction des ventricules risque d entraîner l extraction de ces lésions. Une solution pourrait être d utiliser les travaux de Ciofolo qui utilisent des ensembles de niveaux combinés avec un contrôleur flou, ce qui empêcherait le contour de s écarter trop des ventricules [Ciofolo 2005a]. Cette méthode devra être associée à un algorithme de recalage déformable très performant pour recaler l atlas utilisé. Analyse de forme Une analyse de forme a posteriori est parfois appliquée dans des études de segmentation afin de diminuer le nombre de faux posititifs détectés. Dans le cas de la sclérose en plaques, ce n est malheureusement pas possible. En effet, une lésion n a pas de forme générale.

Discussion 151 Fig. 8.8 Calcul des quantificateurs pour évaluer le contourage des lésions : comparaison entre les lésions manuelle (trait continu) et les lésions automatiques (trait pointillé). Pour n évaluer que le contourage, il ne faut s intéresser qu aux lésions manuelles et aux lésions automatiques dont l intersection est non nulle. L unité est ici le voxel : les vrais positifs sont représentés par un nombre unique V P vox. Comme pour la détection, la sensibilité voxellique Se vox et la valeur prédictive voxellique V pp permettent d observer la qualité du contourage. Illustration tirée de [DugasPhocion 2005].

152 Vers une étude clinique (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.9 Segmentations manuelles et automatiques (STREM) des zones d hyper-signal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient lond ; temps d acquisition 0 à 2.

Discussion 153 (e) ZHST2 manuelles (f) ZHST2 STREM (g) TNT1 manuelles (h) TNT1 STREM Fig. 8.10 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient lond ; temps d acquisition 3 à 5.

154 Vers une étude clinique (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.11 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient mclf ; temps d acquisition 0 à 3.

Discussion 155 (e) ZHST2 manuelles (f) ZHST2 STREM (g) TNT1 manuelles (h) TNT1 STREM Fig. 8.12 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient mclf ; temps d acquisition 4 à 7.

156 Vers une étude clinique (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.13 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient howd ; temps d acquisition 0 à 3.

Discussion 157 (e) ZHST2 manuelles (f) ZHST2 STREM (g) TNT1 manuelles (h) TNT1 STREM Fig. 8.14 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient howd ; temps d acquisition 4 à 7.

158 Vers une étude clinique (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.15 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient canj ; temps d acquisition 0 à 2.

Discussion 159 (e) ZHST2 manuelles (f) ZHST2 STREM (g) TNT1 manuelles (h) TNT1 STREM Fig. 8.16 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient canj ; temps d acquisition 3 à 5.

160 Vers une étude clinique (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.17 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient berl ; temps d acquisition 0 à 4.

Discussion 161 (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.18 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient pioc ; temps d acquisition 0 à 2.

162 Vers une étude clinique (e) ZHST2 manuelles (f) ZHST2 STREM (g) TNT1 manuelles (h) TNT1 STREM Fig. 8.19 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient pioc ; temps d acquisition 3 à 5.

Discussion 163 (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.20 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient nadl ; temps d acquisition 0 à 3.

164 Vers une étude clinique (e) ZHST2 manuelles (f) ZHST2 STREM (g) TNT1 manuelles (h) TNT1 STREM Fig. 8.21 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient nadl ; temps d acquisition 4 à 7.

Discussion 165 (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.22 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient ducm ; temps d acquisition 0 à 2.

166 Vers une étude clinique (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.23 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient ducm ; temps d acquisition 3 à 5.

Discussion 167 (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.24 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient huys ; temps d acquisition 0 à 3.

168 Vers une étude clinique (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.25 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient huys ; temps d acquisition 4 à 6.

Discussion 169 (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.26 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient vals ; temps d acquisition 0 à 3.

170 Vers une étude clinique (a) ZHST2 manuelles (b) ZHST2 STREM (c) TNT1 manuelles (d) TNT1 STREM Fig. 8.27 Segmentations manuelles et automatiques (STREM) des zones d hypersignal sur les images pondérées en T2 et densité de protons (ZHST2) et des trous noirs sur les images pondérées en T1 (TNT1) pour le patient vals ; temps d acquisition 4 à 6.

Conclusion et perspectives Conclusion Cette thèse porte sur la segmentation robuste des tissus cérébraux et la classification des données atypiques selon des règles de connaissance a priori dans le but de détecter des structures évolutives pathologiques 3D en neuro-imagerie. Dans une première partie, nous avons donné le contexte de nos travaux permettant de situer notre approche par rapport à l application que l on veut en faire et les objectifs qui en découlent mais aussi par rapport aux méthodes existantes dans le domaine. Pour cela nous avons décrit brièvement la sclérose en plaques (SEP), ses causes, ses effets et les traitements actuels. Nous avons ensuite présenté les différentes techniques d imagerie médicale utilisées de nos jours, et en particulier l imagerie par résonance magnétique (IRM). Cette modalité d imagerie est en effet très utilisée dans le cadre de la SEP, principalement pour trois activités : le diagnostic de la maladie et en particulier le diagnostic différentiel ; le suivi des patients ; et les tests pour la mise sur le marché de nouveaux traitements. Nous avons montré l intérêt des différentes types de séquences d IRM conventionnelle pour le diagnostic et une meilleure compréhension de la maladie, ainsi que pour l évaluation de l efficacité d un traitement. Nous avons ensuite donné des éléments de l état de l art sur la segmentation et le suivi des lésions en IRM cérébrale. Nous avons conclu que l approche la plus adaptée pour obtenir de bons marqueurs IRM de la sclérose en plaques passe par l utilisation conjointe de plusieurs séquences d IRM mais aussi de plusieurs acquisitions temporelles. Une méthode non supervisée a été retenue pour une automatisation complète du processus. Parmi les méthodes non supervisées, nous avons opté pour une méthode paramétrique permettant de gérer les données atypiques du modèle choisi. Ainsi nous bénéficions des atouts des méthodes paramétriques permettant une bonne segmentation lorsque le modèle est vérifié sans les inconvénients, à savoir le biais engendré par les données non représentatives. La deuxième partie de ce document a permis de décrire plus précisément notre approche, en commençant par les prétraitements nécessaires pour une analyse automatique des IRM cérébrales. La suite de cette partie a exposé nos contributions. Nous utilisons un nouvel estimateur robuste, l estimateur de vraisemblance tamisée, dont le principe est de calculer la vraisemblance du modèle à partir des données 171

172 Vers une étude clinique les plus représentatives. Ainsi le calcul des paramètres ne prend pas en compte les données atypiques. Ce calcul est effectué en utilisant un nouveau schéma itératif proche de l algorithme d espérance-maximisation (EM). Enfin, pour classifier les différents types de lésions, nous nous basons sur l analyse clinique des IRM par les neurologues et les radiologues et nous établissons des règles de connaissance a priori sur les manifestations de la sclérose en plaques sur les intensités de l IRM. La troisième partie de ce document a validé la méthode, sa robustesse et enfin son intérêt en milieu clinique. Dans le chapitre 6 nous avons montré quantitativement la pertinence du modèle spatio-temporel ainsi que l apport de l estimateur robuste pour la segmentation des tissus sains en IRM cérébrales. Le chapitre 7 a quantifié la performance de la méthode sur des données simulées avec lésions ainsi que sa robustesse aux artefacts de la maladie, à savoir la variation dans le temps de l intensité de la matière blanche et l atrophie cérébrale. Enfin, le chapitre 8 a exposé nos premiers résultats de validation dans le cadre de données cliniques. Même si ces résultats sont encore incomplets, ils fournissent des indications très intéressantes quant à la mise en pratique de notre méthode dans un contexte clinique. Bilan des contributions Il nous semble que trois principales contributions méthodologiques se dégagent de ces travaux. Ces travaux sont les premiers à notre connaissance à intégrer l estimateur robuste de vraisemblance tamisée dans le domaine de la classification d images. Sur des données d IRM cérébrale, nous avons montré l apport de cet estimateur en comparaison avec l estimateur classique du maximum de vraisemblance. De plus, la convergence de l algorithme présenté dans ces travaux est démontrée, ce qui n est pas nécessairement le cas dans la plupart des schémas itératifs robustes présentés dans la littérature pour la classification d images cérébrales. La deuxième contribution importante de nos travaux est l utilisation de données 3D à la fois longitudinales et multi-séquentielles dans le but de segmenter des lésions de sclérose en plaques. Cette approche hybride pour une segmentation 3D n avait jamais été présentée dans la littérature. Enfin, la classification automatique en trois types de lésions est très originale et, à notre connaissance, un seul autre groupe de recherche s y est intéressé [Wu 2006]. La combinaison d une méthode de segmentation robuste et solide mathématiquement avec l utilisation de règles décisionnelles définies en collaboration avec les cliniciens est, à mon sens, toute l originalité et l intérêt de ce travail. Sur le plan applicatif, ce document propose des tests de robustesse aux «artefacts» de la pathologie. Nous montrons ainsi que l étude longitudinale effectuée n est pas en contradiction avec l évolution possible de la maladie.

Discussion 173 Il est par ailleurs important de noter que la méthode proposée est générique et peut être adaptée à d autres types de séquences d images. De plus, l algorithme de segmentation robuste, utilisé de façon spatio-temporelle ou non, n est pas réservé au domaine de l imagerie médicale et peut ainsi s appliquer à tout type d image, voire de vidéo, sous l hypothèse que les données traitées puissent être modélisées par un mélange de gaussiennes. Bilan des limitations On peut différentier les limitations de la méthodes et les limitations de la validation. Deux principales limitations de la méthodes ont été mises en évidence. L analyse 3D multi-séquentielle et longitudinale engendre un grand nombre de données à traiter. Pour trois séquences et huit temps d acquisition par exemple, trois à quatre heures de calcul sont souvent nécessaires. Cependant, à partir du moment où la méthode est entièrement automatique, ce délai de calcul n est pas gênant pour le clinicien. Néanmoins dans le cas d utilisation de la méthode sur de très grosses bases de données, ce qui fait partie des applications recherchées, il sera probablement nécessaire de paralléliser les tâches de l algorithme et d utiliser des machines puissantes pour accélérer les temps de calcul. Une limitation plus sérieuse est la simplicité naïve des règles de décision ainsi que leur application par seuillage brutal. En effet, ces règles ne prennent pas en compte toute la complexité et l hétérogénéité de l expression de la SEP sur les données IRM. Notamment en ce qui concerne le caractère chronique ou non de certaines lésions. Par ailleurs, en ce qui concerne les résultats et la validation, nous avons constaté que, pour des paramètres génériques, de nombreux faux positifs apparaissaient dans la classification finale. De plus, bien souvent, les lésions hyper-intenses sur les images pondérées en T2 et densité de protons sont sous-évaluées. La validation quantitative de la méthode, bien que déjà très intéressante, est incomplète. D une part la segmentation manuelle considérée comme vérité terrain n est pas idéale. En effet, la vérité terrain est construite à partir des segmentations manuelles effectuée par un seul expert, la variabilité inter- et intra-observateur n a donc pas été prise en compte et la vérité terrain ne peut avoir valeur d étalon or. D autre part, les mesures utilisées pour comparer cette segmentation manuelle à la segmentation automatique ne sont pas très adaptées aux lésions de sclérose en plaques. Perspectives Perspectives liées aux limitations de la méthode Une première façon simple d améliorer les règles de connaissance a priori est d introduire la notion temporelle. En effet une première étape qui permettrait de rendre compte un peu plus précisément de la complexité de la maladie est d ajouter dans la

174 Vers une étude clinique classification des lésions actives, les lésions marquées par le gadolinium mais apparaissant comme un trou noir temporaire sur les images pondérées en T1. Pour ce faire il faudra garantir un protocole avec des acquisitions espacées d au moins 6 semaines pour pouvoir déterminer si le trou noir est temporaire ou chronique. Une fois les règles améliorées, on peut aussi penser à améliorer l application des ces règles. En effet, il s agit de critères issus du langage naturel («plus intense», «moins intense») que l on souhaite appliquer à des données précises. Un seuillage brutal ne correspond pas à la façon de procéder de l expert. Ainsi, la méthode pourrait être améliorer en formulant ces règles de décisions de façon différente, par exemple à l aide d une commande floue. Un post-traitement adapté peut permettre de diminuer le nombre de faux positifs. Souvent ce post-traitement consiste à limiter la détection des lésions à un masque de la matière blanche. Cependant certaines lésions peuvent exister au niveau de la matière grise. Un masque de la matière blanche et de la matière grise est difficile à obtenir dans le cas de la sclérose en plaques. En effet, les lésions périventriculaires vont rendre l extraction des ventricules difficiles. Une méthode basée sur l intensité combinée avec une approche guidée par un modèle pourrait être une solution. Il faudra néanmoins une grande précision du recalage déformable pour créer l atlas. Les perspectives liées aux limitations de la validation sont abordées plus loin. Perspectives méthodologiques Sur le plan méthodologique, il est possible d intégrer plus d information spatiale. Une première idée serait d ajouter dans le vecteur des caractéristiques y i, composé à ce jour uniquement des intensités m-d, les coordonnées spatiales. Andbeek et coll. ont démontré dans le cas de l algorithme des k plus proche voisins que l introduction des coordonnées spatiales dans le vecteurs de caractéristiques améliorait sensiblement les résultats. Cependant, dans le cas d une méthode paramétrique comme la notre, cette méthode ne semble pas valable. En effet, autant une modélisation des intensités m-d par un modèle de mélanges de gaussienne est justifiable, autant il ne semble pas évident que les caractéristiques composées à la fois des coordonnées spatiales et des valeurs d intensité suivent toujours ce modèle. Une deuxième façon de prendre en compte l information spatiale serait d introduire des contraintes spatiales sur les lésions en pondérant les voxels détectés comme lésion selon leur localisation. Cette pondération pourrait être introduite en ajoutant une dimension aux «vecteurs-types» définis dans le chapitre 5. Cette pondération serait définie selon la localisation du voxel par rapport à un atlas recalé de façon non-linéaire (ce qui nécessite un recalage extrêmement précis) ou par rapport aux structures cérébrales préalablement extraites par exemple par l algorithme de Ciofolo et coll. par exemple [Ciofolo 2005b]. Cette combinaison d informations issues de plusieurs sources afin d améliorer la prise de décision nécessiterait encore plus d oublier le seuillage brutal dans l application des règles et opter pour une commande floue.

Discussion 175 Perspectives de validation Il est nécessaire de tester la méthode sur des bases de données de plus grande taille pour en dégager clairement les points forts et les limitations. Cette étape est notamment indispensable avant d exporter notre algorithme dans un contexte clinique. En particulier, il serait intéressant d avoir une validation manuelle post-traitement. On peut penser par exemple à une approche dans laquelle un premier expert détecte et classe manuellement les lésions ; ensuite le système automatique accomplit la même tâche, et finalement un deuxième expert arbitre entre les deux. Cette méthodologie permettrait de mesurer les gains qui seraient obtenus en assistant le neurologue avec notre système de détection automatique. Ce système de validation n est malheureusement pas parfait car si ni le premier expert ni l algorithme ne détecte la lésion, elle n apparait pas dans l évaluation. De plus, il serait intéressant d évaluer la variabilité inter- et intra-observateur dans le processus de segmentation manuelle pour situer les performance de notre algorithme de ce point de vue. Cela permettrait également d avoir accès à une vérité terrain plus fiable mais nécessite l implication de plusieurs experts. Enfin, l utilisation d autres mesures de recouvrement donnerait aussi une évaluation plus complète de nos résultats. Nous pensons notamment aux mesures utilisées par Dugas-Phocion dans sa thèse [DugasPhocion 2005]. En effet, comparer voxel par voxel le masque binaire obtenu automatiquement à une segmentation manuelle ne suffit pas. En particulier, cette analyse ne permet pas de différentier la performance de l algorithme en terme de contourage et de détection. De plus, les mesures effectuées sur l ensemble du cerveau compte-tenu de la proportion de lésions par rapport à l ensemble des voxels sont peu pertinentes. Dugas-Phocion propose donc d effectuer ces mesures (spécificité et sensibilité) en choisissant la lésion et non le voxel comme unité. La figure 8.7 présente les mesures utilisées pour l évaluation de la détection alors que la figure 8.8 présentent celles utilisées pour le contourage. L utilisation de ces mesures pour quantifier la performance de notre méthode est une perspective à court terme. Après une telle étude, si la méthode s avère valide, elle pourra donc être intégrée dans un cadre clinique. Perspectives liées aux applications Une perspective à court terme de ces travaux est de quantifier la variation du nombre de lésions et de leur volume au cours du temps mais aussi de quantifier l atrophie cérébrale. En effet, la segmentation préliminaire en tissus permet d évaluer le volume du liquide céphalo-rachidien au cours du temps. La méthode proposée peut donc permettre rapidement de quantifier différents aspects de la pathologie : le volume et le nombre des différents types de lésions, ainsi que leur évolution (diminution, élargissement, disparition ou apparition mais aussi évolution en trou noir ou non) et la mesure de l atrophie cérébrale. La combinaison de ces différentes métriques pourrait rendre possible la définition de nouveaux marqueurs IRM suffisamment sensibles et spécifiques pour être un substitut des marqueurs cliniques. En plus de son application à la sclérose en plaques, l algorithme peut servir à la détections d autres pathologies entre autres : les œdèmes liés aux traumatismes crâniens,

176 Vers une étude clinique les lésions dans le cadre de patient atteints du diabète ou encore les lésions dues à la vieillesse. Indépendamment de ces applications aux pathologies du système nerveux central, l algorithme de segmentation spatio-temporelle robuste peut être intégré à d autres processus. Par exemple, dans le cadre des travaux de Ciofolo, une classification en tissus de la structure à segmenter est utilisée comme étape préliminaire de la segmentation par ensemble de niveaux (ou levelsets) [Ciofolo 2005a]. Cette classification est aujourd hui effectuée par un algorithme EM stochastique [Celeux 1986] et de façon mono-séquentielle. Pour certaines structures et notamment les petites structures comme les hippocampes 5 par exemple, une mauvaise classification préliminaire engendre des erreurs pour la segmentation finale. Il serait alors intéressant de rendre la classification préliminaire robuste aux données atypiques (et notamment les effets de volumes partiels) en utilisant l algorithme STREM. À titre indicatif, Ciofolo a appliqué cette méthode sur un des sujets de la base IBSR et a constaté que, d une part la classification des tissus était améliorée, et que d autre part, l étude des données atypiques était une piste intéressante pour améliorer la segmentation de cette structure [Ciofolo 2005a]. De plus, on peut penser qu une classification multi-séquentielle pourrait apporter plus d information pour l extraction du parenchyme cérébral par cette méthode. En effet, le contraste entre les différents tissus sur les images pondérées en T2 étant trop faible, la méthode de Ciofolo et coll. pour extraire le parenchyme cérébral est effectuée sur les images pondérées en T1. Or avec une classification préalable sur les séquences pondérées en T1 et en T2 et éventuellement en densité de protons si disponible, le levelset pourrait être calculé sur les images pondérées en T2 et profiter ainsi du bon contraste de l espace intra-dural 6, ce qui éviterait probablement de nombreux problèmes de segmentation, notamment au niveau des globes oculaires. Enfin, on pourrait envisager l utilisation de STREM, en particulier pour son aspect robuste, sur d autres types de données et pas seulement en imagerie médicale. 5 L hippocampe est une structure bilatérale et symétrique, faisant partie du système limbique. Celuici joue un rôle dans la mémoire spatiale ainsi que dans la consolidation de la mémoire (passage de la mémoire à court terme vers la mémoire à long terme). 6 L espace entre la dure-mère (première méninge) et le liquide céphalo-rachidien.

Annexes 177

Annexe A La sclérose en plaques L information contenue dans cette annexe est en grande partie issue du site www.mipsep.org. A.1 Le système immunitaire Qu elle soit primaire ou secondaire, l auto-immunisation joue un rôle important dans la sclérose en plaques. Il est donc intéressant de donner quelques informations supplémentaires concernant le système immunitaire. L immunité correspond à un ensemble de mécanismes de défense dont le rôle est d empêcher la pénétration et le développement d un corps étranger dans notre organisme en l éliminant à l aide de cellules ou de substances chimiques. Elle met en jeu diverses cellules appartenant aux globules blancs dont les lymphocytes T, les lymphocytes B et les macrophages. Les lymphocytes B sont responsables de la fabrication des anticorps ou immunoglobulines. Les anticorps sont des protéines qui ont la propriété de reconnaître l antigène et de s y fixer. L antigène est alors reconnu par contact par les lymphocytes B porteurs à leur surface des anticorps spécifiques de l antigène. Les lymphocytes T quant à eux ne reconnaissent l antigène que s il est «présenté» par une cellule «présentatrice d antigènes» qui est soit un lymphocyte B, soit le plus souvent un macrophage. Lorsque l antigène a été reconnu par le lymphocyte T, celui-ci sécrète des médiateurs chimiques qui vont stimuler deux sous-populations : les lymphocytes T inducteurs, qui déclenchent la cascade des réactions immunitaires et les lymphocytes T suppresseurs qui sont chargés de maintenir cette réaction dans certaines limites et d y mettre fin lorsqu elle n a plus raison d être. L immunité est donc sous contrôle de ces deux variétés de lymphocytes, qui dans des conditions normales, sont en équilibre. Une anomalie de l une d entre elle peut donner lieu à un fonctionnement exagéré (hyper-immunité) ou au contraire insuffisant (immunodéficience) du système immunitaire. Chez certaines personnes, les mécanismes de défense du système immunitaire sont dirigés contre des constituants apparemment normaux de l organisme. Ils luttent donc 179

180 La sclérose en plaques contre leurs propres tissus et les détruisent. On parle alors de maladies auto-immunes, c est le cas de la sclérose en plaques. Il semble que l auto-immunité soit un processus naturel, destiné à éliminer les constituants usés de l organisme, mais que, dans des conditions mal connues, l immunité échappe à son propre contrôle. Dans des conditions normales, le cerveau est un lieu privilégié sur le plan immunitaire puisqu il est isolé et protégé de tout ce qui circule dans le sang par une barrière, la barrière hémato-encéphalique, située au niveau des vaisseaux cérébraux. Les constituants du tissu cérébral n entrent donc pas en contact avec le système immunitaire. Suite à une rupture de cette barrière, des molécules appartenant au tissu nerveux peuvent s échapper dans le sang et entrer en contact avec les lymphocytes. Certains d entre eux sont sensibilisés à ces molécules mais ils ne provoquent pas de réaction immunitaire au niveau du système nerveux central puisqu ils sont incapables d y pénétrer. Dans le cas de la sclérose en plaques, dans des conditions imparfaitement élucidées, ils peuvent être «activés», pénétrer dans le tissu cérébral et devenir pathogènes (voir figure A.1). Fig. A.1 Dans le cas de la sclérose en plaques, pour des raisons encore inconnues, la barrière hémato-encéphalique peut se rompre à certains endroits. Des lymphocytes peuvent alors être «activés», pénétrer dans le tissu cérébral et devenir pathogènes (source mipsep.org). A.2 Le diagnostic clinique Deux échelles permettent d évaluer cliniquement l état du patient : l échelle EDSS(Expanded Disability Status Scale, soit en français, échelle étendue de l état de déficience) [Kurtzke 1983] et l échelle MSFC [Cutter 1999]. L échelle EDSS est présentée dans le tableau A.1. Bien que critiquée, cette échelle reste toujours le principal outil de cotation clinique commun à tous les neurologues pour

Le diagnostic clinique 181 juger l évolution des patients. Le score global de l échelle se mesure sur une échelle de 20 niveaux (0 à 10 par demi-points). Jusqu au niveau 3,5, le score obtenu dans chaque PF (Paramètre fonctionnel) et le nombre de PF atteints déterminent automatiquement le score EDSS. De 4 à 7, la définition de chaque niveau est aussi donnée par l incapacité de marche (capacité de marche sans arrêt, nécessité d une aide).

182 La sclérose en plaques Scores Symptômes 0 Examen neurologique normal. 1,0 Pas de handicap, signes minimes d un des paramètres fonctionnels (PF). 1,5 Pas de handicap, signes minimes dans plus d un PF. 2,0 Handicap minime d un des PF. 2,5 Handicap minime dans deux PF. 3,0 Handicap modéré d un PF, pas de problème de déambulation. Ce score est important, le patient a des symptômes réellement handicapants. 3,5 Pas de problème de déambulation mais une handicap modéré dans un PF. 4,0 Pas de problème de déambulation, indépendant, debout 12 heures par jour en dépit d un handicap relativement sévère. Capable de marcher 500 mètres sans aide et sans repos. 4,5 Déambulation sans aide, debout la plupart du temps durant la journée, capable de travailler une journée entière, peut cependant avoir une limitation dans une activité complète ou réclamer une assistance minimale. Handicap relativement sévère. Capable de marcher 300 mètres sans aide et sans repos. 5,0 Déambulation sans aide et sans repos sur une distance d environ 200 mètres. Handicap suffisamment sévère pour altérer les activités de tous les jours. 5,5 Déambulation sans aide et sans repos sur une distance d environ 100 mètres. Handicap suffisant pour exclure toute activité complète au cours de la journée. 6,0 Aide unilatérale (canne, canne anglaise, béquille), constante ou intermittente, nécessaire pour parcourir environ 100 mètres avec ou sans repose intermédiaire. Ce score est important : le patient a besoin d aide pour se déplacer. 6,5 Aide permanente et bilatérale (canne, canne anglaise, béquille) nécessaire pour marcher 20 m sans s arrêter. 7,0 Ne peut marcher plus de 5 m avec aide ; essentiellement confiné au fauteuil roulant ; fait avancer lui-même son fauteuil et effectue le transfert ; est au fauteuil roulant au moins 12 h par jour. Ce score est important : le patient ne peut plus se déplacer debout. 7,5 Incapable de faire quelques pas ; strictement confiné au fauteuil roulant ; a parfois besoin d une aide pour le transfert ; peut faire avancer lui-même son fauteuil ; ne peut y rester toute la journée ; peut avoir besoin d un fauteuil électrique. 8,0 Essentiellement confiné au lit ou au fauteuil, ou promené en fauteuil par une autre personne ; peut rester hors du lit la majeure partie de la journée ; conserve la plupart des fonctions élémentaires ; conserve en général l usage effectif des bras. 8,5 Confiné au lit la majeure partie de la journée, garde un usage partiel des bras ; conserve quelques fonctions élémentaires 9,0 Patient grabataire ; peut communiquer et manger. 9,5 Patient totalement impotent, ne peut plus manger ou avaler ni communiquer. 10 Décès lié à la SEP. Tab. A.1 L échelle EDSS (Expanded Disability Status Scale, soit en français, échelle étendue de l état de déficience) mise au point par Kurtske [Kurtzke 1983] est actuellement utilisée par les médecins pour quantifier la gravité des symptômes des patients atteints de sclérose en plaques. Les lignes rosées (ou grisées selon l impression) correspondent aux étapes importantes de la progression du handicap. Source mipsep.org.

Annexe B Preuve d existence pour l estimateur de vraisemblance tamisée B.1 Point de rupture La caractéristique la plus importante d un estimateur est son point de rupture. Le point de rupture est la plus petite proportion de contamination pouvant engendrer des valeurs arbitraires pour l estimateur. Le point de rupture d une estimateur T (Ω) est définit comme suit : ɛ n = 1 n max{m : sup Ω m T ( Ω m ) } où Ω m est obtenu à partir de Ω en remplaçant m valeurs Ω par des valeurs arbitraires. Les propriétés du point de rupture pour l estimateur pondéré de vraisemblance tamisée ont été étudiées par Vandev et Neykov [Vandev 1998] en utilisant la technique de d-complétude développée par Vandev [Vandev 1993a]. Il a été prouvé que le point de rupture du TLE est supérieur ou égal à (n k)/n si l ensemble Ψ = {ψ(y i, θ), i = 1,..., n} est d-complet, n 3d (n + d)/2 h n d Définition : Ensemble d-complet Selon Vandev, un ensemble fini Ψ de n fonctions est d-complet si pour chaque sous-ensemble de Ψ de cardinal d, le supremum de ce sous-ensemble est une fonction sous-compacte. Une fonction à valeur réelle g(θ) est dite sous-compacte si ces ensembles de Lebesgue L g (C) = {θ Θ : g(θ) C} sont contenu dans un compact quel que soit C réel constant. 183

184 Preuve d existence pour l estimateur de vraisemblance tamisée Distributions gaussiennes multivariées Vandev et Neykov [Vandev 1993b] ont déterminé la valeur de d pour un ensemble de fonctions de log-densité dans le cas de gaussienne multivariée. Pour estimer à la fois la moyenne et la variance d = m + 1, m étant la dimension de la gaussienne. Théorème : si n d et (n + d)/2 h n d, alors le point de rupture de l estimateur de vraisemblance tamisée TLE(h) de θ est égale à (n k)/n.

Annexe C Validation sur données simulées avec lésions Cette annexe présente les tableaux des mesures de similarités (Dice Similarity Coefficient DSC) associées aux expériences du chapitre 7. h MB MG LCR Lés. 100 0,93 0,79 0,48 0,64 99 0,93 0,79 0,48 0,63 98 0,93 0,79 0,48 0,60 97 0,93 0,79 0,48 0,57 96 0,93 0,79 0,48 0,55 95 0,93 0,79 0,48 0,52 94 0,93 0,78 0,47 0,47 93 0,93 0,78 0,47 0,39 92 0,93 0,78 0,47 0,33 91 0,93 0,78 0,47 0,27 90 0,93 0,78 0,47 0,23 85 0,93 0,76 0,45 0,07 80 0,92 0,74 0,43 0,02 75 0,90 0,68 0,41 0,01 70 0,94 0,83 0,13 0,01 65 0,83 0,78 0,52 0,09 60 0,77 0,60 0,41 0,01 Tab. C.1 DSC pour la segmentation multi-séquentielle de la base L f (charge lésionnelle faible) 185

186 Validation sur données simulées avec lésions h MB MG LCR Lés. 100 0,89 0,86 0,57 0,77 99 0,89 0,86 0,57 0,78 98 0,90 0,86 0,57 0,78 97 0,90 0,86 0,57 0,78 96 0,90 0,86 0,56 0,77 95 0,90 0,86 0,56 0,77 94 0,90 0,86 0,56 0,77 93 0,90 0,86 0,56 0,77 92 0,90 0,86 0,55 0,76 91 0,90 0,86 0,55 0,76 90 0,90 0,86 0,54 0,74 85 0,90 0,85 0,53 0,59 80 0,83 0,82 0,07 0,68 75 0,79 0,38 0,20 0,58 70 0,80 0,32 0,26 0,48 65 0,81 0,30 0,26 0,36 60 0,82 0,72 0,02 0,30 Tab. C.2 DSC pour la segmentation multi-séquentielle de la base L m (charge lésionnelle modérée) h MB MG CSF Lés. 100 0,91 0,87 0,56 0,79 99 0,91 0,86 0,56 0,84 98 0,92 0,86 0,56 0,84 97 0,92 0,87 0,56 0,84 96 0,92 0,87 0,56 0,84 95 0,92 0,87 0,56 0,84 94 0,92 0,87 0,56 0,83 93 0,92 0,87 0,56 0,83 92 0,92 0,87 0,56 0,83 91 0,92 0,86 0,56 0,83 90 0,92 0,86 0,55 0,82 85 0,92 0,86 0,55 0,74 80 0,92 0,86 0,53 0,59 75 0,82 0,56 0,30 0,64 70 0,82 0,57 0,21 0,58 65 0,82 0,52 0,26 0,53 60 0,83 0,48 0,27 0,50 Tab. C.3 DSC pour la segmentation multi-séquentielle de la base L s (charge lésionnelle sévère)

187 h Base MB MG LCR Lés. Base MB MG LCR Lés. 100 L f 0,93 0,79 0,48 0,64 L m 0,89 0,86 0,57 0,77 L f (L f, L m, L s ) 0,91 0,85 0,55 0,59 L m (L f, L m, L s ) 0,94 0,88 0,55 0,77 99 L f 0,93 0,79 0,48 0,63 L m 0,89 0,86 0,57 0,78 L f (L f, L m, L s ) 0,91 0,85 0,55 0,65 L m (L f, L m, L s ) 0,94 0,88 0,55 0,78 98 L f 0,93 0,79 0,48 0,60 L m 0,90 0,86 0,57 0,78 L f (L f, L m, L s ) 0,91 0,86 0,55 0,66 L m (L f, L m, L s ) 0,94 0,88 0,55 0,77 97 L f 0,93 0,79 0,48 0,57 L m 0,90 0,86 0,57 0,78 L f (L f, L m, L s ) 0,91 0,86 0,56 0,66 L m (L f, L m, L s ) 0,94 0,88 0,55 0,75 96 L f 0,93 0,79 0,48 0,55 L m 0,90 0,86 0,56 0,77 L f (L f, L m, L s ) 0,91 0,86 0,56 0,66 L m (L f, L m, L s ) 0,94 0,88 0,55 0,76 95 L f 0,93 0,79 0,48 0,52 L m 0,90 0,86 0,56 0,77 L f (L f, L m, L s ) 0,91 0,86 0,56 0,65 L m (L f, L m, L s ) 0,94 0,88 0,55 0,75 94 L f 0,93 0,78 0,47 0,47 L m 0,90 0,86 0,56 0,77 L f (L f, L m, L s ) 0,91 0,86 0,56 0,65 L m (L f, L m, L s ) 0,94 0,88 0,55 0,75 93 L f 0,93 0,78 0,47 0,39 L m 0,90 0,86 0,56 0,77 L f (L f, L m, L s ) 0,92 0,86 0,56 0,65 L m (L f, L m, L s ) 0,94 0,88 0,55 0,74 92 L f 0,93 0,78 0,47 0,33 L m 0,90 0,86 0,55 0,76 L f (L f, L m, L s ) 0,92 0,86 0,56 0,65 L m (L f, L m, L s ) 0,94 0,88 0,55 0,73 91 L f 0,93 0,78 0,47 0,27 L m 0,90 0,86 0,55 0,76 L f (L f, L m, L s ) 0,92 0,86 0,55 0,68 L m (L f, L m, L s ) 0,94 0,88 0,55 0,72 90 L f 0,93 0,78 0,47 0,23 L m 0,90 0,86 0,54 0,74 L f (L f, L m, L s ) 0,92 0,86 0,55 0,66 L m (L f, L m, L s ) 0,94 0,88 0,55 0,70 85 L f 0,93 0,76 0,45 0,07 L m 0,90 0,85 0,53 0,59 L f (L f, L m, L s ) 0,91 0,85 0,55 0,65 L m (L f, L m, L s ) 0,94 0,87 0,55 0,78 80 L f 0,92 0,74 0,43 0,02 L m 0,83 0,82 0,07 0,68 L f (L f, L m, L s ) 0,92 0,84 0,53 0,18 L m (L f, L m, L s ) 0,94 0,86 0,52 0,38 75 L f 0,90 0,68 0,41 0,01 L m 0,79 0,38 0,2 0,58 L f (L f, L m, L s ) 0,68 0,59 0,37 0,03 L m (L f, L m, L s ) 0,87 0,33 0,27 0,17 70 L f 0,94 0,83 0,13 0,01 L m 0,80 0,72 0,04 0,48 L f (L f, L m, L s ) 0,71 0,79 0,55 0,26 L m (L f, L m, L s ) 0,79 0,66 0,37 0,42 65 L f 0,83 0,78 0,52 0,09 L m 0,81 0,3 0,26 0,36 L f (L f, L m, L s ) 0,66 0,78 0,56 0,27 L m (L f, L m, L s ) 0,78 0,68 0,38 0,34 60 L f 0,77 0,60 0,41 0,01 L m 0,82 0,72 0,02 0,30 L f (L f, L m, L s ) 0,64 0,77 0,57 0,25 L m (L f, L m, L s ) 0,77 0,68 0,38 0,23 Tab. C.4 A gauche : charge lésionnelle faible base L f. Comparaison des DSC pour la segmentation multi-séquentielle (L f ) et la segmentation multi-séquentielle longitudinale (L f (L f, L m, L s )). Les DSC augmentent avec l étude longitudinale. A droite : charge lésionnelle modérée base L m. Comparaison des DSC pour la segmentation multi-séquentielle (L m ) et la segmentation multi-séquentielle longitudinale (L m (L f, L m, L s )). Les DSC sont préservés voire améliorés avec l étude longitudinale.

188 Validation sur données simulées avec lésions h Base MB MG LCR Lés, 100 L s 0,91 0,87 0,56 0,79 L s (L f, L m, L s ) 0,91 0,84 0,53 0,82 99 L s 0,91 0,86 0,56 0,84 L s (L f, L m, L s ) 0,91 0,85 0,54 0,83 98 L s 0,92 0,86 0,56 0,84 L s (L f, L m, L s ) 0,91 0,86 0,55 0,66 97 L s 0,92 0,87 0,56 0,84 L s (L f, L m, L s ) 0,91 0,86 0,56 0,66 96 L s 0,92 0,87 0,56 0,84 L s (L f, L m, L s ) 0,91 0,86 0,56 0,66 95 L s 0,92 0,87 0,56 0,84 L s (L f, L m, L s ) 0,91 0,85 0,54 0,82 94 L s 0,92 0,87 0,56 0,83 L s (L f, L m, L s ) 0,91 0,85 0,54 0,82 93 L s 0,92 0,87 0,56 0,83 L s (L f, L m, L s ) 0,91 0,85 0,54 0,82 92 L s 0,92 0,87 0,56 0,83 L s (L f, L m, L s ) 0,91 0,85 0,54 0,82 91 L s 0,92 0,86 0,56 0,83 L s (L f, L m, L s ) 0,91 0,85 0,54 0,82 90 L s 0,92 0,86 0,55 0,82 L s (L f, L m, L s ) 0,91 0,85 0,54 0,82 85 L s 0,92 0,86 0,55 0,74 L s (L f, L m, L s ) 0,91 0,85 0,54 0,83 80 L s 0,92 0,86 0,53 0,59 L s (L f, L m, L s ) 0,92 0,83 0,51 0,67 75 L s 0,82 0,56 0,3 0,64 L s (L f, L m, L s ) 0,83 0,38 0,28 0,39 70 L s 0,82 0,57 0,21 0,58 L s (L f, L m, L s ) 0,78 0,69 0,4 0,69 65 L s 0,82 0,52 0,26 0,53 L s (L f, L m, L s ) 0,76 0,70 0,40 0,63 60 L s 0,83 0,48 0,27 0,50 L s (L f, L m, L s ) 0,77 0,68 0,38 0,23 Tab. C.5 Charge lésionnelle sévère base L s. Comparaison des DSC pour la segmentation multi-séquentielle (L s ) et la segmentation multi-séquentielle longitudinale (L s (L f, L m, L s )). Les DSC sont préservés voire améliorés avec l étude longitudinale.

189 h Base MB MG LCR Lés. Base MB MG LCR Lés. 100 L m 0,89 0,86 0,57 0,77 L m V ar 0,89 0,86 0,57 0,64 L m (L m, L m V ar) 0,92 0,87 0,57 0,78 L m V ar (L m, L m V ar) 0,87 0,85 0,57 0,67 99 L m 0,90 0,86 0,56 0,78 L m V ar 0,89 0,86 0,57 0,64 L m (L m, L m V ar) 0,92 0,87 0,57 0,79 L m V ar (L m, L m V ar) 0,88 0,85 0,57 0,67 98 L m 0,90 0,86 0,57 0,78 L m V ar 0,89 0,86 0,57 0,63 L m (L m, L m V ar) 0,92 0,88 0,57 0,79 L m V ar (L m, L m V ar) 0,88 0,85 0,57 0,66 97 L m 0,90 0,86 0,57 0,78 L m V ar 0,89 0,86 0,57 0,63 L m (L m, L m V ar) 0,92 0,88 0,57 0,79 L m V ar (L m, L m V ar) 0,88 0,85 0,57 0,66 96 L m 0,90 0,86 0,56 0,77 L m V ar 0,89 0,86 0,56 0,63 L m (L m, L m V ar) 0,92 0,88 0,56 0,79 L m V ar (L m, L m V ar) 0,88 0,85 0,56 0,65 95 L m 0,90 0,86 0,56 0,77 L m V ar 0,90 0,86 0,56 0,62 L m (L m, L m V ar) 0,93 0,88 0,56 0,79 L m V ar (L m, L m V ar) 0,88 0,85 0,56 0,65 94 L m 0,90 0,86 0,56 0,77 L m V ar 0,90 0,86 0,56 0,62 L m (L m, L m V ar) 0,93 0,88 0,56 0,79 L m V ar (L m, L m V ar) 0,88 0,85 0,56 0,65 93 L m 0,90 0,86 0,56 0,77 L m V ar 0,90 0,86 0,55 0,61 L m (L m, L m V ar) 0,93 0,87 0,56 0,78 L m V ar (L m, L m V ar) 0,88 0,85 0,56 0,64 92 L m 0,90 0,86 0,55 0,77 L m V ar 0,90 0,85 0,55 0,61 L m (L m, L m V ar) 0,93 0,87 0,55 0,78 L m V ar (L m, L m V ar) 0,88 0,85 0,55 0,64 91 L m 0,90 0,86 0,55 0,76 L m V ar 0,90 0,85 0,55 0,61 L m (L m, L m V ar) 0,93 0,87 0,55 0,78 L m V ar (L m, L m V ar) 0,88 0,85 0,55 0,63 90 L m 0,90 0,86 0,54 0,75 L m V ar 0,90 0,85 0,54 0,60 L m (L m, L m V ar) 0,93 0,87 0,54 0,76 L m V ar (L m, L m V ar) 0,88 0,84 0,54 0,63 85 L m 0,90 0,85 0,53 0,59 L m V ar 0,90 0,84 0,53 0,50 L m (L m, L m V ar) 0,93 0,86 0,53 0,62 L m V ar (L m, L m V ar) 0,89 0,84 0,53 0,51 80 L m 0,83 0,82 0,07 0,68 L m V ar 0,83 0,65 0 0,21 L m (L m, L m V ar) 0,93 0,83 0,49 0,38 L m V ar (L m, L m V ar) 0,89 0,81 0,49 0,33 75 L m 0,79 0,38 0,20 0,58 L m V ar 0,84 0,52 0,30 0,14 L m (L m, L m V ar) 0,88 0,49 0,29 0,14 L m V ar (L m, L m V ar) 0,81 0,47 0,29 0,13 70 L m 0,8 0,32 0,26 0,48 L m V ar 0,75 0,80 0 0,57 L m (L m, L m V ar) 0,83 0,28 0,27 0,46 L m V ar (L m, L m V ar) 0,73 0,27 0,26 0,40 65 L m 0,81 0,30 0,26 0,36 L m V ar 0,77 0,80 0 0,54 L m (L m, L m V ar) 0,83 0,25 0,27 0,34 L m V ar (L m, L m V ar) 0,74 0,25 0,26 0,30 60 L m 0,82 0,32 0,27 0,30 L m V ar 0,78 0,81 0 0,51 L m (L m, L m V ar) 0,84 0,25 0,27 0,28 L m V ar (L m, L m V ar) 0,75 0,25 0,26 0,24 Tab. C.6 Comparaison des DSC entre les classifications multi-séquentielles (bases L m et L m V ar) et les classifications multi-séquentielles longitudinales (L m (L m, L m V ar) et L m V ar (L m, L m V ar)) dans le cas d une variation de l intensité de la matière blanche. La classification longitudinale n engendre pas d erreur par rapport à la classification multi-séquentielle seule.

190 Validation sur données simulées avec lésions h Base MB MG LCR Lés. Base MB MG LCR Lés. 100 L s 0,91 0,87 0,56 0,79 L s Atr 0,69 0,70 0,68 0,73 L s (L s, L s Atr) 0,91 0,88 0,58 0,85 L s Atr (L s, L s Atr) 0,92 0,92 0,86 0,83 99 L s 0,91 0,86 0,56 0,84 L s Atr 0,69 0,66 0,50 0,88 L s (L s, L s Atr) 0,92 0,89 0,59 0,85 L s Atr (L s, L s Atr) 0,92 0,92 0,86 0,85 98 L s 0,92 0,86 0,56 0,84 L s Atr 0,69 0,65 0,47 0,87 L s (L s, L s Atr) 0,92 0,89 0,59 0,84 L s Atr (L s, L s Atr) 0,92 0,92 0,86 0,86 97 L s 0,92 0,87 0,56 0,84 L s Atr 0,69 0,64 0,44 0,87 L s (L s, L s Atr) 0,92 0,88 0,59 0,83 L s Atr (L s, L s Atr) 0,92 0,92 0,86 0,86 96 L s 0,92 0,87 0,56 0,84 L s Atr 0,69 0,64 0,42 0,87 L s (L s, L s Atr) 0,91 0,88 0,59 0,83 L s Atr (L s, L s Atr) 0,92 0,92 0,86 0,86 95 L s 0,92 0,87 0,56 0,84 L s Atr 0,69 0,63 0,39 0,87 L s (L s, L s Atr) 0,91 0,88 0,59 0,82 L s Atr (L s, L s Atr) 0,92 0,92 0,86 0,85 94 L s 0,92 0,87 0,56 0,83 L s Atr 0,69 0,63 0,37 0,86 L s (L s, L s Atr) 0,91 0,88 0,59 0,82 L s Atr (L s, L s Atr) 0,92 0,92 0,86 0,87 93 L s 0,92 0,87 0,56 0,83 L s Atr 0,69 0,63 0,35 0,86 L s (L s, L s Atr) 0,91 0,88 0,59 0,81 L s Atr (L s, L s Atr) 0,92 0,92 0,86 0,86 92 L s 0,92 0,87 0,56 0,83 L s Atr 0,69 0,62 0,34 0,85 L s (L s, L s Atr) 0,91 0,88 0,59 0,79 L s Atr (L s, L s Atr) 0,92 0,92 0,86 0,86 91 L s 0,92 0,86 0,56 0,83 L s Atr 0,69 0,62 0,32 0,85 L s (L s, L s Atr) 0,91 0,88 0,59 0,78 L s Atr (L s, L s Atr) 0,92 0,92 0,86 0,86 90 L s 0,92 0,86 0,55 0,82 L s Atr 0,69 0,62 0,30 0,85 L s (L s, L s Atr) 0,91 0,88 0,59 0,76 L s Atr (L s, L s Atr) 0,92 0,92 0,86 0,86 85 L s 0,92 0,86 0,55 0,74 L s Atr 0,69 0,61 0,25 0,82 L s (L s, L s Atr) 0,91 0,89 0,59 0,66 L s Atr (L s, L s Atr) 0,92 0,91 0,85 0,85 80 L s 0,92 0,86 0,53 0,59 L s Atr 0,70 0,79 0,85 0,73 L s (L s, L s Atr) 0,91 0,89 0,59 0,53 L s Atr (L s, L s Atr) 0,92 0,91 0,85 0,81 75 L s 0,82 0,56 0,30 0,64 L s Atr 0,70 0,79 0,85 0,63 L s (L s, L s Atr) 0,91 0,89 0,59 0,37 L s Atr (L s, L s Atr) 0,92 0,91 0,85 0,70 70 L s 0,82 0,57 0,21 0,58 L s Atr 0,70 0,78 0,85 0,52 L s (L s, L s Atr) 0,91 0,89 0,59 0,29 L s Atr (L s, L s Atr) 0,92 0,90 0,84 0,57 65 L s 0,82 0,52 0,26 0,53 L s Atr 0,70 0,78 0,84 0,42 L s (L s, L s Atr) 0,91 0,89 0,57 0,24 L s Atr (L s, L s Atr) 0,92 0,88 0,80 0,45 60 L s 0,83 0,48 0,27 0,50 L s Atr 0,70 0,78 0,83 0,34 L s (L s, L s Atr) 0,91 0,87 0,44 0,20 L s Atr (L s, L s Atr) 0,91 0,78 0,62 0,38 Tab. C.7 Comparaison des DSC entre la classification multi-séquentielle (bases L s et L s Atr) et la classification multi-séquentielle longitudinale (L s (L s, L s Atr) et L s Atr (L s, L s Atr)) dans le cas d une atrophie cérébrale. La classification longitudinale n engendre pas d erreur, y compris dans le cas d une atrophie cérébrale. Au contraire, utiliser une séquence longitudinale stabilise la classification et donne de meilleurs résultats en terme de DSC pour les données avec atrophie cérébrale en préservant la classification des données sans atrophie cérébrale.

Bibliographie [Achiron 2002] A. Achiron, S. Gicquel, S. Miron, M. Faibel. Brain MRI lesion load quantification in multiple sclerosis : a comparison between automated multispectral and semi-automated thresholding computer-assisted techniques. Journal of Magnetic Resonance Imaging, 20(10) :713 20, 2002. [Adams 1977] C.W. Adams. Pathology of multiple sclerosis : progression of the lesion. British Medical Bulletin, 33(1) :15 20, 1977. [Adams 1999] H.-P. Adams, S. Wagner, D.F. Sobel, L.S. Slivka, J.C. Sipe, J.S. Romine, E. Beutler, J.A. Koziol. Hypointense and hyperintense lesions on magnetic resonance imaging in secondary-progressive MS patients. European neurology, 42(1) :52 63, 1999. [Admasu 2003] F. Admasu, S. Al-Zubi, K. Toennies, N. Bodammer, H. Hinrichs. Segmentation of multiple sclerosis lesions from MR brain images using the principles of fuzzy-connectedness and artificial neuron networks. IEEE International Conference on Image Processing, ICIP 2003, vol. 2, pp. 1081 4, Barcelona, septembre 2003. [AdmiraalBehloul 2005] F. Admiraal-Behloul, D.M. Van Den Heuvel, H. Olofsen, M.J. Van Osch, J. Van Der Grond, M.A. Van Buchem, J.H. Reiber. Fully automatic segmentation of white matter hyperintensities in MR images of the elderly. NeuroImage, 28(3) :607 617, 2005. [Allen 1979] IV Allen, S.R. McKeown. A histological, histochemical and biochemical study of the macroscopically normal white matter in multiple sclerosis. Journal of the Neurological Sciences, 41(1) :81 91, 1979. [Alonge 2001] F. Alonge, E. Ardizzone, R. Pirrone. Neural classification of multiple sclerosis lesions in MR images. International Journal of Knowledge-Based Intelligent Engineering Systems, 5(4) :228 233, 2001. 191

192 Bibliographie [Alter 1966] [Anbeek 2003] [Anbeek 2004a] [Anbeek 2004b] [Ardizzone 1999] M. Alter, U. Leibowitz, J. Speer. Risk of multiple sclerosis related to age at immigration to Israel. Archives of Neurology, 15 :234 237, 1966. P. Anbeek, K.L. Vincken, M.J.P. Van Osch, R.H.C. Bisschops, M.A. Viergever, J. Van Der Grond. Automated white matter lesion segmentation by voxel probability estimation. 6th International Conference on Medical Image Computing and Computer-Assisted Intervention, MICCAI 2003, pp. 610 617, 2003. P. Anbeek, K.L. Vincken, M.J.P. Van Osch, R.H.C. Bisschops, J. Van Der Grond. Automatic segmentation of different-sized white matter lesions by voxel probability estimation. Medical Image Analysis, 8(3) :205 215, 2004. P. Anbeek, K.L. Vincken, M.J.P. Van Osch, R.H.C. Bisschops, J. Van Der Grond. Probabilistic segmentation of white matter lesions in MR imaging. NeuroImage, 21(3) :1037 1044, 2004. E. Ardizzone, R. Pirrone. Architecture for recognition and classification of multiple sclerosis in MR images. Intelligent Data Analysis in Medicine and Pharmacology (IDA- MAP1999), pp. 1 12, 1999. [Arnold 2001] D.L. Arnold, N. De Stefano, P.M. Matthews, B.D. Trapp. N- acetylaspartate : usefulness as an indicator of viable neuronal tissue. Annals of Neurology, 50(6) :823 825, 2001. [Arstila 1973] [AïtAli 2005] [Baillard 2001] [Barillot 1999] AU Arstila, P Riekkinen, UK Rinne, L. Laitinen. Studies on the pathogenesis of multiple sclerosis. Participation of lysosomes on demyelination in the central nervous system white matter outside plaques. European Neurology, 9(1) :1 20, 1973. L.S. Aït-Ali, S. Prima, P. Hellier, B. Carsin, G. Edan, C. Barillot. STREM : A robust multidimensional parametric method to segment MS lesions in MRI. 8th International Conference on Medical Image Computing and Computer-Assisted Intervention, MICCAI 2005, pp. 409 416, Palm Springs, October 2005. C. Baillard, P. Hellier, C. Barillot. Segmentation of brain 3D MR images using level sets and dense registration. Medical Image Analysis, 5(3) :185 194, 2001. C. Barillot. Fusion de données et imagerie 3D en médecine. Habilitation à diriger les recherches, Université de Rennes I, 1999. [Barkhof 1993] F. Barkhof, P. Scheltens, W. Kamphorst. Pre-and postmortem MR imaging of unsuspected multiple sclerosis in

Bibliographie 193 [Barkhof 1997] a patient with Alzheimer s disease. Journal of Neurological Science, 117(1-2) :175 178, 1993. F. Barkhof, M. Filippi, D.H. Miller, P. Scheltens, A. Campi, C.H. Polman, G. Comi, H.J. Ader, N. Loseff, J. Valk. Comparison of MRI criteria at first presentation to predict conversion to clinically definite multiple sclerosis. Brain, 120(11) :2059 2069, 1997. [Barkhof 1999] F. Barkhof, M. Van Walderveen. Characterization of tissue damage in multiple sclerosis by nuclear magnetic resonance. Philosophical Transactions : Biological Sciences, 354(1390) :1675 1686, 1999. [Barkhof 2001] F. Barkhof, J.H. Van Waesberghe, M. Filippi, T. Yousry, D.H. Miller, D. Hahn, A.J. Thompson, L. Kappos, P. Brex, C. Pozzilli, C.H. Polman, European Study Group on Interferon beta- 1b in Secondary Progressive Multiple Sclerosis. T 1 hypointense lesions in secondary progressive multiple sclerosis : effect of interferon beta-1b treatment. Brain, 124(7) :1396 402, 2001. [Barnard 1974] R.O. Barnard, M. Triggs. Corpus callosum in multiple sclerosis. Journal of Neurology, Neurosurgery and Psychiatry, 37(11) :1259 64, 1974. [Bastianello 1997] [Bednarski 1993] [Berti 2002] [Bezdek 1981] [Bezdek 1999] [Boesen 2004] S. Bastianello, A. Bozzao, A. Paolillo, E. Giugni, C. Gasperini, T. Koudriavtseva, E. Millefiorini, MA. Horsfield, C. Colonnese, D. Toni, M. Fiorelli, C. Pozzilli, L. Bozzao. Fast spin-echo and fast fluid-attenuated inversion-recovery versus conventional spin-echo sequences for MR quantification of multiple sclerosis lesions. American Journal of Neuroradiology (AJNR), 18(4) :699 704, 1997. T. Bednarski, B.R. Clarke. Trimmed likelihood estimation of location and scale of the normal distribution. Australian Journal of Statistics, 35 :141 153, 1993. R. Berti, M.B. Brennan, S.S. Soldan, J.M. Ohayon, L. Casareto, H.F. McFarland, S. Jacobson. Increased detection of serum HHV-6 DNA sequences during multiple sclerosis (MS) exacerbations and correlation with parameters of MS disease progression. Journal of NeuroVirology, 8(3) :250 256, 2002. J. C. Bezdek. Pattern Recognition with Fuzzy Objective Function Algorithms. Kluwer Academic Publisher, 1981. J. C. Bezdek, J. Keller, R. Krishnapuram, N. R. Pal. Fuzzy models and algorithms for pattern recognition and image processing. Kluwer Academic Publisher, 1999. K. Boesen, K. Rehm, K. Schaper, S. Stoltzner, R. Woods, E. Luders, D. Rottenberg. Quantitative comparison of four

194 Bibliographie [Bookstein 1989] [Bosc 2003a] [Bosc 2003b] [Boudraa 2000] [Brex 1999] [Brex 2000] [Brown 1992] [Celeux 1986] [Charcot 1868] [Ciofolo 2005a] [Ciofolo 2005b] brain extraction algorithms. NeuroImage, 22(3) :1255 1261, 2004. F.L. Bookstein. Principal warps : thin-plate splines and the decomposition of deformations. IEEE Transactions on Pattern Analysis and Machine Intelligence, 11 :567 585, 1989. M. Bosc. Contribution à la détection de changements dans des séquences IRM 3D multimodales. Thèse de Doctorat, Université Louis Pasteur - Strasbourg I, 2003. M. Bosc, F. Heitz, J.P. Armspach, I. Namer, D. Gounot, L. Rumbach. Automatic change detection in multimodal serial MRI : application to multiple sclerosis lesion evolution. NeuroImage, 20 :643 656, 2003. A.-O. Boudraa, S.M.R. Dehak, Y.M. Zhu, C. Pachai, Y.G. Bao, J. Grimaud. Automated segmentation of multiple sclerosis lesions in multispectral MR imaging using fuzzy clustering. Computers in Biology and Medicine, 30(1) :23 40, 2000. P.A. Brex, J.I. O Riordan, K.A. Miszkiel, I.F. Moseley, A.J. Thompson, G.T. Plant, D.H. Miller. Multisequence MRI in clinically isolated syndromes and the early development of MS. Journal of Neurology, 53(6) :1184 1190, 1999. P.A. Brex, G.J.M. Parker, P.D. Leary, S.M.and Molyneux, G.J. Barker, C.A. Davie, A J Thompson, Miller D H. Lesion heterogeneity in multiple sclerosis : a study of the relations between appearances on T1 weighted images, T1 relaxation times, and metabolite concentrations. Journal of Neurology, Neurosurgery and Psychiatry, 68 :627 632, 2000. L.G. Brown. A survey of image registration techniques. ACM Computing Surveys, 24(4) :325 376, 1992. G. Celeux, J. Diebolt. L algorithme SEM : un algorithme d apprentissage probabiliste pour la reconnaissance de mélanges de densités. Revue de statistiques appliquées, 34(2) :35 51, 1986. J.-M. Charcot. Histologie de la sclérose en plaques. Gaz Hop (Paris), 1868. C. Ciofolo. Segmentation de formes guidée par des modèles en neuro-imagerie. Thèse de Doctorat, Université de Rennes 1, 2005. C. Ciofolo, C. Barillot. Brain Segmentation with Competitive Level Sets and Fuzzy Control. 19th International Conference on Information Processing in Medical Imaging, IP- MI 2005, vol. 3565, pp. 333 344, Glenwood Springs, USA, July 2005.

Bibliographie 195 [Clark 2004] [Cohen 1960] [Collins 1998] D. Clark. Human herpes virus type 6 and multiple sclerosis. Herpes, 2004. J. Cohen. A coefficient of agreement for nominal scales. Educational and Psychological Measurements, 20(3) :27 46, 1960. D.L. Collins, A.P. Zijdenbos, V. Kollokian, J.G. Sled, N.J. Kabani, C.J. Holmes, A.C. Evans. Design and construction of a realistic digital brain phantom. IEEE Transactions on Medical Imaging, 17(3) :463 468, 1998. [Compston 2002] A. Compston, A. Coles. Multiple sclerosis. Lancet, 359 :1221 1231, 2002. [Confavreux 2006] C. Confavreux, R. Dutta, B.D. Trapp, K.J. Smith, D.-A. Laplaud, S. Vukusic, J. De Seze, J.-P. Ranjeva, B. Audoin, J. Pelletier, E. Le Page, G. Edan, C. Lubetzki, P. Eveillard. La revue du praticien : Sclérose en plaques, la nouvelle frontière. 56(12), Juin 2006. [Corouge 2003] I. Corouge. Modélisation statistique de formes en imagerie cérébrale. Thèse de Doctorat, Université de Rennes I, mention informatique, 2003. [Couvreur 1996] C. Couvreur. The EM algorithm : A guided tour. 2d IEEE European Workshop on Computationaly Intensive Methods in Control and Signal Processing (CMP 96), pp. 115 120, Pragues, Czech Republik, août 1996. [Cutter 1999] [Datta 2006] [Dempster 1977] [Dimova 2004] [Duda 2000] G.R. Cutter, M.L. Baier, R.A. Rudick, D.L. Cookfair, J.S. Fischer, J. Petkau, K. Syndulko, B.G. Weinshenker, J.P. Antel, C. Confavreux, G.W. Ellison, F. Lublin, A.E. Miller, S.M. Rao, S. Reingold, A. Thompson, E. Willoughby. Development of a multiple sclerosis functional composite as a clinical trial outcome measure. Brain, 122(5) :871 882, 1999. S. Datta, B.R. Sajja, R. He, J.S. Wolinsky, R.K. Gupta, P.A. Narayana. Segmentation and quantification of black holes in multiple sclerosis. NeuroImage, 29(2) :467 74, 2006. A. Dempster, N. Laird, D. Rubin. Maximum likelihood from incomplete data via the EM algorithm. Journal of the Royal Statistical Society, 39(1) :1 38, 1977. R. Dimova, N.M. Neykov. Generalized d-fullness techniques for breakdown point study of the trimmed likelihood estimator with applications. Theory and applications of recent robust methods, 2004. R.O. Duda, P.E. Hart, D.G. Stork. Pattern Classification, Second Edition. Hardcover, 2000.

196 Bibliographie [DugasPhocion 2004] [DugasPhocion 2005] [Dunn 1973] [Fazekas 1998] [Filippi 1995] [Filippi 1997] [Filippi 1998a] [Filippi 1998b] G. Dugas-Phocion, M.A. González, C. Lebrun, S. Chanalet, C. Bensa, G. Malandain, N. Ayache. Hierarchical segmentation of multiple sclerosis lesions in multi-sequence MRI. IEEE International Symposium on Biomedical Imaging : From Nano to Macro, ISBI 2004, Arlington, USA, avril 2004. G. Dugas-Phocion. Segmentation d IRM cérébrales multiséquences et application à la sclérose en plaques. Thèse de Doctorat, École des Mines de Paris, 2005. J.C. Dunn. A fuzzy relative of the ISODATA process and its use in detecting compact well-separated clusters. Journal of Cybernetics, 3 :32 57, 1973. F. Fazekas, F. Barkhof, M. Filippi. Unenhanced and enhanced magnetic resonance imaging in the diagnosis of multiple sclerosis. Journal of Neurology, Neurosurgery and Psychiatry, 64(1) :S2 5, 1998. M. Filippi, A. Campi, V. Dousset, C. Baratti, V. Martinelli, N. Canal, G. Scotti, G. Comi. A magnetization transfert imaging study of normal-appearing white matter in multiple sclerosis. Neurology, 45(3) :478 482, 1995. M. Filippi, F. Barkhof, S. Bressi, T.A. Yousry, D.H. Miller. Inter-rater variability in reporting enhancing lesions present on standard and triple dose gadolinium scans of patients with multiple sclerosis. Multiple Sclerosis, 3(4) :226 230, 1997. M. Filippi, M.A. Horsfield, H.J. Ader, F. Barkhof, P. Bruzzi, A. Evans, J.A. Frank, R.I. Grossman, H.F. McFarland, P. Molyneux, D.W. Paty, J. Simon, P.S. Tofts, J.S. Wolinsky, D.H. Miller. Guidelines for using quantitative measures of brain magnetic resonance imaging abnormalities in monitoring the treatment of multiple sclerosis. Annals of Neurology, 43(4) :499 506, avril 1998. M. Filippi, M.A. Horsfield, JV. Hajnal, P.A. Narayana, JK. Udupa, T.A. Yousry, A. Zijdenbos. Quantitative assessment of magnetic resonance imaging lesion load in multiple sclerosis. Journal of Neurology, Neurosurgery and Psychiatry, 64(Suppl 1) :S88 93, 1998. [Filippi 1999] M. Filippi, C. Tortorella, M. Bozzali. Normal-appearing white matter changes in multiple sclerosis : the contribution of magnetic resonance techniques. Multiple Sclerosis, 5(4) :273 282, 1999. [Filippi 2001] M. Filippi. Linking structural, metabolic and functional changes in multiple sclerosis. European Journal of Neurology, 8 :291 297, 2001.

Bibliographie 197 [Filippi 2002] [Filippi 2004] M. Filippi, R.I. Grossman. MRI techniques to monitor MS evolution. Neurology, 58(8) :1147 1153, 2002. M. Filippi, M.A. Rocca, G. Martino, M.A. Horsfield, G. Comi. Magnetization transfer changes in the normal appering white matter precede the appearance of enhancing lesions in patients with multiple sclerosis. Annals of Neurology, 43(6) :809 814, 2004. [Flandin 2004] G. Flandin. Utilisation d informations géométriques pour l analyse statistique des données d IRM fonctionnelle. Thèse de Doctorat, Université de Nice-Sophia Antipolis, 2004. [Freeborough 1996] [Friedman 1975] [Gale 1995] [Ge 2000] [Geman 1984] [Gerig 2000] [Goodkin 1998] [Grimaud 1996] P. Freeborough, R. Woods, N. Fox. Accurate registration of serial 3D MRI brain images and its applications to visualizing change in neurodegenerative disorders. Journal of Computed Assisted Tomography, 20 :1012 1022, 1996. J.H. Friedman, J.L. Baskett, L.J. Shustek. An algorithm for finding nearest neighbors,. IEEE Transactions on Computers, 24 :1000 1006, 1975. C.R. Gale, C.N. Martyn. Migrant studies in multiple sclerosis. Progress in Neurobiology, 47 :425 448, 1995. Y. Ge, R.I. Grossman, J.K. Udupa, L. Wei, L.J. Mannon, M. Polansky, D.L. Kolson. Brain atrophy in relapsingremitting multiple sclerosis and secondary progressive multiple sclerosis : longitudinal quantitative analysis. Radiology, 214(3) :665 670, mars 2000. S. Geman, D. Geman. Stochastic relaxation, gibbs distribution, and the Bayesian restoration of images. IEEE Transactions on Pattern Analysis and Machine Intelligence, pp. 721 741, 1984. G. Gerig, D. Welti, C.R.G. Guttmann, A.C.F. Colchester, G. Szekely. Exploring the discrimination power of the time domain for segmentation and characterization of active lesions in serial MR data. Medical Image Analysis, 4(1) :31 42, 2000. D.E. Goodkin, WD Rooney, R. Sloan, P. Bacchetti, L. Gee, M. Vermathen, E. Waubant, M. Abundo, S. Majumdar, S. Nelson, M.W. Weiner. A serial study of new MS lesions and the white matter from which they arise. Neurology, 51(6) :1689 1697, 1998. J. Grimaud, M. Lai, J. Thorpe, P. Adeleine, L. Wang, G.J. Barker, D.L. Plummer, P.S. Tofts, W.I. McDonald, D.H. Miller. Quantification of MRI lesion load in multiple sclerosis : a comparison of three computer-assisted techniques. Magnetic Resonance Imaging, 14(5) :495 505, 1996.

198 Bibliographie [Grimaud 2001] [Guttmann 1995] [Guttmann 1999] [Haahr 1997] [Hadi 1997] [Hajnal 1995] [Hajnal 2001] [Haykin 1998] [He 2002] [He 2005] J. Grimaud, M. Hermier, M. Rovaris. Qu attendre de l IRM cérébrale au début de la sclérose en plaques? Revue Neurologique, 157 :13 19, 2001. C.R. Guttmann, S.S. Ahn, L. Hsu, R. Kikinis, F.A. Jolesz. The evolution of multiple sclerosis lesions on serial MR. American Journal of Neuroradiology, 16(7) :1481 149, 1995. C.R. Guttmann, R. Kikinis, M.C. Anderson, M. Jakab, S.K. Warfield, R.J. Killiany, H.L. Weiner, F.A. Jolesz. Quantitative follow-up of patients with multiple sclerosis using MRI : reproducibility. J Magn Reson Imaging., 9(4) :509 18, 1999. S. Haahr, M. Munch, T. Christensen, a. Moller-Larsen, J. Hvas. Cluster of multiple sclerosis patients for danish community. Lancet, pp. 349 923, 1997. A.S. Hadi, A. Luceño. Maximum trimmed likelihood estimators : a unified approach, examples, and algorithms. Computational statistics and Data Analysis, 25 :251 272, 1997. J.V. Hajnal, N. Saeed, A. Oatridge, E. Williams, I. Young, G. Bydder. Detection of subtle brain changes using subvoxel registration and substraction of serial MR images. Journal of Computed Assisted Tomography, 19(5) :677 691, 1995. J.V. Hajnal, D.L. hill, D. Hawkes. Medical Image Registration. CRC Press, 2001. S. Haykin. Neural Networks A Comprehensive Foundation. Prentice Hall, 2nd edition, 1998. R. He, P.A. Narayana. Automatic delineation of Gd enhancements on magnetic resonance images in multiple sclerosis. Medical Physics, pp. 1536 1546, Jul 2002. 0.J. He, M. Inglese, BS. Li, JS. Babb, RI. Grossman, O. Gonen. Relapsing-remitting multiple sclerosis : metabolic abnormality in nonenhancing lesions and normal-appearing white matter at MR imaging : initial experience. Radiology, 234 :211 217, 2005. [Healy 1956] M.J.R. Healy, M.H. Westmacott. Missing values in experiments analysed on automatic computers. Applied Statistics, 1956. [Hellier 2000] P. Hellier. Recalage non rigide en imagerie cérébrale : méthodes et validation. Thèse de Doctorat, Université de Rennes 1, 2000. [Hellier 2001] P. Hellier, C. Barillot, E. Mémin, P. Pérez. Romeo : Robust multilevel elastic registration based on optical flow, 2001.

Bibliographie 199 [Hohlfeld 1997] R. Hohlfeld. Biothechnological agents for the immunotherapy of multiple sclerosis. Principes, problems and perspectives (invited review). Brain, 120 :865 916, 1997. [Hornak 1996] J.P. Hornak. The Basics of MRI. Hypertext book, 1996. http ://www.cis.rit.edu/htbooks/mri/. [Hsu 1984] [Höhne 1992] [Inglese 2004] [Johnston 1996] [Kamber 1995] [Karaçali 2006] [Kass 1987] [Katz 1993] [Kay 1998] [Kikinis 1999] Y.Z. Hsu, H.-H. Nagel, G. Rekers. New likelihood test methods for change detection in image sequences. Computer Vision, Graphics and Image Processing, 26 :73 106, 1984. K. H. Höhne, W. A. Hanson. Interactive 3D segmentation of MRI and CT volumes using morphological operations. J. of Computer Assisted Tomography, 16(2) :285 294, 1992. M. Inglese, Y. Ge, M. Filippi, A. Falini, R.I. Grossman, O. Gonen. Indirect evidence for early widespread gray matter involvement in relapsing-remitting multiple sclerosis. NeuroImage, 2004. B. Johnston, M.S. Atkins, B. Mackiewich, M. Anderson. Segmentation of multiple sclerosis lesions in intensity corrected multispectral MRI. IEEE Transactions on Medical Imaging, 15(2) :154 169, avril 1996. M. Kamber, R. Shinghal, D.L. Collins, G.S. Francis, A.C. Evans. Model-based 3-D segmentation of multiple sclerosis lesions in magnetic resonance brain images. IEEE Transactions on Medical Imaging, 14(3) :442 453, septembre 1995. B. Karaçali, C. Davazikos. Simulation of tissue atrophy using a topology preserving transformation model. IEEE Transactions on Medical Imaging, 25(5) :649 652, 2006. M. Kass, A. Witkin, D. Terzopoulos. Snakes : active contour models. International Journal of Computer Vision, 1(4) :321 331, 1987. D. Katz, B. Taubenberger, J.K.and Cannella, DE. McFarlin, CS Raine, McFarland HF. Correlation between magnetic resonance imaging findings and lesion development in multiple sclerosis. Annals of Neurology, 34(1) :661 669, 1993. S. Kay. Fundamentals of Statistical Signal Processing, Volume 2 : Detection Theory. Prentice Hall., 1998. R. Kikinis, C.R.G. Guttmann, D. Metcalf, W.M. Wells III, G.J. Ettinger, H.L. Weiner, F.A. Jolesz. Quantitative followup of patients with multiple sclerosis using MRI : Technical aspects. Journal of Magnetic Resonance Imaging, 9(4) :519 530, avril 1999.

200 Bibliographie [Kollokian 1996] [Kurtzke 1983] V. Kollokian. Performance analysis of automatic techniques for tissue classification in magnetic resonance images of the human brain. Montréal, QC, Canada, Thèse de Doctorat, Concordia University, 1996. J.F. Kurtzke. Rating neurological impairment in multiple sclerosis : an expanded disability status scale (EDSS). Neurology, 33 :1444 1452, 1983. [Kurtzke 1995] J.F. Kurtzke. MS epidemiology world wide. One view of current status. Acta Neurol Scand, 161 :23 33, 1995. [Kwan 1999] [Lao 2006] [Lassmann 1994] [LearnedMiller 2005] [Lemieux 1998] [Lemoine 1994] [Li 2003] R.K. Kwan, A.C. Evans, Pike G.B. MRI simulation-based evaluation of image-processing and classification methods. IEEE Transactions on Medical Imaging, 18(11) :1085 1097, 1999. Z. Lao, D. Shen, A. Jawad, B. Karacali, D. Liu, E. Melhem, N. Bryan, C. Davatzikos. Automated segmentation of white matter lesions in 3D brain MR images, using multivariate pattern classification. IEEE International Symposium on Biomedical Imaging : From Nano to Macro, ISBI 2006, pp. 307 310, Arlington, VA, USA, avril 2006. H. Lassmann, G. Suchanek, K. Ozawa. Histopathology and the blood-cerebrospinal fluid barrier in multiple sclerosis. Ann Neurol., 36 :Suppl :S42 6, 1994. E. Learned-Miller, P. Ahammad. Joint MRI bias removal using entropy minimization across images. Neural Information Processing Systems (NIPS) 17, pp. 761 768, 2005. L. Lemieux, U.C. Wieshmann, N.F. Moran, D.R. Fish, S.D. Shorvon. The detection and significance of subtle changes in mixed-signal brain lesions by serial MRI scan matching and spatial normalization. Medical Image Analysis, 2(3) :227 242, septembre 1998. D. Lemoine, E. Lussot, D. Liegeard, C. Barillot. Multimodal registration system for the fusion of MRI, CT, MEG and 3D or stereotactic angiographic data. Medical Imaging : Image Capture, Formatting, and Display, vol. 2164, pp. 46 57. SPIE Press, 1994. L. Li, X. Li, H. Lu, W. Huang, C. Christodoulou, A. Tudorica, L.B. Krupp, Z. Liang. MRI volumetric analysis of multiple sclerosis : methodology and validation. IEEE Transactions on Nuclear Science, 55(2(5)) :1686 1692, 2003. [Liu 2006] F. Liu, D. Xu, c. Yuan, W. Kervin. Image segmentation based on Bayesian network-markov random field model and

Bibliographie 201 [Lubin 1996] [MacDonald 2000] [Mader 2000] [Maes 1997] its application to in-vivo plaque composition. IEEE International Symposium on Biomedical Imaging : From Nano to Macro, ISBI 2006, pp. 141 144, 2006. F.D. Lubin, S.C. Reingold. Defining the clinical course of multiple sclerosis : results of an international survey. Neurology, 46 :907 911, 1996. D. MacDonald, N. Kabani, D. Avis, A.C. Evens. Automated 3-D extraction and evaluation of the inner and outer surfaces of cerebral cortex from MRI. NeuroImage, 12(3) :340 356, 2000. I. Mader, W. Rosera, L. Kapposa, G. Hagberga, J. Seeliga, E.W. Raduea, W. Steinbricha. Serial proton MR spectroscopy of contrast-enhancing multiple sclerosis plaques : Absolute metabolic values over 2 years during a clinical pharmacological study. American Journal of Neuroradiology, 21 :1220 1227, 2000. F. Maes, A. Collignon, D. Vandermeulen, G. Marchal, P. Suetens. Multimodality image registration by maximization of mutual information. IEEE Transactions on Medical Imaging, 16(2) :187 198, avril 1997. [Maintz 1998] J.A. Maintz, M.A. Viergever. A survey of medical image registration. Medical Image Analysis, 2(1) :1 36, 1998. [Makedon 2003] [Malandain 2003] [Mangin 2000] F. Makedon, Y. Wang, T. Steinberg, H. Wishart, A. Saykin, J. Ford, S. Ye, L. Shen. A system framework for the integration and analysis of multi-modal spatiotemporal data streams : a case study in MS lesion analysis. L.J. Wolf, J.L. Strock (édité par), First International IEEE EMBS Conference on Neural Engineering, pp. 495 498, Capri Island, Italy, mars 2003. G. Malandain, E. Bardinet. Intensity compensation within series of images. Randy E. Ellis, Terry M. Peters (édité par), Medical image computing and computer-assisted intervention (MICCAI 2003), vol. 2879 of LNCS, pp. 41 49, Montreal, Canada, November 2003. Springer Verlag. J.-F. Mangin. Entropy minimization for automatic correction of intensity nonuniformity. IEEE Work. MMBIA, pp. 162 169. IEEE Press, 2000. [Marroquin 2002] J.L. Marroquin, B.C. Vemuri, S. Botello, F. Calderon, A. Fernandez-Bouzas. An accurate and efficient Bayesian method for automatic segmentation of brain MRI. IEEE Transactions on Medical Imaging, 21(8) :934 945, 2002. [Marteau 1998] R. Marteau. La sclérose en plaque. Editions Odile Jacob, 1998.

202 Bibliographie [McDonald 1992] WI. McDonald, DH. Miller, D. Barnes. The pathological evolution of multiple sclerosis. Neuropathol Appl Neurobiol, 18(1) :319 334, 1992. [McDonald 2001] [McKendrick 1926] [McLachlan 2000] W.I. McDonald, A. Compston, G. Edan, D. Goodkin, H.P. Hartung, F.D. Lublin, H.F. McFarland, D.W. Paty, C.H. Polman, S.C. Reingold, M. Sandberg-Wollheim, W. Sibley, A. Thompson, S. van den Noort, B.Y. Weinshenker, J.S. Wolinsky. Recommended diagnostic criteria for multiple sclerosis : guidelines from the International Panel on the diagnosis of multiple sclerosis. Annals of Neurology, 50(1) :121 127, juillet 2001. A.G. McKendrick. Applications of mathematics to medical problems. Proceedings of the Edinburgh Mathematical Society, 1926. G. McLachlan, D. Peel. Finite Mixture Models. Hardcover, 2000. [Meier 2003] D.S. Meier, C.R.G. Guttmann. Time-series analysis of MRI intensity patterns in multiple sclerosis. NeuroImage, 20(2) :1193 1209, octobre 2003. [Meier 2006] [Miller 1993] [Miller 1996] [Miller 2002] [Mitchell 1996] [Modersitzki 2003] D.S. Meier, C.R. Guttmann. MRI time series modeling of MS lesion development. NeuroImage, 2006. Publication en cours. D.H. Miller, F. Barkhof, J.J.P. Nauta. Gadolinium enhancement increases the sensitivity of MRI in detecting disease activity in multiple sclerosis. Brain, 116(5) :1077 1094, 1993. D.H. Miller, P.S. Albert, F. Barkhof, G. Francis, J.A. Frank, S. Hodgkinson, F.D. Lublin, D.W. Paty, S.C. Reingold, J. Simon. Guidelines for the use of magnetic resonance techniques in monitoring the treatment of multiple sclerosis. US National MS Society Task Force. Ann Neurol., 39(1) :6 16, 1996. D.H. Miller, F. Barkhof, J.A. Frank, G.J.M. Parker, Thompson A.J. Measurement of atrophy in multiple sclerosis : pathological basis, methodological aspects and clinical relevance. Brain, 125 :1676 1695, août 2002. J.R. Mitchell, S.J. Karlik, D.H. Lee, M. Eliasziw, A. Rice, G.P. Fenster. The variability of manual and computer assisted quantification of multiple sclerosis lesion volumes. Medical Physics, 23(1) :85 97, 1996. J. Modersitzki. Numerical Methods for Image Registration. Oxford University Press, 2003. [Molyneux 1998] P.D. Molyneux, M. Filippi, F. Barkhof, C. Gasperini, T. Yousry, L. Lruyen, H.M. Lai, M.A. Rocca, D.H. Moseley,

Bibliographie 203 [Molyneux 2000] I.F.and Miller. Correlations between monthly enhanced MRI Lesion rate and changes in T2 Lesion volume in multiple sclerosis. Annals of Neurology, 43(3) :332 339, 1998. P.D. Molyneux, L. Kappos, C. Polman, C. Pozzilli, F. Barkhof, M. Filippi, T. Yousry, D. Hahn, K. Wagner, M. Ghazi, K. Beckmann, F. Dahlke, N. Losseff, G.J. Barker, A.J. Thompson, D.H. Miller. The effect of interferon beta-1b treatment on MRI measures of cerebral atrophy in secondary progressive multiple sclerosis. European Study Group on Interferon beta-1b in secondary progressive multiple sclerosis. Brain, 123(11) :2256 2263, novembre 2000. [Montagnat 1998] J. Montagnat, H. Delingette. Globally constrained deformable models for 3D object reconstruction. Signal Processing, 71(2) :173 186, 1998. [Müller 2003] [Nakano 1998] [Narayana 1988] [Narayana 1998] [Nelder 1965] [Newcombe 1991] [Neykov 2003] C.H. Müller, N.M. Neykov. Breakdown points of the trimmed likelihood and related estimators in generalized linear models. J. Statist. Plann. Inference, 116 :503 519, 2003. M. Nakano, H. Ueda, J.Y. Li, M. Matsumoto, T. Yanagihara. Measurement of regional n-acetyl aspartate after transient global ischemia in gerbils with and without ischemic tolerance : an index of neuronal survival. Annals of Neurology, 44(3) :334 40, 1998. P.A. Narayana, W.W. Brey, M.V. Kulkarni, C.L. Sievenpiper. Compensation for surface coil sensitivity variation in magnetic resonance imaging. Magn Reson Imaging, 6(3) :271 274, 1988. PA. Narayana, TJ. Doyle, D. Lai, JS. Wolinsky. Serial proton magnetic resonance spectroscopic imaging, contrast-enhanced magnetic resonance imaging, and quantitative lesion volumetry in multiple sclerosis. Annals of Neurology, 43(1) :56 71, 1998. J. Nelder, R. Mead. A simplex method for function minimization. Computer Journal, 3 :308 313, 1965. J. Newcombe, C.P. Hawkins, C.L. Henderson, H.A. Patel, M. N. Woodroofe, G.M. Hayes, M. L. Cuzner, D. Macmanus, E. P. G. H. Du Boulay, W.I. McDonald. Histopathology of multiple sclerosis lesions detected by magnetic resonance imaging in unfixed postmotem central nervous system tissue. Brain, 114(2) :1013 1023, 1991. N.M. Neykov, C.H. Müller. Breakdown point and computation of trimmed likelihood estimators in generalized linear models. Developments in robust statistics, éd. par R. Dutter,

204 Bibliographie [Neykov 2004] [O Riordan 1998] P. Filzmoser, U. Gatter, P.J. Rousseeuw, pp. 277 286. Heidelberg, Physica-Verlag, 2003. N. Neykov, P. Fizmoser, R. Dimova, P. Neytchev. Mixture of GLMs and the trimmed likelihood methodology. Compstat 04, pp. 1585 1592, 2004. J.I. O Riordan, A.J. Thompson, D.P. Kingsley, D.G. MacManus, B.E. Kendall, P. Rudge, W.I. McDonald, D.H. Miller. The prognostic value of brain MRI in clinically isolated syndromes of the CNS - a 10-year follow-up. Brain, 121(3) :495 503, 1998. [Osher 1988] S. Osher, J. A. Sethian. Fronts propagating with curvature dependant speed : algorithms based on Hamilton-Jacobi formulation. Journal of Computational Physics, 79(1) :12 49, 1988. [Parzen 1962] E. Parzen. On estimation of a probability density function and mode. Annals of Mathematical Statistics, 33 :1065 1076, 1962. [Paty 1993] D.W. Paty, D.K. Li. Interferon beta-1b is effective in relapsing-remitting multiple sclerosis. Neurology, 43(4) :662 667, avril 1993. [Paty 2001] [Pendlebury 2000] [Pham 2000] [Pluim 2000] D.W. Paty, D.K. Li, UBC MS/MRI Study Group, IFNB Multiple Sclerosis Study Group. Interferon beta-lb is effective in relapsing-remitting multiple sclerosis. II. MRI analysis results of a multicenter, randomized, double-blind, placebo-controlled trial. 1993 [classical article]. Neurology, 57(12 Suppl 5) :S10 5, 2001. S.T. Pendlebury, M. A. Lee, A. M. Blamire, P. Styles, P. M Matthews. Correlating magnetic resonance imaging markers of axonal injury and demyelination in motor impairment secondary to stroke and multiple sclerosis. Magnetic resonance imaging, 18(4) :369 378, 2000. D.L. Pham, C. Xu, J.L. Prince. Current methods in medical image segmentation. Annual Review of Biomedical Engineering, 2 :315 337, août 2000. J. Pluim, J.A. Maintz, M.A. Viergever. Image registration by maximization of combined mutual information and gradient information. IEEE Transactions on Medical Imaging, 19 :809 814, 2000. [Polman 2005] C.H. Polman, S.C. Reingold, G. Edan, M. Filippi, al. et. Diagnostic criteria for multiple sclerosis : 2005 revisions to the McDonald Criteria. Ann Neurol, 58(6) :840 846, 2005.

Bibliographie 205 [Poser 1983] [Powell 1964] [Powell 2004] C.M. Poser, D.W. Paty, L. Scheinberg, W.I. McDonald, F.A. Davis, G.C. Ebers, K.P. Johnson, W.A. Sibley, D.H. Silberberg, W.W. Tourtellotte. New diagnostic criteria for multiple sclerosis : guidelines for research protocols. Annals of Neurology, 13(3) :227 231, mars 1983. M. Powell. An efficient method for finding the minimum of a function of several variables without calculating derivatives. Computer Journal, 7 :155 162, 1964. M. Powell. The newuoa software for unconstrained optimization without derivatives. Workshop on Large Scale Non Linear Optimization, 2004. [Prima 2001] S. Prima, N. Ayache, T. Barrick, N. Roberts. Maximum likelihood estimation of the bias field in MR brain images : investigating different modelings of the imaging process. W.J. Niessen, M.A. Viergever (édité par), 4th International Conference on Medical Image Computing and Computer-Assisted Intervention, MICCAI 2001, vol. 2208 of Lecture Notes in Computer Science, pp. 811 819, Utrecht, The Netherlands, October 2001. Springer. [Prima 2002] [Prima 2003] [Rao 1985] [Rex 2004] S. Prima, N. Ayache, A. Janke, S.J. Francis, D.L. Arnold, D.L. Collins. Statistical analysis of longitudinal MRI data : applications for detection of disease activity in MS. T. Dohi, R. Kikinis (édité par), 5th International Conference on Medical Image Computing and Computer-Assisted Intervention, MIC- CAI 2002, vol. 2488 of Lecture Notes in Computer Science, pp. 363 371, Tokyo, Japan, September 2002. Springer. S. Prima, D.L. Arnold, D.L. Collins. Multivariate statistics for detection of MS activity in serial multimodal MR images. R.E. Ellis, T.M. Peters (édité par), 6th International Conference on Medical Image Computing and Computer-Assisted Intervention, MICCAI 2003, vol. 2878 of Lecture Notes in Computer Science, pp. 663 670, Montreal, Canada, November 2003. Springer. S.M. Rao, S. Glatt, T.A. Hammeke, M.P. McQuillen, B.O. Khatri, A.M. Rhodes, S. Pollard. Chronic progressive multiple sclerosis. relationship between cerebral ventricular size and neuropsychological impairment. Archives of Neurology, 42(7) :678 682, 1985. D.E. Rex, D.W. Shattuck, R.P. Woods, K.L. Narr, E. Luders, K. Rehm, S.E. Stolzner, D.A. Rottenberg, A.W. Toga. A meta-algorithm for brain extraction in MRI. NeuroImage, 23(2) :625 637, 2004.

206 Bibliographie [Rey 2001a] D. Rey, J. Stoeckel, G. Malandain, N. Ayache. A spatiotemporal model-based statistical approach to detect evolving multiple sclerosis lesions. IEEE Workshop on Mathematical Methods in Biomedical Image Analysis, MMBIA 2001, pp. 105 112, Kauai, USA, décembre 2001. [Rey 2001b] [Rey 2002a] D. Rey, J. Stoeckel, G. Malandain, N. Ayache. Using SPM to detect evolving MS lesions. Wiro J. Niessen, Max A. Viergever (édité par), 4th International Conference on Medical Image Computing and Computer-Assisted Intervention, MIC- CAI 2001, vol. 2208 of Lecture Notes in Computer Science, pp. 1232 1234, Utrecht, The Netherlands, octobre 2001. Springer. D. Rey. Détection et quantification automatiques de processus évolutifs dans des images médicales tridimensionnelles : application à la sclérose en plaques. Thèse de Doctorat, Université de Nice - Sophia Antipolis, 2002. [Rey 2002b] D. Rey, G. Subsol, H. Delingette, N. Ayache. Automatic detection and segmentation of evolving processes in 3D medical images : Application to multiple sclerosis. Medical Image Analysis, 6(2) :163 179, juin 2002. [Rocca 2000] [Roche 2003] [Rousseeuw 1987] M. A. Rocca, M. Cercignani, G. Iannucci, G. Comi, M. Filippi. Weekly diffusion-weighted imaging of normal-appearing white matter in MS. Neurology, 55(1) :882 884, 2000. A. Roche. EM algorithm and variants : an informal tutorial. Rapport de recherche, CEA, 2003. P.J. Rousseeuw, A.M. Leroy. Robust regression and outliers detection. Wiley, 1987. New York. [Rousseeuw 1999a] P.J. Rousseeuw, K. Driessen. Computing least trimmed squares regression for large data sets. Estadistica, 54 :163 190, 1999. [Rousseeuw 1999b] P.J. Rousseeuw, K. Driessen. A fast algorithm for the minimum covariance determinant estimator. Technometrics, 41 :212 223, 1999. [Rovaris 1997] [Runmarker 1993] M. Rovaris, M. Filippi, G. Calori, M. Rodegher, A. Campi, B. Colombo, G Comi. Intra-observer reproducibility in measuring new putative MR markers of demyelination and axonal loss in multiple sclerosis : a comparison with conventional T2- weighted images. Journal of Neurology, 244(4) :266 270, 1997. B. Runmarker, O. Andersen. Prognostic factors in a multiple sclerosis incidence cohort with twenty-five years of follow-up. Brain, 116 :117 134, 1993.

Bibliographie 207 [Sabouraud 1998] O. Sabouraud, G. Edan. Sclérose en plaques. Rapport de recherche, Service de neurologie, CHU de Rennes, 2 rue Henri Le Guilloux, 35033 Rennes Cedex, 1998. [Sadovnick 1993] A.D. Sadovnick, H. Armstrong, G.P. Rice, et coll. A population-based study of multiple sclerosis in twins : update. Ann Neurol, 33 :281 285, 1993. [Sajja 2006] [Schroeter 1998] BR. Sajja, S. Datta, R. He, M. Mehta, RK. Gupta, JS. Wolinsky, PA Narayana. Unified approach for multiple sclerosis lesion segmentation on brain MRI. Ann Biomed Eng, 34(1) :142 51, 2006. P. Schroeter, J.M. Vesin, T. Langenberger, R. Meuli. Robust Parameter Estimation of Intensity Distributions for Brain Magnetic Resonance Images. IEEE Transactions on Medical Imaging, 17(2) :172 186, 1998. [Schwartz 1996] D. Schwartz, E. Poiseau, D. Lemoine, C. Barillot. Registration of MEG/EEG data with 3D MRI : Methodology and precision issues. Brain Topography, 9(2) :101 116, 1996. [Shahar 2004] A. Shahar, H. Greenspan. A probabilistic framework for the detection and tracking in time of multiple sclerosis lesions. IEEE International Symposium on Biomedical Imaging : From Nano to Macro, ISBI 2004, Arlington, USA, avril 2004. [Sijbers 1998] J. Sijbers, A.J. Den Dekker, P. Scheunders, D. Van Dyck. Maximum Likelihood estimation of Rician distribution parameters. IEEE Transactions on Medical Imaging, 17(3) :357 361, 1998. [Simon 2006] J.H. Simon, D. Li, A. Traboulsee, P.K. Coyle, D.L. Arnold, F. Barkhof, J.A. Frank, R. Grossman, D.W. Paty, E.W. Radue, J.S. Wolinsky. Standardized MR imaging protocol for multiple sclerosis : Consortium of MS Centers consensus guidelines. AJNR Am J Neuroradiol., 2006. [Simpson 1990] P.K. Simpson. Artificial Neural Systems : Foundations, Paradigms, Applications and Implementations. Pergamon Press, 1990. [Sled 1998a] J.G. Sled, G.B. Pike. Standing-wave and RF penetration artifacts caused by elliptic geometry : an electrodynamic analysis of MRI. IEEE Transactions on Medical Imaging, 17(4) :653 662, 1998. [Sled 1998b] J.G. Sled, A.P. Zijdenbos, A.C. Evans. A nonparametric method for automatic correction of intensity nonuniformity in MRI data. IEEE Transactions on Medical Imaging, 17(4) :87 97, 1998.

208 Bibliographie [Smith 2002] [Sormani 1999] S. Smith. Fast robust automated brain extraction. 8th International Conference on Functional Mapping of the Human Brain, HBM 2002, vol. 17, 2002. M.P. Sormani, P.D. Molyneux, C. Gasperini, F. Barkhof, T.A. Yousry, D.H. Miller, M. Filippi. Statistical power of MRI monitored trials in multiple sclerosis : new data and comparison with previous results. Journal of Neurology, Neurosurgery and Psychiatry, 66(4) :465 9, 1999. [Studholme 2006] C. Studholme, C. Drapaca, B. Iordanova, V. Cardenas. Deformation-based mapping of volume change from serial brain MRI in the presence of local tissue contrast change. IEEE Transaction on Medical Imaging, 25(5) :626 639, 2006. [Subsol 1998] [Suri 2002] [Talairach 1988] [Thirion 1996] G. Subsol. Brain Warping, chap. 14 «Crest Lines for Curve- Based Warping», pp. 241 262. Academic Press, 1998. J. S. Suri, S. Singh, L. Reden. Computer vision and pattern recognition techniques for 2-D and 3-D MR cerebral cortical segmentation (part I) : a state-of-the-art review. Pattern Analysis and Aplications, 5(1) :46 76, 2002. J. Talairach, P. Tournoux. Co-planar stereotaxic atlas of the human brain : 3-dimensional proportional system. Thieme Medical Publishers, 1988. J.-P. Thirion, G. Subsol, D. Dean. Cross validation of three interpatients matching methods. Visualization in Biomedical Computing, VBC 96, Hamburg, Septembre 1996. [Thirion 1998] J.-P. Thirion. Image matching as a diffusion process : an analogy with Maxwell s demons. Medical Image Analysis, 2(3) :243 260, 1998. [Thirion 1999] [Thompson 1999] [Thompson 2005] [Toga 1998] J.-P. Thirion, G. Calmon. Deformation analysis to detect and quantify active lesions in three-dimensional medical image sequences. IEEE Transactions on Medical Imaging, 18(5) :429 441, mai 1999. P.M. Thompson, A.W. Toga. Handbook of Medical Imaging, chap. 36 «Warping strategies for intersubject registration». Academic Press, 1999. P.M. Thompson, A.D. Lee. Abnormal cortical complexity and thickness profiles mapped in Williams syndrome. The Journal of Neuroscience, 25(16) :4146 4158, 2005. A.W. Toga, P.M. Thompson. Brain Warping, chap. 1 «An introduction to brain warping», pp. 1 26. Academic Press, 1998.

Bibliographie 209 [Tourbah 1996] A. Tourbah, R. Deschamps, JL. Stievenart, A. Lopez, M.T. Iba-Zizen, O. Lyon-Caen, EA. Cabanis. Magnetic resonance imaging using flair pulse sequence in white matter disease. Journal of Neuroradiology, 23(4) :217 222, 1996. [Tourbah 2001] A. Tourbah. IRM et sclérose en plaques. Neurologies, 4 :270 274, septembre 2001. [Traboulsee 2003] [Truyen 1996] A. Traboulsee, D. Li, J. Frank, J.S. Simon, P. Coyle, J. Wolinsky, D. Paty. MRI protocol for the diagnosis and follow-up of MS. Consortium of MS centers, 2003. L. Truyen, J.H. Van Waesberghe, M.A. Van Walderveen, B.W. Van Oosten, C.H. Polman, O.R. Hommes, H.J. Ader, F. Barkhof. Accumulation of hypointense lesions ( black holes ) on T1 spin-echo MRI correlates with disease progression in multiple sclerosis. Neurology, 47(6) :1469 1476, 1996. [Tsai 1985] W. Tsai. Moment-preserving thresholding : A new approach. Comput. Vision, Graphics Image Processing, 29 :377 393, 1985. [Udupa 1996] [Udupa 1997] [Udupa 2001] [Uhlenbrock 1989] [Vandev 1993a] [Vandev 1993b] J.K. Udupa, S. Samarasekera. Fuzzy connectedness and object definition : Theory, algorithms and applications in image segmentation. Graphical Models, Image Processing, 58(3) :246 261, 1996. J.K. Udupa, L. Wei, S. Samarasekera, Y. Miki, M.A. van Buchem, R.I. Grossman. Multiple sclerosis lesion quantification using fuzzy-connectedness principles. IEEE Transactions on Medical Imaging, 16(5) :598 609, octobre 1997. J.K. Udupa, L.G. Nyul, Y. Ge, R.I. Grossman. Multiprotocol MR image segmentation in multiple sclerosis : Experience with over 1000 studies. Academic Radiology, 8(11) :1116 1126, 2001. D. Uhlenbrock, S. Sehlen. The value of T1-weighted images in the differentiation betwenn MS, white matter lesions, and subcortical arteriosclerotic encephalopathy (SAE). Neuroradiology, 31 :203 212, 1989. D.L. Vandev. A note on breakdown point of the least median squares and least trimmed squares. Statistics and Probability Letters, 16 :117 119, 1993. D.L. Vandev, N.M. Neykov. Robust maximum likelihood in the gaussian case. New directions in data analysis and robustness, pp. 259 264, 1993. [Vandev 1998] D.L. Vandev, N.M. Neykov. About regression estimators with hight breakdown point. Statistics, 32 :111 129, 1998.

210 Bibliographie [VanLeemput 1999a] [VanLeemput 1999b] [VanLeemput 2001] [VanWalderveen 1995] [VanWalderveen 1998] [VanWalderveen 2001] K. Van Leemput, F. Maes, D. Vandermeulen, P. Suetens. Automated model-based bias field correction of MR images of the brain. IEEE Transactions on Medical Imaging, 18(10) :885 896, 1999. K. Van Leemput, F. Maes, D. Vandermeulen, P. Suetens. Automated model-based bias tissue classification of MR images of the brain. IEEE Transactions on Medical Imaging, 18(10) :897 908, 1999. K. Van Leemput, F. Maes, D. Vandermeulen, A. Colchester, P. Suetens. Automated segmentation of multiple sclerosis lesions by model outlier detection. IEEE Transactions on Medical Imaging, 20(8) :677 688, 2001. M.A. Van Walderveen, Barkhof F., O.R. Hommes, C.H. Polman, H. Tobi, S.T. Frequin, Valk J. Correlating MRI and clinical disease activity in multiple sclerosis : Relevance of hypointense lesions on short-tr/short-te (T1-weighted) spin echo images. Neurology, 45 :1684 1690, 1995. M.A. Van Walderveen, W. Kamphorst, P. Scheltens, J.H. Van Waesberghe, R. Ravid, J. Valk, coll. Histopathologic correlate of hypointense lesions on T1-weighted spin-echo MRI in multiple sclerosis. Neurology, 50(5) :1282 1288, 1998. M.A. A. VanWalderveen, G.J. L. Nijeholt, H.J. Adèr, P.J.H. Jongen, C.H. Polman, J.A. Castelijns, F. Barkhof. Hypointense lesions on T1-weighted spin-echo magnetic resonance imaging. Archive of Neurology, 58 :76 81, 2001. [Vapnik 1998] V.N. Vapnik. Statistical learning theory. Whiley, 1998. [Čìžek 2002] P. Čìžek. Robust estimation in nonlinear regression and limited dependant variable models. EconPapers, 2002. [Čìžek 2004] [Viala 2000] [Vovk 2006] [Waller 1850] P. Čìžek. Asymptotics of least trimmed squares regression. EconPapers, 2004. K. Viala, J.L. Stievenart, E.A. Cabanis, O. Lyon-Caen, A. Tourbah. Magnetic resonance spectroscopy in multiple sclerosis. Revue Neurologique, 156(12) :1078 1086, 2000. U. Vovk, F. Pernu s, B Likar. Intensity inhomogeneity correction of multispectral MR images. NeuroImage, 32(1) :54 61, 2006. A.V. Waller. Experiments on the section of the glossopharyngeal and hypoglossal nerves of the frog, and observations on the alterations produced thereby in the structure of their primitive fibres. Philosophical Transactions of the Royal Society of London, 140(1) :423 429, 1850.

Bibliographie 211 [Wang 2003] [Warfield 1995] [Warfield 2004] [Weinshenker 1989] [Wells 1996] Y. Wang, T. Steinberg, F. Makedon, J. Ford, H. Wishart, A. Saykin. Quantifying evolving processes in multimodal 3D medical images. R.E. Ellis, T.M. Peters (édité par), 6th International Conference on Medical Image Computing and Computer-Assisted Intervention, MICCAI 2003, vol. 2878-2879 of Lecture Notes in Computer Science, pp. 101 108, Montréal, Canada, novembre 2003. Springer. S. Warfield, J. Dengler, J. Zaers, C.R.G. Guttmann, W.M. Wells III, G.J. Ettinger, J. Hiller, R. Kikinis. Automatic identification of gray matter structures from MRI to improve the segmentation of white matter lesions. Journal of Image Guided Surgery, 1(6) :326 338, 1995. S.K. Warfield, K.H. Zou, W.M. Wells. Simultaneous truth and performance level estimation (STAPLE) : an algorithm for the validation of image segmentation. IEEE Transactions on Medical Imaging, 23(7) :903 92, 2004. B.G. Weinshenker, B. Bass, G.P.A. Rice, al. et. The natural history of multiple sclerosis : a geographically based study. II. Predictive value of the early clinical course. Brain, 112 :1419 1428, 1989. W. Wells, W. Grimson, R. Kikinis, Jolesz. Adaptive segmentation of MRI data. IEEE Transactions on Medical Imaging, 15 :429 442, 1996. [Welti 2001] D. Welti, G. Gerig, E.-W. Radü, L. Kappos, G. Székely. Spatio-temporal segmentation of active multiple sclerosis lesions in serial MRI data. M.F. Insana, R.M. Leahy (édité par), 17th International Conference on Information Processing in Medical Imaging, IPMI 2001, vol. 2082 of Lecture Notes in Computer Science, pp. 438 445, Davis, USA, juin 2001. Springer. [WiestDaesslé 2007] [Wolff 1989] [Wu 2006] N. Wiest-Daesslé, P. Yger, S. Prima, C. Barillot. Evaluation of a new optimisation algorithm for rigid registration of MRI data. SPIE Medical Imaging, San Diego, USA, Février 2007. À paraitre. S.D. Wolff, R.S. Balaban. Magnetization transfer contrast (MTC) and tissue water proton relaxation in vivo. Magn Reson Med., 1989. Y. Wu, S.S. Warfield, I.L. Tan, W.M. III Wells, D.S. Meier, R.A. van Schijndel, F. Barkhof, CR. Guttmann. Automated segmentation of multiple sclerosis lesion subtypes with multichannel mri. NeuroImage, 32(3) :1205 1215, 2006.

212 Bibliographie [Yang 2004] [Yu 1999] [Zhang 2001] F. Yang, T. Jiang, W. Zhu, F. Kruggel. White matter lesion segmentation from volumetric MR images. MIAR, pp. 113 120. Sprieger, 2004. O. Yu, Y. Mauss, G. Zollner, I.J. Namer, J. Chambron. Distinct patterns of active and non-active plaques using texture analysis on brain NMR images in multiple sclerosis patients : preliminary results. Magnetic Resonance Imaging, 17(9) :1261 1267, novembre 1999. Y. Zhang, M. Brady, S. Smith. Segmentation of brain MR images through a hidden Markov random field model and the expectation-maximization algorithm. IEEE Transactions on Medical Imaging, 20(1) :45 57, janvier 2001. [Zijdenbos 1994] A.P. Zijdenbos, B.M. Dawant, R.A. Margolin, A.C. Palmer. Morphometric analysis of white matter lesions in MR images : method and validation. IEEE Transactions on Medical Imaging, 13(4) :716 724, décembre 1994. [Zijdenbos 1998] A.P. Zijdenbos, R. Forghani, A. Evans. Automatic quantification of MS lesions in 3D MRI brain data sets : Validation of INSECT. W.M. Wells, A.C.F. Colchester, S.L. Delp (édité par), 1st International Conference on Medical Image Computing and Computer-Assisted Intervention, MICCAI 98, vol. 1496 of Lecture Notes in Computer Science, pp. 439 448, Boston, USA, octobre 1998. Springer. [Zijdenbos 2002] A.P. Zijdenbos, R. Forghani, A.C. Evans. Automatic pipeline analysis of 3-D MRI data for clinical trials : application to multiple sclerosis. IEEE Transactions on Medical Imaging, 21(10) :1280 1291, octobre 2002.

Publications Revues internationales L.S. Aït-ali, S. Prima, G. Edan, C. Barillot STREM : Spatio-Temporal Robust Expectation-Maximization for classification of Multiple Sclerosis Lesions Subtypes In IEEE Transactions on Medical Imaging en cours de soumission. Conférences internationales L.S. Aït-ali, S. Prima, P. Hellier, B. Carsin, G. Edan, C. Barillot STREM : a robust multidimensional parametric method to segment MS lesions in MRI In 8th International Conference on Medical Image Computing and Computer-Assisted Intervention, (MICCAI), Volume 3749, Pages 409-416, Palm Springs, États-Unis, Octobre 2005. Conférences nationales L.S. Aït-ali, S. Prima, G. Edan, C. Barillot Segmentation longitudinale des lésions de SEP en IRM cérébrale multimodale In 15ème Congrès Francophone AFRIF/AFIA de Reconnaissance des Formes et Intelligence Artificielle (RFIA), 2006, Tours, France, Janvier 2006. Conférences cliniques L.S. Aït-Ali, S. Prima, S.P. Morrissey, G. Edan, C. Barillo. Fully automated lesion segmentation in patients with Multiple Sclerosis - a multisequence approach with longitudinal MRI data 15ème Rendez-vous de l ARSEP - Conférence François Lhermitte, Mars 2006. L.S. Aït-Ali, S. Prima, B. Carsin-Nicol, S.P. Morrissey, M. Carsin, C. Barillot, G. Edan Segmentation automatique des lésions de sclérose en plaques sur des études longitudinales d IRM multi-séquences 33ème Congrès Annuel de la Société Française de Neuro-Radiologie, Mars 2006 213

214 Publications

Table des figures 1 Résumé de la méthode............................ 8 1.1 Schéma d un neurone............................. 13 1.2 Répartition géographique de la SEP.................... 14 1.3 Conséquence de la destruction de myéline................. 15 1.4 Examen microscopique d une plaque sclérosée............... 16 1.5 Critères pour le diagnostic de la SEP.................... 19 1.6 Critères radiologiques de dissémination spatiale.............. 20 1.7 Critères radiologiques de disséminations dans le temps.......... 20 1.8 Différentes évolutions de SEP........................ 21 1.9 Changement d état du spin d un noyau................... 25 1.10 Du signal RMN à l image.......................... 25 1.11 Artefact de mouvement sur un fantôme.................. 26 1.12 Artefact de mouvement sur une IRM pondérée en T1........... 26 1.13 Problème de bruit aléatoire en IRM.................... 27 1.14 Hétérogénéités RF sur un fantôme..................... 28 1.15 Hétérogénéités RF sur une IRM pondérée en T1............. 28 1.16 Différents types de séquences d IRM en SEP................ 33 1.17 Différents types de séquences d IRM en SEP : T2 FLAIR........ 34 2.1 Méthodes de segmentation en IRM cérébrale............... 40 2.2 Exemple de réseau de neurones....................... 45 2.3 Régularisation markovienne......................... 50 2.4 Comparaison par analyse d un champ de déformation.......... 55 2.5 Analyse par profil d évolution........................ 56 2.6 Modélisation de l évolution des lésions T2................. 58 3.1 Correction du biais spatial.......................... 64 3.2 Recalage intra-patient............................ 68 3.3 Correction d intensité robuste........................ 71 3.4 Extraction du cerveau............................ 72 4.1 STREM.................................... 88 5.1 Illustration des données atypiques derier instant d acquisition..... 95 215

216 Table des figures 5.2 Illustration des étiquettes dernier instant d acquisition......... 98 5.3 Résumé de la méthode............................ 101 6.1 Impact de l analyse multi-séquentielle base BrainWeb......... 109 6.2 Comparaison EM et STREM volume pondéré en DP.......... 110 6.3 Segmentation du LCR sur les volumes de la base IBSR.......... 112 6.4 Influence du paramètre h sur la base IBSR................ 113 6.5 Comparaison EM et STREM 18 sujets de la base IBSR........ 114 6.6 Comparaison EM et STREM moyennes sur les 18 sujets........ 114 7.1 Différentes charges lésionnelles disponibles via BrainWeb......... 118 7.2 Comparaison des DSC selon la charge lésionnelle............. 120 7.3 Charge lésionnelle : DSC multi-séquences vs longitudinale........ 121 7.4 Classification longitudinale pour les données BrainWeb avec lésions.. 122 7.5 Simulation de la variation de la MB sur BrainWeb............ 124 7.6 Variation de la MB résultats de la classification............. 126 7.7 Variation de la MB DSC multi-séquences vs longitudinale....... 127 7.8 Illustration de l atrophie cérébrale tiré de [Ge 2000]........... 129 7.9 Simulation de l atrophie cérébrale sur BrainWeb............. 130 7.10 Atrophie résultats de la classification longitudinale........... 131 7.11 Atrophie résultats de la classification longitudinale, h faible...... 132 7.12 Atrophie DSC multi-séquences vs longitudinale............. 133 8.1 Un exemple d images du second protocole................. 137 8.2 Cartes de probabilités a priori des tissus sains.............. 138 8.3 Classification par STREM d un patient du protocole BENEFIT..... 140 8.4 Classification par STREM d un des patients du second protocole.... 141 8.5 Mesures de la performance de l algorithme sur données cliniques.... 146 8.6 Mesures de corrélation de la charge lésionnelle............... 147 8.7 Nouveaux quantificateurs pour évaluer la détection des lésions...... 150 8.8 Nouveaux quantificateurs pour évaluer le contourage des lésions..... 151 8.9 Résultats pour le patient lond 3 premiers instants............ 152 8.10 Résultats pour le patient lond 3 derniers instants............ 153 8.11 Résultats pour le patient mclf 4 premiers instants............ 154 8.12 Résultats pour le patient mclf 4 derniers instants............ 155 8.13 Résultats pour le patient how 4 premiers instants............ 156 8.14 Résultats pour le patient howd 4 derniers instants........... 157 8.15 Résultats pour le patient canj 3 premiers instants............ 158 8.16 Résultats le patient canj 3 derniers instants............... 159 8.17 Résultats pour le patient berl........................ 160 8.18 Résultats pour le patient pioc 3 premiers instants............ 161 8.19 Résultats pour le patient pioc 3 derniers instants............ 162 8.20 Résultats pour le patient nadl 4 premiers instants............ 163 8.21 Résultats pour le patient nadl 4 derniers instants............ 164

Table des figures 217 8.22 Résultats pour le patient ducm 3 premiers instants........... 165 8.23 Résultats pour le patient ducm 3 derniers instants........... 166 8.24 Résultats pour le patient huys 4 premiers instants........... 167 8.25 Résultats le patient huys 3 derniers instants............... 168 8.26 Résultats pour le patient vals 4 premiers instants............ 169 8.27 Résultats pour le patient vals 3 derniers instants............ 170 A.1 Rupture de la barrière hémato-encéphalique................ 180

Résumé Cette thèse traite de la segmentation spatio-temporelle de structures évolutives 3D, en particulier les lésions de sclérose en plaques (SEP). La SEP est une maladie inflammatoire auto-immune du système nerveux central. Des marqueurs cliniques sont utilisés aujourd hui pour le diagnostic et pour l évaluation thérapeutique. Cependant ces marqueurs sont subjectifs et sujets à une grande variabilité intra- et inter-observateur. L imagerie par résonance magnétique (IRM) devient donc un examen complémentaire indispensable pour une meilleure compréhension de la maladie. Dans le but d automatiser un processus long et fastidieux pour le clinicien, nous proposons de segmenter de façon automatique les lésions de SEP au cours du temps dans des IRM longitudinales multi-séquences. Notre approche est fondée sur une nouvelle méthode paramétrique de regroupement itératif utilisant les intensités multi-séquences des images 3D + t. L estimation des paramètres est effectuée de façon robuste en utilisant un nouvel estimateur : l estimateur de vraisemblance tamisée. Les données atypiques de ce modèle sont ensuite classées en différents types de lésions en intégrant des connaissances a priori sur les caractéristiques de ces structures. Notre algorithme est calibré sur des données simulées pour différents artéfacts. Nos résultats sont ensuite validés qualitativement et quantitativement sur des IRM cliniques de patients atteints de SEP. Mots clefs : Segmentation, estimateur robuste, analyse spatio-temporelle, imagerie cérébrale, sclérose en plaques. Abstract This thesis deals with the spatio-temporal segmentation of 3D evolving structures applied to multiple sclerosis (MS) lesions. MS is a prototype inflammatory autoimmune disorder of the central nervous system. Nowadays, clinical markers are used for the diagnosis as well as for the drugs assessment. However, these markers are subjective and show poor inter- and intra-rater reliability. Magnetic resonance imaging (MRI) becomes a mandatory surrogate exam for a better disease understanding. In order to make the lesion detection less fastidious, we propose to automatically segment MS lesions overtime in longitudinal MR multi-sequences. Our approach is based on a new parametric clustering segmentation method, which uses multi-sequence intensities coming from the processed 3D + t MR volumes. The parameters are robustly computed using a new estimator : the Trimmed Likelihood Estimator. Three MS lesion subtypes are then extracted among the outliers according to prior knowledge rules. Our algorithm is calibrated on simulated data for various artifacts. Our results are then qualitatively and quantitatively validated on MS patients scans. Keywords : Segmentation, robust estimator, spatio-temporal analysis, brain imaging, multiple sclerosis.