Thomas D. CAPRICELLI ALGORITHMES DE PROJECTIONS CONVEXES GÉNÉRALISÉES ET APPLICATIONS EN IMAGERIE MÉDICALE

Dimension: px
Commencer à balayer dès la page:

Download "Thomas D. CAPRICELLI ALGORITHMES DE PROJECTIONS CONVEXES GÉNÉRALISÉES ET APPLICATIONS EN IMAGERIE MÉDICALE"

Transcription

1 THÈSE DE L UNIVERSITÉ PIERRE ET MARIE CURIE PARIS VI Spécialité : MATHÉMATIQUES APPLIQUÉES Présentée par : Thomas D. CAPRICELLI pour l obtention du titre de DOCTEUR DE L UNIVERSITÉ PIERRE ET MARIE CURIE PARIS VI Sujet : ALGORITHMES DE PROJECTIONS CONVEXES GÉNÉRALISÉES ET APPLICATIONS EN IMAGERIE MÉDICALE Soutenue le 10 juin 2008 devant le jury composé de : Patrick L. Combettes Christine De Mol Frédéric Hecht Alfred Hero Gérard Kerkyacharian Pierre Maréchal Ali Mohammad-Djafari Directeur de thèse Rapporteur Examinateur Examinateur Président Rapporteur Examinateur Laboratoire Jacques-Louis Lions UMR 7598

2

3 Remerciements J aimerais en premier lieu exprimer ma reconnaissance à Patrick Combettes, qui a dirigé mes travaux pendant ces quelques années. Je le remercie en particulier pour sa disponibilité et sa patience, qui lui ont permis de s adapter à ma difficile personnalité. Even if they did not always understand or approved the choices I have made, my parents consistently supported and encouraged me. I thank them for this beautiful example of respect and confidence. Infine, vorrei ringraziare Marie-Cécile e Caroline per tutte queste cose indefinibili che riavvicinano gli ànimi. Sicuramente sarei diverso se non le avessi incontrate. Si on me presse de dire pourquoy je l aymoys, je sens que cela ne se peut exprimer, qu en respondant : par ce que c estoit luy, par ce que c estoit moy. Montaigne, De l Amitié. iii

4 iv

5 Table des matières Résumé vii Notations et glossaire viii 1 Introduction Présentation générale et objectifs Plan de la thèse L imagerie médicale Admissibilité convexe et optimisation Généralités Admissibilité convexe Minimisation sur l ensemble admissible Approche purement variationnelle Contributions principales Bibliographie Projections généralisées Introduction Projection sur un convexe fermé non vide Relaxation Opérateur de l algorithme ART Opérateur proximal Résolvante Contraction ferme Projection sous-différentielle Opérateur de classe T Projections de Bregman v

6 Généralités Introduction aux distances de Bregman Propriétés Exemples de distances de Bregman dans R N Bibliographie Algorithmes de projection Introduction Outils Balayage Suite monotone au sens de Fejér Fonction de proximité Condition de focalisation La projection d Haugazeau Formulation dans un espace de Hilbert produit Projections et projections sous-différentielles classiques Généralités Sous-espaces affines Hyperplans et demi-espaces affines Boules Variation totale Énergie du résiduel Le cas linéaire Algorithmes pour l admissibilité convexe POCS SIRT PPM Méthodes itératives par blocs Utilisation des projections sous-différentielles Méthode extrapolée Méthode extrapolée de classe T Algorithmes pour la meilleure approximation admissible vi

7 3.5.1 La méthode de Dykstra La méthode du point d ancrage Une méthode de type Haugazeau Un nouvel algorithme par blocs de type Haugazeau Algorithmes utilisant les projections de Bregman Bibliographie Programmation convexe en tomographie Introduction Éclatement des contraintes en tomographie continue Tomographie discrète Approche convexe en tomographie discrète Article en anglais Introduction Proposed algorithm Construction of closed convex constraint sets Data model Standard constraints Binarity-promoting constraint Constraints on the residual views Bound estimation in the case of Poisson noise Numerical simulations Noise simulation Binarization Experimental setup Numerical results Concluding remarks Bibliographie Acquisition comprimée en tomographie Introduction Reproductibilité du résultat numérique Importance de la localisation de l information vii

8 5.4 La variation totale en tomographie Sous-échantillonage et unicité Sous-échantillonage et tomographie Bibliographie Aspects numériques Introduction Description des expériences Restauration d image mammographique Tomographie bi-dimensionnelle Tomographie avec contraintes affines Radiothérapie, ou IMRT Taux de convergence Critères de comparaison Distance relative à l image originale Distance relative au point de convergence Fonction de proximité Influence des paramètres Algorithmes Point initial Taille des blocs Balayage Relaxations Centrage Utilisation de l opérateur de ART Article en anglais Introduction Algorithms A specific operator Applications Computer tomography Intensity-modulated radiation therapy viii

9 6.7.5 Numerical results Conclusion Distances de Bregman Calcul d une projection Résultats numériques Bibliographie Développement logiciel La place du logiciel dans les mathématiques appliquées Reproductibilité Comparaisons Réutilisation de code Mise en œuvre de référence L exemple des publications scientifiques Le cas des méthodes de projections convexes Le logiciel libre Aperçu du logiciel Choix technologiques Méthodologie Extreme programming Tests unitaires Gestion des sources Optimisation Architecture Bibliographie Perspectives Perspectives théoriques Perspectives numériques Évolution du logiciel ix

10 x

11 Résumé Algorithmes de projections convexes généralisées et applications en imagerie médicale Cette thèse porte sur l utilisation d opérateurs de projection généralisés dans les algorithmes d optimisation convexe et sur leur application en imagerie médicale. Nous décrivons diverses généralisations de la notion de projection sur un convexe fermé dans un Hilbert. Celles-ci incluent les projections sous-différentielles, les opérateurs proximaux et les projecteurs de Bregman. Nous proposons un nouvel algorithme de projections généralisées pour projeter sur une intersection dénombrable de convexes et démontrons sa convergence. Cette contribution unifie plusieurs résultats existants sur la convergence des méthodes de projection dans les Hilbert. Nous étudions ensuite des applications originales des méthodes de projection en imagerie médicale, en proposant une nouvelle stratégie pour la prise en compte du bruit poissonnien en tomographie continue, ainsi qu une nouvelle approche en tomographie discrète par la programmation convexe et l utilisation de la variation totale. Nous formulons également quelques réflexions sur les liens entre variation totale, acquisition comprimée, et reconstruction tomographique. Nous présentons enfin ce qui semble être les premiers résultats numériques sur l utilisation des distances de Bregman dans les algorithmes de projection. Les outils informatiques développés dans le cadre de cette thèse ont été conçus de manière à être mis à disposition de la communauté scientifique. Mots-clés : acquisition comprimée, algorithme de projection, contraction, distance de Bregman, estimation statistique, programmation convexe, radiothérapie, restauration d image, reconstruction d image, tomographie, tomographie discrète, variation totale. Abstract Generalized convex projection algorithms and applications to medical imaging This thesis focuses on the use of generalized projection operators in convex optimization algorithms and on their applications to medical imaging. We describe various extensions of the notion of a projection onto a closed convex set in a Hilbert space. These include subgradient projectors, proximity operators, and Bregman projectors. We propose a new generalized projection algorithm for projecting onto a countable intersection of closed convex sets and prove its convergence. This contribution unifies several existing results on the convergence of projection methods in Hilbert spaces. We then study original applications of projection methods in medical imaging. We propose a new strategy to incorporate Poisson noise in continuous tomography, as well as a new approach to discrete tomography via convex programming and total variation. We also discuss the connections between total variation, compressive sensing, and tomographic reconstruction. Finally, we present what seem to be the first numerical results on the use of Bregman distances in projection algorithms. The software tools that have been developed to carry out this work have been designed so as to be made available to the scientific community. Key words : Bregman distance, compressive sensing, convex programming, discrete tomography, image restoration, image reconstruction, nonexpansive operator, projection algorithm, radiotherapy, statistical estimation, tomography, total variation. xi

12 Notations et Glossaire Les notations suivantes seront utilisées dans toute la thèse. De plus, nous rappelons quelques définitions de base en analyse convexe. Notations générales X Espace de Banach réflexif réel, Crochet de dualité entre X et son dual topologique X d Distance Norme Id Opérateur identité sur X 2 X La famille des parties de X x n x La suite (x n ) n N de X converge fortement vers x x n x La suite (x n ) n N de X converge faiblement vers x W(x n ) n 0 L ensemble des points faiblement adhérents à la suite (x n ) n 0 de X Γ 0 (X ) L ensemble des fonctions de X dans ], + ], convexes, propres et semi-continues inférieurement H, G Espaces de Hilbert réels Produit scalaire P C Projecteur sur l ensemble convexe fermé non vide C de H L Adjoint de l opérateur linéaire borné L: H G C Complémentaire dans H d une partie C de H C Orthogonal d une partie C de H int C Intérieur d une partie C de H Fonctions particulières de H dans [, + ] Soit C un ensemble convexe fermé non vide de H. { 0, si x C ; ι C : x Fonction indicatrice de C +, si x C 1 C : x { 1, si x C ; 0, si x C Fonction caractéristique de C d C : x inf x C tv: W 1,1 (Ω) R: x Ω x(ω) dω Distance à C Variation totale xii

13 Notations et définitions relatives à un opérateur multivoque A: H 2 H gr A = { (x, u) H 2 u Ax } Graphe de A A 1 Inverse de A gr A 1 = { (u, x) H 2 (x, u) gr A } Graphe de A 1 Fix A = { x H x Ax } Points fixes de A J A = (Id +A) 1 Résolvante de A ( (x, u) gr A)( (y, v) gr A) x y u v 0 A est monotone (x, u) gr A ( (y, v) gr A) x y u v 0 A est maximal monotone Quelques définitions relatives à un opérateur T : H H L ensemble des points fixes de T : Fix T = {x H T x = x} T est β-lipschitz, avec β ]0, + [ : ( (x, y) H 2 ) T x T y β x y T est une contraction : ( (x, y) H 2 ) T x T y x y T est une contraction ferme : T vérifie l une des conditions équivalentes suivantes : (a) ( (x, y) H 2 ) T x T y 2 x y T x T y (b) ( (x, y) H 2 ) T x T y 2 x y 2 (Id T )x (Id T )y 2 T est une quasi contraction : ( (x, y) H Fix T ) T x y x y T est demi fermé : ( (x n ) n 0 H) (x n x et T x n y) y = T x T est demi compact : Toute suite bornée (x n ) n 0 de H possède un point d accumulation fort dès que (T x n x n ) x 0 converge fortement. xiii

14 Notations relatives à une fonction ϕ Γ 0 (H) Domaine de ϕ dom ϕ = { x H ϕ(x) < + } Épigraphe de ϕ epi ϕ = { (x, λ) H R ϕ(x) λ } Ensemble des minimiseurs de ϕ Le minimiseur de ϕ en cas d unicité Argmin ϕ argmin ϕ ou argmin y H ϕ(y) Conjuguée de ϕ ϕ = sup x H Convolution infimale de ϕ avec ψ Γ 0 (H) x ϕ(x) ϕ ψ = inf y H ϕ(y) + ψ( y) Enveloppe de Moreau d indice γ ]0; + [ de ϕ Le sous-différentiel de ϕ en x H γ ϕ = ϕ 2 2γ ϕ(x) = { u H ( y H) y x u + ϕ(x) ϕ(y) } L opérateur proximal de ϕ prox ϕ : H H: x argmin y H ϕ(y) + 1 x y 2 2 La section inférieure de ϕ hauteur α R lev α ϕ = { u H ϕ(u) α } xiv

15 Chapitre 1 Introduction Les travaux présentés dans cette thèse portent sur des méthodes numériques pour résoudre certains problèmes d optimisation convexe apparaissant en imagerie médicale, notamment en tomographie et en radiothérapie. 1.1 Présentation générale et objectifs L objet de cette thèse est de développer et d étudier des méthodes numériques efficaces et fiables pour la résolution de problèmes issus de l imagerie médicale. Dans de tels problèmes, les contraintes jouent un rôle primordial car elles modélisent les connaissances a priori et prennent en compte les données observées [2, 5, 7, 8, 10]. Nous nous plaçons dans le cadre de problèmes faisant intervenir des contraintes convexes dans un espace hilbertien, ce qui nous donne accès aux puissants outils de l analyse convexe. Dans un premier temps, nous décrivons les différents opérateurs utilisés dans les méthodes existantes comme des généralisations de la projection sur un convexe fermé non vide dans un espace de Hilbert. Ceux-ci comprennent notamment les opérateurs proximaux, les projecteurs sous-différentiels, les résolvantes, les contractions fermes et les projecteurs de Bregman. En nous basant sur cette description, nous sommes alors en mesure de proposer de nouveaux développements algorithmiques, sur les plans théorique, méthodologique, et numérique. On constate actuellement un intérêt marqué pour l utilisation de la variation totale dans les problèmes inverses. Nous l utilisons à plusieurs reprises dans des contextes nouveaux. En nous basant sur notre expérience, nous revenons également sur l interaction entre tomographie et acquisition comprimée. Nous fournissons enfin ce qui semble être les premières simulations numériques utilisant les distances de Bregman. 1

16 Une grande attention a été apportée à la reproductibilité de nos résultats. C est le cas en particulier des logiciels développés dans le cadre de cette thèse, qui l ont été de façon à pouvoir être utilisés de manière ouverte par la communauté scientifique. 1.2 Plan de la thèse En optimisation et, en particulier, dans le domaine des problèmes directs ou inverses issus de l imagerie, nous ne disposons d algorithmes efficaces, fiables et versatiles que dans le cas où les contraintes sont des ensembles convexes fermés dans un espace de Hilbert convenable, représentant l ensemble des signaux (les images sont des signaux particuliers). Pour prendre en compte chacun des ensembles-contrainte dans les méthodes itératives, la notion de projection hilbertienne a d abord été utilisée. Il est possible d étendre cette projection dans différentes directions, en relaxant l une ou l autre de ses propriétés. Le Chapitre 2 décrit ces différentes projections généralisées. L idée générale des méthodes employées est la suivante. Nous procédons par itérations successives. A chaque étape, une ou plusieurs contraintes sont sélectionnées, et on calcule l itéré suivant de façon à se rapprocher de l ensemble des points admissibles, grâce aux projections généralisées décrites au Chapitre 2. Cette approche est uniformisée par le formalisme d une classe d opérateurs, appelée la classe T. Dans le Chapitre 3, nous décrivons ces algorithmes, et nous donnons un nouveau résultat de convergence dans le cadre de la classe T. Ces méthodes sont alors appliquées, au Chapitre 4, dans deux domaines distincts : la tomographie continue et la tomographie discrète. Dans le cadre de la tomographie continue, nous proposons un nouvel algorithme incluant des contraintes issues d analyses statistiques sur le bruit. Le problème posé par la tomographie discrète est plus difficile. Le caractère discret de l image à reconstruire représente une contrainte fondamentalement non convexe, et les algorithmes décrits dans cette thèse ne sont en général ni adaptés ni utilisés dans ce cas. Grâce à l utilisation de résultats récents, nous sommes en mesure de proposer un algorithme de projection convexe. L utilisation d une contrainte sur la variation totale nous permet de promouvoir le caractère discret de l image recherchée. Cette approche présente de nombreux avantages sur les méthodes habituellement utilisées. Le Chapitre 5 est motivé par de récents résultats concernant l acquisition comprimée (compressive sensing). Nous nous penchons sur l impact concret des résultats conceptuels obtenus dans ce domaine dans le contexte de la reconstruction tomographique avec un faible nombre de vues. Le Chapitre 6 est consacré aux aspects numériques. Nous considérons dans un premier temps le cas particulier, important dans la pratique, d un problème où tous 2

17 les ensembles-contrainte sont des tronçons, et nous étudions l intérêt de l utilisation d un opérateur de projection généralisée adapté à cette situation. Des comparaisons numériques sont effectuées dans les domaines de la tomographie avec bruit borné et de la radiothérapie (IMRT, pour intensity-modulated radiation therapy) Dans un second temps, nous faisons une étude systématique de l impact numérique du choix des différents paramètres des algorithmes. Enfin, la dernière contribution porte sur les algorithmes basés sur les projections au sens de Bregman décrites au Chapitre 2. Malgré les nombreux résultats théoriques obtenus depuis 1967 sur ces opérateurs et les algorithmes associés, il s agit à notre connaissance des premiers résultats numériques sur le sujet. Une grande partie de cette thèse a été consacrée au développement de logiciels. Nous rendons compte dans le Chapitre 7 des étapes de développement, de la structure du code, des choix technologiques et de l aspect méthodologique. L objectif principal était d apporter à la communauté scientifique des outils permettant de reproduire les résultats classiques ou récents du domaine, dans un souci de reproductibilité bien sûr, mais aussi pour fournir une base de travail pour le développement et la comparaison des nouveaux algorithmes. Ce chapitre contient également quelques réflexions sur la place du logiciel dans les mathématiques appliquées. En guise de conclusion, le Chapitre 8 présente des pistes de recherche à envisager pour prolonger les travaux présentés dans le cadre de cette thèse. 1.3 L imagerie médicale Au carrefour entre la médecine, la physique, le traitement du signal et les mathématiques, se trouve le vaste domaine de l imagerie médicale. L image est un vecteur de communication particulièrement pratique et efficace pour apporter au praticien une information sur l intérieur du corps. C est le but de l imagerie médicale que de fournir ces représentations. Cet objectif est ambitieux. Pour obtenir les images sans intrusion, il faut envoyer des signaux à travers le corps, et reconstruire l information à partir des distorsions que subissent ces signaux. L aspect mesure est ici très important. Les signaux peuvent être générés par diverses modalités : rayons X, ultrasons, champs magnétiques (IRM, imagerie par résonance magnétique) ou radiations radioactives (tomographie d émission mono-photonique, tomographie à émission de positron). Les mathématiques interviennent au niveau de la reconstruction, dans la modélisation des transformations, des mesures de l image originale et dans l élaboration d un algorithme de reconstruction. Ces techniques ont souvent un champ d application beaucoup plus vaste que le domaine médical. Ainsi, la tomographie est utilisée également en géophysique, en 3

18 astrophysique, et dans l industrie. Un cas difficile est celui du contrôle non destructif, utilisé par exemple pour vérifier l état de pièces en sortie d usine ou pendant la maintenance. Si l objet à analyser n est pas facilement accessible, il peut être impossible de l observer sous certains angles. Comme nous le verrons au Chapitre 6 (Figure 6), la reconstruction est particulièrement délicate dans ce cas. 1.4 Admissibilité convexe et optimisation Généralités L espace des signaux est un espace de Hilbert réel H dans lequel les contraintes disponibles pour construire (problème direct) ou estimer (problème inverse) le signal sont représentées par une famille (S i ) i I de sous-ensembles fermés et convexes. Ces contraintes sont généralement issues de connaissances a priori et des mesures, et elles ont un impact fondamental sur la fiabilité des solutions obtenues [2, 5, 7, 8, 10]. Nous étudions diverses formulations qui garantissent le respect de ces contraintes. Nous appellerons ensemble admissible l intersection S des ensembles-contrainte, à savoir S = i I S i. (1.1) Admissibilité convexe Le problème d admissibilité convexe est une formulation mathématique offrant un cadre flexible pour modéliser une multitude de problèmes issus de disciplines telles que l optimisation, la physique et le traitement du signal et de l image. Il s agit simplement de produire une solution compatible avec toutes les contraintes. Ce type d approche est aussi connu sous le nom d approche ensembliste [4]. Problem 1.1 Soit (S i ) i I une famille dénombrable d ensembles convexes fermés non vides dans H. Le problème est Trouver x S = i I S i. (1.2) Il y a littéralement des centaines de papiers utilisant ce formalisme dans les problèmes inverses du signal et de l image depuis sa popularisation par Youla en 1982 [11] (cf. [2, 4, 5, 7, 8, 9] et leurs bibliographies), et il continue d être très employé [3]. Son principal avantage est d offrir une grande flexibilité quant à l incorporation des informations a priori. 4

19 1.4.3 Minimisation sur l ensemble admissible Dans certains cas, les paramètres définissant les contraintes sont mal maîtrisés, ce qui peut donner lieu à un problème incompatible, i.e., S =. On peut alors distinguer les contraintes dures (qui doivent absolument être vérifiées) des contraintes molles (qui doivent être vérifiées au mieux, en un sens à préciser). Pour ceci, on peut agréger les contraintes molles par une fonction de pénalité J Γ 0 (H) et minimiser cette fonction sur l ensemble admissible correspondant aux contraintes dures (voir [6] pour un exemple concret). Problem 1.2 Soient (S i ) i I une famille dénombrable d ensembles convexes fermés non vides dans H, et J Γ 0 (H). Le problème est Trouver x S = i I S i tel que J(x) = inf J(S). (1.3) Plus généralement, le coût J peut correspondre à divers desiderata de l utilisateur pour biaiser les solutions vers des points admissibles particuliers. Divers coûts ont été proposés dans la littérature. Par exemple, dans le cas d espaces de signaux fonctionnels, on peut considérer des fonctions du type J : x φ(ω, x(ω), x(ω))dω, (1.4) Ω qui incluent la variation totale, diverses entropies, etc. Un cas très important dans la pratique correspond à J : x x y 2. (1.5) Ceci revient à chercher la projection sur S d un signal de référence y : Problem 1.3 Soient (S i ) i I une famille dénombrable d ensembles convexes fermés non vides dans H, et y H. Le problème est Trouver x = P S (y), où S = i I S i. (1.6) Approche purement variationnelle Dans cette approche, il n y a aucune contrainte dure dans la modélisation du problème et on minimise une fonctionnelle J sur tout l espace H. Ce formalisme purement variationnel remonte au tout début du traitement de l image [1] et est encore très répandu en raison de sa simplicité. Notons que les propriétés physiques des images ainsi obtenues ne sont pas bien définies. On peut 5

20 obtenir en particulier des images qui violent des contraintes élémentaires telles que la positivité. Par ailleurs, la fonction J, qui a la tâche délicate d englober toutes les connaissances disponibles, fait souvent intervenir des paramètres exogènes réglés de manière ad hoc et qui influent considérablement sur la qualité des solutions. Cette approche ne sera pas considérée dans cette thèse. 1.5 Contributions principales Nous listons ici les contributions principales de la thèse. Contributions théoriques : Un nouvel algorithme général est proposé dans la Section pour résoudre le Problème 1.3 dans le cadre très vaste des opérateurs dits de classe T. Un résultat de convergence est donné. Cet algorithme généralise et unifie plusieurs méthodes existantes. Dans la Section 4.4, nous effectuons une estimation statistique de bornes sur des contraintes probabilistes en présence d un bruit poissonnien. Contributions méthodologiques : Un exemple de l application à la tomographie des algorithmes de projections convexes en tomographie est présenté dans la Section 4.2. Le bruit considéré est classique (gaussien), mais il est pris en compte d une manière originale, qui offre un bon compromis entre un aspect uniquement local et un point de vue global. Pour pouvoir prendre en compte ce type de contraintes, il faut employer des algorithmes modernes utilisant les projections sous-différentielles. À contre courant des méthodes généralement utilisées dans ce domaine très particulier qu est la tomographie discrète (une contrainte fortement non convexe), nous proposons dans la Section 4.4 une nouvelle approche utilisant les méthodes de projections convexes. En particulier, il s agit du premier exemple où un bruit dépendant du signal est pris en compte. Nous donnons des critères de comparaison sur les algorithmes, en étudiant l influence des paramètres (Section 6.5). Nous proposons quelques réflexions sur l impact des techniques d acquisitions comprimées dans le domaine de la tomographie (Chapitre 5). Contributions numériques : Nous présentons dans la Section 6.8 les premières simulations numériques utilisant les distances de Bregman. 6

21 Dans la Section 6.6, nous faisons une étude de la pertinence de l utilisation d un opérateur standard dans les algorithmes récents, avec une comparaison de différentes approches. Réflexions sur la recherche : Ouverture scientifique et partage du logiciel dans la communauté des mathématiques appliquées (Section 7.1). 1.6 Bibliographie [1] H. C. Andrews and B. R. Hunt, Digital Image Restoration, Prentice-Hall, Englewood Cliffs, NJ, [2] C. L. Byrne, Signal Processing : A Mathematical Approach, A. K. Peters, Wellesley, MA, [3] Y. Censor and A. Segal, Iterative projection methods in biomedical inverse problems, in : Y. Censor, M. Jiang, and A.K. Louis (Eds.), Mathematical Methods in Biomedical Imaging and Intensity-Modulated Radiation Therapy (IMRT), Edizioni della Normale, Pise, Italie, à paraître. [4] P. L. Combettes, The foundations of set theoretic estimation, Proceedings of the IEEE, vol. 81, pp , [5] P. L. Combettes, The convex feasibility problem in image recovery, in : P. Hawkes (Ed.), Advances in Imaging and Electron Physics, vol. 95, pp , [6] P. L. Combettes, A block-iterative surrogate constraint splitting method for quadratic signal recovery, IEEE Transactions on Signal Processing, vol. 51, pp , [7] G. T. Herman, Image Reconstruction from Projections, the Fundamentals of Computerized Tomography, Academic Press, New York, [8] H. Stark (Ed.), Image Recovery : Theory and Applications, Academic Press, San Diego, CA, [9] H. Stark and Y. Yang, Vector Space Projections : A Numerical Approach to Signal and Image Processing, Neural Nets, and Optics, Wiley, New York, [10] H. J. Trussell, A priori knowledge in algebraic reconstruction methods, in : T. S. Huang (Ed.), Advances in Computer Vision and Image Processing, vol. 1, pp , JAI Press, Greenwich, CT, [11] D. C. Youla and H. Webb, Image restoration by the method of convex projections : Part 1 theory, IEEE Transactions on Medical Imaging, vol. 1, pp ,

22 8

23 Chapitre 2 Projections généralisées 2.1 Introduction L idée commune aux méthodes que nous développons dans cette thèse est d utiliser des approximations extérieures de chacun des ensembles-contrainte afin d en déduire un algorithme pour résoudre des problèmes tels que le Problème 1.3, et en particulier les Problèmes 1.1 et 1.2. Le cas le plus simple, et historiquement le premier étudié, est celui où la projection métrique, au sens classique, peut être facilement calculée pour chacune des contraintes. L utilisation de projections généralisées est une des grandes sources d inspiration pour la création de nouveaux algorithmes, plus performants ou plus génériques. Après un rappel des propriétés fondamentales de la projection sur un convexe fermé dans un espace de Hilbert, nous décrivons dans ce chapitre différentes généralisations obtenues en relaxant l une ou l autre de ces propriétés, ainsi que les algorithmes correspondants. Nous nous plaçons dans un espace de Hilbert réel (H, ), muni de la norme associée au produit scalaire : x x x, et nous noterons Γ 0 (H) l ensemble des fonctions de H dans ], + ] qui sont convexes, propres et semi-continues inférieurement (un résumé des notations est disponible en début de thèse). La notation T : A B signifie que l opérateur T a pour domaine A et prend ses valeurs dans B (dom T = A, T (A) B). Voici quelques définitions concernant les opérateurs non linéaires qui nous serviront par la suite. Définition 2.1 Un opérateur T : H H est (i) une contraction ferme si ( (x, y) H 2 ) x y T x T y T x T y 2 ; (ii) une contraction si ( (x, y) H 2 ) T x T y x y ; (iii) une quasi contraction si ( (x, y) H Fix T ) T x y x y ; (iv) demi fermé si ( (x n ) n 0 H) (x n x et T x n y) y = T x ; 9

24 (v) demi compact si toute suite bornée (x n ) n 0 telle que (T x n x n ) x 0 converge fortement possède un point d accumulation fort. Un exemple d opérateur demi fermé est le suivant. Proposition 2.2 [11, 12] Soit T : H H une contraction. Alors Id T est demi fermé. 2.2 Projection sur un convexe fermé non vide La projection sur un ensemble est un problème particulier de minimisation, qui consiste à trouver, s ils existent, les points d un ensemble C H les plus proches d un point de référence donné x H. La distance d un point x H à un ensemble C H est définie par d C (x) = inf d(x, y), (2.1) y C et il s agit de trouver les points de C qui réalisent cet infimum [32]. Nous définissons l opérateur de projection multivoque, ou projecteur, par Π C : H 2 C : x { y C d(x, y) = d C (x) }. (2.2) Un cas remarquable est celui où la projection existe toujours et est unique, c est-àdire ( x H) card(π C x) = 1. (2.3) Les ensembles ayant cette propriété sont appelés ensembles de Chebyshev. Le théorème de projection est une des premières propriétés que l on donne sur les espaces de Hilbert. Il affirme que si C est un ensemble convexe, fermé et non vide, alors c est un ensemble de Chebyshev. On a donc un opérateur univoque, de H dans C, que l on appellera dorénavant opérateur de projection, ou simplement projecteur. x P C x. Le point P C x est caractérisé par l inéquation variationnelle P C x C et ( y C) x P C x y P C x 0. (2.4) Cette inéquation implique que P C est une contraction ferme, donc en particulier une contraction. L ensemble des points fixes de P C est exactement C. Pour de nombreux ensembles convexes élémentaires, il est possible, et facile, de trouver une formulation explicite de cet opérateur ; des exemples précis seront 10

25 donnés dans la Section (on se reportera également à [4, 16, 18, 22, 53]). C est sur ce principe que sont construits les algorithmes de projection. L ensemble admissible étant défini par une famille de contraintes convexes, on suppose que l on sait calculer le projecteur associé à chacune de ces contraintes. L algorithme actionne ces contraintes de manière répétitive, et les combine de manière à obtenir une suite convergeant vers un point admissible. 2.3 Relaxation À partir d un opérateur P, on définit l opérateur relaxé R de la manière suivante R = Id +λ(p Id), (2.5) où λ [0; + [ est le paramètre de relaxation. On parle de sous-relaxation lorsque λ 1, et de sur-relaxation lorsque λ 1, le cas λ = 1 correspondant à P = R. Dans certains problèmes, on peut améliorer le profil de convergence des algorithmes en jouant sur ce paramètre. Nous reviendrons sur ce point au Chapitre 6. Les expériences numériques disponibles dans la littérature (voir aussi le Chapitre 6) semblent indiquer que la sur-relaxation reste toutefois préférable pour accélerer la convergence des algorithmes (ce n est cependant pas une conclusion systématique, cf. [45]). Une notion importante pour démontrer la convergence des algorithmes que nous allons décrire est celle de suite monotone au sens de Fejér (Section 3.2.2). Pour garantir cette monotonie dans les algorithmes séquentiels, le paramètre de relaxation λ doit souvent être restreint à l intervalle [0; 2]. Les cas limites 0 et 2 correspondent respectivement à l identité (ne rien faire), et à la réflexion (Rx est le symétrique de x par rapport à P x). Toutefois, lorsque plusieurs opérateurs sont utilisés en parallèle, grâce à un formalisme introduit à la Section 3.2.6, il peut être possible d élargir cet intervalle de relaxation (ceci est décrit dans la Section 3.4.6), ce qui permet effectivement de converger plus rapidement (Section 6.5.1). 2.4 Opérateur de l algorithme ART3 Dans un article de 1975, G. T. Herman décrit un algorithme appelé ART3 [39]. Cet algorithme, encore aujourd hui, fait figure de référence en terme de rapidité pour les algorithmes séquentiels. Il existe aussi une légère amélioration plus récente appelée ART3+ [40] ; l opérateur est le même, mais le balayage utilisé change. Ces algorithmes ne s appliquent que dans le cas où tous les ensembles sont des tronçons (voir par exemple l expérience décrite dans la Section 6.2.3). Un tronçon est la partie 11

26 C = { x H β δ x a β + δ } (2.6) de l espace comprise entre deux hyperplans parallèles, où a H {0}, β R et δ ]0; + [. On peut supposer sans perte de généralité que le vecteur directeur a est de norme 1, ce que nous ferons ici. Le projecteur associé est donné par x, si x C; P C x = x ( x a + (β δ))a, si x a < β δ; (2.7) x ( x a + (β + δ))a, si x a > β + δ. Herman [39] considère l opérateur suivant, qui est une variante de l opérateur précédent, et que nous appellerons dorénavant opérateur de ART3 où x, si x C; Ux = P H x, si x a β > 2δ; 2P C x x, sinon, (2.8) H = { x H x a = β } (2.9) est l hyperplan médian. On vérifie facilement que Fix U = Fix P C = C. L opérateur de ART3 peut être interprété comme une sur-relaxation du projecteur sur C U : x x + ν(x)(p C x x), (2.10) avec (on notera que 1 ν(x) 2) 1, si x C; ν(x) = 1 + δ, si x a β > 2δ; d C (x) 2, sinon. (2.11) L intérêt de la méthode ART3 tient à ce que l utilisation de cet opérateur permet d améliorer la vitesse de convergence. Nous étudierons au Chapitre 6 l intérêt de cet opérateur dans les algorithmes récents. 2.5 Opérateur proximal La notion d opérateur proximal a été introduite en 1962 par Jean-Jacques Moreau [46, 47]. On se reportera à [30] et à [48] pour les démonstrations des propriétés ci-dessous et des compléments. 12

27 Définition 2.3 Soit ϕ une fonction de Γ 0 (H). L opérateur proximal de ϕ, noté prox ϕ, associe à tout x H l unique minimiseur de la fonction ϕ + x 2 /2. Ainsi : ( x H) prox ϕ (x) = argmin y H ϕ(y) x y 2. (2.12) L opérateur proximal est une extension de la notion de projecteur, car en prenant comme cas particulier la fonction indicatrice ι C d un convexe fermé C, on retrouve prox ιc = P C. (2.13) On a vu que l opérateur projection est une contraction ferme. Cette propriété est à la base de nombreux résultats de convergence d algorithmes [23, 35, 51]. L opérateur proximal garde cette propriété remarquable. Proposition 2.4 Soit ϕ Γ 0 (H). Alors prox ϕ et Id prox ϕ sont des contractions fermes. Les points fixes de l opérateur proximal coïncident avec les minimiseurs de la fonction. Proposition 2.5 Soit ϕ Γ 0 (H). Fix prox ϕ = Argmin ϕ. Notons enfin que, contrairement aux projecteurs, l opérateur proximal n est pas idempotent en général. Le principe de décomposition de Moreau est une généralisation du théorème de projection orthogonale qui consiste à décomposer tout élément x H en la somme de son projeté sur un sous-espace vectoriel fermé V de H et de son projeté sur l orthogonal de V, noté V. Moreau a généralisé ce principe à toute fonction ϕ Γ 0 (H) grâce à l opérateur proximal [48]. Il faut auparavant introduire l enveloppe de Moreau de ϕ Γ 0 (H), indexée par γ ]0, + [, et notée γ ϕ : c est la convolution infimale, ϕ ( 2 /(2γ)). On définit ainsi une fonction convexe continue. Le minimum est atteint en prox γϕ x, et donc ( x H) γ ϕ(x) = ϕ(prox γϕ x) + 1 2γ prox γϕ x x 2. (2.14) Le principe de décomposition de Moreau s énonce alors comme suit. Proposition 2.6 Soient ϕ Γ 0 (H), γ ]0, + [ et x H. Alors x 2 = 2γ ( γ ϕ(x) + 1/γ (ϕ )(x/γ) ) (2.15) 13

28 et x = x γ + x γ, où { x γ x γ = prox γϕ x = γ prox ϕ /γ(x/γ). (2.16) De plus, ϕ(x γ ) + ϕ (x γ /γ) = x γ x γ /γ. (2.17) L utilisation des opérateurs proximaux en traitement du signal a été initiée dans [26]. On trouvera divers développements et algorithmes dans [19, 28, 29, 30]. Il est à noter que la plupart des algorithmes utilisant des projecteurs sont extensibles à des algorithmes utilisant des opérateurs proximaux. 2.6 Résolvante Nous nous plaçons maintenant dans le cadre de la théorie des opérateurs multivoques, et plus précisément des opérateurs maximaux monotones. Les définitions et notations sont rappelées en début de thèse. Sur ce sujet on pourra consulter les ouvrages de référence [2, 11, 52]. Dans cette section, A désigne un opérateur maximal monotone de H dans 2 H. Plusieurs classes de problèmes d analyse non linéaire peuvent se mettre sous la forme suivante. Problem 2.7 Trouver x tel que 0 Ax. Des exemples classiques sont les problèmes d équilibre dans des espaces de Hilbert, qui peuvent s écrire sous la forme [27] de somme d opérateurs maximaux monotones (A i ) i I : Trouver x H tel que 0 i I A i x; (2.18) d intersection d opérateurs maximaux monotones (A i ) i I : Trouver x H tel que 0 i I A i x. (2.19) La résolvante est un outil fondamental pour l étude des opérateurs maximaux monotones [2, 11], autant d un point de vue théorique que pratique. Les algorithmes existants pour résoudre (2.18) et (2.19) consistent en des calculs itératifs faisant intervenir les résolvantes des opérateurs (A i ) i I [20, 27, 33, 34, 44, 55, 57]. 14

29 Définition 2.8 (Résolvante) La résolvante de A est J A = (Id +A) 1. Il découle de la maximale monotonie de A que J A est un opérateur univoque et défini partout : dom J A = H (Théorème de Minty) ; de plus, c est une contraction ferme [2]. Un exemple très important d opérateur maximal monotone est le sousdifférentiel d une fonction de Γ 0 (H). Dans ce cas particulier la résolvante est alors exactement l opérateur proximal. Trouver les zéros de l opérateur maximal monotone et trouver les minimiseurs de ϕ sont deux problèmes équivalents. Ainsi prox ϕ = J ϕ = (Id + ϕ) 1 et Argmin ϕ = ( ϕ) 1 (0). (2.20) En ce sens, les algorithmes utilisant les résolvantes pour trouver les zéros des opérateurs maximaux monotones généralisent les algorithmes proximaux, qui eux mêmes généralisent les algorithmes basés sur les projecteurs. 2.7 Contraction ferme Les contractions fermes (voir définition en début de chapitre ou dans la page de notation) jouent un rôle clé dans divers domaines de mathématiques appliquées [13, 36, 37, 60]. La proposition suivante fait le lien avec le paragraphe précédent. Proposition 2.9 Un opérateur T : H H est une contraction ferme si et seulement s il existe un opérateur maximal monotone A: H 2 H tel que T = J A. Signalons aussi le lien important avec les contractions : Proposition 2.10 Un opérateur T : H H est une contraction ferme si et seulement si T = (Id +R)/2, où R: H H est une contraction. Un problème classique [12] est celui de trouver un point fixe commun à une famille de contractions fermes. Problem 2.11 Soit (T i ) i I une famille de contractions fermes de H dans H. Trouver un point x i I Fix T i. Ce problème généralise le Problème 1.1 car le projecteur P C sur un convexe fermé non vide est une contraction ferme, et Fix P C = C. Des algorithmes ont été développés [4, 8, 23, 25, 31, 38, 41, 42, 43, 56] pour résoudre le Problème 2.11, et peuvent être utilisés en particulier dans le cas de projecteurs. 15

30 H x S Gx x u Figure 2.1 Illustration de la projection sous-différentielle. La ligne en pointillés représente la ligne de niveau de f à laquelle appartient x. Le vecteur u est un sousgradient de f en x. 2.8 Projection sous-différentielle Certains ensembles n autorisent pas de formulation explicite pour l opérateur de projection. Le calcul d une projection est alors numériquement lourd ; des exemples seront donnés au Chapitre 3. Une extension possible des algorithmes de projections sur les convexes est d utiliser, au lieu de P C x, la projection sur un hyperplan séparateur : la projection sous-différentielle en est un exemple. On peut aussi interpréter cela comme l utilisation d un ensemble plus grossier (ici un demi-espace) pour approcher l ensemble que l on souhaite atteindre. Nous décrivons plus loin dans la thèse des algorithmes dont les propriétés (en particulier les résultats de convergence) sont conservées lorsqu on remplace des projections par des projections sousdifférentielles. En traitement du signal, les projections sous-différentielles ont d abord été utilisées dans [24], puis dans d autres travaux tels que [58, 59]. Nous rappelons maintenant brièvement le concept de projection sousdifférentielle (cf. [4, 24] pour de plus amples détails). Soit C un ensemble convexe fermé non vide. Sans perte de généralité, nous pouvons supposer que C est de la forme C = { x H f(x) δ}, (2.21) où f est une fonction convexe continue de H dans R et δ R (on pourrait tout aussi bien supposer δ = 0). Sous cette hypothèse, en tout élément x de H, la fonction f admet au moins un sous-gradient, i.e., un point u H tel que ( y H) y x u + f(x) f(y). (2.22) L ensemble des sous-gradients de f en x est le sous-différentiel de f en x et se note f(x). Si f est Gâteaux-différentiable en x, alors f(x) = { f(x)}. Supposons que x / C. À partir d un sous-gradient quelconque u f(x) on peut former le demiespace C x = {y H x y u f(x) δ}, (2.23) 16

31 x Fix T T x H(x, T x) Figure 2.2 Illustration de la définition de la classe T. qui contient C, mais pas x : son hyperplan frontière, que nous noterons H x, est séparateur. La projection sous-différentielle, G C x, de x sur C est définie comme la projection de x sur H x (cf. Figure 2.1) x + δ f(x) u, si f(x) > δ; G C x = u 2 (2.24) x, si f(x) δ. Le calcul de G C x est bien plus économique que celui de P C x dès que ce dernier n est pas explicite. Si la projection P C x de x sur C est facile à calculer, alors on peut choisir f = d C, ce qui revient à G C x = P C x [4]. Cela permet d inclure les projecteurs comme cas particuliers des projecteurs sous-différentiels. Notons enfin que, contrairement aux opérateurs proximaux (et donc en particulier aux projecteurs), le projecteur sous-différentiel n est pas nécessairement continu. 2.9 Opérateur de classe T Étant donnés deux points x et y de H, on considère l ensemble H(x, y) = {z H z y x y 0}. (2.25) Si x y, il s agit du demi-espace affine fermé dont la frontière contient y et est orthogonale au vecteur x y. Dans tous les cas, y est la projection de x sur H(x, y). Nous pouvons maintenant définir la classe T de la manière suivante [8] T = {T : H H ( x H) Fix T H(x, T x)}. (2.26) 17

32 La Figure 2.2 illustre cette définition : Le demi-espace H(x, T x) constitue une approximation extérieure de l ensemble des points fixes de T, et T x représente la projection de x sur H(x, T x). L hyperplan frontière de H(x, T x) sépare x de Fix T. Cette définition est à rapprocher de la caractérisation (2.4) pour le projecteur, il n est plus exigé ici que T x Fix T. La proposition suivante donne quelques propriétés utiles des opérateurs de classe T. Proposition 2.12 [8] (i) Si dom T = H et T est une contraction ferme, alors T T. (ii) dom T = H et 2T Id est une quasi contraction T T. (iii) λ [0; 1] et T T Id +λ(t Id) T. (iv) ( T T)( (x, y) H Fix T ) T x x 2 y x T x x. Entre autres exemples, le projecteur et le projecteur sous-différentiel appartiennent à la classe T, de même que les contractions fermes. Un contre exemple notoire est l opérateur de ART3 U défini en (2.8). Il n appartient pas à la classe T : si on considère un point x C alors le point P C x appartient à C mais pas à H(x, P C x), et donc (par exemple si d C (x) > δ) : C = Fix U H(x, Ux) = H(x, P C x). (2.27) La classe T est stable sous plusieurs opérations. Nous utiliserons notamment la statégie suivante pour combiner des opérateurs. Proposition 2.13 [25, Proposition 2.4] Soit I un ensemble dénombrable, (T i ) i I une famille d opérateurs dans T, et (ω i ) i I des réels strictement positifs tels que i I ω i = 1. Supposons que i I Fix T i et posons ( ) T : H H : x x + λ(x)l(x, (T i ) i I, (ω i ) i I ) ω i T i x x, (2.28) où λ(x) ]0; 1[ et ω i T i x x 2 L(x, (T i ) i I, (ω i ) i I ) = i I 2, sinon. ω i T i x x Alors Fix T = i I Fix T i et T T. i I 1, si x i I S i; i I Pour une introduction plus détaillée à la classe T, incluant les démonstrations de ces propriétés ainsi que de nombreux autres résultats, voir [8, 25]. 18

33 2.10 Projections de Bregman Généralités Les notions abordées jusqu à présent sont intimement liées à la distance induite par le produit scalaire de l espace de Hilbert. Nous avons modélisé le concept de proximité grâce à cette distance. L utilisation d autres types de distances a été étudiée dans la littérature. Une classe particulière de distances a retenu l attention de la communauté du traitement du signal, ce sont les distances de Bregman. Elles font en particulier le lien avec les approches probabilistes, importantes dans ce domaine. Les distances de Bregman ne sont pas, en général, des distances au sens usuel, car elles ne sont pas symétriques. Leurs propriétés sont toutefois suffisamment proches de celles d une vraie distance pour que l on puisse définir la projection sur certains convexes fermés, et à partir de là, définir des algorithmes. Une distance de Bregman sur un Banach réel X est définie (cf. (2.29)) à partir d une fonction f Γ 0 (X ). Si X est hilbertien, pour le choix particulier de f = 2 /2, on obtient la distance usuelle. C est en cela que cette théorie généralise celle décrite à la Section 2.2, que nous appellerons dorénavant métrique, pour bien la différencier. Ces distances ont fait l objet de nombreuses recherches depuis trente ans [6, 17, 18], et elles sont maintenant bien comprises d un point de vue théorique [6, 14]. Bien que l on dispose de plusieurs algorithmes [1, 5, 7, 9, 17], aucun résultat numérique n a été publié à ce jour. Même dans les articles récents traitant des distances de Bregman, comme [17], les résultats numériques ne sont présentés que dans le cas particulier des distances métriques. La Section 6.8 décrit quelques résultats numériques que nous avons obtenus en implémentant les algorithmes récents de [7] et en comparant les résultats obtenus aux algorithmes classiques, en termes de qualité des résultats, de vitesse de convergence et de difficulté de mise en œuvre numérique Introduction aux distances de Bregman Les distances de Bregman furent introduites dans un article de 1967 [10]. L. M. Bregman les appelait alors generalized distances, et il en démontrait les premières propriétés. Leur intérêt en traitement du signal est apparu en particulier dans [3, 15, 18, 21, 54] et elles se manifestent aussi dans des disciplines connexes telles que la théorie de l information [49]. Nous nous plaçons dorénavant dans un espace de Banach réflexif réel X et notons, le crochet de dualité entre X et X. Soit f Γ 0 (X ), une fonction Gâteaux- 19

34 différentiable sur int dom f. On définit la distance de Bregman associée par D f : X X + ] [0, { (x, y) f(x) f(y) x y, f(y), si y int dom f; +, sinon. (2.29) En généralisant le projecteur (2.2), nous définissons le projecteur au sens de Bregman sur le convexe fermé non vide C comme étant l application P D f C : X 2C : x { y C dom f D f (x, y) = inf z C D f(x, z) }. (2.30) L utilisation de bonnes fonctions f [5, 6] garantit l existence et l unicité de la projection dans les cas pratiques. Si X est hilbertien et si on choisit f = 2 /2, la distance associée est alors D f : (x, y) x y 2 /2, et P D f C = P C est la projection métrique habituelle Propriétés Lorsque l on cherche à définir des algorithmes se basant sur ces distances, on se retrouve confronté au problème suivant : comment faire pour que tous les points de l orbite restent dans l intérieur du domaine de f? Sinon, au vu de (2.29), il n est plus possible d utiliser D f. Pour cela a été introduite la notion de D-viabilité. Définition 2.14 [7, Definition 2.1] Un opérateur T : X 2 X ran T dom T = int dom T. est D-viable si Une condition suffisante pour que l opérateur de projection soit D-viable, est que la fonction f soit de Legendre. Définition 2.15 [6, Definition 5.2] Une fonction f Γ 0 (X ) est (i) essentiellement lisse, si f est à la fois localement borné et univoque sur son domaine ; (ii) essentiellement strictement convexe, si ( f) 1 est localement borné sur son domaine et f est strictement convexe sur tout sous-ensemble convexe de dom f ; (iii) de Legendre, si elle est essentiellement lisse et essentiellement strictement convexe. Cette définition adapte à la dimension infinie une notion classique due à Rockafellar [50, Section 26]. Dans le contexte des distances de Bregman, il existe une notion qui remplace celle de suites monotones au sens de Fejér (voir Section 3.2.2) : il s agit des suites 20

35 D-monotone. Pour garantir que les orbites obtenues sont D-monotones, la classe suivante d opérateurs a été introduite. C est l extension de la classe T (Section 2.9). Définition 2.16 [7, Definition 3.1] Pour x et y dans int dom f, on pose H(x, y) = {z X z y, f(x) f(y) 0}. (2.31) Pour un opérateur multivoque T : X 2 X, on étend la définition usuelle de l ensemble des points fixes par Fix T = {z X z T z}. (2.32) La classe B est alors définie par B = { T : X 2 X ran T dom T = int dom f, ( (x, y) gr T ) Fix T H(x, y) }. (2.33) Si deux fonctions ne diffèrent que d un terme linéaire, a, a X, elles définissent la même distance de Bregman. En effet, si g = f +, a, on a dom g = dom f et, pour tout (x, y) dans X int dom f, D g (x, y) = g(x) g(y) x y, g(y) = f(x) f(y) + x y, a x y, f(y) + a = D f (x, y). (2.34) Exemples de distances de Bregman dans R N Un espace euclidien (ou un espace de Hilbert) est un cas particulier d espace de Banach. Par identification, le crochet de dualité, est alors remplacé par le produit scalaire. À partir de fonctions (ϕ k) 1 k N dans Γ 0 (R), on peut construire une distance de Bregman sur H = R N, en utilisant la fonction suivante définie composante par composante f : H H: x = (ξ k ) 1 k N ϕ k (ξ k ). (2.35) 1 k N Les exemples que nous considérons sont construits sur ce principe en utilisant la même fonction sur chaque composante. On utilisera la convention 0 ln 0 = 0, et les notations x = (ξ k ) 1 k N et y = (η k ) 1 k N. La fonction de Boltzmann-Shannon est construite à partir de { ξ ln ξ ξ, si ξ R + ; ψ 1 : R ] ; + ] : ξ +, sinon. 21 (2.36)

36 Figure 2.3 Lignes de niveau pour la distance de Bregman D 1 (x, ) sur R 2 utilisant la fonction de Boltzmann-Shannon. En haut, x = (1; 2), en bas x = (4; 2). 22

37 La distance de Bregman associée est D 1 (x, y) = 1 k N ξ k ( ln(ξk /η k ) 1 ) + 1 k N η k, (2.37) qui est une fonction classique en statistiques, appelée entropie relative de Kullback- Leibler. Pour illustrer cette distance, nous avons représenté sur la Figure 2.3 les lignes de niveau de D 1 (x, ) pour deux valeurs de x. Une variante proche est la néguentropie ψ 2 : R ] ; + ] : ξ { ξ ln ξ, si ξ R + ; +, sinon. (2.38) Comme ψ 1 et ψ 2 ne diffèrent que d une fonction affine, la distance de Bregman associée est la même. Une autre fonction de Bregman classique, celle de Fermi-Dirac, se construit à partir de la fonction ψ 3 : R ] ; + ] : ξ { ξ ln ξ + (1 ξ) ln(1 ξ), si ξ [0; 1]; +, sinon. (2.39) En utilisant la relation ψ 3 (ξ) = ψ 2 (ξ) + ψ 2 (1 ξ), on déduit facilement la distance de Bregman associée, en utilisant la notation 1 = [1,..., 1] D 3 (x, y) = D 2 (x, y) + D 2 (1 x, 1 y). (2.40) Une représentation des lignes de niveau pour cette distance est donnée sur la Figure 2.4. L entropie de Burg ψ 4 : R ] ; + ] : ξ { ln ξ, si ξ > 0; +, sinon, (2.41) définit une distance de Bregman particulière, appelée distance d Itakura-Saito, utilisée en traitement de la parole : D 4 (x, y) = 1 k N ( ξk /η k ln(ξ k /η k ) 1 ). (2.42) D autres exemples peuvent être trouvés dans [3, 5]. 23

38 Figure 2.4 Lignes de niveau pour la distance de Bregman D 3 (x, ) sur R 2 utilisant la fonction de Fermi-Dirac. En haut, x = (0, 6; 0, 55), en bas x = (0, 93; 0, 8). 24

39 2.11 Bibliographie [1] Y. Alber and D. Butnariu, Convergence of Bregman projection methods for solving consistent convex feasibility problems in reflexive Banach spaces, Journal of Optimization Theory and Applications, vol. 92, pp , [2] J. P. Aubin and H. Frankowska, Set-Valued Analysis, Birkhäuser, Boston, MA, [3] A. Banerjee, X. Guo, and H. Wang, On the optimality of conditional expectation as a Bregman predictor, IEEE Transactions on Information Theory, vol. 51, pp , [4] H. H. Bauschke and J. M. Borwein, On projection algorithms for solving convex feasibility problems, SIAM Review, vol. 38, pp , [5] H. H. Bauschke and J. M. Borwein, Legendre functions and the method of random Bregman projections, Journal of Convex Analysis, vol. 4, pp , [6] H. H. Bauschke, J. M. Borwein, and P. L. Combettes, Essential smoothness, essential strict convexity, and Legendre functions in Banach spaces, Communications in Contemporary Mathematics, vol. 3, pp , [7] H. H. Bauschke, J. M. Borwein, and P. L. Combettes, Bregman monotone optimization algorithms, SIAM Journal on Control and Optimization, vol. 42, pp , [8] H. H. Bauschke and P. L. Combettes, A weak-to-strong convergence principle for Fejér-monotone methods in Hilbert spaces, Mathematics of Operations Research, vol. 26, pp , [9] H. H. Bauschke, P. L. Combettes, and D. Noll, Joint minimization with alternating Bregman proximity operators, Pacific Journal of Optimization, vol. 2, pp , [10] L. M. Bregman, The relaxation method of finding the common points of convex sets and its application to the solution of problems in convex programming, USSR Computational Mathematics and Mathematical Physics, vol. 7, pp , [11] H. Brézis, Opérateurs Maximaux Monotones et Semi-Groupes de Contractions dans les Espaces de Hilbert, North-Holland/Elsevier, New York, [12] F. E. Browder, Convergence theorems for sequences of nonlinear operators in Banach spaces, Mathematische Zeitschrift, vol. 100, pp , [13] R. E. Bruck and S. Reich, Nonexpansive projections and resolvents of accretive operators in Banach spaces, Houston Journal of Mathematics, vol. 3, pp , [14] D. Butnariu and A. N. Iusem, Totally Convex Functions for Fixed Points Computation and Infinite Dimensional Optimization, Kluwer, Boston, MA,

40 [15] C. L. Byrne, Iterative image reconstruction algorithms based on cross-entropy minimization, IEEE Transactions on Image Processing, vol. 2, pp , ( Erratum and addendum, vol. 4, pp , 1995.) [16] C. L. Byrne, Signal Processing : A Mathematical Approach, A. K. Peters, Wellesley, MA, [17] Y. Censor and G. T. Herman, Block-iterative algorithms with underrelaxed Bregman projections, SIAM Journal on Optimization, vol. 13, pp , [18] Y. Censor and S. A. Zenios, Parallel Optimization : Theory, Algorithms and Applications, Oxford University Press, New York, [19] C. Chaux, P. L. Combettes, J.-C. Pesquet, and V. R. Wajs, A variational formulation for frame-based inverse problems, Inverse Problems, vol. 23, pp , [20] G. H.-G. Chen and R. T. Rockafellar, Convergence rates in forward-backward splitting, SIAM Journal on Optimization, vol. 7, pp , [21] S. Chrétien and A. O. Hero, Kullback proximal algorithms for maximumlikelihood estimation, IEEE Transactions on Information Theory, vol. 46, pp , [22] P. L. Combettes, The foundations of set theoretic estimation, Proceedings of the IEEE, vol. 81, pp , [23] P. L. Combettes, Construction d un point fixe commun à une famille de contractions fermes, Comptes Rendus de l Académie des Sciences (Paris), Série I, vol. 320, pp , [24] P. L. Combettes, Convex set theoretic image recovery by extrapolated iterations of parallel subgradient projections, IEEE Transactions on Image Processing, vol. 6, pp , [25] P. L. Combettes, Quasi-Fejérian analysis of some optimization algorithms, in : D. Butnariu, Y. Censor, and S. Reich (Eds.), Inherently Parallel Algorithms in Feasibility and Optimization and Their Applications, Elsevier, New York, pp , [26] P. L. Combettes, Convexité et signal, Actes du Congrès de Mathématiques Appliquées et Industrielles SMAI 01, Pompadour, France, pp. 6 16, [27] P. L. Combettes, Solving monotone inclusions via compositions of nonexpansive averaged operators, Optimization, vol. 53, pp , [28] P. L. Combettes and J.-C. Pesquet, Proximal thresholding algorithm for minimization over orthonormal bases, SIAM Journal on Optimization, vol. 18, pp , [29] P. L. Combettes and J.-C. Pesquet, A Douglas-Rachford splitting approach to nonsmooth convex variational signal recovery, IEEE Journal of Selected Topics in Signal Processing, vol. 1, pp ,

41 [30] P. L. Combettes and V. R. Wajs, Signal recovery by proximal forward-backward splitting, Multiscale Modeling and Simulation, vol. 4, pp , [31] G. Crombez, On averaged, firmly nonexpansive and quasi-nonexpansive operators, and more of that, Journal of Nonlinear and Convex Analysis, vol. 8, pp , [32] F. Deutsch, Best Approximation in Inner Product Spaces, Springer, New York, [33] J. Eckstein and D. P. Bertsekas, On the Douglas-Rachford splitting method and the proximal point algorithm for maximal monotone operators, Mathematical Programming, vol. 55, pp , [34] J. Eckstein and B. F. Svaiter, A family of projective splitting methods for the sum of two maximal monotone operators, Mathematical Programming, vol. 111, pp , [35] S. D. Flåm, Successive averages of firmly nonexpansive mappings, Mathematics of Operations Research, vol. 20, pp , [36] K. Goebel and W. A. Kirk, Topics in Metric Fixed Point Theory, Cambridge University Press, Cambridge, [37] K. Goebel and S. Reich, Uniform Convexity, Hyperbolic Geometry, and Nonexpansive Mappings, Marcel Dekker, New York, [38] B. Halpern, Fixed points of nonexpanding maps, Bulletin of the American Mathematical Society, vol. 73, pp , [39] G. T. Herman, A relaxation method for reconstructing objects from noisy X- rays, Mathematical Programming, vol. 8, pp. 1 19, [40] G. T. Herman and W. Chen, A fast algorithm for solving a linear feasibility problem with application to intensity-modulated radiation therapy, Linear Algebra and Its Applications, vol. 428, pp , [41] S. A. Hirstoaga, Iterative selection methods for common fixed point problems, Journal of Mathematical Analysis and Applications, vol. 324, pp , [42] K. C. Kiwiel and B. Lopuch, Surrogate projection methods for finding fixed points of firmly nonexpansive mappings, SIAM Journal on Optimization, vol. 7, pp , [43] P.-L. Lions, Approximation de points fixes de contractions, Comptes Rendus de l Académie des Sciences (Paris), Série A, vol. 284, pp , [44] P.-L. Lions and B. Mercier, Splitting algorithms for the sum of two nonlinear operators, SIAM Journal on Numerical Analysis, vol. 16, pp , [45] J. Mandel, Convergence of the cyclical relaxation method for linear inequalities, Mathematical Programming, vol. 30, pp ,

42 [46] J.-J. Moreau, Fonctions convexes duales et points proximaux dans un espace hilbertien, Comptes Rendus de l Académie des Sciences (Paris), Série A, vol. 255, pp , [47] J.-J. Moreau, Propriétés des applications prox, Comptes Rendus de l Académie des Sciences (Paris), Série A, vol. 256, pp , [48] J.-J. Moreau, Proximité et dualité dans un espace hilbertien, Bulletin de la Société Mathématique de France, vol. 93, pp , [49] M. C. Pardo and I. Vajda, On asymptotic properties of information-theoretic divergences, IEEE Transactions on Information Theory, vol. 49, pp , [50] R. T. Rockafellar, Convex Analysis, Princeton University Press, Princeton, NJ, [51] R. T. Rockafellar, Monotone operators and the proximal point algorithm, SIAM Journal on Control and Optimization, vol. 14, pp , [52] S. Simons, From Hahn-Banach to Monotonicity, Springer, Heidelberg, [53] H. Stark (Editor), Image Recovery : Theory and Applications, Academic Press, San Diego, [54] D. M. Titterington, General structure of regularization procedures in image reconstruction, Astronomy and Astrophysics, vol. 144, pp , [55] P. Tseng, Applications of a splitting algorithm to decomposition in convex programming and variational inequalities, SIAM Journal on Control and Optimization, vol. 29, pp , [56] P. Tseng, On the convergence of products of firmly nonexpansive mappings, SIAM Journal on Optimization, vol. 2, pp , [57] P. Tseng, A modified forward-backward splitting method for maximal monotone mappings, SIAM Journal on Control and Optimization, vol. 38, pp , [58] I. Yamada, K. Slavakis, and K. Yamada, An efficient robust adaptive filtering algorithm based on parallel subgradient projection techniques, IEEE Transactions on Signal Processing, vol. 50, pp , [59] M. Yukawa and I. Yamada, Pairwise optimal weight realization Acceleration technique for set-theoretic adaptive parallel subgradient projection algorithm, IEEE Transactions on Signal Processing, vol. 54, pp , [60] E. H. Zarantonello, Projections on convex sets in Hilbert space and spectral theory, in : E. H. Zarantonello (Ed.), Contributions to Nonlinear Functional Analysis, Academic Press, New York, pp ,

43 Chapitre 3 Algorithmes de projection 3.1 Introduction Nous nous plaçons, pour tout le chapitre à l exception de la dernière section sur les distances de Bregman, dans un espace de Hilbert réel (H, ), muni de la norme associée au produit scalaire : x x x. L ensemble des points faiblement adhérents à une suite (x n ) n 0 de H est noté W(x n ) n 0. Le projecteur P Si sur un convexe fermé S i sera souvent noté P i. Devant l importance dans les applications des Problèmes 1.1 et 1.3, de nombreux travaux ont été publiés, proposant des algorithmes adaptés, toujours plus rapides et plus génériques. Commençons par rappeler ces problèmes. Problem 3.1 (Admissibilité) Soit S = i I S i, où (S i ) i I est une famille dénombrable d ensembles convexes fermés non vides dans H. Trouver x S. (3.1) Le second problème est de trouver un point de S minimisant une fonctionnelle J : H ], + ], qui modélise un certain critère d optimalité dépendant de l application. Nous ne nous intéresserons ici qu au cas où ce critère est la distance au point initial, ce qui nous conduit à un problème de meilleure approximation. Problem 3.2 (Meilleure approximation) Soient y H et S = i I S i, où (S i ) i I est une famille dénombrable d ensembles convexes fermés non vides dans H. Trouver x = P S (y). (3.2) 29

44 Bien entendu, pour que les solutions existent, il faut supposer au minimum que S. Dans le cas contraire, lorsque le problème est incompatible, nous chercherons tout de même des algorithmes permettant de fournir des solutions approchées. Nous commençons par donner quelques outils théoriques fondamentaux, puis après un bref rappel des algorithmes linéaires qui furent les premières sources d inspiration des méthodes convexes, nous décrivons les algorithmes pour chacun de ces deux problèmes. Une dernière section donne un aperçu des algorithmes utilisant les distances de Bregman. L algorithme présenté dans la Section 3.5.4, est une contribution nouvelle à la théorie, qui étend à une grande classe d opérateurs (la classe T) des algorithmes existants pour résoudre le Problème Outils Balayage Les premiers algorithmes activaient les contraintes de manière séquentielle (une contrainte après l autre) et en particulier cyclique (il y en avait un nombre fini). Puis apparurent des algorithmes entièrement parallèles, dont le principal avantage n est pas la rapidité, mais le fait qu ils convergent même dans le cas incompatible (S = ). Ces algorithmes sont décrits en détail dans la Section 3.4. La limite atteinte correspond alors le plus souvent à un minimum au sens des moindres carrés par rapport aux distances aux ensembles-contrainte (Section 3.2.3). Plus récemment, sont apparus les algorithmes itératifs par blocs (voir Section 3.4.4), qui permettent une plus grande flexibilité concernant l ordre d utilisation des contraintes [8, 17, 18, 24, 31, 33, 34, 48, 66]. Pour assurer la convergence, certaines hypothèses doivent être faites quant à la manière d activer les contraintes. Le but de cette section est de les décrire. On considère le cas où il y a un nombre au plus dénombrable d ensemblescontrainte. On utilisera pour les indices l ensemble I, qui sera aussi noté {1,..., m} quand I est fini. Définition 3.3 On appelle balayage une suite d indices (I n ) n 0 I. L ensemble I n représente les indices des contraintes qui sont utilisées, ou activées, à l itération n de l algorithme. Pour que la suite définie par l algorithme converge vers un point de S, il semble raisonnable d exiger au minimum que chaque contrainte soit activée infiniment souvent. Les définitions qui suivent garantissent cette propriété. Dans le cas où I = {1,..., m}, le balayage est dit cyclique si à l itération n une seule contrainte 30

45 est activée, en parcourant les indices en boucle I n = {(n mod m) + 1}. (3.3) Pour un ensemble I au plus dénombrable, le balayage est dit statique si I n = I. Le balayage est admissible [16] s il existe des entiers strictement positifs (M i ) i I tels que ( (i, n) I N) i n+m i 1 k=n I k. (3.4) Enfin, le balayage est chaotique [66] si I = lim sup I n. (3.5) n + Un balayage cyclique est admissible, et un balayage admissible est chaotique Suite monotone au sens de Fejér Les suites monotones au sens de Fejér apparaissent naturellement dans les algorithmes de projection [8, 34]. Définition 3.4 Une suite (x n ) n 0 de H est monotone au sens de Fejér par rapport à un ensemble C H non vide si ( n N)( z C) x n+1 z x n z. (3.6) Lemme 3.5 [16] Si (x n ) n 0 rapport à C H, alors (i) ( z C) ( x n z ) n 0 converge ; H est une suite monotone au sens de Fejér par (ii) la suite (x n ) n 0 possède au moins un point d accumulation faible ; (iii) la suite (x n ) n 0 possède au plus un point d accumulation faible dans C Fonction de proximité La fonction de proximité permet de mesurer le défaut d admissibilité dans les Problèmes 3.1 et 3.2 [30]. Nous l utiliserons à plusieurs occasions dans cette thèse. Elle est définie par ( x H) φ(x) = 1 ω i d Si (x) 2 = 1 ω i x n P i x n 2, (3.7) 2 2 i I 31 i I

46 où les poids (ω i ) i I sont des réels strictement positifs permettant d ajuster l importance relative que l on souhaite accorder aux contraintes et vérifiant i I ω i = 1. Cette fonction est souvent utilisée dans la formalisation des problèmes d admissibilité et dans les démonstrations. Il est clair que ( x H) x S φ(x) = 0. Lorsque le problème n est pas admissible, on peut chercher à minimiser φ (voir Section 3.4.3). Cette fonction admet souvent un minimum, par exemple dans le cas où un des ensembles S i est borné [30]. On définit également la fonction de proximité relative par normalisation : φ 0 (x) = φ(x)/φ(x 0 ), en supposant que φ(x 0 ) Condition de focalisation Pour résoudre les Problèmes 3.1 et 3.2 considèrons un algorithme faisant intervenir à l itération n des opérateurs (T i,n ) i In tels que ( n N)( i I n ) Fix T i,n = S i. (3.8) On dit d un tel algorithme qu il vérifie la condition de focalisation [8, Definition 3.7] si pour toute suite extraite (x kn ) n 0 x kn x T i,kn x kn x kn 0 i x S i. (3.9) n 0 I k n Cette condition a été utilisée dans de nombreux articles [8, 11, 36]. Elle généralise des propriétés connues des résolvantes (Section 2.6) et des projecteurs sous-différentiels (Section 2.8). La propriété de demi fermeture en zéro (Proposition 2.2) pour les contractions en est aussi un cas particulier. On unifie grâce à cette condition [8, 36] des classes d algorithmes pour résoudre les Problèmes 3.1, 2.7 et La projection d Haugazeau Dans sa thèse [56] soutenue en 1968, Y. Haugazeau présente une formule explicite et simple à mettre en œuvre pour calculer la projection d un point sur l intersection de deux hyperplans dans un cas particulier. Il s agit de la projection sur H(a, b) H(b, c), où H(x, y) est l hyperplan passant par y et de vecteur orthogonal y x, défini en (2.25) (cf. Figure 3.1). Nous appellerons Q(a, b, c) la projection de a sur l intersection de ces deux hyperplans, soit Q(a, b, c) = P H(a,b) H(b,c) a. (3.10) 32

47 H(x 0, x n ) H(x 0, x n ) H(x n, T n x n ) b = x n c = T n x n S x n+1 = Q(x 0, x n, T n x n ) a = x 0 H(x n, T n x n ) Figure 3.1 Projection d Haugazeau. Pour calculer cette projection, on pose d abord π = a b b c, µ = a b 2, ν = b c 2, et ρ = µν π 2. On a alors [56, Théorème 3-1] c, si ρ = 0 et π 0; ( Q(a, b, c) = a π ) (c b), si ρ > 0 et πν ρ; ν (3.11) b + ν ( ) π(a b) + µ(c b), si ρ > 0 et πν < ρ. ρ Ce même théorème précise que (ρ = 0 et π < 0) H(a, b) H(b, c) =. Or ici ρ 0 (Cauchy-Schwarz) et S H(a, b) H(b, c) ; tous les cas apparaissent donc bien dans la formule précédente. Considérons maintenant l algorithme général suivant. Algorithme 3.6 Choisir x 0 H. À l itération n N, x n étant donné, sélectionner T n T. Si H(x 0, x n ) H(x n, T n x n ), 33

48 calculer x n+1 = Q(x 0, x n, T n x n ); (3.12) sinon arrêter. La proposition suivante résume les propriétés qui nous servirons. Proposition 3.7 [11, Proposition 3.4 and Theorem 3.5] Posons F = n 0 Fix T n, supposons que F, et soit (x n ) une orbite (finie ou infinie) de l Algorithme 3.6. Alors (i) L orbite est infinie : le vecteur x n est bien défini pour tout n. (ii) La suite ( x 0 x n ) n 0 est croissante, majorée par x 0 P F x 0, et donc convergente. (iii) La suite (x n ) n 0 est bornée. (iv) ( n N) x n F x n = P F x 0. (v) x n P F x 0 W(x n ) n 0 F. (vi) n 0 x n T n x n 2 < +. (vii) n 0 x n+1 x n 2 < Formulation dans un espace de Hilbert produit Cette formulation est due à Pierra [67, 69]. En plongeant le problème général (intersection d un nombre fini de fermés convexes) dans un espace de Hilbert produit, on se ramène à l intersection de deux ensembles dans un espace plus grand. De cette reformulation, on déduit la possibilité d utiliser un intervalle de relaxation plus grand, et ainsi d accélérer l algorithme. On se place dans le cas d un nombre fini m d ensembles, et on pose I = {1,..., m}. Afin de résoudre le problème Trouver x S = i I S i (3.13) dans l espace H, on considère l espace H = H m. Un élément x de H s écrit (x i ) i I. On se donne des poids (ω i ) i I vérifiant ω i = 1 et ( i I) ω i ]0; + [. (3.14) i I Le produit scalaire x y = i I ω i x i y i munit H d une structure d espace de Hilbert. Dans cet espace, nous nous intéressons à deux sous-ensembles particuliers : le sous-espace vectoriel diagonal D = {(x,..., x) x H}, (3.15) 34

49 et l ensemble convexe fermé produit S = S i. i I (3.16) On observe alors que le Problème 3.13 est, grâce à la bijection entre H et D, équivalent au problème Trouver x S D. (3.17) Ce formalisme sera explicitement utilisé dans la Section pour démontrer la convergence d un algorithme parallèle. Il est à la base des méthodes extrapolées Projections et projections sous-différentielles classiques Généralités Un principe récurrent en mathématiques est de décomposer un problème en problèmes plus simples. C est l approche utilisée ici pour aborder les Problèmes 3.1 et 1.2, qui sont décomposés en utilisant les projections sur des ensembles convexes fermés élémentaires. Lorsqu il n existe pas de formule explicite pour la projection, ou lorsque le calcul de cette projection est trop coûteux, certains algorithmes autorisent l utilisation de la projection sous-différentielle (Section 2.8). Les algorithmes seront détaillés dans les sections suivantes. Nous décrivons ici les projecteurs simples et explicites. De nombreux a priori, et particulièrement ceux permettant d incorporer de l information sur le bruit, sont définis à partir d un ou plusieurs paramètres. Ces paramètres peuvent être déterministes (par exemple si le modèle est un bruit borné) ou probabilistes. Dans ce dernier cas, l évaluation des paramètres est sujette à une analyse statistique [40, 76]. De nombreux autres exemples peuvent être trouvés dans [8, 20, 28, 32, 73, 74] Sous-espaces affines Il arrive qu une partie de l image soit connue, sur un sous-ensemble K de l ensemble des indices des pixels. Auquel cas, en notant a l image connue, nous pouvons utiliser la contrainte C = { x H x1 K = a 1 K }, (3.18) où 1 K désigne la fonction caractéristique de K. La projection se fait grâce à l opérateur P C : x a 1 K + x1{k. (3.19) 35

50 Si L désigne un opérateur linéaire unitaire de H dans H, (3.19) peut être étendu en définissant l ensemble C = { x H (Lx)1 K = a 1 K }, (3.20) dont l opérateur de projection est P C : x L 1 (a 1 K + (Lx) 1{K). (3.21) Cela permet notamment de définir des contraintes dans le domaine de Fourier. Des cas particuliers, très utilisés dans la pratique, sont les contraintes de support, dans le domaine spatial ou le domaine de Fourier Hyperplans et demi-espaces affines Un hyperplan affine peut s écrire sous la forme H = { x H x a = β }, (3.22) où a H {0} et β R. On supposera, sans perte de généralité, que le vecteur directeur a est de norme 1. La projection sur l hyperplan H s écrit P H x = x + (β x a )a. (3.23) Ce type de contrainte apparaît notamment en tomographie, cf. Chapitre 4. Dans beaucoup d applications, on ne connaît pas la valeur exacte de β et on est donc amené à relaxer la contrainte en utilisant un intervalle [β δ; β + δ], où δ ]0; + [. L ensemble correspondant est le tronçon C = { x H β δ x a β + δ }. (3.24) Le projecteur associé est donné dans (2.7). Des contraintes sur les moments s expriment notamment sous cette forme lorsque l espace est de dimension finie Boules La projection sur la boule B(a; r) de centre a H et de rayon r ]0; + [ est donnée par x, si x a r; P B(a;r) = a + r x a x a, sinon. (3.25) Ce type d ensemble permet d inclure un a priori sur une valeur maximale de l énergie (en prenant a = 0), ou sur la distance maximale par rapport à une image de référence. Cette contrainte peut également être utilisée dans le domaine de Fourier. 36

51 Variation totale La variation totale permet de mesurer l importance des oscillations dans un signal. Pour de nombreuses catégories de signaux, il est possible de connaître a priori une borne sur la variation totale. Dans le cas d images binaires, il s agit essentiellement de la somme des périmètres. Il est souvent possible de se référer à une banque de données de signaux du même type pour estimer la variation totale. Il paraît donc intéressant d exploiter de telles propriétés en limitant la variation totale. L utilisation de la variation totale en tant que terme de pénalisation en traitement d image est très répandue. Il est important de noter que nous nous intéressons ici à l utilisation de la variation totale en tant que contrainte, et non en tant qu objectif. Ceci a d abord été proposé dans [38] dans le cadre de problèmes de restauration. Nous détaillons le cas des images planes discrètes. Les cas en d autres dimensions (signal 1D, image 3D) se traitent pareillement. Nous considérons les images de taille N = p p comme des points de l espace euclidien R N. Il sera plus pratique d utiliser la notation en double indices (ligne, colonne) en notant x = [ξ i,j ] 1 i,j p R N. Nous pouvons utiliser comme discrétisation de la variation totale tv(x) = L ensemble p 1 i,j=1 ξ i+1,j ξ i,j 2 + ξ i,j+1 ξ i,j 2 p 1 p 1 + ξ i+1,p ξ i,p + ξ p,j+1 ξ p,j. (3.26) i=1 C = { x R N tv(x) τ }, (3.27) est un convexe fermé. Calculer la projection sur cet ensemble revient à résoudre un problème de minimisation sous contrainte, ce qui demande d utiliser un algorithme itératif et coûteux en temps. C est pourquoi nous utiliserons la projection sousdifférentielle (voir Section 2.8). La variation totale est une fonction très peu lisse, et le sous-gradient n est en général pas unique. Le calcul d un sous-gradient particulier se fait [38] en ramenant tv(x) à des fonctions de la forme z z, pour lesquelles nous sélectionnons le sous-gradient { z/ z, si z 0; (3.28) 0, sinon. L exemple que nous donnerons dans la Section montre l importance qu une contrainte sur la variation totale peut avoir sur le résultat en tomographie. Dans l article [22] (voir Chapitre 4), nous utilisons ce type de contrainte pour promouvoir le caractère discret de la solution recherchée dans une approche par programmation convexe. 37 j=1

52 Énergie du résiduel Soit une transformation linéaire L : H R N. On souhaite utiliser comme a priori le fait que le signal recherché x vérifie Lx = y R N. Une première approche classique consiste à utiliser des hyperplans (3.22) ou des tronçons (2.6), en imposant une contrainte sur chaque composante du vecteur y [51, 57]. Une autre approche remontant à [76] consiste à évaluer la norme maximale du résiduel y Lx. Nous revenons sur ce type de contrainte dans notre article [21]. L ensemble correspondant est alors C = { x H y Lx 2 δ}. (3.29) Ici encore, l utilisation d une projection sous-différentielle s avère beaucoup plus avantageuse que la projection classique [33]. La fonction ψ : x y Lx 2 est différentiable et donc le sous-gradient est unique ψ(x) = {2L (Lx y)}. (3.30) Nous détaillons l utilisation de cette méthode dans le cadre de la tomographie continue dans l article [21] (voir aussi Chapitre 4). 3.3 Le cas linéaire Ces premiers algorithmes itératifs portent sur les cas particuliers où tous les ensembles sont des hyperplans de H = R N. Il s agissait alors de résoudre des systèmes de m équations affines. Kaczmarz [60] cherchait à résoudre des équations linéaires sous la forme Ax = b, où b = (β i ) 1 i m R m. Pour cela, il a utilisé les lignes (a i ) 1 i m de la matrice A une par une de manière cyclique, en projetant le point courant sur l hyperplan {x R N x a i = β i }. Il démontre la convergence dans le cas extrêmement particulier où la matrice est inversible (en particulier m = N), c est-à-dire lorsque S est un singleton, S = {A 1 b}. Cette méthode fut redécouverte en 1970 dans le cadre de la tomographie [51], et appelée ART pour algebraic reconstruction technique. Algorithme 3.8 (Kaczmarz, 1937) [60] Choisir x 0 R m et, pour tout n N, calculer x n+1 = P i(n) x n, où i(n) = (n mod m) + 1. (3.31) L algorithme de Cimmino [29] réalise la moyenne des réflexions sur chacun des ensembles (sa convergence est établie dans le cas d un système carré inversible). 38

53 Algorithme 3.9 (Cimmino, 1938) [29] Choisir x 0 R m et, pour tout n N, calculer x n+1 = 2 P i x n x n. (3.32) m m I C est le premier algorithme parallèle. On entend par là que les différentes projections peuvent être calculées simultanément et indépendamment avant d être combinées. Il est ainsi facile de tirer parti d une architecture informatique parallèle. Concrètement, chaque itération calcule la réflexion du point courant x n sur chacun des ensembles, et en fait la moyenne. C est également le premier exemple d utilisation d une sur-relaxation. Une extension de (3.31) au cas d inégalités affines est donnée dans [1, 65]. Citons aussi le théorème des projections alternées de Von Neumann (1933) qui correspond au cas de m = 2 sous-espaces vectoriels fermés en dimension infinie et qui donne (P 1 P 2 ) n x 0 P S1 S 2 x 0, et l utilisation par Schwarz, en 1870, d une méthode similaire dans le cadre de l intégration d équations aux dérivées partielles [44]. 3.4 Algorithmes pour l admissibilité convexe Nous rappelons ici les principaux algorithmes utilisés pour résoudre le Problème 3.1. On trouvera d autres algorithmes et références dans [2, 8, 10, 12, 23, 27, 32, 33]. La première étape fut de généraliser au cas convexe (fermé) les algorithmes précédents. On rappelle que les ensembles (S i ) i I sont des convexes fermés non vides POCS La généralisation de ces méthodes à des ensembles non linéaires commence avec la méthode POCS [15, 47], pour projection onto convex sets. Cet algorithme fut étendu [53] pour autoriser l utilisation de relaxations, mais reste séquentiel (voir aussi [62, 78]). Ici I = {1,, m}. Algorithme 3.10 (POCS, avec relaxations) Choisir x 0 H et, pour tout n N, calculer avec x n+1 = x n + λ n (P i(n) x n x n ), (3.33) (i) balayage cyclique i(n) = (n mod m) + 1 ; 39

54 (ii) 0 < ɛ < 1 ; (iii) ɛ λ n 2 ɛ. L. M. Bregman a démontré [15] en 1965 la convergence faible dans le cadre compatible (S ) et sans relaxation. Il utilise notamment, de manière non explicite, la notion de suite monotone au sens de Fejér (Section 3.2.2). Des conditions suffisantes pour obtenir la convergence forte ont été trouvées par la suite [53, 66, 75] SIRT SIRT est l acronyme de simultaneous iterative reconstruction technique et fut introduit dans [50] en 1972 dans le cadre de la dimension finie et de demi-espaces affines. Cet algorithme fut souvent redécouvert dans les différents domaines d application. En 1969, Auslender fut le premier à démontrer la convergence faible dans le cas général d ensembles convexes en dimension infinie [4]. La méthode s inspire de l Algorithme 3.9 de Cimmino, et utilise la moyenne des projections sur les ensemblescontrainte. On prend I = {1,, m}. Algorithme 3.11 (SIRT) [4, 5, 41, 42] Choisir x 0 H et, pour tout n N, calculer x n+1 = 1 m m P i x n. (3.34) i=1 Une importante différence avec la méthode de Cimmino est que l utilisation des réflexions (sur-relaxations avec λ = 2) n est pas autorisée ici. Le succès de SIRT est lié à son bon comportement dans l étude de problèmes bruités, qui donne souvent un problème incompatible (S = ). Son utilisation dans les problèmes compatibles fut toutefois limitée par un inconvénient majeur : bien qu utilisant des calculs parallèles, SIRT est plus lent que ART ou POCS [57] PPM L utilisation de relaxations pour la méthode précédente, donne la généralisation suivante, appelée PPM pour parallel projection method. Algorithme 3.12 (PPM) [30, 43, 66] Fixer ɛ ]0; 1], x 0 H et des poids (ω i ) i I strictement positifs tels que i I ω i = 1. Pour tout n N calculer ( x n+1 = x n + λ n ω i P i x n x n ), avec ɛ λ n 2 ɛ. (3.35) i I 40

55 La convergence faible est démontrée dans [30], et s appuie sur la formulation dans l espace de Hilbert produit décrite Section L article s intéresse au cas incompatible. Alors que l algorithme POCS ne converge pas en général dans ce cas, PPM converge, lorsqu il existe, vers un minimiseur de la fonction de proximité (Section 3.2.3) φ(x) = 1 ω i d Si (x) 2 = 1 ω i x P i x 2, (3.36) 2 2 i I i I c est-à-dire vers une solution aux moindres carrés du problème de minimisation. La convergence est plus rapide dans le cas de sur-relaxations [30] Méthodes itératives par blocs Il y a plusieurs avantages à avoir un algorithme permettant de sélectionner les contraintes à activer à chaque itération. La mise en œuvre se doit de prendre en compte les capacités actuelles des ordinateurs (multi-cœur, multi-processeurs, voire grille de calcul), et un tel algorithme s adapterait très naturellement à une infrastructure distribuée. Mais cela permet aussi de tirer parti de l amélioration décrite dans la Section 3.4.6, qui accélère nettement la convergence intrinsèque de l algorithme. Aussi, il est courant d avoir un grand nombre de contraintes. Nous verrons par exemple dans la Section une expérience avec plusieurs dizaines de milliers d ensembles. Les premières méthodes utilisaient une seule contrainte à chaque itération (Algorithme 3.10, POCS), ou à l extrême opposé toutes les contraintes systématiquement (Algorithme 3.11, SIRT). D un point de vue pratique, le nombre de processeurs, ou de cœurs, est fixe, et généralement plus petit que le nombre de contraintes. Il paraît donc opportun que l algorithme puisse être adapté à l infrastructure matérielle. Il peut y avoir une grande disparité dans le temps nécessaire à l activation d une contrainte. Une contrainte de type (3.19) est très rapide à calculer (il suffit de mettre les pixels d indices dans K à la valeur connue), alors qu une contrainte de type (3.27) nécessite plusieurs produits scalaires et l extraction d une racine carrée. Le concept d algorithme itératif par blocs permet de prendre toutes ces considérations en compte. Il offre la possibilité de choisir les contraintes utilisées à chaque itération, et en particulier le nombre de ces contraintes. Cela donne une grande liberté à la mise en œuvre, et autorise l ingénieur ou l expert du domaine d utilisation à adapter l algorithme à son cas particulier. Pour garantir la convergence, les théorèmes posent des conditions sur la stratégie de balayage. Ces conditions sont peu contraignantes. Les plus importantes sont décrites dans la Section La plupart des premiers algorithmes (POCS, SIRT, ANCA [43]) en sont des cas particuliers. 41

56 Les premiers algorithmes itératifs par blocs ont été proposés [66] dans le cadre d un espace de Hilbert, suivis de développements dans [8, 12, 17, 18, 31, 33, 34, 35, 37, 48, 39, 52]. L application de ce type de méthode à l imagerie médicale est développée dans [24]. On trouvera des méthodes plus générales dans [33] Utilisation des projections sous-différentielles La première utilisation de projecteurs sous-différentiels (Section 2.8) dans un algorithme remonte à 1967 [71]. D autres algorithmes sont ensuite apparus dans [6, 26, 33, 45, 58, 70]. Ces résultats théoriques ont un impact fort sur les applications. D un point de vue pratique, il suffit en effet souvent de remplacer un projecteur par un projecteur sur un demi-espace, sans modifier le reste de l algorithme. Les codes informatiques, par exemple, ne nécessitent que des modifications mineures. Nous verrons des exemples de tels algorithmes dans les Sections et Méthode extrapolée Le formalisme introduit dans la Section (dont nous reprenons ici les notations) permet de justifier l utilisation de relaxations plus importantes, ce qui accélère le plus souvent la convergence de l algorithme. Nous pouvons en effet appliquer l Algorithme 3.10 des projections alternées, ou POCS, dans l espace produit H. Il n y a alors que les deux ensembles convexes fermés D et S à considérer, ce qui s écrit ( n N) x n+1 = x n + λ n (P D (P S x n ) x n ) (3.37) avec ɛ ]0; 1] et ( n N) ɛ λ n 2 ɛ. On pose (voir Figure 3.2) s n = P S x n et d n = P D s n. On désigne par e n l intersection d un hyperplan d appui H n de S en s n avec la demi droite issue de x n et passant par d n. Dans (3.37), nous pouvons obtenir x n+1 = e n en prenant pour coefficient de relaxation L n = e n x n d n x n = s n x n 2 d n x n 2 = P S x n x n 2 P D P S (x n ) x n 2. (3.38) Pierra démontre alors [67, 69] que l algorithme (3.37) converge encore en autorisant la relaxation ( n N) ɛ λ n L n avec ɛ ]0; 1]. (3.39) La démonstration repose essentiellement sur le fait que la suite reste Fejér-monotone par rapport à S D. En effet, un point choisi sur le segment ]x n ; e n ] sera plus proche de n importe quel point de S D que x n. 42

57 S = i I S i H n s n e n d n x n D Figure 3.2 Projection dans l espace produit. On rappelle que la définition de l espace produit fait intervenir des poids (ω i ) i I strictement positifs vérifiant i I ω i = 1. Une fois obtenue la convergence dans l espace produit, on se replace dans l espace original, grâce aux formules ( x = (x,..., x) D) P S x = (P i x) i I (3.40) et ( ( x H) P D x = ω i x i,..., i I i I ω i x i ). (3.41) On obtient alors l algorithme suivant. Algorithme 3.13 Choisir ɛ ]0; 1] et x 0 H quelconques, puis pour tout n N choisir ɛ λ n L n et calculer ( ) x n+1 = x n + λ n ω i P i x n x n i I (3.42) (3.43) 43

58 où ω i P i x n x n 2 i I L n = 2, si x n / S; ω i P i x n x n i I 1, sinon. (3.44) Toujours en se basant sur le caractère Fejér monotone de la suite obtenue, on peut montrer [34] que l intervalle de relaxation suivant peut être utilisé, sans perdre la convergence de l algorithme ( n N) ɛ λ n (2 ɛ)l n avec ɛ ]0; 1]. (3.45) L intérêt de cette méthode est d autoriser des relaxations plus grandes que 2, ce qui accélère nettement la convergence de l algorithme [33]. Le premier exemple d utilisation de ce type d extrapolation remonte à Merzlyakov [64] en 1963, pour résoudre des systèmes d inégalités affines dans R n. L exemple en deux dimensions décrit dans la Section 6.3 permet de mieux comprendre ce phénomène. Notons que, puisque x x 2 est convexe, on a ( n N) L n 1. (3.46) Méthode extrapolée de classe T La plupart des nombreux algorithmes parallèles introduits récemment [8, 33, 61] peuvent être décrits dans le cadre de la classe T (voir Section 2.9). Cet algorithme, le plus complet et le plus moderne, prend en compte les différentes améliorations apportées depuis POCS. Il représente l état de l art actuel. Il fut introduit dans [31] pour résoudre le Problème 1.1 d admissibilité convexe dans le cas de contractions fermes, étendu aux projections sous-différentielles dans [33], et finalement aux opérateurs de classe T dans [36]. C est cette dernière version, qui généralise toutes les précédentes, que nous exposons ici (sans toutefois prendre en compte les erreurs tolérées dans l analyse de [36]). Les contraintes sont en particulier activées par blocs, comme il est décrit dans la Section et l algorithme autorise les projections sous-différentielles (Section 3.4.5). L ensemble I considéré est au plus dénombrable. Algorithme 3.14 (méthode extrapolée de classe T) Fixer (δ 1, δ 2 ) ]0; 1[ 2, x 0 H et des poids (ω i ) i I strictement positifs tels que i I ω i = 1. Pour chaque itération n N calculer ( ) x n+1 = x n + λ n L n ω i,n T i,n x n x n, (3.47) i I n 44

59 où (i) I n I, card I n < + ; (ii) ( i I n ) T i,n T et Fix T i,n = S i ; (iii) ( i I n ) ω i,n [0; 1], i I n ω i,n = 1 et ( j I n ) { Tj,n x n = max T i,n x n x n ; i I n ω j,n δ 1 ; ω i,n T i,n x n x n 2 i I n 2 (iv) L n =, si x n / i I n S i ; ω i,n T i,n x n x n i I n 1, sinon; (v) λ n [δ 2 /L n ; 2 δ 2 ]. On démontre alors [36] la convergence faible x n sous les hypothèses suivantes : (i) S. (ii) Le balayage est admissible (3.4). (iii) L algorithme a la propriété de focalisation (3.9). x S de cet algorithme Remarque 3.15 (i) Dans l Algorithme 3.14, l ensemble des solutions admissibles S est éclaté et l algorithme n agit que sur les ensembles-contrainte (S i ) i I individuellement. (ii) L Algorithme 3.14 peut efficacement être mis en œuvre en adaptant, par le choix des blocs d ensembles, la charge de calcul de chaque itération à la puissance des processeurs parallèles disponibles. (iii) Un cas particulier important est celui où les opérateurs sont tous des projections sous-différentielles (ou des projecteurs). La condition de focalisation (3.9) est vérifiée lorsque l on fait l hypothèse (classique) que les sous-différentiels ( f i ) i I sont bornés sur les ensembles bornés. C est toujours le cas si dim H < + [72]. 45

60 3.5 Algorithmes pour la meilleure approximation admissible Nous décrivons dans ce chapitre les principales familles d algorithmes utilisés pour résoudre le Problème 3.2. Plus généralement, il s agit de minimisation sur l ensemble admissible (Problème 1.2), mais l utilisation concrète la plus courante est celle du cas particulier des projections sur l ensemble admissible, c est-à-dire en utilisant la fonctionnelle J : x x x La méthode de Dykstra Au début des années 1980, Dykstra [14, 46] a proposé un algorithme dans le cas d un nombre fini de contraintes, I = {1,..., m}. Grâce à une modification sur l itéré courant dans POCS (Algorithm 3.10) avant d effectuer la projection sur un des ensembles, on obtient la garantie de converger vers P S x 0, et ceci fortement. Nous présentons ici une version parallèle plus récente, issue des nombreuses améliorations parues depuis dans la littérature. Algorithme 3.16 (Dykstra parallèle) Choisir des poids (ω i ) 1 i m strictement positifs et vérifiant 1 i m ω i = 1, et x 0 H. Poser pour (1 i m) z i,0 = x 0, puis, pour tout n N, calculer m x n+1 = ω i P i z i,n (3.48) i=1 ( i {1,, m}) z i,n+1 = x n+1 + (z i,n P i z i,n ). Il s agit essentiellement de l Algorithme 3.12 (PPM), modifié de la manière suivante : pour tout i I, le vecteur z i,n P i z i,n, qui est la normale à S i en P i z i,n est ajouté à x n+1 avant d effectuer la projection sur S i. Si les ensembles (S i ) i I sont tous des sous-espaces affines, alors P i z i,n = P i x n et on retrouve l Algorithme 3.12 (PPM). Théorème 3.17 [7, 49] La suite définie par l Algorithme 3.16 converge fortement vers P S x La méthode du point d ancrage Une seconde approche, basée sur les travaux de Benjamin Halpern [55], puis Pierre-Louis Lions [63], est la méthode appelée point d ancrage. Il en existe plusieurs versions avec divers raffinements [6, 31, 77], mais l essence de la méthode est de retenir les approximations successives grâce à des itérations du type ( n N) x n+1 = α n x 0, +(1 α n )T n x n (3.49) 46

61 où les (T n ) n 0 sont des contractions. Le point x 0 est le point d ancrage, et les coefficients (α n ) n 0 [0; 1] ont vocation à tendre vers 0 (notons que cette hypothèse est strictement parlant impossible à mettre en œuvre sur un ordinateur). Des théorèmes nous assurent effectivement la convergence forte de ces méthodes vers P S x 0. Des développements récents sur cette méthode peuvent être trouvés dans [59] et les références qui s y trouvent Une méthode de type Haugazeau L approche la plus récente [35, 37] utilise les résultats de Haugazeau (Section 3.2.5). Selon un principe de convergence établi dans [11], un algorithme utilisé pour résoudre le Problème 3.1 peut, sous certaines conditions, être modifié en utilisant la projection de Haugazeau de telle manière que le nouvel algorithme résout le Problème 3.2, et la convergence faible devient une convergence forte. Le passage de la convergence faible à la convergence forte représente une avancée, même en dimension finie, car il présage un meilleur comportement asymptotique [54]. La modification à apporter est la suivante. Un algorithme pour résoudre le Problème 3.1 s écrira de manière générale ( n N) x n+1 = T n x n. (3.50) Afin de résoudre le Problème 3.2 plus exigeant, on restreint l évolution de l orbite de la manière suivante ( n N) x n+1 = Q(x 0, x n, T n x n ), (3.51) où Q est défini en (3.10). Par exemple, l algorithme classique de Haugazeau [56] x 0 = y ; ( n N) x n+1 = Q(x 0, x n, P i(n) x n ) avec balayage cyclique, (3.52) converge vers la solution du Problème 3.2. La section suivante en donne un autre exemple Un nouvel algorithme par blocs de type Haugazeau Un algorithme itératif pour la minimisation strictement convexe dans le cadre d un Banach réflexif est fournie dans [35]. L article [37] en donne une variante hilbertienne pour les projections sous-différentielles et un objectif quadratique. L algorithme qui suit est l équivalent de l algorithme décrit dans la Section 3.4.7, mais adapté au Problème 3.2 de meilleure approximation. Il utilise pour cela la projection de Haugazeau décrite au paragraphe précédent. 47

62 Algorithme 3.18 Fixer (δ 1, δ 2 ) ]0; 1[ 2, et x 0 H. Pour chaque itération n N calculer avec x n+1 = Q(x 0, x n, T n x n ), (3.53) ( ) T n : H H : x x + λ n L n ω i,n T i,n x x, (3.54) i I n où (i) I n I, card I n < + ; (ii) ( i I n ) T i,n T et Fix T i,n = S i ; (iii) ( i I n ) ω i,n [0; 1], i I n ω i,n = 1 et ( j I n ) { Tj,n x n = max T i,n x n x n ; i I n ω j,n δ 1 ; ω i,n T i,n x n x n 2 i I n 2 (iv) L n =, si x n / i I n S i ; ω i,n T i,n x n x n i I n (v) λ n [δ 2 ; 1]. 1, sinon; Il s agit donc de l algorithme extrapolé de classe T, mais en utilisant en plus une projection de type Haugazeau à chaque itération. L opérateur Q a été défini en (3.11). Théorème 3.19 Supposons que les conditions suivantes soient vérifiées. (i) S. (ii) Le balayage est admissible (3.4). (iii) L algorithme a la propriété de focalisation (3.9). Alors l orbite définie par l Algorithme 3.18 converge fortement vers la projection sur S de x 0 : x n P S x 0. (3.55) Démonstration. Nous procédons en plusieurs étapes. On fixe un point quelconque y S (qui est non vide, rappelons-le), et on suppose que β(y) = sup n N x n y (3.56) est non nul (sinon le résultat se déduit directement de la propritété (iv) de la Proposition 3.7). 48

63 Étape 1 : Les opérateurs (T n ) n 0 sont de classe T. En effet, grâce à la Proposition 2.13, nous pouvons écrire ( n N) Fix T n = i I n Fix T i,n et T n T. Étape 2 : n 0 Fix T n. Plus précisément, on a S n 0 Fix T n, car comme le balayage est admissible, on déduit de l étape 1 que S = S i = S i i I n 0 i I n n 0 i I n w i,n >0 Fix T i,n = n 0 Fix T n. (3.57) Étape 3 : L algorithme est bien défini. Pour tout n N, L n et T n sont toujours bien définis (voir description de l algorithme). En combinant la Proposition 3.7 et l étape 2, on déduit que x n est également bien défini pour tout n. Notons que, toujours d après la Proposition 3.7, l orbite est bornée et possède donc au moins un point faiblement adhérent : W(x n ) n 0. Étape 4 : max i In T i,n x n x n 0. En utilisant la définition de L n et l inégalité (3.46), on obtient 2 x n T n x n 2 = λ 2 nl 2 n ω i,n T i,n x n x n (3.58) i I n 2 δ2 2 ω i,n T i,n x n x n. (3.59) i I n Par ailleurs, (Proposition 2.12) ( T T)( (x, y) H Fix T ) T x x 2 y x T x x, (3.60) et donc ω i,n T i,n x n x n 2 y x i In ω i,n T i,n x n x n (3.61) i I n y x ω i,n T i,n x n x n (3.62) i I n 49

64 soit encore ω i,n T i,n x n x n 1 ω i,n T i,n x n x n 2 (3.63) β(y) i I n i I n δ 1 β(y) max i I n T i,n x n x n 2. (3.64) On conclut grâce à la propriété (vi) de la Proposition 3.7, qui implique que x n T n x n 2 0, (3.65) et aux inégalités (3.59) et (3.64). Étape 5 : W(x n ) n 0 S. Soient i I fixé et x W(x n ) n 0, on a donc une sous-suite x kn x. Comme le balayage est admissible, on peut trouver une suite strictement croissante d indices (p n ) n 0 dans N telle que ( n N) k n p n k n + M i 1 et i I pn. (3.66) On a alors en utilisant l inégalité de Cauchy-Schwarz ( n N) x pn x kn k n +M i 2 l=k n x l+1 x l Mi 1 x l+1 x l 2. (3.67) l k n La propriété (vii) de la Proposition 3.7 nous assure alors que x pn x kn 0, on en déduit que x pn x, mais avec cette fois i n 0 I p n. On utilise l étape 4 pour écrire que T i,pn x i,pn x i,pn 0. Comme l algorithme a la propriété de focalisation, on conclut que x S i, et, comme i est quelconque, que x S. Étape 6 : Conclusion. La propriété (v) de la Proposition 3.7 et l étape 5 nous permettent d affirmer que x n P S x 0. Remarque 3.20 (i) Une autre approche générale sur ce type d algorithme itératif par blocs en utilisant une méthode de type Haugazeau se trouve dans [35, Section 6.4]. (ii) L Algorithme original (3.52) de Haugazeau est un cas particulier en considérant un balayage cyclique (( n N) I n = {n mod card I + 1}), des relaxations (λ n ) n N fixées à 1, et les opérateurs sont des projecteurs classiques. (iii) L algorithme décrit dans [68] est un cas particulier correspondant au cas où le balayage est statique (I n {1,..., m}), les opérateurs sont des projecteurs classiques, les poids sont uniformes, et les relaxations (λ n ) n N sont fixées à 1. 50

65 3.6 Algorithmes utilisant les projections de Bregman Nous avons vu à la Section 2.10 qu une extension possible de la notion métrique de projection était la projection au sens de Bregman, c est-à-dire (2.30). Nous nous intéressons dans cette section aux algorithmes qui utilisent ces projections. Nous utiliserons le formalisme introduit dans la Section 2.10, et nous nous plaçons donc dans le même cadre, celui d un espace de Banach réel réflexif X, muni du crochet de dualité,. Le terme projection désignera une projection au sens de Bregman (2.30). Rappelons qu une distance de Bregman est définie à partir d une fonction convexe f, que nous supposons ici propre et semi-continue inférieurement, soit (voir les notations en début de thèse) f Γ 0 (X ). Plusieurs problèmes surviennent si on cherche à transposer les algorithmes vus auparavant. Il est difficile dans le cas général de calculer une projection, même pour des ensembles très simples comme ceux décrits dans la Section Un cas exploitable en pratique est la projection sur un hyperplan ou un demi-espace, qui nécessite tout de même un algorithme itératif. Ceci est détaillé dans la Section Il est alors possible d étendre certains algorithmes, en utilisant systématiquement des projections sous-différentielles (pour lesquelles la projection sur un demi-espace suffit). Il faut toutefois pour cela redéfinir la projection sous-différentielle dans le cadre des projections de Bregman. Définition 3.21 [10, Definition 3.37] Supposons que (i) f est une fonction de Legendre (cf. Définition 2.15). (ii) g : X ] ; + ] est convexe et semi-continue inférieurement. (iii) lev 0 g int dom f et dom f dom g. Pour x int dom f et x g(x), posons G(x, x ) = {y X x y, x g(x)}. (3.68) L opérateur Q g : int dom f X : x {P G(x,x ) x g(x)} (3.69) est appelé projection sous-différentielle sur lev 0 g. est d appartenir [10, Proposi- Une propriété importante de l opérateur Q g tion 3.38] à la classe B (Définition 2.16). Un premier algorithme a d abord été proposé en 1997 dans [3]. C est un algorithme de type POCS, utilisant les projections de Bregman de manière séquentielle, avec un balayage cyclique. Pour pouvoir définir des algorithmes parallèles, il faut 51

66 trouver un moyen de combiner les résultats de plusieurs projections. L algorithme suivant est proposé dans [10]. Voir aussi [25] pour un autre exemple d algorithme parallèle. Algorithme 3.22 [10, Algorithm 5.1] Fixer x 0 int dom f. Pour chaque itération n N, sélectionner (i) un ensemble d indices I n I, card I n < + ; (ii) des opérateurs (T i,n ) i In dans B tels que ( i I n ) S i int dom f Fix T i,n ; (iii) des points (u i,n ) i In i I n T i,n x n ; (iv) des poids (ω i,n ) i In dans [0; 1] vérifiant i I n ω i,n = 1 ; (v) un paramètre de relaxation λ n ]0; 1]. Poser (vi) x n = f(x n ) i I n ω i,n f(u i,n ) ; (vii) η n = x n, x n λ n (viii) H n = {y X y, x n η n } ; (ix) x n+1 = P Hn x n. i I n ω i,n u i,n x n, f(u i,n ) f(x n ) ; Un théorème [10, Théorème 5.7] assure la convergence faible vers un point de S des orbites ainsi définies, sous diverses hypothèses que nous ne détaillerons pas ici. Les orbites obtenues par cet algorithme convergent plus rapidement que l algorithme séquentiel. Cette approche est justifiée par la remarque suivante : si on considère le cas particulier où X est un espace de Hilbert et f = 2 /2, alors l algorithme obtenu est celui de la Section Cette manière de combiner les opérateurs généralise donc la méthode extrapolée. Les méthodes métriques pour résoudre le Problème 1.3 ont été adaptées dans le cadre des distances de Bregman. Une version Dykstra (voir la Section 3.5.1) a d abord été proposée [13]. Comme dans le cas métrique, la convergence est plus lente. L algorithme exige l utilisation de projections exactes, ce qui est particulièrement contraignant dans le cadre des distances de Bregman, car il y a très peu d ensembles pour lesquels cette projection est facile à calculer. L approche par plan sécant de type Haugazeau (voir la Section 3.5.3) apparaît alors plus intéressante. C est ce qui est préconisé dans l article [9], qui propose une méthode pour calculer la projection (toujours au sens de Bregman) d un point donné sur l ensemble admissible dans un Banach réflexif. 52

67 3.7 Bibliographie [1] S. Agmon, The relaxation method for linear inequalities, Canadian Journal of Mathematics, vol. 6, pp , [2] R. Aharoni, A. Berman, and Y. Censor, An interior points algorithm for the convex feasibility problem, Advances in Applied Mathematics, vol. 4, pp , [3] Y. Alber and D. Butnariu, Convergence of Bregman projection methods for solving consistent convex feasibility problems in reflexive Banach spaces, Journal of Optimization Theory and Applications, vol. 92, pp , [4] A. Auslender, Méthodes Numériques pour la Résolution des Problèmes d Optimisation avec Contraintes. Thèse, Faculté des Sciences de Grenoble, [5] A. Auslender, Optimisation. Méthodes numériques, Masson, Paris, [6] H. H. Bauschke, The approximation of fixed points of compositions of nonexpansive mappings in Hilbert space, Journal of Mathematical Analysis and its Application, vol. 202, pp , [7] H. H. Bauschke and J. M. Borwein, Dykstra s alternating projection algorithm for two sets, Journal of Approximation Theory, vol. 79, pp , [8] H. H. Bauschke and J. M. Borwein, On projection algorithms for solving convex feasibility problems, SIAM Review, vol. 38, pp , [9] H. H. Bauschke and P. L. Combettes, Construction of best Bregman approximations in reflexive Banach spaces, Proceedings of the American Mathematical Society, vol. 131, pp , [10] H. H. Bauschke, J. M. Borwein, and P. L. Combettes, Bregman monotone optimization algorithms, SIAM Journal on Control and Optimization, vol. 42, pp , [11] H. H. Bauschke and P. L. Combettes, A weak-to-strong convergence principle for Fejér-monotone methods in Hilbert spaces, Mathematics of Operations Research, vol. 26, pp , [12] H. H. Bauschke, P. L. Combettes, and S. G. Kruk, Extrapolation algorithm for affine-convex feasibility problems, Numerical Algorithms, vol. 41, pp , [13] H. H. Bauschke and A. S. Lewis, Dykstra s algorithm with Bregman projections : A convergence proof, Optimization, vol. 48, pp , [14] J. P. Boyle and R. L. Dykstra, A method for finding projections onto the intersection of convex sets in Hilbert spaces, Lecture Notes in Statistics, vol. 37, pp , [15] L. M. Bregman, The method of successive projection for finding a common point of convex sets, Soviet Mathematics - Doklady, vol. 5, pp ,

68 [16] F. E. Browder, Convergence theorems for sequences of nonlinear operators in Banach spaces, Mathematische Zeitschrift, vol. 100, pp , [17] D. Butnariu and Y. Censor, On the behavior of a block-iterative projection method for solving convex feasibility problems, International Journal of Computer Mathematics, vol. 34, pp , [18] D. Butnariu and Y. Censor, Strong convergence of almost simultaneous blockiterative projection methods in Hilbert spaces, Journal of Computational and Applied Mathematics, vol. 53, pp , [19] D. Butnariu, R. Davidi, G. T. Herman, and I. G. Kazantsev, Stable convergence behavior under summable perturbations of a class of projection methods for convex feasibility and optimization problems, IEEE Journal of Selected Topics in Signal Processing, vol. 1, pp , [20] C. L. Byrne, Signal Processing : A Mathematical Approach, A. K. Peters, Wellesley, MA, [21] T. D. Capricelli and P. L. Combettes, Éclatement des contraintes en reconstruction tomographique, Proceedings of the 20th GRETSI Symposium, pp , [22] T. D. Capricelli and P. L. Combettes, Parallel block-iterative reconstruction algorithms for binary tomography, Electronic Notes in Discrete Mathematics, pp , [23] Y. Censor, Iterative methods for the convex feasibility problem, Annals of Discrete Mathematics, vol. 20, pp , [24] Y. Censor, Parallel application of block-iterative methods in medical imaging and radiation therapy, Mathematical Programming, vol. 42, pp , [25] Y. Censor and T. Elfving, A multiprojection algorithm using Bregman projections in a product space, Numerical Algorithms, vol. 8, pp , [26] Y. Censor and A. Lent, Cyclic subgradient projections, Mathematical Programming, vol. 24, pp , [27] Y. Censor and A. Segal, Iterative projection methods in biomedical inverse problems, in : Y. Censor, M. Jiang, and A.K. Louis (Eds.), Mathematical Methods in Biomedical Imaging and Intensity-Modulated Radiation Therapy (IMRT), Edizioni della Normale, Pisa, Italy, à paraître. [28] Y. Censor and S. A. Zenios, Parallel Optimization : Theory, Algorithms and Applications, Oxford University Press, New York, [29] G. Cimmino, Calcolo approssimato per le soluzioni dei sistemi di equazioni lineari, La Ricerca Scientifica, vol. 1, pp , [30] P. L. Combettes, Inconsistent signal feasibility problems : Least-squares solutions in a product space, IEEE Transactions on Signal Processing, vol. 42, pp ,

69 [31] P. L. Combettes, Construction d un point fixe commun à une famille de contractions fermes, Comptes Rendus de l Académie des Sciences (Paris), Série I, vol. 320, pp , [32] P. L. Combettes, The convex feasibility problem in image recovery, Advances in Imaging and Electron Physics, P. Hawkes (Editor), vol. 95, pp , [33] P. L. Combettes, Convex set theoretic image recovery by extrapolated iterations of parallel subgradient projections, IEEE Transactions on Image Processing, vol. 6, pp , [34] P. L. Combettes, Hilbertian convex feasibility problem : Convergence of projection methods, Applied Mathematics and Optimization, vol. 35, pp , [35] P. L. Combettes, Strong convergence of block-iterative outer approximation methods for convex optimization, SIAM Journal on Control and Optimization, vol. 38, pp , [36] P. L. Combettes, Quasi-Fejérian analysis of some optimization algorithms, in : D. Butnariu, Y. Censor, and S. Reich (Eds.), Inherently Parallel Algorithms in Feasibility and Optimization and Their Applications, Elsevier, New York, pp , [37] P. L. Combettes, A block-iterative surrogate constraint splitting method for quadratic signal recovery, IEEE Transactions on Signal Processing, vol. 51, pp , [38] P. L. Combettes and J. C. Pesquet, Image restoration subject to a total variation constraint, IEEE Transactions on Image Processing, vol. 13, pp , [39] P. L. Combettes and H. Puh, Iterations of parallel convex projections in Hilbert spaces, Numerical Functional Analysis and Optimization, vol. 15, pp , [40] P. L. Combettes and H. J. Trussell, The use of noise properties in set theoretic estimation, IEEE Transactions on Signal Processing, vol. 39, pp , [41] G. Crombez, Image recovery by convex combinations of projections, Journal of Mathematical Analysis and Applications, vol. 155, pp , [42] A. R. De Pierro and A. N. Iusem, A parallel projection method for finding a common point of a family of convex sets, Pesquisa Operacional, vol. 5, pp. 1 20, [43] A. R. De Pierro and A. N. Iusem, Convergence results for an accelerated nonlinear Cimmino algorithm, Numerische Mathematik, vol. 49, pp , [44] F. Deutsch, The method of alternating orthogonal projections, in : Approximation Theory, Spline Functions and Applications, Kluwer, Dordrecht, pp ,

70 [45] L. T. Dos Santos, A parallel subgradient projections method for the convex feasibility problem, Journal of Computational and Applied Mathematics, vol. 18, pp , [46] R. L. Dykstra, An algorithm for restricted least squares regression, Journal of the American Statistical Association, vol. 78, pp , [47] I. I. Eremin, Generalization of the relaxation method of Motzkin-Agmon, Uspekhi Matematicheskikh Nauk, vol. 20, pp , [48] S. D. Flåm and J. Zowe, Relaxed outer projections, weighted averages, and convex feasibility, BIT, vol. 30, pp , [49] N. Gaffke and R. Mathar, A cyclic projection algorithm via duality, Metrika, vol. 36, pp , [50] P. Gilbert, Iterative methods for the three-dimensional reconstruction of an object from projections, Journal of Theoretical Biology, vol. 36, pp , [51] R. Gordon, R. Bender, and G. T. Herman, Algebraic reconstruction techniques (ART) for three-dimensional electron microscopy and X-ray photography, Journal of Theoretical Biology, vol. 29, pp , [52] F. J. González-Castaño, U. M. García-Palomares, J. L. Alba-Castro, and J. M. Pousada-Carballo, Fast image recovery using dynamic load balancing in parallel architectures, by means of incomplete projections, IEEE Transactions on Image Processing, vol. 10, pp , [53] L. G. Gubin, B. T. Polyak, and E. V. Raik, The method of projections for finding the common point of convex sets, USSR Computational Mathematics and Mathematical Physics, vol. 7, pp. 1 24, [54] O. Güler, On the convergence of the proximal point algorithm for convex minimization, SIAM Journal on Control and Optimization, vol. 29, pp , [55] B. Halpern, Fixed points of nonexpanding maps, Bulletin of the American Mathematical Society, vol. 73, pp , [56] Y. Haugazeau, Sur les Inéquations Variationnelles et la Minimisation de Fonctionnelles Convexes, Thèse, Université de Paris, [57] G. T. Herman, Image Reconstruction from Projections, the Fundamentals of Computerized Tomography, Academic Press, New York, [58] A. N. Iusem and L. Moledo, A finitely convergent method of simultaneous subgradient projections for the convex feasibility problem, Mathemática Aplicada e Computacional, vol. 5, pp , [59] S. A. Hirstoaga, Iterative selection methods for common fixed point problems, Journal of Mathematical Analysis and Applications, vol. 324, pp ,

71 [60] S. Kaczmarz, Angenäherte Auflösung von Systemen linearer Gleichungen, Bulletin de l Académie des Sciences de Pologne, vol. A35, pp , [61] K. C. Kiwiel and B. Lopuch, Surrogate projection methods for finding fixed points of firmly nonexpansive mappings, SIAM Journal on Optimization, vol. 7, pp , [62] A. Lent and H. Tuy, An iterative method for the extrapolation of band-limited functions, Journal of Mathematical Analysis and Applications, vol. 83, pp , [63] P.-L. Lions, Approximation de points fixes de contractions, Comptes Rendus de l Académie des Sciences (Paris), Série A, vol. 284, pp , [64] Y. I. Merzlyakov, On a relaxation method of solving systems of linear inequalities, USSR Computational Mathematics and Mathematical Physics, vol. 2, pp , [65] T. S. Motzkin and I. J. Schoenberg, The relaxation method for linear inequalities, Canadian Journal of Mathematics, vol. 6, pp , [66] N. Ottavy, Strong convergence of projection-like methods in Hilbert spaces, Journal of Optimization Theory and Applications, vol. 56, pp , [67] G. Pierra, Méthodes de projections parallèles extrapolées relatives à une intersection de convexes, Rapport de recherche, Grenoble, France, [68] G. Pierra, Éclatement de contraintes en parallèle pour la minimisation d une forme quadratique, Lecture Notes In Computer Science, vol. 41, pp , [69] G. Pierra, Decomposition through formalization in a product space, Mathematical Programming, vol. 28, pp , [70] B. T. Polyak, Minimization of unsmooth functionals, USSR Computational Mathematics and Mathematical Physics, vol. 9, pp , [71] E. Raik, Fejér type methods in Hilbert space, Eesti NSV Teaduste Akadeemia Toimetised Füüsika-Matemaatika, vol. 16, pp , [72] R. T. Rockafellar, Convex Analysis, Princeton University Press, Princeton, N.J. (1970). [73] H. Stark (Editor), Image Recovery : Theory and Applications, Academic Press, San Diego, [74] H. Stark and Y. Yang, Vector Space Projections : A Numerical Approach to Signal and Image Processing, Neural Nets, and Optics, Wiley, New York, [75] W. J. Stiles, Closest point maps and their product II, Nieuw Archief voor Wiskunde, vol. 13, pp , [76] H. J. Trussell and M. R. Civanlar, The feasible solution in signal restoration, IEEE Transactions on Acoustics, Speech, & Signal Processing, vol. 32, pp ,

72 [77] R. Wittmann, Approximation of fixed points of nonexpansive mappings, Archiv der Mathematik, vol. 58, pp , [78] D. C. Youla and H. Webb, Image restoration by the method of convex projections : Part 1 theory, IEEE Transactions on Medical Imaging, vol. 1, pp ,

73 Chapitre 4 Programmation convexe en tomographie 4.1 Introduction Il existe deux domaines d application très différents qui utilisent le terme tomographie. La tomographie continue est un domaine d application très classique, et la littérature sur le sujet est abondante [6, 23, 28]. Dans la Section 4.2, nous proposons un nouvel algorithme en tomographie continue. En plus de contraintes classiques (support, valeur des pixels, moyenne), nous utilisons une borne sur la variation totale et une manière nouvelle d incorporer l information a priori sur les erreurs dues aux mesures. La tomographie discrète (Section 4.3) est un domaine d application beaucoup plus original pour les méthodes de projections, car celles-ci n ont pratiquement pas été utilisées [24, 25]. Grâce aux dernières avancées, nous sommes en mesure de proposer dans la Section 4.4 des algorithmes de projection pour la tomographie discrète rivalisant avantageusement avec l état de l art. Ces algorithmes apportent, de plus, des avantages nouveaux, tant sur le plan théorique (unicité, reproductibilité des résultats) que sur le plan pratique (possibilité de prendre le bruit en compte). 4.2 Éclatement des contraintes en tomographie continue Dans [3], nous nous sommes placés dans un cadre beaucoup plus complexe que, par exemple, celui du Problème 6.3 utilisé au chapitre suivant. Le problème est non 59

74 Figure 4.1 Image utilisée ( fantôme de Shepp-Logan ) pour plusieurs simulations numériques de la thèse, notamment dans l article [3]. La taille de l image est de pixels (H = R ). Bien que peu représentative des difficultés que l on peut trouver dans les expériences réelles, elle est très utilisée au sein de la communauté de l imagerie médicale. linéaire, le bruit n est pas borné mais gaussien, et les contraintes sont plus variées. Les nouveautés de notre approche sont les suivantes : (i) Dans les méthodes actuelles, les contraintes sur le sinogramme sont très limitées et portent sur la totalité du sinogramme y, constitué de p vues (y j ) 1 j p, e.g., [26]. Nous procédons par éclatement des contraintes, en proposant des contraintes convexes nouvelles portant sur chaque vue y j du sinogramme individuellement. Ces contraintes sont : (a) Des contraintes issues des connaissances a priori sur le bruit w j affectant la vue y j. Ainsi, si Ψ i est une propriété connue du bruit, l ensemble associé est de la forme générale S i = { x R N y j R j x satisfait Ψ i }. (4.1) 60

75 Figure 4.2 Exemple de résultat numérique obtenu avec l algorithme de projection (similaire à l Algorithme 3.18) décrit dans notre article [3], l expérience étant formulé sous la forme du Problème 1.3 avec y = 0. On ajoute un bruit gaussien au fantôme avant de calculer la vue selon une direction, avec une réalisation différente du bruit pour chaque angle. Il y a en tout q = 17 vues réparties régulièrement. Ces contraintes sont construites à partir de l analyse de [15]. (b) Des contraintes physiques sur le signal y j : contraintes physiques classiques (amplitude, déviation maximale par rapport à des signaux de référence, etc. [8, 35]) et bornes sur la variation totale [14]. Ces contraintes s expriment sous la forme [8] S i = { x R N f i (R j x) 0 }, (4.2) où f i : R M ], + ] est une fonction convexe. Les autres ensembles sont issus de contraintes conventionnelles en tomographie portant directement sur x (support, positivité, etc.) [8, 35]. 61

76 Figure 4.3 Image obtenue après avoir imposé les contraintes de support et d amplitude à une reconstruction par rétro-projection filtrée. Les données sont les mêmes que celles utilisées pour la Figure 4.2. (ii) Par rapport aux approches classiques, l approche par éclatement proposée en (i) donne lieu à des contraintes plus discriminatoires car elles portent sur chaque mesure y j indépendamment, et sont plus proches du modèle physique. On obtient ainsi un grand nombre de contraintes. Le problème résultant sera efficacement résolu par la méthode parallèle de [10], qui est particulièrement bien adaptée à la gestion par blocs de contraintes se présentant sous la forme des équations (4.2). (iii) Plusieurs choix de fonction-objectif J sont possibles. L article développe en détail ces points et donne des résultats numériques de reconstructions tomographiques illustrant l avantage qualitatif et numérique de l approche proposée. Les résultats sont notamment comparés à ceux de [26, 35], qui utilisent des contraintes globales sur l image dans la formulation du problème et la méthode des projections successives (Algorithme 3.10) pour sa résolution. Le 62

77 problème est posé sous la forme d un problème de minimisation sur l ensemble admissible (Problème 1.2), et l algorithme utilisé est du type parallèle par blocs. Pour illustrer le type de résultat obtenu dans [3], la Figure 4.2 montre la reconstruction obtenue grâce à notre algorithme. À titre de comparaison, la Figure 4.3 montre le résultat d une rétro-projection filtrée classique. L image originale est celle de la Figure Tomographie discrète La tomographie binaire, ou discrète, est également un problème inverse en traitement d image. Malgré son nom, les méthodes généralement utilisées font de la tomographie binaire un domaine très différent de la tomographie continue. Les images sont à valeurs discrètes, au sens où les niveaux de gris pris par les pixels sont en nombre fini (par exemple 2 niveaux en tomographie binaire). Les images sont plus petites (typiquement 16 16, par opposition à , voire beaucoup plus, en tomographie continue). On dispose d un très faible nombre de vues (ou projections) dans le sinogramme, en général trois ou quatre. On est par exemple souvent en présence d un dispositif physique permettant de compter le nombre de particules dans les directions horizontale, verticale et diagonales. Enfin, la nature même des processus de comptage sous-jacents induit un bruit de type différent, qui est mieux modélisé par une loi de probabilité discrète. Le lecteur peut se référer à l ouvrage collectif [24] et aux nombreuses références qui s y trouvent pour une description précise du domaine. L approche la plus répandue pour la résolution de ce type de problèmes se fait par des méthodes issues des mathématiques discrètes ou purement algébriques, par exemple des manipulations de matrices [24]. Ces approches assurent au mieux l existence, mais jamais l unicité de la solution. De plus, ces algorithmes convergent en un nombre fini d itérations. Cependant, en général, il n est pas possible d inclure des contraintes supplémentaires et on obtient des images de qualité modeste. Enfin, et surtout, ces méthodes ne permettent pas de prendre en compte le bruit [24]. 4.4 Approche convexe en tomographie discrète Les algorithmes de reconstruction par projections convexes (Section 3.4) ne sont pas utilisés pour résoudre les problèmes de tomographie discrète [24], alors qu ils sont très répandus en tomographie continue. Il est en effet a priori difficile d obtenir des résultat probants avec ces algorithmes dans les conditions caractéristiques de la tomographie discrète (faible nombre de vues, contraintes discrètes et donc for- 63

78 tement non convexes). Nous allons prendre cette ligne de raisonnement à contre courant en proposant un algorithme de projection convexe adapté aux spécificités de la tomographie binaire. Cet algorithme utilise une contrainte sur la variation totale pour promouvoir le caractère discret de la solution. L emploi de projections sousdifférentielles nous permet d inclure des contraintes habituellement coûteuses, sans pénaliser le temps de calcul. Les contraintes sont construites à partir de paramètres qui dépendent notamment du modèle de bruit. A titre d exemple, nous explicitons les bornes utilisables dans le cadre d un bruit poissonnien, adapté aux processus de comptage qui caractérisent la tomographie discrète. Nous donnons des résultats numériques se basant sur cette application. Ces résultats montrent que la méthode que nous proposons permet de résoudre efficacement des problèmes de tomographie binaire. Cela n aurait pas été possible sans l utilisation de techniques récentes. L algorithme proposé a comme principaux avantages par rapport à l état de l art en tomographie discrète de fournir une solution unique, de prendre le bruit en compte, et de permettre l ajout d autres contraintes, c est-à-dire de pouvoir incorporer plus de connaissances a priori. Un travail préliminaire a été présenté à New York au Workshop on Discrete Tomography and its Applications, et publié dans [4]. Ce séminaire nous a permis de mieux comprendre les problématiques de la tomographie discrète. Nous avons alors rédigé un article plus conséquent, qui est celui que nous reproduisons ici. Il a été publié dans [5] comme un des 15 chapitres de l ouvrage collectif Advances in Discrete Tomography and Its Applications (Boston, 2007), sous la direction de G. T. Herman et A. Kuba. Ce livre fait suite à [24]. 4.5 Article en anglais A CONVEX PROGRAMMING ALGORITHM FOR NOISY DISCRETE TOMOGRAPHY 1 Abstract : A convex programming approach to discrete tomographic image reconstruction in noisy environments is proposed. Conventional constraints are mixed with noise-based constraints on the sinogram and a binarity-promoting total variation constraint. The noise-based constraints are modeled as confidence regions that are constructed under a Poisson noise assumption. A convex objective is then minimized over the resulting feasibility set via a parallel block-iterative method. Applications to binary tomographic reconstruction are demonstrated. 1. T. D. Capricelli and P. L. Combettes, A convex programming algorithm for noisy discrete tomography, Advances in Discrete Tomography and Its Applications (G. T. Herman and A. Kuba, Eds.), pp Boston, MA : Birkhäuser,

79 4.5.1 Introduction The tomographic reconstruction problem is to estimate a multidimensional signal x in a Hilbert space H from lower dimensional measurements of its line integrals. In computerized tomography, the signals are discretized over a bounded domain and H is the usual Euclidean space R N (using standard lexicographic ordering, an N- voxel signal is represented as an N-point vector). A popular approach for solving this problem is to pose it as a convex feasibility problem of the form m Find x S i, (4.3) i=1 where (S i ) 1 i m are closed convex sets in R N arising from prior knowledge (bounds, support information, spectral information, information about the noise corrupting the measurements, etc) and the discrete line integral (line sum) measurements [6, 8, 23, 35]. This set theoretic approach to tomographic image reconstruction goes back to [20] ; further developments can be found in [26, 29, 34, 36, 39]. In some instances it may be justified on physical grounds to seek a feasible image which is optimal in some sense. The problem then assumes the form m Find x S = S i such that ϕ(x) = inf ϕ(s), (4.4) i=1 where ϕ: R N ], + ] is a convex function. The advantage of this convex programming formulation is to allow for the incorporation of a wide range of prior information in the reconstruction process and, at the same time, to benefit from the availability of powerful algorithms ; see [1, 6, 9, 10, 11] and the references therein. In discrete tomography, the range of the signal x to be reconstructed is known to be a finite set, for instance the set {0, 1} in binary tomography. This additional information is of paramount importance and it has profound consequences on the theoretical and practical aspects of the reconstruction problem [24]. As underlined in [24], classical computer tomography algorithms do not perform well in the presence of few (say 10 or less) views (we do not employ the standard term projection as it will be reserved to describe the best metric approximation from a convex set). Consequently, they are not directly applicable in discrete tomography, where such low numbers of views are common. Furthermore, classical algorithms do not exploit nor enforce the discrete nature of the original signal. In this paper, we propose a convex programming approach to the discrete tomography problem in noisy environments. In recent years, many papers have been devoted to the theoretical and numerical investigations of discrete reconstruction problems ; see [17, 19, 21, 24, 25, 33, 38] and the references therein. The novelty of our work is to propose a convex programming formulation of this problem that explicitly takes into account the presence of noise in the measured data, and to provide a 65

80 numerical method to solve it. Our formulation is of the form (4.4) and our algorithm is based on the block-iterative methods recently developed in [10, 11]. While our approach is applicable to general discrete problems, we shall focus on the case of binary images for simplicity. Since the set of binary images is nonconvex, our first task will be to find pertinent convex constraints that will promote the binary nature of the image : total variation will be used for this purpose. Thus, the image produced by the algorithm will be relatively close to being binary, which will minimize the number of errors incurred by the final binarization step. Other constraints will exploit standard information (bounds, support) as well as information about the data model and the noise. The remainder of the paper is organized as follows. In Section 4.5.2, we review the parallel block-iterative algorithm that will be employed to solve the convex program (4.4). In Section 4.5.3, we address the construction of constraints for noisy binary tomography. The new constraints are confidence regions that are based on statistical attributes of the noise perturbing the sinogram, and a total variation constraint aiming at promoting the binary nature of the reconstructed image. A Poisson noise model is assumed in our statistical analysis of the confidence regions. In Section 4.5.4, we describe several applications of this convex programming framework to binary image reconstruction in the presence of noisy measurements. A few remarks conclude the paper in Section Proposed algorithm Throughout the paper, the signal space containing the original image x is the standard Euclidean space H, with scalar product, norm, and distance d. The distance to a nonempty set C H is d C (x) = inf x C. If C H is nonempty, closed, and convex then, for every x H, there is a unique point P C x C such that x P C x = d C (x) ; P C x is called the projection of x onto C. To solve (4.4), we use the parallel block iterative algorithm described in [11], where the framework of [10] was adapted to problems with quadratic objective functions. Although more general strictly convex objectives ϕ can be used [10], we restrict our attention to quadratic functions in this paper, as they lead to particularly simple implementations. Let ϕ: R N R: x R(x r) x r, (4.5) where r R N and R R N N is a positive definite symmetric matrix. In addition, we suppose (without loss of generality) that the closed convex constraint sets (S i ) 1 i m in (4.4) assume the form ( i {1,..., m}) S i = { x H f i (x) δ i }, (4.6) 66

81 where (f i ) 1 i m are convex functions from R N to R and (δ i ) 1 i m R m are such that S = m i=1 S i. Recall that, under these assumptions, for every x H, each f i admits at least one subgradient at x, i.e., a point g i H such that [31] ( y H) y x g i + f i (x) f i (y). (4.7) For instance, if C is a nonempty closed convex subset of H and x H C, then d C (x) = (x P C x)/d C (x). (4.8) The set of all subgradients of f i at x is the subdifferential of f i at x and is denoted by f i (x) ; if f i is differentiable at x, then f i (x) = { f i (x)}. Moreover, the subgradient projection G i x of x onto S i is obtained by selecting an arbitrary g i f i (x) and setting [9] x + δ i f i (x) g G i x = g i 2 i, if f i (x) > δ i ; (4.9) x, if f i (x) δ i. The algorithm proposed in [11] to solve (4.4) (4.5) constructs a sequence (x n ) n N of approximate solutions as follows. 1. Fix ε ]0; 1/m[. Set x 0 = r and n = Take a nonempty index set I n {1,..., m}. 3. Set z n = x n λ n R 1 u n, where : (a) for every i I n, p i,n = G i x n ; (b) the weights (ω i,n ) i In lie in [ε; 1] and i I n ω i,n = 1 ; (c) u n = x n i I n ω i,n p i,n ; (d) λ n [εl n ; L n ], where ω i,n p i,n x n 2 i I n L n = R 1 u n u n 1/ R 1, otherwise., if max i I n ( fi (x n ) δ i ) > 0 ; 4. Set π n = R(x 0 x n ) x n z n, µ n = R(x 0 x n ) x 0 x n, ν n = R(x n z n ) x n z n, and ρ n = µ n ν n πn Set x n+1 = x 0 + z n, if ρ n = 0, π n 0 ; ( 1 + π ) n (z n x n ), if ρ n > 0, π n ν n ρ n ; ν n x n + ν n ( πn (x 0 x n ) + µ n (z n x n ) ), if ρ n > 0, π n ν n < ρ n. ρ n 67

82 6. Set n = n + 1 and go to Step 2. The following convergence result is an application of [11, Theorem 16]. Theorem 4.1 Suppose that there exists a strictly positive integer J such that ( n N) n+j 1 k=n I k = {1,..., m}. (4.10) Then every sequence (x n ) n N generated by the above algorithm converges to the unique solution to (4.4) (4.5). Some comments about this result and the algorithm are in order. (i) Condition (4.10) is satisfied in particular when I n {1,..., m}, i.e., when all the sets are activated at each iteration. In general, (4.10) allows for variable blocks of sets to be used, which provides great flexibility in terms of parallel implementation (see [9] for examples). More details on the importance of blockprocessing for task scheduling on parallel architectures will be found in [6]. Further flexibility is provided by the fact that the relaxations and the weights can vary at each iteration. (ii) The algorithm activates the constraints by means of subgradient projections rather than exact projections. The former are significantly easier to implement than the latter, as they require only the computation of subgradients (gradients in the differentiable case). Analytically complex constraints can therefore be incorporated in the recovery algorithm and processed at low cost. (iii) The parameter L n is always at least equal to 1/ R 1 [11, Proposition 12] and it can attain large values. Choosing λ n large (e.g., equal to L n ) usually yields faster convergence. In [11], it was shown that, in order to reduce the computational load of the method, an iteration of the algorithm could be implemented as follows (only one application of the matrices R and R 1 is required). 1. For every i I n, set a i = f i (x n )g i / g i 2, where g i f i (x n ), if f i (x n ) > δ i ; a i = 0 otherwise. 2. Choose weights (ω i ) i In in [ε; 1] adding up to 1. Set v = i I n ω i a i and L = i I n ω i a i If L = 0, set x n+1 = x n and exit iteration. Otherwise, set b = x 0 x n, c = Rb, d = R 1 v, and L = L/ d v. 4. Choose λ [εl; L] and set d = λd. 5. Set π = c d, µ = b c, ν = λ d v, and ρ = µν π 2. 68

83 x n + d, if ρ = 0 and π 0 ; 6. Set x n+1 = x 0 + (1 + π/ν)d, if ρ > 0 and πν ρ ; x n + ν (πb + µd), if ρ > 0 and πν < ρ. ρ Remark 4.2 If the projector P i onto S i is easy to implement, one can set f i = d Si since S i can certainly be described as the level set S i = { x H d Si (x) 0 }. (4.11) In this case, it follows at once from (4.8) and (4.9) that G i = P i (the subgradient projector reduces to the usual projector) and, moreover, that a i = P i x n x n at Step 1 of the algorithm Construction of closed convex constraint sets Data model The sinogram is the image under the Radon transform of the original image x. The portion of the sinogram corresponding to a given observation angle θ will be referred to as a view. The observed data consists of q noisy views (z i ) 1 i q at angles (θ i ) 1 i q. For every i {1,..., q}, we let L i be the restriction of the Radon transform for a fixed angle θ i. In other words, the ith measurement is z i = L i x + w i, (4.12) where w i is the noise vector corrupting the observation. Each view z i is a onedimensional signal of M points and will be represented by a vector z i = [ζ i,k ] 1 k M in R M ; L i is therefore a matrix in R M N. Finally, we denote by 1 the vector [1,..., 1] in R N or R M Standard constraints Further details on standard constraint sets can be found in [8, 35]. Range The first standard constraint arises from the fact that pixel values are nonnegative and have known maximal value. After normalization, the corresponding set is [0; 1] N. (4.13) In the context of binary tomography, this is simply the convex hull of the set {0, 1} N. 69

84 Support A second common piece of a priori information in tomography is the knowledge of the support K of the body under investigation. The associated set is { x H x1k = x }, (4.14) where 1 K is the characteristic function of K and where the product x1 K is taken componentwise. The projector onto this set is x x1 K [8]. Pixel sum Let µ be the sum of the pixel values in the original image, i.e, µ = x 1. (4.15) The knowledge of µ leads to the set { x H x 1 = µ }. (4.16) Since µ is never known exactly, this set should be relaxed into the hyperslab { x H µ x 1 µ +}, (4.17) where [µ ; µ + ] is a confidence interval. The projector onto this set is [8] x + µ x 1 1, if x 1 < µ ; N x x + µ+ x 1 1, if x 1 > µ + ; N x, otherwise. (4.18) The values of µ and µ + depend on prior information about the experimental setup and about the noise. An example is provided in Section Binarity-promoting constraint The constrained image recovery method presented in Section is limited to problems with convex constraints. As a result, since the set of binary images is nonconvex, the binarity constraint cannot be enforced directly in such a framework. Furthermore, the convex set (4.13) will not properly enforce binarity and we must find a more effective means to promote binarity through a convex constraint. In recent years, total variation has emerged as an effective tool to recover piecewise-smooth images in variational methods. This approach was initiated in [32] in the context of denoising problems and has since been used in various image recovery problems. Recently, it has also been applied in certain variational computerized 70

85 tomography problems [2, 40]. In all of these approaches, total variation appears in the objective of a minimization problem. Such nondifferentiable problems are not easy to solve and they offer very limited potential in terms of incorporating constraints [7, 13]. In [14], it was observed that, in many problems, the total variation tv(x) of the original image, which measures the amount of oscillations, does not exceed some known bound τ. This constraint, which is associated with the set { x H tv(x) τ }, (4.19) appears to be particularly relevant in binary (and more generally in discrete) tomography, as it attenuates the oscillating components in the image, thereby forcing the creation of flat areas and promoting binarity. An important issue is of course the availability of the parameter τ in (4.19). In this respect, binary tomography places us on favorable grounds. Indeed, since the total variation of a binary image is simply the length of its contours (i.e., the sum of the perimeters of the elementary shapes), it can be estimated with good accuracy in certain typical problems from prior experiments or by sampling databases [14]. Numerically, the total variation of a discrete image x = [ξ i,j ] R N N is computed as tv(x) = N 1 i=1 N 1 j=1 ξ i+1,j ξ i,j 2 + ξ i,j+1 ξ i,j 2 + N 1 i=1 ξ i+1, N ξ i, N + N 1 The subgradient projector onto the set (4.19) can be found in [14]. j=1 ξ N,j+1 ξ N,j. (4.20) Constraints on the residual views Using an approach developed in [15] and [37], a wide range of statistical constraints modeled by closed convex sets can be formed for each of the q views. Indeed, (4.12) gives z i L i x = w i. (4.21) Hence, the residual signal z i L i x associated with an estimate x of x should be constrained to be statistically consistent with every known attribute (e.g., moment, periodogram, etc) of the noise. Consistency is usually enforced via some statistical confidence bound (see [12] for an analysis of the global confidence level in terms of confidence levels of each set). We now provide examples of such constraint sets. 71

86 Amplitude Let us denote by (e k ) 1 k M the canonical basis of R M (recall that M is the length of each view z i ). If no noise were present, (4.12) would confine x to the intersection of the M q hyperplanes { x H Li x e k = z i e k }. (4.22) These sets were used in the early ART reconstruction technique [20]. In the presence of noise, the hyperplanes must be replaced by hyperslabs of the form [22] { x H Li x z i e k α i,k }. (4.23) The confidence interval [ α i,k ; α i,k ] can be determined from the distribution of the random variable w i e k. Such distributions can be available in certain problems, e.g., [8, 16, 37]. However, in the present problem, the noise is best modeled by a signal-dependent process which makes it impossible to obtain reliable bounds. We shall therefore not use these sets in our experiments. l p norms Let p [1, + [ and i {1,..., q}. Suppose that an estimate δ 1/p i,p of the l p norm of the noise vector w i is available from physical considerations or past experience with tomographic reconstructions of similar objects. Then one can construct the set [15] { x H Li x z i p p δ i,p }. (4.24) The projector onto this set has no simple closed form, but the subgradient projector can be obtained as follows. Let us denote by (L i,k ) 1 k M the M rows of L i and by L i,k,l an entry of the matrix L i, i.e., ] [L i,k,l L i = 1 k M 1 l N. (4.25) Then, by elementary subdifferential calculus [31], L i x z i p p = M x L i,k ζ i,k p. (4.26) k=1 Hence, if p > 1, the unique subgradient of x L i x z i p p is ( M ) g = p L i,k,l x L i,k ζ i,k p 1 sign( x L i,k ζ i,k ) k=1 Now suppose that p = 1. Recall that 1, if ξ < 0 ; sign: ξ 0, if ξ = 0 ; +1, if ξ > 0, 72 1 l N. (4.27) (4.28)

87 is a selection of the subdifferential of ξ ξ, which is given by { 1}, if ξ < 0 ; ( ξ R) ξ = [ 1; 1], if ξ = 0 ; (4.29) {+1}, if ξ > 0. Therefore, a subgradient of x L i x z i 1 is ( M ) g = L i,k,l sign( x L i,k ζ i,k ). (4.30) k=1 1 l N One can then compute the subgradient projection (4.9) via (4.27) and (4.30). Energy The case p = 2 corresponds to the set { } x H Li x z i 2 δ i,2. (4.31) In this case, (4.27) reduces to g = 2L i (L i x z i ). As discussed in [9, 37], the projection of an image x onto this set requires an iterative procedure, while the subgradient projector is given explicitly by (4.9) as x + δ i,2 L i x z i 2 x 2 L i (L ix z i ) 2 L i (L i x z i ), if L i x z i 2 > δ i,2 ; (4.32) x, if L i x z i 2 δ i, Bound estimation in the case of Poisson noise In this section, we address the problem of computing the parameters µ and µ + in (4.17), and δ i,2 in (4.31). Noise modeling in computerized tomography is a research topic in its own right, and it is beyond the scope of the present paper to attempt to provide a precise model for the various complex underlying physical phenomena. In [4], a simple additive Gaussian noise model was considered. Since many data collection processes in discrete tomography are counting processes (e.g., counting the number of atoms in a structure along a certain direction), we adopt here a Poisson noise model. More specifically, we assume that the observation z i in (4.12) is a realization of a random vector Z i = [ Z i,k ] 1 k M, (4.33) the components of which are independent Poisson variables with means (λ i,k ) 1 k M. It is also assumed that the random vectors (Z i ) 1 i q are independent. Now, let Λ i be the mean of Z i. Then Λ i = EZ i = [λ i,k ] 1 k M = L i x. (4.34) 73

88 Figure 4.4 Original image in last experiment. Bound on the view-sums The purpose in this section is to determine the parameters µ and µ + in (4.17). A property of the discrete Radon transform is that it preserves pixel sums in the sense that ( i {1,..., q}) µ = x 1 = L i x 1. (4.35) Since Z i 1 is the sum of M independent Poisson variables, it is also a Poisson variable, with mean Λ i 1 = µ and variance var Z i 1 = µ. The parameter µ can be approximated by the sample mean of the q views, i.e., γ = 1 q z i 1. (4.36) q i=1 The associated statistical estimator is Γ = 1 q Z i 1, (4.37) q with mean EΓ = 1 q and variance i=1 varγ = 1 q 2 q E Z i 1 = µ (4.38) i=1 q var Z i 1 = µ q. (4.39) i=1 74

89 Figure 4.5 Example of a sinogram view : noiseless view (bold lines) and view with Poisson noise (thin lines). We look for a confidence interval of the form [ EΓ β1 varγ; EΓ + β1 varγ ] = [ µ β1 µ/q; µ + β1 µ/q ], (4.40) for some β 1 > 0. Upon approximating µ by the observed sample mean γ, the confidence interval becomes [ γ β 1 γ/q; γ + β1 γ/q ]. Monte Carlo experiments show that β 1 = 2.3 gives 98 % of the realizations within this interval. 2 Thus, with a confidence level of c 1 = 98 %, we can use the values in (4.17). µ = γ 2.3 γ/q and µ + = γ γ/q (4.41) Bound on the residual energy Let i {1,..., q}. Our purpose is to determine the parameter δ i,2 in (4.31). The mean square residual error is E Z i L i x 2 = E Z i Λ i 2 = M varz i,k = k=1 M λ i,k = Λ i 1. (4.42) k=1 2. Lors de la soutenance, Alfred Hero nous a indiqué que l expression d une distribution asymptotique approchée est disponible [27] et qu elle pourrait être utilisée. 75

90 Figure 4.6 Support K used in (4.14) in the experiments. To compute E Z i L i x 4, we need the moments of Z i,k up to order 4. We have E Z i,k 3 = λ 3 i,k + 3λ 2 i,k + λ i,k (4.43) and E Z i,k 4 = λ 4 i,k + 6λ 3 i,k + 7λ 2 i,k + λ i,k. (4.44) The fourth central moment is therefore E Z i,k λ i,k 4 = E Z i,k 4 4λ i,k E Z i,k 3 + 6λ 2 i,ke Z i,k 2 4λ 3 i,kez i,k + λ 4 i,k = 3λ 2 i,k + λ i,k. (4.45) We can now compute the second order moment of the residual energy as E Z i L i x 4 = E Z i Λ i 4 M 2 = E Z i,k λ i,k 2 = = k=1 M E Z i,k λ i,k k=1 M (3λ 2 i,k + λ i,k ) + 2 k=1 1 k<j M 1 k<j M E Z i,j λ i,j 2 E Z i,k λ i,k 2 λ i,j λ i,k = 2 Λ i 2 + Λ i 1 + Λ i 2 1, (4.46) 76

91 (a) (b) Figure 4.7 No noise, q = 4 views, without the total variation constraint. Before (a) and after (b) binarization (error : 6 pixels). and its variance as var Z i L i x 2 = E Z i Λ i 4 E 2 Z i Λ i 2 = 2 Λ i 2 + Λ i 1. (4.47) An upper bound on its standard deviation is σ = 2 Λ i Λ i 1 2 Λ i 2 + Λ i 1 = var Z i L i x 2. (4.48) We look for a confidence interval of the form [0; µ + β 2 σ] for some β 2 > 0. As seen in the previous section, µ = Λ i 1 can be approximated by the sample mean γ of (4.36) and, therefore, σ can be approximated by 2γ 2 + γ. In turn, the confidence interval becomes [0; γ + β 2 2γ2 + γ]. Monte Carlo experiments show that β 2 = 0.51 gives 98 % of the realizations within this interval. Thus, with a confidence level of c 2 = 98 %, we can use the bound in (4.31). δ i,2 = γ γ 2 + γ (4.49) Global confidence analysis There are q+1 sets which are confidence regions. In the previous sections, the bounds on the sets (4.17) and (4.31) were determined so as to obtain individual confidence levels of c 1 = c 2 = 98 %. Using the analysis of [12], the global confidence level c on the feasibility set S = m i=1 S i satisfies c 1 (1 c 1 ) q(1 c 2 ). (4.50) 77

92 (a) (b) (c) (d) Figure 4.8 Poisson noise, q = 4 views. Reconstruction without the total variation constraint : before (a) and after (b) binarization (error : 16 pixels). Reconstruction with the total variation constraint : before (c) and after (d) binarization (error : 8 pixels). 78

93 (a) (b) (c) (d) Figure 4.9 Same experiments as in Fig. 4.8 with a different realization of the noise. Reconstruction without the total variation constraint : before (a) and after (b) binarization (error : 12 pixels). Reconstruction with the total variation constraint : before (c) and after (d) binarization (error : 9 pixels). 79

94 Figure 4.10 Experiments of Fig. 4.8 and 4.9 : histogram of the number of wrong pixels based on 2000 realizations of the noise. In our experiments, which will involve q = 4 or q = 3 views, we shall thus obtain global confidence levels of c 90 % or c 92 %, respectively Numerical simulations Most theoretical results in discrete tomography impose conditions on the shape of the objects to be reconstructed. Thus, experiments are usually performed on connected, convex, or even hv-convex objects [24]. Our algorithm does not require such stringent assumptions and we shall use the original binary image x displayed in Fig This image features two disconnected components, one of which is nonconvex. As in most of the experiments presented in [24], few views will be used, namely q = 4 or q = 3 views. 80

95 Figure 4.11 Original image Noise simulation As discussed above, the noise corrupting the views in (4.12) is assumed to be Poisson-distributed. The pointwise variance of such a noise is directly related to the amplitude of the signal. On the other hand, the data acquisition process typically induces a multiplicative factor between the actual line sums and the measured views, due for instance to exposure time. In order to obtain a reasonable noise level, we set this multiplicative factor to 255. We now describe the methodology used for creating the noisy views. First, for each i {1,..., q}, the exact line sum is computed and then multiplied by the proportionality factor 255 in order to generate the noiseless view L i x. Then, each point L i x e k of the ith view is replaced by a realization of a Poisson variable with mean L i x e k (see [18, 30] for the numerical simulation of Poisson noise). A typical noisy sinogram view is shown in Fig The SNR (signal-to-noise ratio) on the views varies from 31 db to 33 db Binarization The binarization process consists of mapping an image in [0; 1] N into an image in {0, 1} N. The scheme we adopt here is straightforward : since the algorithm produces an image in the set (4.13), each pixel value is rounded to 0 if the original value is less than 0.5, and to 1 otherwise. It is clear that binarization could be performed in a more sophisticated fashion, especially in the light of additional a priori information on the original image. 81

96 (a) (b) Figure 4.12 Poisson noise, q = 3 views. Reconstruction before (a) and after (b) binarization (error : 1 pixel) Experimental setup The algorithm described in Section is implemented with ϕ: x x 2 in (4.5) (hence R is the identity matrix and r is the zero image). In other words, we seek the image with minimum energy in the feasibility set S = m i=1 S i. The m = q + 4 constraint sets to be used are : (i) S 1 : pixel range, see (4.13). (ii) S 2 : image support, see (4.14) and Fig (iii) S 3 : sum of pixel values, see (4.17) and (4.41). (iv) (S i+3 ) 1 i q : residual energy of the views, see (4.31) and (4.49). (v) S q+4 = S m : total variation, see (4.19). To illustrate the benefit of using the total variation set S m, experiments with the sets (S i ) 1 i m 1 and (S i ) 1 i m will be performed. Since they are easily computable in closed form, exact projections onto the sets S 1, S 2, and S 3 are used. On the other hand, subgradient projections are used for the sets (S i ) 4 i m Numerical results We first use q = 4 views at observation angles 0, π/4, π/2, and 3π/4. In the case of noiseless views, the algorithm produces the image shown in Fig We now turn to the case of noise-corrupted views. Fig. 4.8 and 4.9 show two typical reconstructions produced by the algorithm, for two arbitrary realizations of 82

97 the noise. To illustrate the impact of the total variation constraint, we display the images obtained with and without this constraint. In order to test the variability of our results, several hundreds of tests were performed, using different realizations of the noise and various types of images. These experiments reveal that, for a given image, the number of wrong pixels does not vary significantly. This variability is quantified in Fig in the case of the original image of Fig Finally, we show how the algorithm behaves on a standard image from the binary tomography literature. This image, shown in Fig. 4.11, can be reconstructed uniquely from its exact (noiseless) horizontal and vertical views [24]. This theoretical result is of course no longer true in a noisy environment. However, our algorithm reconstructs the image almost perfectly in the presence of q = 3 noise-corrupted views at angles 0, π/4, and π/2 (see Fig. 4.12) with the 6 sets : (i) S 1 : pixel range, see (4.13). (ii) S 2 : sum of pixel values, see (4.17) and (4.41). (iii) (S i+2 ) 1 i 3 : residual energy of the views, see (4.31) and (4.49). (iv) S 6 : total variation, see (4.19) Concluding remarks We have proposed a convex programming approach to the discrete tomographic image reconstruction problem. Promising results have been obtained with a limited number of constraints and a quadratic objective function. The proposed algorithm can also handle a wide range of additional constraints as well as more general objective functions. The exploration of such extensions is left for future work. In particular, additional constraints could be derived from a better understanding of the noise process. Likewise, while total variation appears to give good results, soft enforcement of binarity should be possible through alternative convex functionals. 4.6 Bibliographie [1] Bauschke, H., Borwein, J.M. : On projection algorithms for solving convex feasibility problems. SIAM Rev., 38, (1996). [2] Bronstein, M., Bronstein, A.M., Zibulevsky, M., Azhari, H. : Reconstruction in diffraction ultrasound tomography using nonuniform FFT. IEEE Trans. Med. Imaging, 21, (2002). [3] Capricelli, T.D., Combettes, P.L. : Éclatement des contraintes en reconstruction tomographique. Proceedings of the Twentieth GRETSI Symposium, Louvain-la- Neuve, Belgium, (2005). 83

98 [4] Capricelli, T.D., Combettes, P.L. : Parallel block-iterative reconstruction algorithms for binary tomography. Electron. Notes Discrete Math., 20, (2005). [5] Capricelli, T.D., Combettes, P.L. : A convex programming algorithm for noisy discrete tomography. In : Herman, G.T., Kuba, A. (Eds.), Advances in Discrete Tomography and Its Applications, Boston, (2007). [6] Censor, Y., Zenios, S.A. : Parallel Optimization Theory, Algorithms and Applications. Oxford University Press, New York (1997). [7] Chambolle, A. : An algorithm for total variation minimization and applications. Journal of Mathematical Imaging and Vision, 20, (2004). [8] Combettes, P.L. : The Convex Feasibility Problem in Image Recovery. Advances in Imaging and Electron Physics, Academic Press, New York, 95, (1996). [9] Combettes, P.L. : Convex set theoretic image recovery by extrapolated iterations of parallel subgradient projections. IEEE Trans. Image Process., 6, (1997). [10] Combettes, P.L. : Strong convergence of block-iterative outer approximation methods for convex optimization. SIAM J. Control Optim., 38, (2000). [11] Combettes, P.L. : A block-iterative surrogate constraint splitting method for quadratic signal recovery. IEEE Trans. Signal Process., 51, (2003). [12] Combettes, P.L., Chaussalet, T.J. : Combining statistical information in set theoretic estimation. IEEE Signal Process. Lett., 3, (1996). [13] Combettes, P.L., Luo, J. : An adaptive level set method for nondifferentiable constrained image recovery. IEEE Trans. Image Process., 11, (2002). [14] Combettes, P.L., Pesquet, J.C. : Image restoration subject to a total variation constraint. IEEE Trans. Image Process., 13, (2004). [15] Combettes, P.L., Trussell, H.J. : The use of noise properties in set theoretic estimation. IEEE Trans. Signal Process., 39, (1991). [16] Combettes, P.L., Trussell, H.J. : Deconvolution with bounded uncertainty. Int. J. Adapt. Control Signal Process., 9, 3 17 (1995). [17] Del Lungo, A., Gronchi, P., Herman, G.T. : Special issue on discrete tomography. Linear Algebra Appl., 339, 1 2 (2001). [18] Devroye, L. : Non-Uniform Random Variate Generation. Springer-Verlag, New York (1986). [19] Gardner, R.J. : Geometric Tomography. Cambridge University Press, New York (1995). [20] Gordon, R., Bender, R., Herman, G.T. : Algebraic reconstruction techniques (ART) for three-dimensional electron microscopy and X-ray photography. J. Theoret. Biology, 29, (1970). 84

99 [21] Gritzmann, P., de Vries, S., Wiegelmann, M. : Approximating binary images from discrete X-rays. SIAM J. Optim., 11, (2000). [22] Herman, G.T. : A relaxation method for reconstructing objects from noisy X- rays. Math. Program., 8, 1 19 (1975). [23] Herman, G.T. : Image Reconstruction from Projections, the Fundamentals of Computerized Tomography. Academic Press, New York (1980). [24] Herman, G.T., Kuba, A. (Eds.) : Discrete Tomography : Foundations, Algorithms, and Applications. Birkhäuser, Boston (1999). [25] Herman, G.T., Kuba, A. (Eds.) : Proc. Workshop on Discrete Tomography and Its Applications. Electron. Notes Discrete Math., 20, (2005). [26] Kudo, H., Saito, T. : Sinogram recovery with the method of convex projections for limited-data reconstruction in computed tomography. J. Opt. Soc. Amer. A, 8, (1991). [27] Manoukian, E.B. : Modern Concepts and Theorems of Mathematical Statistics. Springer-Verlag, New York (1986). [28] Natterer, F. : The Mathematics of Computerized Tomography. Society for Industrial and Applied Mathematics, Philadelphia, PA (2001). [29] Oskoui-Fard, P., Stark, H. : Tomographic image reconstruction using the theory of convex projections. IEEE Trans. Med. Imaging, 7, (1988). [30] Press, W.H., Flannery, B.P., Teukolsky, S.A., Vetterling, W.T. : Numerical Recipes in C Example Book : The Art of Scientific Computing. Cambridge University Press, Cambridge (1992). [31] Rockafellar, R.T. : Convex Analysis. Princeton University Press, Princeton, N.J. (1970). [32] Rudin, L.I., Osher, S., Fatemi, E. : Nonlinear total variation based noise removal algorithms. Phys. D, 60, (1992). [33] Schapira, P. : Tomography of constructible functions. In : Cohen, G.D., Giusti, M., Mora, T. (Eds.), Lecture Notes in Comput. Sci., Applied Algebra, Algebraic Algorithms and Error-Correcting Codes, 11th International Symposium, AAECC-11, Paris, France, (1995). [34] Sezan, M.I., Stark, H. : Tomographic image reconstruction from incomplete view data by convex projections and direct Fourier inversion. IEEE Trans. Med. Imaging, 3, (1984). [35] Stark, H. (Ed.) : Image Recovery : Theory and Applications. Academic Press, San Diego, CA (1987). [36] Stark, H., Yang, Y : Vector Space Projections : A Numerical Approach to Signal and Image Processing, Neural Nets, and Optics. Wiley, New York (1998). [37] Trussell, H.J., Civanlar, M.R. : The feasible solution in signal restoration. IEEE Trans. Acoust., Speech, Signal Process., 32, (1984). 85

100 [38] Weber, S., Schüle, T., Hornegger, J., Schnörr, C. : Binary tomography by iterating linear programs from noisy projections. In : Klette, R, Zunic, J.D. (Eds.), Lecture Notes in Comput. Sci., Combinatorial Image Analysis, 10th International Workshop, IWCIA 2004, Auckland, New Zealand, (2004). [39] Wernick, M.N., Chen, C.T. : Superresolved tomography by convex projections and detector motion. J. Opt. Soc. Amer. A, 9, (1992). [40] Zhang, X.-Q., Froment, J. : Constrained total variation minimization and application in computerized tomography. In : Rangarajan, A., Vemuri, B.C., Yuille, A.L. (Eds.), Lecture Notes in Comput. Sci., Energy Minimization Methods in Computer Vision and Pattern Recognition, 5th International Workshop, EMMCVPR 2005, St. Augustine, FL, (2005). 86

101 Chapitre 5 Acquisition comprimée en tomographie 5.1 Introduction L intérêt pour l utilisation de la variation totale en tomographie s est manifesté dans plusieurs travaux [2, 3, 5, 6, 7, 17]. La publication [3] a reçu un écho particulier dans la communauté des mathématiques appliquées. Dans cet article, les auteurs décrivent une expérience de reconstruction tomographique avec un faible nombre de vues et obtiennent une reconstruction qualifiée d exacte en minimisant la variation totale sous la contrainte qu une partie de la transformée de Fourier est connue. Cette expérience est importante car elle s inscrit dans le domaine de l acquisition comprimée ( compressive sensing en anglais) qui est en pleine effervescence [1, 11], et de nombreux auteurs invoquent cet exemple numérique pour motiver leurs travaux. Le domaine de l acquisition comprimée repose sur des fondations théoriques solides et on peut anticiper qu il apportera des avancées notables dans divers champs d application. Il nous semble toutefois important de recadrer l expérience de reconstruction quasi-miraculeuse décrite ci-dessus dans son contexte et d en mesurer la portée pratique, afin de tempérer les interprétations très optimistes qui en sont souvent faites. Notons que des réserves sur l interprétation de cette expérience sont également formulées dans [12] sous un angle plus pratique, en soulignant en particulier que la possibilité de reconstruire avec un très petit nombre de vue est connu depuis les années 1970, mais seulement dans des cas très particuliers de géométrie simple et de modalité d acquisition idéalisée, qui sont sans rapport avec les situations rencontrées dans la pratique. Les expériences numériques de [12] mettent en lumière ces aspects pratiques. Nous nous intéressons ici à des aspects plus conceptuels. 87

102 Figure 5.1 Masque utilisé pour reproduire l expérience de [3]. 5.2 Reproductibilité du résultat numérique Il est difficile de reproduire exactement l expérience de [3], tant sur le plan expérimental qu algorithmique, car celle-ci n est pas vraiment décrite. C est un problème courant dans ce domaine, et dont nous reparlerons dans la Section L image originale est celle de Shepp-Logan déjà reproduite dans la Figure 4.1. Une observation minutieuse nous permet de déduire qu il s agit d une version de résolution plus fine, donnant une taille de Le texte fait référence à des sinogrammes longs de 512 pixels, dont nous ne comprenons pas vraiment la signification. Nous avons essayé de reproduire le plus fidèlement possible cette expérience, mais en utilisant les algorithmes décrits au Chapitre 3. Pour cela, nous sommes partis de la transformée de Fourier du fantôme de Shepp-Logan de taille , en utilisant le masque de la Figure 5.1, obtenu en dessinant 22 lignes selon des angles équirépartis, de manière à ressembler le plus possible au masque utilisé dans [3]. Comme dans [3], aucun bruit n est ajouté. Afin de reconstruire l image originale, nous cherchons à résoudre un problème d admissibilité convexe (Problème 3.1), en utilisant une méthode cyclique de projection sous-différentielle (cf. Chapitre 3). En effet le problème peut se mettre sous la forme suivante. 88

103 Figure 5.2 Expérience du même type que celle de [3]. Reconstruction à partir de la connaissance sur l étoile dans le domaine de Fourier (haut). Reconstruction en incorporant un a priori sur la variation totale sous forme de contrainte (bas). 89

104 0 Pas de contrainte sur la variation totale Utilisation d une contrainte sur la variation totale -20 Fonction de proximite relative (db) Temps (secondes) Figure 5.3 Graphique représentant l erreur en fonction du temps pour les deux reconstructions de la Figure 5.2. Problem 5.1 Trouver x S = S 1 S 2, (5.1) avec les ensembles-contrainte suivants. (i) Les valeurs de la transformée de Fourier sont connues sur un masque K : S 1 = { x H x1 K = a 1 K }. (5.2) C est un cas particulier de (3.20), en prenant pour L l opérateur de Fourier. (ii) La variation totale maximale est connue : S 2 = { x H tv(x) tv(x) }. (5.3) L ensemble S 1 est un sous-espace affine de H et l ensemble S 2 est un polyèdre non borné. Nous voyons sur la Figure 5.2 les résultats de reconstruction avec ou sans utilisation d une contrainte sur la variation totale. Dans le cas où la contrainte sur la variation totale est utilisée, on reconstruit effectivement l image originale aux erreurs numériques près. 90

105 Figure 5.4 Masque aléatoire utilisé pour la seconde expérience. Le support est de 7256 pixels (11,07 %) comme pour le masque de la Figure 5.1. Ce masque vérifie la propriété de symétrie de la transformée de Fourier d une image réelle. 5.3 Importance de la localisation de l information Si on veut estimer le taux de sous-échantillonnage des données (ici la transformée de Fourier), il faut comparer le nombre de points (complexes) utilisés par rapport au nombre total d échantillons disponibles. À titre d exemple, sur notre masque (Figure 5.1), ce rapport est de 11,07 % (7256 pixels blancs). En tomographie, surtout sans présence de bruit, 11 % n est pas considéré comme une valeur faible. La qualité de la reconstruction doit beaucoup à la répartition des points du masque dans le domaine de Fourier. Ici l échantillonnage est concentré autour de l origine (cf. Figure 5.1). Voici deux illustrations montrant à quel point la localisation du sous-échantillonnage en Fourier est importante. Le premier exemple est celui du problème de l angle limité, dont l importance dans des domaines d application comme le contrôle non destructif justifie les nombreux articles qui lui sont consacrés. L objet à reconstituer ne peux pas être observé sous tous les angles, et cela impose une certaine distribution de l information dans le domaine de Fourier. La Figure 5.5 montre un exemple de reconstruction tomographique avec angle limité en utilisant 22 vues réparties uniformément sur 90 degrés, sans bruit. En plus des données issues des mesures, nous avons utilisé à gauche l a priori sur la valeur des 91

106 Figure 5.5 Exemples de reconstructions tomographiques avec angle limité. Figure 5.6 Reconstruction d énergie minimum (en effectuant une transformée de Fourier inverse.) à partir d un échantillonnage aléatoire dans le domaine de Fourier (Figure 5.4). 92

107 Figure 5.7 Reconstruction à partir d un échantillonnage aléatoire dans le domaine de Fourier (Figure 5.4) en utilisant la contrainte sur le domaine de Fourier et la contrainte sur la valeur maximale de la variation totale. Contrairement au cas de la Figure 5.2, l image n est pas reconstruite exactement : la dynamique des pixels est [ 45; 208]. Pour mieux visualiser l image, la dynamique des pixels a été ajustée à [0; 255] par une transformation affine pour l affichage. Même ainsi, les niveaux de gris ne sont pas ceux de l image originale. De plus, la géométrie n est pas reconstituée. En effet, on remarque que le lobe noir à gauche occulte complètement les disques gris au centre, ce qui n est pas le cas dans la reconstruction quasi-parfaite de la Figure 5.2. pixels (x [0; 1] N ), et à droite les a priori sur la variation totale, le support, et la valeur des pixels. Comme l illustre la figure, ce type de reconstruction est extrêmement difficile. On voit sur cet exemple que la notion de taux de sous-échantillonnage est imprécise, et que la répartition de l information a une influence considérable. L approche probabiliste utilisée dans [3] ne prend pas ceci en considération. Pour nous rapprocher du cadre de cet article, nous avons effectué l expérience suivante. Nous avons sélectionné 11 % des coefficients de Fourier de l image originale de manière aléatoire. Afin de respecter les symétries observées par les coefficients de Fourier d une image à valeurs réelles, nous avons d abord choisi 11 % des coefficients d une moitié de l image spectrale, puis nous avons appliqué les mêmes symétries. Un exemple de masque est donné sur la Figure 5.4. La taille des supports des deux masques (Figures 5.1 et 5.4) est exactement la même : 7256 pixels. Les résultats des reconstructions sont affichés sur les Figures 5.6 (énergie minimum) et 5.7 (avec la 93

108 Figure 5.8 Même expérience que sur la Figure 5.7, mais en utilisant une image (en haut) qui ne soit pas avec un petit nombre de niveaux. Ni la géométrie, ni la dynamique des pixels (ici [ 20; 120]) n ont été retrouvées dans l image obtenue après convergence de l algorithme (en bas). Pour l affichage, la dynamique des pixels a été ajustée à [0; 255]. 94

109 contrainte sur la variation totale). Dans ce dernier cas la reconstruction x n est pas exacte : l algorithme a été exécuté suffisamment longtemps et si la géométrie est bien reconstituée, la dynamique des pixels ([ 45; 208]) ne l est pas. Même après ajustage de la dynamique à [0; 255], les niveaux de gris intermédiaires ne sont pas ceux de l image originale. Nous avons effectué cette expérience avec différentes réalisations aléatoires pour le masque et l exemple donné se situe dans la moyenne des résultats obtenus. Ceci illustre l importance de la localisation de l information. Une telle qualité de la reconstruction du point de vue géométrique n a été possible que parce que l image originale possède un très petit nombre de niveaux. Pour illustrer ce point, nous avons effectué exactement la même expérience (Figure 5.8) avec une image (mammographique) plus réaliste. Le résultat est beaucoup moins impressionnant. Un point important à noter est que la contrainte sur la variation totale n est plus active lorsque l algorithme a convergé : la variation totale de l image obtenue est alors que celle de l image originale est Un algorithme de minimisation de la variation totale donnerait une image dont la variation totale serait au plus , mais potentiellement encore moins. 5.4 La variation totale en tomographie Il est bien connu en traitement du signal en général, et en tomographie en particulier, que l utilisation de la variation totale est efficace sur les signaux constants par morceaux. Par exemple, nous reproduisons les résultats de [14]. Une image est dégradée par une convolution avec noyau puis ajout d un bruit gaussien (voir Figure 5.10). La reconstruction en minimisant un critère L 2 donne un résultat médiocre alors que la minimisation de la variation totale reconstruit quasiment parfaitement l image de départ (Figure 5.11). Dans [6], un exemple d une reconstruction quasiment parfaite dans un problème bruité est présenté, toujours en utilisant la variation totale. La littérature est vaste sur l utilisation de la variation totale comme objectif dans un problème d optimisation, que ce soit pour le traitement d image en général ou pour le problème de la reconstruction tomographique [8, 14, 16, 17]. Son utilisation comme contrainte (telle que nous l avons fait dans ce chapitre) est plus récente [5, 6, 7, 10]. L efficacité d une reconstruction à partir d un sous-échantillonnage dans le domaine de Fourier est connue depuis longtemps, y compris dans le cadre de la dimension un. Voici un exemple d une telle expérience Nous partons d un signal original (Figure 5.12) de longeur 2048 constant par morceau, nous calculons sa transformée de Fourier puis nous effectuons un sous-échantillonnage en ne gardant que 226 coefficients, soit à peu près 11 %, avec une répartition privilégiant les basses fréquences, ceci afin de se placer dans les mêmes conditions que l expérience de [3]. Pour les mêmes raisons que dans la Section 5.3, nous faisons en sorte que le masque vérifie 95

110 la propriété de symétrie des transformées de Fourier de signaux réels. La première reconstruction (Figure 5.12) est une simple inversion de Fourier (et une bonne illustration de l effet de Gibbs). La seconde reconstruction (Figure 5.13) est le résultat de l application de la méthode extrapolée de la Section 3.4.7, au problème d admissibilité défini par les deux contraintes suivantes. le signal est connu sur une partie du domaine de Fourier ; connaissance de la variation totale. 5.5 Sous-échantillonage et unicité Le théorème principal de [3] est un résultat d unicité en probabilité sur la reconstruction à partir d un sous-échantillonnage dans le domaine de Fourier. Il donne une condition de nature probabiliste sur le nombre d échantillons pour garantir une reconstruction unique, sans connaissance de la position de ces échantillons. Nous avons déjà vu que, dans l expérience présentée, la position des échantillons (avec un support en étoile privilégiant les basses fréquences) a un rôle important pour la qualité de la reconstruction. Mais surtout, l argument d unicité peu surprendre, surtout dans le cadre particulier de la tomographie discrète avec peu de vues [7, 13]. Voici un exemple avec une image x de taille 2 2 : Si on ne considère que les projections horizontale et verticale, [1, 1] dans les deux cas, l image produit les mêmes vues et, par convexité, il y en a une infinité (tout le segment entre les deux). L utilisation d un algorithme qui minimise la variation totale (comme [3]) serait ici inefficace. L image obtenue serait la suivante, avec une variation totale nulle : 0,5 0,5 0,5 0,5 Un autre argument contre l unicité est le suivant : si (0, 0) / K dans (5.2), alors si x est solution du problème, x + c l est aussi, où c est une image constante quelconque. Autrement dit, si l origine n est pas échantillonnée dans le plan de Fourier, l information sur la moyenne n apparaît pas dans la formulation. En conséquence, si les échantillons sont pris de manière aléatoire, avec grande probabilité, il n y a pas unicité, ce qui ne va pas dans le sens des thèses avancées dans [3, 4]. En utilisant les notations du Problème 5.1, la Figure 5.9 illustre les différents cas pouvant intervenir en utilisant l algorithme de [3]. 96

111 S 1 S 1 x = x x x S 2 S 2 x S 2 S 1 Figure 5.9 Différentes situations pouvant se présenter dans le cadre de la formulation proposée dans [3]. L image originale est notée x et l image dans S 1 de variation totale minimale est notée x. Haut-gauche : la solution est unique et l algorithme permet de l atteindre. Haut-droit : la variation totale de x est inférieure à celle de x. Ce cas montre l intérêt d utiliser la variation totale comme contrainte plutôt que comme objectif, un exemple est donné dans la Section 5.5. Bas : il n y a pas unicité, c est le cas par exemple de la Figure 5.7, qui ne peut pas correspondre aux deux cas précédents car x n est pas l image originale x et tv(x) = tv( x). De manière générale, il n existe aucune raison d espérer une solution unique en minimisant une fonction non strictement convexe sur un ensemble non strictement convexe. Un autre cas de non unicité est celui décrit p. 96 : si l origine n est pas échantillonnée dans le plan de Fourier, S 1 S 2 est invariant par translation dans la direction normale à la figure. 97

112 5.6 Sous-échantillonage et tomographie Comme le montrent les très nombreuses simulations numériques de la littérature, et, dans une moindre mesure, celles du Chapitre 6, les résultats obtenus en reconstruction tomographique sont très dépendants des conditions de l expérience. Une des raisons est que le problème mathématique sous-jacent, la transformée inverse de Radon, est à la fois mal posé (pour obtenir l image originale, il faudrait disposer du sinogramme continu en entier) et instable. L expérience de [3] consiste en une reconstitution de l image originale à partir d un sous-échantillonnage en Fourier sans bruit, ce qui est très différent d un problème de reconstruction tomographique. Certes, un théorème bien connu ( projection slice theorem [15]) nous affirme que l on peut effectivement connaître la transformée de Fourier de l image en deux dimensions sur les lignes passant par l origine à partir de la transformée de Fourier en une dimension des vues. Ce résultat dans le domaine continu n est pas facilement transposable dans le domaine discret, et il faut au minimum prendre en compte un bruit supplémentaire. Pour une discussion récente sur les problèmes concrets posés en reconstruction tomographique en relation avec [3], on pourra consulter [12]. En résumé, l expérience de [3] doit être interprétée comme une reconstruction à partir d un sous-échantillonnage de Fourier non bruité sur un support adapté à un signal simple, et non comme une expérience de reconstruction tomographique avec un faible nombre de vues. 5.7 Bibliographie [1] Baraniuk, R.G., Candès, E., Nowak, R. ; Vetterli, M. (Guest Eds.) : Special issue on compressive sampling, IEEE Signal Process. Mag., 25, (2008). [2] Bronstein, M., Bronstein, A.M., Zibulevsky, M., Azhari, H. : Reconstruction in diffraction ultrasound tomography using nonuniform FFT. IEEE Trans. Med. Imaging, 21, (2002). [3] Candès, E.J., Romberg, J., Tao, T. : Robust uncertainty principles : Exact signal reconstruction from highly incomplete frequency information. IEEE Trans. Inform. Theory, 52, (2006). [4] Candès, E.J., Romberg, J., Tao, T. : Stable signal recovery from incomplete and inaccurate measurements. Comm. Pure Appl. Math., 59, (2006). [5] Capricelli, T.D., Combettes, P.L. : Parallel block-iterative reconstruction algorithms for binary tomography, Electron. Notes Discrete Math., (2005). [6] Capricelli, T.D., Combettes, P.L. : Éclatement des contraintes en reconstruction tomographique. Proceedings of the Twentieth GRETSI Symposium, Louvain-la- Neuve, Belgium, (2005). 98

113 Figure 5.10 Signal original, réponse impulsionnelle et signal dégradé pour l expérience de Luo [14]. 99

114 Figure 5.11 Restauration par minimisation L 2 (haut) et par minimisation de la variation totale (bas) [14]. 100

115 300 Signal original Reconstruction par inversion a partir des 226 coefficients de Fourier Figure 5.12 Haut : signal original. Bas : signal reconstruit à partir d une inversion directe de la transformée de Fourier sous-échantillonnée. 101

116 300 Signal reconstruit apres iterations Signal reconstruit apres iterations Figure 5.13 Reconstructions obtenues après et itérations. 102

117 [7] Capricelli, T.D., Combettes, P.L. : A convex programming algorithm for noisy discrete tomography. In : Herman, G.T., Kuba, A. (eds.), Advances in Discrete Tomography and Its Applications, Boston, (2007). [8] Chambolle, A. : An algorithm for total variation minimization and applications. Journal of Mathematical Imaging and Vision, 20, (2004). [9] Combettes, P.L., Luo, J. : An adaptive level set method for nondifferentiable constrained image recovery. IEEE Trans. Image Process., 11, (2002). [10] Combettes, P.L., Pesquet, J.C. : Image restoration subject to a total variation constraint. IEEE Trans. Image Process., 13, (2004). [11] Compressive sensing resources, Rice University, TX. [12] Herman, G. T., Davidi, R. : On image reconstruction from a small number of projections. Inverse Problems, to appear (2008). [13] Herman, G.T., Kuba, A. (Eds.) : Discrete Tomography : Foundations, Algorithms, and Applications, Birkhäuser, Boston (1999). [14] Luo, J., Non-Differentiable Constrained Signal Restoration by Subgradient Level Methods, Ph.D. Thesis (sous la direction de P. L. Combettes), City University of New York, New York (2000). [15] Natterer, F., The Mathematics of Computerized Tomography, Society for Industrial and Applied Mathematics, Philadelphia, PA, [16] Rudin, L.I., Osher, S., Fatemi, E. : Nonlinear total variation based noise removal algorithms. Phys. D, 60, (1992). [17] Zhang, X.-Q., Froment, J. : Constrained total variation minimization and application in computerized tomography. In : Rangarajan, A., Vemuri, B.C., Yuille, A.L. (Eds.), Lecture Notes in Comput. Sci., Energy Minimization Methods in Computer Vision and Pattern Recognition, 5th International Workshop, EMMCVPR 2005, St. Augustine, FL, (2005). 103

118 104

119 Chapitre 6 Aspects numériques 6.1 Introduction Nous disposons de résultats de convergence au sens de la topologie faible ou forte pour tous les algorithmes décrits jusqu à présent. Nous noterons x l image originale, x 0 le point initial d un algorithme et x la limite d une suite convergente (x n ) n 0. Même en se restreignant aux méthodes de projections sur des convexes fermés, le nombre d algorithmes est important. Pour un algorithme donné, il faut prendre en compte de très nombreux paramètres qui peuvent (et doivent) être choisis. Nous avons donc un environnement algorithmique d une très grande complexité et il est difficile de s y retrouver. Des questions aussi simples que Quelle est la méthode la plus adaptée à tel problème? ou Dans quels cas le paramètre X influencet-il réellement la vitesse de convergence? n ont pas de réponse évidente dans la littérature. La première partie de ce chapitre (Sections 6.2 à 6.7) donne des éléments de comparaisons pour mieux comprendre l impact du choix des valeurs des différents paramètres. La seconde partie (Section 6.8) présente des résultats numériques sur les algorithmes de projection utilisant les distances de Bregman ; ce sont, à notre connaissance, les premiers à être publiés. 6.2 Description des expériences Nous décrivons ici quelques problèmes classiques qui peuvent se résoudre par les méthodes de projections convexes. Pour chaque problème, nous décrivons les contraintes, et un processus qui fournit un jeu complet de données nécessaires à la résolution du problème. Nous utiliserons le terme expérience pour désigner l ensemble de cette description. 105

120 Figure 6.1 Image utilisée dans les simulations numériques pour l expérience de restauration d image de la Section La taille est de pixels (H = R ). Des expériences de ce type sont utilisées dans la littérature comme exemples de cas où le problème d admissibilité convexe peut être utilisé, mais aussi comme cas d étude pratique pour comparer les algorithmes, ce qui est le but de ce chapitre Restauration d image mammographique Un problème standard en imagerie médicale consiste à restaurer une image mammographique ayant été altérée par le processus d acquisition. L image originale x de la Figure 6.1 de taille a d abord subi un effet de flou, que l on modélise par une convolution en deux dimensions avec un noyau h carré de taille 7 7, puis par addition d un bruit blanc gaussien centré w. L image y de la Figure 6.2, est liée à x par la relation y = h x + w. (6.1) Le niveau du bruit est choisi de manière à ce que le rapport image floue/bruit soit 10 log 10 ( h x 2 / w 2) = 20 db. (6.2) On appelle résiduel correspondant à une image x le vecteur y h x. Ses attributs statistiques doivent être cohérents avec ceux du bruit w. Donc, si on suppose connus 106

121 le noyau h et la distribution du bruit w, on peut imposer des contraintes probabilistes sur le résiduel. Plus de détails peuvent être trouvés dans [16]. L expression du problème est alors : Problem 6.1 Trouver x S = S 1 S 2 S 3 S 4, (6.3) avec les ensembles-contrainte suivants : (i) les pixels ont des valeurs minimales et maximales connues S 1 = [0; 1] N ; (ii) second moment du résiduel S 2 = { x H y h x 2 δ } ; (iii) moyenne du résiduel S 3 = { x H y h x 1 χ } ; (iv) périodogramme du résiduel S 4 = { (k,l) D x H y h x 2 (k, l) ξ } avec D = {1,..., L/2 1} {1,..., H/2 1}. Les bornes δ, χ et ξ sont choisies de manière à avoir un niveau de confiance de 95 % sur S [17]. Il existe [13, 16] des formulations explicites pour les projections sur ces ensembles, il n y a donc pas besoin d utiliser de projection sous-différentielle. Cette expérience sera utilisée dans la Section Tomographie bi-dimensionnelle Comme on l a vu au Chapitre 4, le problème de la tomographie bidimensionnelle est de reconstruire une image x d un objet à partir de mesures de ses intégrales rectilignes suivant des directions angulaires (θ j ) 1 j p, c est-à-dire d estimer une image x à partir d une observation partielle et bruitée de sa transformée de Radon [11, 21]. En tomographie assistée par ordinateur, l image originale x est discrétisée et représentée par un point dans l espace euclidien R N, N étant le nombre total de pixels (N = H L). Désignons par y j (1 j q) la j e vue, i.e., la mesure des intégrales rectilignes discrètes au travers de x dans la direction θ j. Chaque y j est discrétisé sur M points et est donc représenté par un vecteur de R M. Les y j sont linéairement liés à x par les relations ( j {1,..., q}) y j = R j x, (6.4) où R j est une transformation connue dépendant de θ j [11, 21]. Dans la pratique, ce modèle idéal doit être remplacé par ( j {1,..., q}) y j = R j x + w j, (6.5) 107

122 Figure 6.2 Image dégradée dans l expérience de la Section où les (w j ) 1 j q représentent un bruit additif. Il est bien connu que le problème de la reconstruction de x à partir du sinogramme partiel y = (y j ) 1 j q est instable et mal posé et que, pour obtenir des solutions fiables, il faut incorporer dans la méthode de reconstruction autant d informations a priori que possible. Nous disposons donc de q observations bruitées du sinogramme de x données par les équations (6.5). Une contrainte naturelle sur une estimée x de x est d imposer que, pour chaque j {1,..., q}, le résidu y j R j x se comporte comme le bruit w j. Une autre approche est celle de [24], qui consiste à considérer le bruit comme global sur l ensemble du sinogramme. C est une approche certes grossière et assez éloignée de la réalité physique, mais qui présente l avantage de s affranchir d une modélisation fine du bruit sur les détecteurs. L expression du problème est comme suit. Problem 6.2 Trouver x S = q+1 i=1 avec les ensembles-contrainte suivants : S i, (6.6) 108

123 (i) les pixels ont des valeurs minimales et maximales connues S 1 = [0; 1] N ; (ii) second moment du résiduel sur chaque vue S j+1 = { x H y j R j x 2 δ j }, 1 j q. Pour les simulations numériques, nous utiliserons la Figure 4.1 (N = 16384) Tomographie avec contraintes affines Pour cette première expérience, nous avons pris un cas d école, linéaire, simplifié et dépouillé. Nous partons des équations (6.5), en utilisant un bruit borné, en fixant la borne δ a priori. Les vues (y j ) 1 j q ainsi bruitées forment les données d entrée du problème. Nous n avons utilisé comme contraintes additionnelles que le strict minimum, notre but n étant pas ici de comparer l efficacité relative des a priori qui peuvent être intégrés. Nous imposons seulement la contrainte de valeur sur les pixels x [0; 1] N, qui garantit que les pixels de l image ont tous une valeur raisonnable. On modélise ce problème dans le cadre du Problème 1.1 d admissibilité convexe avec m = qm + 1 contraintes. Problem 6.3 Trouver x S = S 1 avec les ensembles : (i) S 1 = [0; 1] N ; ( m 1 j q 1 k M (ii) S j,k = { x R N y j R j x e k δ }. S j,k ), (6.7) Les caractéristiques principales de ce premier problème sont la linéarité et le très grand nombre de contraintes. Il est obsolète d un point de vue applicatif, mais reste un modèle pour comparer les algorithmes dans le cas linéaire. En particulier, l algorithme ART3 [20], référence classique en tomographie, ne peut s appliquer que dans ce cadre. Pour les simulations numériques, nous utiliserons la Figure 4.1 (N = 16384). La valeur des pixels est un élément de [0; 255]. Nous effectuons q = 10 observations avec une répartition angulaire régulière sur [0; π[. Ces observations sont discrétisées dans R M avec M = 181. Un bruit uniforme sur [ δ; +δ], avec δ = 400 est alors ajouté. Cela correspond à une erreur de l ordre de 1 %. On a alors qm + 1 = 1811 contraintes. 109

124 x 3 x 1 S H 1 x 0 H 2 x 4 x 2 Figure 6.3 Le taux de convergence pour la méthode des projections peut être rendu aussi proche de 1 qu on le souhaite. Exemple en deux dimensions Radiothérapie, ou IMRT Ce problème inverse en traitement du signal intervient dans plusieurs domaines médicaux, et particulièrement en radiothérapie pour le traitement du cancer. Le terme anglais est intensity-modulated radiation therapy et donne le sigle couramment utilisé IMRT. On utilise des accélérateurs linéaires de particules de rayonnement X haute énergie ou des faisceaux d électrons pour détruire une tumeur. Ces rayons peuvent être modulés en intensité, et envoyés dans le corps du patient selon différents angles. Bien que cela se généralise en trois dimensions, nous exposons ici le procédé en deux dimensions. Supposons que la section concernée du patient soit discrétisée en une image x de N pixels (par exemple N = pixels). Après différents ajustements physiques, la dose totale reçue en un pixel peut être considérée, d un point de vue mathématique, comme une combinaison linéaire des différents rayons envoyés. Notons M le nombre de ces rayons, et y R M le vecteur des intensités de l ensemble du rayonnement envoyé vers le patient. On écrit alors x i = L i y la dose reçue au pixel 1 i N. Le travail du radiothérapeute consiste à donner pour chaque pixel, une valeur minimale et une valeur maximale de radiation. Le minimum sera non négligeable pour un pixel correspondant à la tumeur, alors que les tissus environnants auront surtout un maximum. Le maximum sera encore plus bas pour les organes sensibles. Le problème est de trouver les intensités y pour respecter ce programme, avec la contrainte supplémentaire de la plage d intensité utilisable pour les rayons. Plus de détails et des références peuvent être trouvés dans [11]. Pour nos expériences, nous utilisons les valeurs minimales et maximales affichées en Figure Les rayons sont envoyés en parallèle depuis huit angles équirépartis. 110

125 6.3 Taux de convergence Il est habituel d utiliser la notion de taux de convergence linéaire pour caractériser la vitesse d un algorithme itératif. Dans notre contexte, cela se présenterait sous la forme x n x Cτ n. (6.8) L exemple suivant (illustré sur la Figure 6.3) est classique. On considère deux droites (hyperplans) se coupant dans un plan (H = R 2 ). On a alors une relation simple pour la distance d un itéré à l intersection (ici l origine 0) : x n+1 = cos(α) x n, (6.9) d où τ = cos(α). On peut donc avoir, même dans une situation aussi triviale, un taux de convergence aussi mauvais que l on souhaite (des développements récents sur le sujet peuvent être trouvés dans [7]). À l autre extrême, si nous utilisons l Algorithme 3.14 (méthode extrapolée) sur la même figure, nous avons convergence en au plus deux pas. Pour détailler ce processus de convergence instantanée, considérons le cas où le point initial est à même distance des deux hyperplans (se reporter à la Figure 6.4). L Algorithme 3.14 est utilisé avec des paramètres standards : le balayage est statique (I n = I), les poids sont équirépartis (ω i = 1/2), et on utilise L n pour la relaxation (λ n = L n ), où L n = 1 2 P 1x 0 x P 2x 0 x P 1(x 0 x 0 ) 1 2 (P 1x 0 x 0 ) 2 = 1 ( sin(α) ) 2 (6.10) Grâce à la relaxation que permet L n, nous avons une convergence exacte en une itération, en effet x 1 = x 0 + L n ( P1 x 0 + P 2 x 0 2 x 0 ) = x 0 + L n (d x 0 ) = 0. (6.11) Au delà de ces cas simples, les orbites suivies par les algorithmes présentent un tel éventail de cas qu il est impossible d estimer le taux de convergence. La dimension de l espace est couramment de plusieurs milliers, voire plusieurs millions. Les algorithmes, conçus pour être les plus génériques possibles, complexifient encore la tâche. Il y a plusieurs cas où un taux de convergence linéaire peut être établi, e.g., [3, 15, 18]. Cependant, même dans le cas de projections convexes alternées dans le plan euclidien, on peut converger sans avoir un taux de convergence linéaire, i.e., sans avoir (6.8) [1, 29]. La convergence linéaire n est donc pas une panacée et elle a souvent une portée pratique assez faible. 111

126 P 1 x 0 H 1 S α d d x 0 H 2 P 2 x 0 Figure 6.4 Convergence en un pas avec la méthode extrapolée (Section 3.4.6). En conclusion, la notion de taux de convergence s avère à la fois non calculable et non pertinente pour l étude de la vitesse de convergence de nos algorithmes. C est pourquoi nous utiliserons dorénavant le temps processeur réel pour comparer les méthodes entre elles. Les articles [7, 19] offrent des pistes pour approfondir ces sujets. 6.4 Critères de comparaison Pour pouvoir comparer les méthodes, il nous faut d abord décider d un critère. Les articles sur le sujet sont loin d être unanimes sur le bon critère à utiliser. Nous décrivons ici les principaux, et nous montrons le peu de pertinence des critères habituellement utilisés dans la littérature Distance relative à l image originale Ce critère est très utilisé dans la littérature pour comparer un nouvel algorithme aux anciens. Il est défini par (une variation de) : E(x) = 10 ln x x 2 x 0 x 2. (6.12) Il ne peut être utilisé que dans les simulations, lorsque x est connu. Le problème de ce critère est que quel que soit l algorithme utilisé (admissibilité convexe, Problème 1.1, ou meilleure approximation, Problème 1.3), le point de convergence x est a priori différent du point original x. Ce critère convergera donc vers la valeur x x. Il ne permet pas de comparer les vitesses de convergence. De plus, les points de convergence de deux algorithmes différents seront en général différents. Ce critère se base sur l idée fausse que le but de l algorithme est de trouver x. 112

127 -2 EMOPSP, taille des blocs : 50 ART Erreur relative (db) Temps (secondes) Figure 6.5 En utilisant le critère Distance relative à l image originale, on constate peu de différence entre ces deux algorithmes. La Figure 6.5 donne un exemple d utilisation de ce critère dans le cadre de l expérience décrite dans la Section 6.2.3, où EMOPSP fait référence à l Algorithme 3.14 avec des opérateurs de projections, et ART3 fait référence à l Algorithme 3.10 avec les opérateurs de la Section 2.4. Notons que pour l Algorithme 3.14 la taille des blocs est card I n = 50. Cependant, la Figure 6.5 donne le temps cumulé avec une mise en œuvre sur un seul processeur ; lors d une mise en œuvre avec 50 processeurs parallèles, on aurait un gain de temps de l ordre d environ Distance relative au point de convergence L idée naturelle pour améliorer le critère précédent est donc de remplacer x par x. Cela donne en effet une comparaison plus juste, mais il faut faire un calcul en deux temps : on applique l algorithme une première fois, suffisamment loin pour avoir une bonne approximation de x. Un deuxième passage permet alors de calculer le critère. Une autre méthode, qui remplace le coût en temps par un coût en mémoire, consiste à garder les (x n ) n 0 en mémoire pour calculer le critère une fois x connu. La Figure 6.6 illustre ce critère sur le même exemple que celui de la Figure

128 0 EMOPSP, taille des blocs : 50 ART Erreur relative (db) Temps (secondes) Figure 6.6 En utilisant le critère en deux temps, il est clair qu un des algorithmes converge plus vite que l autre Fonction de proximité Un autre critère pertinent est la fonction de proximité φ définie en (3.7), φ(x) = 1 ω i d Si (x) 2 = 1 ω i x n P i x n 2. (6.13) 2 2 i I i I L évaluation de cette fonction est une opération coûteuse. Elle demande par exemple beaucoup plus de temps processeur que le temps typique nécessaire pour avancer d un pas dans l algorithme. L utilisation directe de ce critère multiplie le temps de calcul par 10, 100, voire plus. Diverses optimisations existent, comme par exemple n évaluer ce critère qu une fois toutes les 10 ou 100 itérations. Le compromis est alors à trouver entre le temps consacré à l évaluation du critère lui-même, et la précision obtenue en temps. Du point de vue de la mise en œuvre, il faut faire très attention à ne pas prendre en compte le temps passé pour évaluer le critère. Seul le temps réellement consacré à l algorithme doit être comptabilisé. Toujours en utilisant les mêmes reconstructions que celles des Figures 6.5 et 6.6, l évolution de ce critère est affichée en Figure

129 0 EMOPSP, taille des blocs : 50 ART Proximite relative (db) Temps (secondes) Figure 6.7 Utilisation de la fonction de proximité relative φ comme critère de comparaison. 6.5 Influence des paramètres De nombreux paramètres interviennent dans les algorithmes de projection, et il est souvent difficile de comprendre, pour chacun d entre eux, l influence d un choix sur le résultat final, quel que soit le critère (rapidité, qualité de l image, distance à l image d origine). L influence de ces paramètres est souvent importante. Le but de cette section est d évaluer de manière empirique, au travers de nombreuses expériences numériques, l importance relative de chaque paramètre. Pour chaque test, on fixe tous les paramètres sauf un, et on observe l influence du paramètre restant sur la vitesse ou la qualité de l image obtenue Algorithmes La Figure 6.8 montre les performances comparées des principaux algorithmes, sur l expérience de tomographie de la Section 6.2.2, formulée en tant que problème d admissibilité convexe. Dans tous les cas, la relaxation utilisée est constante ( n N) λ n = λ. (6.14) 115

130 50 0 POCS PPM EMOPSP SIRT Fonction de proximite relative (db) Temps (secondes) Figure 6.8 Comparaison de la vitesse de convergence de différents algorithmes dans le cas de l expérience de tomographie de la Section (Problème 6.2) ; cf. Section La première courbe (POCS) correspond à l Algorithme 3.10, historiquement le premier, en utilisant une sur-relaxation λ = 1, 99. La deuxième (PPM) correspond à l Algorithme 3.12 avec des poids uniformes et une sur-relaxation de λ = 1, 99 également : à chaque itération, on calcule la moyenne de la projection sur chacun des ensemblescontrainte, et on applique la relaxation. Pour la troisième courbe (EMOPSP), l Algorithme 3.14 est utilisé avec une taille de blocs de 50, une sur-relaxation de λ = 1, 99 et des poids uniformes. Enfin, la dernière courbe (SIRT) utilise l Algorithme 3.11, qui calcule la moyenne des projections sans appliquer de coefficient de relaxation. Ces expériences nous donnent une idée de l évolution dans le temps des algorithmes. Elles permettent aussi de retrouver certains résultats trouvés dans la littérature, et ainsi, malgré les difficultés de reproductibilité de ces résultats (voir à ce sujet la Section 7.1.1), d avoir une certaine validation du logiciel Point initial Nous nous intéressons tout d abord au choix du point initial. D un point de vue théorique, la convergence des algorithmes est toujours assurée et on peut choisir pour 116

131 Figure 6.9 Solutions du problème de restauration de la Section (Problème 6.1) en fonction du point initial ; cf. Section Haut : image nulle, Bas : image aléatoire. 117

132 Figure 6.10 Solutions du problème de tomographie de la Section (Problème 6.2) en fonction du point initial ; cf. Section Haut-gauche : image originale. Reconstructions avec l image nulle (haut-droite), la solution par rétroprojection filtrée (bas-gauche), une image aléatoire (bas-droite). 118

133 0-2 Point initial : image nulle Point initial : retroprojection filtree Point initial : aleatoire -4-6 Proximite relative (db) Temps (secondes) Figure 6.11 Vitesse de convergence en fonction du point initial dans l expérience de la Section (Problème 6.2) ; cf. Section x 0 n importe quel point de H. Les deux critères qui peuvent le plus être influencés par le choix du point initial sont la vitesse de convergence et la qualité du point de convergence. Nous considérons tout d abord l expérience de restauration de mammographie du Problème 6.1. Pour résoudre ce problème, l Algorithme 3.14 est utilisé avec balayage statique, une sur-relaxation de λ = 1, 99 et des poids uniformes. Seul le point initial varie entre ces expériences. L image aléatoire a été obtenue en prenant pour chaque pixel la réalisation d un processus aléatoire uniforme sur [0; 1]. La Figure 6.9 présente l image obtenue après convergence en fonction du point initial. Nous considérons ensuite l expérience de reconstruction tomographique du Problème 6.3. Nous utilisons l Algorithme 3.14 avec une taille de blocs de 50, une sur-relaxation de λ = 1, 99 et des poids uniformes. À nouveau, seul le point initial varie entre ces expériences. La Figure 6.10 présente l image obtenue après convergence en fonction du point initial, et la Figure 6.11 permet de comparer la vitesse des algorithmes. Du point de vue de la vitesse, le choix de la rétro-projection filtrée semble le meilleur, ce qui n est pas étonnant car c est a priori l image la plus proche de l ensemble S. Ceci dit, le calcul de la rétro-projection filtrée n a pas été pris en compte ici. L exemple avec un point initial aléatoire permet de montrer un exemple de point 119

134 50 0 blocs de taille 1 blocs de taille 5 blocs de taille 20 blocs de taille 150 blocs de taille 500 blocs de taille 1000 Proximite relative (db) Temps (secondes) Figure 6.12 Comparaison des vitesses de convergence en fonction de la taille des blocs ; cf. Section Le temps affiché est le temps de calcul cumulé : il correspond à une mise en œuvre sur un seul processeur. admissible qui clairement n est pas satisfaisant, et justifie l utilisation d algorithmes de minimisation ou de projection, qui garantissent d obtenir un point particulier de l ensemble admissible. Notons que dans cet exemple précis, on gagnerait probablement beaucoup en ajoutant une contrainte sur la variation totale. Nous retiendrons que le choix du point initial influence grandement et la vitesse de l algorithme, et la qualité du point obtenu Taille des blocs Les algorithmes parallèles permettent de varier le nombre de contraintes considérées à chaque itération. Idéalement, cela correspond au nombre de processeurs (ou processus) qui seront exécutés en parallèle sur un ordinateur. Ici encore, l Algorithme 3.14 est utilisé pour résoudre le Problème 6.3, avec une taille de blocs de 50, une sur-relaxation de λ = 1, 99 et des poids uniformes. Nos expériences montrent que le nombre idéal est un compromis entre l utilisation d un seul processeur (correspondant aux cas particuliers historiques comme POCS ou ART), et l utilisation de tous les ensembles à chaque itération (comme c est le cas par exemple pour les 120

135 0-20 Cyclique Aleatoire Melange Proximite relative (db) Temps (secondes) Figure 6.13 Comparaison des vitesses de convergence en fonction du balayage ; cf. Section algorithmes SIRT ou PPM). La Figure 6.12 compare les vitesses de convergence dans le cadre du Problème 6.3, qui se caractérise notamment par un grand nombre d ensembles. La vitesse est optimale lorsque le nombre de processeurs (ou la taille des blocs) est compris entre 20 et 150. Les cas extrêmes (moins de 5 ou plus de 300) sont sous-optimaux. Un point mérite d être souligné ici. Le temps représenté sur les figures est le temps cumulé des différents processeurs. Et même ainsi, les méthodes extrapolées sont plus rapides. En général, le passage d un algorithme à une version adaptée aux calculs parallèles induit une perte d efficacité. Ainsi, un partage sur n processeurs sera m fois plus rapide, avec m/n < 1, et idéalement proche de 1. Ici, ce rapport est supérieur à 1. Le gain en efficacité est avant tout d origine géométrique, et la capacité à s adapter à une architecture parallèle est un bénéfice supplémentaire. Pour mieux comprendre le phénomène, les valeurs du coefficient de relaxation L n sont affichées sur les Figures 6.15 (blocs de taille 8) et 6.16 (blocs de taille 50). Le fait que le coefficient est toujours supérieur ou égal à un est bien visible. 121

136 *Ln 0.8*Ln 1*Ln 1.5*Ln 1.9*Ln 1.99*Ln Proximite relative (db) Temps (secondes) Figure 6.14 Comparaison des vitesses de convergence en fonction de la relaxation ; cf. Section Balayage La Figure 6.13 compare les vitesses de convergence en fonction du balayage dans le cadre de l expérience de tomographie du Problème 6.3 avec l Algorithme La méthode extrapolée est utilisée avec une taille de blocs de 50 et une relaxation constante de 1, 99. Le balayage aléatoire consiste à sélectionner un indice au hasard. Pour le balayage mélangé, l ensemble des indices est mélangé, puis on effectue un balayage cyclique avec ce nouvel ordre. Ces résultats nous montrent que la vitesse est relativement indépendante du balayage utilisé Relaxations Nous comparons ici l intérêt du coefficient global de relaxation. Ce paramètre, noté λ par exemple dans (3.47), est indépendant du coefficient L n des méthodes extrapolées. Nous avons la possibilité théorique de le choisir à chaque itération, mais en dehors d un critère évident, nous utilisons la même valeur au cours de l orbite. Nous nous basons sur l Algorithme 3.14, le plus général, pour faire les simulations. La 122

137 L n Itérations Figure 6.15 Valeurs des coefficients de la méthode extrapolée dans le cas de contraintes d énergie sur le résiduel. Il y a 23 ensembles-contrainte et les blocs ont une taille de 8. Figure 6.14 compare la rapidité des algorithmes pour différentes valeurs du coefficient de relaxation. Il existe cependant des exemples académiques où l utilisation d une sous-relaxation permet une convergence plus rapide [25] Centrage Dans [14, 27], il est noté que dans certains cas, une sur-relaxation systématique pouvait nuire à la performance de l algorithme. La solution proposée est de recentrer l orbite à intervalle régulier dans l Algorithme 3.14 : ( n N) λ n = { L n /2, si n = 2 modulo 3; L n, sinon. (6.15) Dans le cadre de l expérience de tomographie du Problème 6.3 avec l Algorithme 3.14 (Figure 6.17), l utilisation du centrage ne fait que ralentir l algorithme. Il est donc difficile de dégager un principe général sur l utilisation ou pas du centrage. Ceci renforce la nécessité de disposer de logiciels flexibles pour pouvoir effectuer des tests au cas par cas. 123

138 L n Itérations Figure 6.16 Valeurs des coefficients de la méthode extrapolée dans le cas de contraintes linéaires. Il y a 5633 ensembles-contrainte et les blocs ont une taille de Utilisation de l opérateur de ART3 L algorithme ART3 dont nous avons parlé aux Sections 2.4 et est souvent cité comme référence en ce qui concerne la convergence pour les problèmes où toutes les contraintes sont des tronçons comme, typiquement, le Problème 6.3. Il nous a semblé intéressant d évaluer l intérêt de l opérateur (2.8) utilisé dans ART3 dans le cadre des nouveaux algorithmes. C est l objet d un article accepté pour la 5ème conférence IEEE International Symposium on Biomedical Imaging, et que nous reproduisons ici. Les points importants de l article sont les suivants. (i) L opérateur introduit par Herman, qui a eu un tel succès avec l algorithme POCS, apporte-t-il le même avantage dans le cadre des algorithmes plus récents? (ii) Le choix des paramètres n est pas juste une possibilité abstraite et théorique, il est important dans les applications. La nature du problème a, en particulier, une influence notable. Il est donc fondamental d avoir des références concernant ces choix. (iii) Bien que cela ait déjà été dit [14], il nous a semblé utile de confirmer dans un type de problème différent que les méthodes extrapolées sont plus efficaces que les méthodes séquentielles ART3 (ou ART3+), y compris sur une architecture non parallèle. 124

139 0 avec utilisation du centrage sans utilisation du centrage -50 Proximite relative (db) Temps (secondes) Figure 6.17 Comparaison des vitesses de convergence en fonction de l utilisation du centrage ; cf. Section Article en anglais A FAST PARALLEL METHOD FOR MEDICAL IMAGING PROBLEMS INCLUDING LINEAR INEQUALITY CONSTRAINTS 1 Abstract : When studying problems such as tomography with bounded noise or IMRT, we need to solve systems with many linear inequality constraints. Projectionbased algorithms are often used to solve this kind of problem. We see how previous work for accelerating the convergence of linear algorithms can be recast within the most recent generic framework, and show that it gives better results in specific cases. The proposed algorithm allows general convex constraints as well and the conditions for convergence are less restrictive than traditionnal algorithms. We provide numerical results carried out in the context of tomography and IMRT. 1. T. D. Capricelli, A fast parallel method for medical imaging problems including linear inequality constraints, Proceeding of the Fifth IEEE International Symposium on Biomedical Imaging (ISBI 08), Paris, May

140 6.7.1 Introduction Most imaging problems can be formulated as a feasibility problem, for which many algorithms have been developped in the last 30 years [12]. The idea is to describe the problem in the euclidian space H = R N with a number of constraints, which are derived from observed data and a priori on solutions. Most algorithms require those constraints to be convex. We shall therefore consider the following mathematical formulation, where (S i ) i I in H are closed convex sets. Problem 6.4 (Convex Feasibility) Find a point in S = i I S i. We are especially interested in two biomedical imaging experiments : tomography with bounded noise, and intensity modulated radio therapy (IMRT). For those particular problems, most of the constraint sets are actually a lot more simpler than just convex sets, they are hyperslabs. A hyperslab is a set of the form : S i = { x H β i δ i x a i β i + δ i }, (6.16) where a i H {0} is the normal direction, β i R gives the location in the euclidian space, and δ i > 0. Without loss of generality we shall from now on consider a i = 1. The corresponding central hyperplan H i is { x H x a i = β i }. Hyperslabs appear as constraints in many other experiments, even with unbounded noise [10, 12], and the technique described in this article can be used as well. It could still be useful to consider convex sets which are not linear, in order to be able to embed as much a priori knowledge as possible in the problem statement (for example total variation bound, or some Fourier constraint sets). Our aim in this article is to provide a generic, though efficient, algorithm to solve problem 6.4 in this particular cases. We start by describing the different algorithms and recall some theoretical results. We then propose and describe a specific operator suitable to be used in the most recent algorithm. The last sections describes and presents some numerical results Algorithms To solve problem 6.4, the original POCS algorithm (Projection Onto Convex Sets) was proposed by Bregman in 1965 [8] for a finite number of constraints. It uses a sequential (sets are considered one at a time) and cyclic control. There is no relaxation. Bregman proved the convergence if S is not empty. Algorithm 6.5 (POCS, Bregman, 1965) x n+1 i n = (i mod card I) + 1. = P in x n, with a cyclic control 126

141 In the special case where all sets are hyperslabs, G. T. Herman proposed the following algorithm [20], called Algebraic Reconstuction Technique 3 : Algorithm 6.6 (ART3, Herman, 1975) x n+1 = U in x n, with a cyclic control i n = (i mod card I) + 1 and where U i is defined in (6.20). Herman proved the convergence in finite steps under the hypothesis that S is full dimensional. This kind of result is common with such a strong hypothesis. This algorithm is now seen as a reference for this special case and is often used in comparisons when designing new algorithms. The slight improvement introduced in the algorithm ART3+ [22] is related to the control, which is not what this article focuses on. For the generic problem 6.4, the original POCS algorithm has been enhanced in many different ways. The projection is first generalized using the subgradient projection. If S i is defined by S i = {x H f i (x) 0} (which is always possible), the subgradient projection is defined by : G i x = { x fi (x)u/ u 2 si f i (x) > 0; x, si f i (x) 0, (6.17) where u f i (x) is any subgradient of f at x. This is an approximation that is often used when the actual projection has no closed form or cannot be computed efficiently on a computer. The projection is a special case of the subgradient projection. See the references in [5, 14] for more details. Then, class T operators were introduced in [5], and are a generalization of projections and subgradient projections : subgradient operators are in class T [5]. We shall note Fix T the set of fixed points for the operator T : Fix T = {x H T x = x}. Given two points x and y in H, we consider the set H(x, y) = {u H u y x y 0}, which is a half space if x y. An operator T : H H is said to be in class T if ( x H) Fix T H(x, T x). The state of the art of algorithms using several projections in parallel is EMOPSP [14]. The following algorithm is a generalization to class T of EMOPSP (see [15] for a description and convergence results). Algorithm 6.7 ( ) x n+1 = x n + λ n L n ω i,n (T i,n x n ) x n, (6.18) i I n where x 0 H, ɛ ]0; 1], δ ]0; 1] and n N : (a) I n I is the control, (b) i I n T i,n T and Fix T i,n = S i, 127

142 Figure 6.18 Left : original phantom used for the tomography experiments. Right : reconstruction example. (c) λ n [ɛ; 2 ɛ] is the relaxation parameter, (d) ω i,n ]δ, 1] are the weights, with i I n ω i,n = 1, (e) i I n ω i,n T i,n x n x n 2 L n = if x i I n ω i,n T i,n x n x n 2 n / S, 1 else. The control is supposed admissible, which means that there exist strictly positive integers (M i ) i I such that ( (i, n) I N) i n+m i 1 k=n I k. Every cyclic control (as in algorithm 6.5) is admissible. For comparison purpose, we shall call EMOPSP the same algorithm, with the following standard parameters : ( n N) λ n = 1.99, T i,n = G i (subgradient or projection), and uniform weights ω i,n over selected I n. We use the indice partition I = I 1 I2, where I 2 are indices for which S i is an hyperslab, and I 1 = I \ I A specific operator The algorithm 6.7 is general and has many parameters which can be tuned for a specific application. However, finding how to choose all of those parameters is often difficult. We focus on the relaxation parameter λ n. Even though enhanced 128

143 speed can be achieved using small relaxation in some rough corner cases [25], in the average case, our experience is that the best bet is to use over-relaxation, by setting ( n N) λ n = The algorithm 6.6 (ART3), proposed by G. T. Herman [20] can be reformulated as a special choice for the relaxation parameter in the cyclic case. We shall see how this can be extended to the general, parallel scheme of algorithm 6.7, and we propose a new version of the algorithm 6.7 adapted to problems where many constraints are hyperslabs. Let us consider the operator used to enforce the linear inequality constraints S i, when i I 2. The projection of the vector x on S i is the vector P Si x (shortened as P i x from now on) defined by x, if x S i, x + (β i δ i a i x )a i if a i x < β i δ i, x + (β i + δ i a i x )a i if a i x > β i + δ i. (6.19) The new operator in ART3 is : x, if x S i, U i x = P Hi x, if a i x β i > 2δ i, 2P i x x, else, (6.20) from which we have Fix U i = S i. Unfortunately, this operator does not belong to the class T. It can be written as an over-relaxation of the projection onto S i, U i x = x + ν(x)(p i x x) with 1, if x S i, δ i ν(x) = 1 + d(x, S i ), if a i x β i > 2δ i, 2, else. (6.21) We have 1 ν(x) 2, and U i are mostly over-relaxed projection onto S i. Using the proposition [5, 2.6(iii)] we conclude that the operator T i = (Id +U i )/2 has the same fixed points as U i, and it belongs to the class T. We use this operator T i for the sets with indice in I 2, while for the sets with an indice in I 1, we keep the general subgradient projection operators G i. Algorithm 6.8 Algorithm 6.7 with, ( n N) : (a) λ n = 1.99 (b) T i,n = G i if i I 1 (c) T i,n = T i if i I 2 (d) Uniform weights ω i,n over selected I n. ART3 is a very specific case for this algorithm. The use of the relaxation factor 1.99 instead of 2 allows far less restricive hypothesis for convergence results while it doesn t make any real difference with respect to the speed. 129

144 Figure 6.19 Minimum and maximum value for the IMRT experiment. The grey part on the left is the tumor. The two dark parts on the right are places especially fragile Applications Whether the use of operators T i enhances the speed of the algorithm or not is highly dependant on the nature of the problem. For example, we consider in [9] a problem unrelated to biomedical imaging : the deconvolution of a signal in one dimension, with added noise. We show that when using the operator T i, the convergence takes more time than with traditional algorithms. To compare the algorithms, we shall use common, though not trivial, numerical experiments : tomography with bounded errors, and IMRT. Both applications are taken from medical imagery. More details can be found in [11] Computer tomography This is a typical problem of image reconstruction, and can be described in two or three dimensions. We shall describe the 2D case for simplicity. We start from the original phantom shown in Fig. 6.18, whose pixel range is [0; 255]. This is a 2D image, discretized on a = N grid, and can be seen as a point in the space H = R N. We shall denote x this image. Given a direction, specified as an angle θ i from the center of the phantom, we can compute the projection along this direction or view, which is a signal in one dimension. The corresponding euclidian space is R M, where M is the number of pixels on each view. There are q N such different views. The problem is to reconstruct the original image from the observations, using as much a priori as possible. The projection is a linear transformation and, if we suppose that 130

145 14 ART3 EMOPSP Our algorithm Figure 6.20 Tomography with bounded noise : Convergence time repartition based on several hundred noise realizations for each algorithm. the observation noise on each pixel for each view is bounded by δ, we finally have the following constraint sets : S j,k = { x H R j x y j e k δ }, (6.22) where y j R M, 1 j q is the observed data and (e k ) 1 k M is the canonical basis for R M. Our aim is to compare the relative speed of the operators used to handle the hyperslabs, and we shall only use here one more constraint : the range of the image is imposed through the set S 0 = [0; 255] N. For our experiments, we shall use q = 10 views, uniformely spaced over the full range of angle (π radians). The bound δ is set to 200/256. With such parameters, actual convergence is achieved within few seconds on a contemporary computer (AMD 64bits, dual core at 2.2 GHz) using most algorithms. The only one that does not converge in finite time is the original POCS, and this is explained by the fact that each step computes the exact projection without any relaxation, hence never going further than the frontier. The exemple of two non-orthogonal secant lines in R 2 shows why convergence can take an infinite number of steps. 131

146 0-50 POCS ART3 EMOPSP Our algorithm -100 Relative proximity function (db) Time (seconds) Figure 6.21 IMRT experiment : Proximity function versus time Intensity-modulated radiation therapy Intensity-modulated radiation therapy (IMRT) is a signal problem found in several medical treatments, most notably cancer treatments. Computer-controlled X-rays accelerators can distribute precise dose of X-rays and those (straights) beams can be sent through the patient body along different directions. For every given part of the body, the total dose of X-rays received depends linearly of all the beams sent. Suppose a 2D section of the patient is discretized as an image x of N pixels (for exemple N = pixels), and there are M beams used (different positions and directions). We shall note y R M the vector of intensities of the whole beam. Then the dose received at pixel 1 i N can be written as x i = L i y. The therapy planning consist in giving for every pixel a minimum and a maximum value for the dose received. For a pixel belonging to a tumor, one would want a high minimum value, while for a pixel belonging to surrounding normal tissue the maximum authorized value would be low, and even lower for fragile tissues. Medical personnel decide those minimum and maximum values. The purpose of the algorithm is to find the value of the intensities y, constrained to those medical prescriptions and the actual intensity range of X-rays accelerators. See [11] for further details. We used the minimum and maximum values shown in figure 6.19, and 8 different angles uniformely spread. 132

147 6.7.5 Numerical results The criterion we chose to use is the relative proximity function φ 0 (x) = φ(x)/φ(x 0 ), where φ is the proximity function : φ(x) = i I ω i x n P i x n 2, with uniform weights (ω i = 1/ card I), which describes how far away we are from being feasible. See [9] for a discussion on the different criteria. The time displayed on the X axis of the figures is the total CPU times. For the parallel algorithms, this is the sum of CPU time. We used 50 processors in parallel for our tests. The first point that should be highlighted is that the parallel algorithms are a lot faster than the serial ones, even on a non-parallel computer. This is due to the highest range for the relaxation allowed by the parameter L n. The results for the IMRT experiments (fig 6.21) show that there is a gain in using the T i operator, but not significant. Obviously, concerning the tomography, the convergence depends on the noise realization. To have a fair comparison, we did several hundred tests with different noise realizations. We recorded the time needed to reach convergence (Using the criterion φ 0 (x) < 200 db). The result is displayed in figure It shows that our algorithm performs better. The variability is very small Conclusion The proposed algorithm provides faster convergence results for Problems of type 6.4. It can use more general constraints and parallel computations. The convergence results are also more general. 6.8 Distances de Bregman Le calcul d une projection au sens de Bregman sur un ensemble fermé convexe non vide est beaucoup plus difficile que dans le cas de la projection métrique classique. Dans toute cette section nous nous plaçons en dimension finie : H = R N. Il n y a pas de forme analytique pour les projecteurs sur les ensembles simples (boule, hyperplan). Cela explique probablement en partie l absence de résultat numérique dans la littérature. Il existe toutefois un moyen efficace pour calculer la projection sur un hyperplan. Grâce à cela, nous sommes en mesure d inclure dans les programmes d optimisation des ensembles définis par des hyperplans (hyperplan affine, tronçon, demi-espace affine, hypercube), mais aussi les ensembles pour lesquels une projection sous-différentielle est possible. C est le cas de la plupart des ensembles. Après avoir expliqué la manière dont on peut calculer la projection de Breg- 133

148 man sur un hyperplan, nous donnons quelques résultats numériques dans le cadre de la tomographie à erreur bornée. Nous utiliserons des algorithmes séquentiels et parallèles Calcul d une projection Le lemme classique suivant (par exemple [11, Lemma 2.2.1]) permet de ramener le calcul d une projection à un problème en une dimension. Proposition 6.9 Soient f une fonction de Legendre (voir Définition 2.15) et H = {x R N x a = β} un hyperplan défini par a R N {0} et β R. Soient x et y deux points de R N, et λ [0, + [. Les équations f(x) = f(y) + λa et x a = β (6.23) déterminent de manière unique le point x, qui est la projection au sens de Bregman de y sur H. Pour une représentation fixée de H (c est-à-dire pour a et β fixes), ce système détermine également de manière unique le réel λ. À partir de ce résultat, des méthodes classiques (dichotomie, Newton) peuvent être utilisées pour calculer la projection. Ce sont des méthodes itératives, mais qui convergent rapidement. Notons que le code doit utiliser le gradient Résultats numériques A titre d exemple, voici les résultats (Fig. 6.22) de reconstructions tomographiques, en partant de six vues du sinogramme sans bruit, selon des angles équirépartis. Chaque algorithme a été exécuté pendant sept secondes, sur le même ordinateur. Notons, que grâce à la condition de viabilité des algorithmes (cf. Section 2.10), la contrainte x n dom f est automatiquement satisfaite. La première reconstruction (haut-droite) est faite à titre de comparaison, et utilise l algorithme POCS avec une relaxation de 1, 99 et la contrainte d amplitude sur les pixels x [0; 1] N et les contraintes (6.4) sur les six mesures. Puis sont présentées les reconstructions en utilisant les distances de Bregman associées à deux fonctions classiques, Fermi-Dirac et Boltzmann-Shannon. Pour cette dernière, nous avons ajouté la contrainte x ] ; 1] N pour être cohérents avec les autres expériences. Pour pouvoir afficher les images, nous avons effectué une troncature : les points à valeurs négatives ont été mis à zéro, et ceux avec une valeur supérieure à 1 ont été positionnés à 1. Mais pour apprécier la qualité de la reconstruction, nous pouvons regarder l étendue des valeurs des pixels. Pour POCS, elles est de [ 4, 01; 256, 81], pour Fermi-Dirac de [0, 25; 4, 99] et pour Boltzmann-Shannon de [0, 03; 618, 88]. La 134

149 Figure 6.22 Reconstructions tomographiques en utilisant les distances de Bregman ; cf. Section Haut-gauche : image originale. Haut-droit : Reconstruction avec la distance euclidienne. Bas-gauche : Reconstruction avec la fonction de Fermi- Dirac. Bas-droit : Reconstruction avec la fonction de Boltzmann-Shannon. distance de Bregman associée à la fonction de Fermi-Dirac garantit d elle-même la contrainte de valeur sur les pixels, et nous considérons que c est la meilleure reconstruction parmi les trois. La Figure 6.23 permet d apprécier les vitesses relatives des reconstructions. On notera en particulier que les algorithmes parallèles n apportent pas un avantage aussi important que dans le cas euclidien (Section 6.5.3). Néanmoins, sur une architecture effectivement parallèle, ils sont plus rapides. Le résultat principal sur cette figure est que l utilisation de distance de Bregman associée à la fonction de Fermi-Dirac est à peine moins rapide que l algorithme POCS. On aurait pu s attendre à une différence plus marquée à cause de coût élevé que représente une projection de Bregman. Associés à la qualité de l image que nous avons relevée, ces résultats sont très encourageants. 135

150 20 0 POCS euclidien Bregman (Boltzmann) Bregman parallele (Boltzmann) Bregman (Fermi) Bregman parallele (Fermi) Fonction de proximite relative (db) Temps (secondes) Figure 6.23 Vitesses de convergence en utilisant des projections euclidiennes (à titre de comparaison), et des projections de Bregman, parallèles ou non. 6.9 Bibliographie [1] H. H. Bauschke and J. M. Borwein, Dykstra s alternating projection algorithm for two sets, Journal of Approximation Theory, vol. 79, pp , [2] H. H. Bauschke and J. M. Borwein, Legendre functions and the method of random Bregman projections, Journal of Convex Analysis, vol. 4, pp , [3] H. H. Bauschke and J. M. Borwein, On projection algorithms for solving convex feasibility problems, SIAM Review, vol. 38, pp , [4] H. H. Bauschke, J. M. Borwein, and P. L. Combettes, Bregman monotone optimization algorithms, SIAM Journal on Control and Optimization, vol. 42, pp , [5] H. H. Bauschke and P. L. Combettes, A weak-to-strong convergence principle for Fejér-monotone methods in Hilbert spaces, Mathematics of Operations Research, vol. 26, pp , [6] H. H. Bauschke and P. L. Combettes, Construction of best Bregman approximations in reflexive Banach spaces, Proceedings of the American Mathematical Society, vol. 131, pp ,

151 [7] H. H. Bauschke, F. Deutsch, and H. Hundal, Characterizing arbitrarily slow convergence in the method of alternating projections, submitted, [8] L. M. Bregman, The method of successive projection for finding a common point of convex sets, Soviet Mathematics - Doklady, vol. 6, pp , [9] T. D. Capricelli, Technical report, Univ. Paris 6, [10] T. D. Capricelli and P. L. Combettes, A convex programming algorithm for noisy discrete tomography, in : G. T. Herman and A. Kuba (Eds.), Advances in Discrete Tomography and Its Applications, Boston, pp , [11] Y. Censor and S. A. Zenios, Parallel Optimization : Theory, Algorithms and Applications, Oxford University Press, New York, [12] P. L. Combettes, The foundations of set theoretic estimation, Proceedings of the IEEE, vol. 81, pp , [13] P. L. Combettes, The convex feasibility problem in image recovery, Advances in Imaging and Electron Physics, P. Hawkes (Editor), vol. 95, pp , [14] P. L. Combettes, Convex set theoretic image recovery by extrapolated iterations of parallel subgradient projections, IEEE Transactions on Image Processing, vol. 6, pp , [15] P. L. Combettes, Quasi-Fejérian analysis of some optimization algorithms, in : D. Butnariu, Y. Censor, and S. Reich (Eds.), Inherently Parallel Algorithms in Feasibility and Optimization and Their Applications, Elsevier, New York, pp , [16] P. L. Combettes, A block-iterative surrogate constraint splitting method for quadratic signal recovery, IEEE Transactions on Signal Processing, vol. 51, pp , [17] P. L. Combettes and T. J. Chaussalet, Combining statistical information in set theoretic estimation, IEEE Signal Processing Letters, vol. 3, pp , [18] F. Deutsch, Best Approximation in Inner Product Spaces, Springer, New York, [19] A. Galántai, On the rate of convergence of the alternating projection method in finite dimensional spaces, Journal of Mathematical Analysis and Applications, vol. 310, pp , [20] G. T. Herman, A relaxation method for reconstructing objects from noisy X- rays, Mathematical Programming, vol. 8, pp. 1 19, [21] G. T. Herman, Image Reconstruction from Projections, the Fundamentals of Computerized Tomography, Academic Press, New York, [22] G. T. Herman and W. Chen, A fast algorithm for solving a linear feasibility problem with application to intensity-modulated radiation therapy, Linear Algebra and Its Applications, vol. 428, pp ,

152 [23] K. C. Kiwiel, Block-iterative surrogate projection methods for convex feasibility problems, Linear Algebra and its Applications, vol. 215, pp , [24] H. Kudo and T. Saito, Sinogram recovery with the method of convex projections for limited-data reconstruction in computed tomography, Journal of the Optical Society of America, vol. 8, pp , [25] J. Mandel, Convergence of the cyclical relaxation method for linear inequalities, Mathematical Programming, vol. 30, pp , [26] P. Oskoui-Fard and H. Stark, Tomographic image reconstruction using the theory of convex projections, IEEE Transactions on Medical Imaging, vol. 7, pp , [27] G. Pierra, Decomposition through formalization in a product space, Mathematical Programming, vol. 28, pp , [28] H. Stark (Editor), Image Recovery : Theory and Applications, Academic Press, San Diego, [29] D. C. Youla, Mathematical theory of image restoration by the method of convex projections, in [28]. 138

153 Chapitre 7 Développement logiciel Avant de décrire l architecture du logiciel et de détailler les choix technologiques et méthodologiques qui ont été faits lors de l élaboration du code utilisé dans cette thèse, voici quelques réflexions qui nous ont servi pour faire ces choix. Notre code est disponible sur Internet et a été pensé pour être le plus utile possible aux chercheurs travaillant sur les mêmes problématiques. 7.1 La place du logiciel dans les mathématiques appliquées Comme l ont montré les chapitres précédents, les domaines d applications des algorithmes basés sur des projections sont nombreux. La littérature sur le sujet est vaste et s étale déjà sur une longue période. Même si beaucoup d articles ne contiennent pas d application numérique, cet aspect reste bien étudié. Il nous semble toutefois que la maturité des applications numériques n est pas en phase avec les développements importants réalisés sur le plan théorique (voir par exemple la Section 6.8). C est hélas un problème qui touche à notre avis beaucoup d autres domaines des mathématiques appliquées. Nous donnons dans cette section des arguments pour une plus grande ouverture, pour un partage plus systématique des logiciels développés dans le cadre de la recherche. On fait souvent référence au monde de la recherche pour expliquer les concepts liés aux logiciels libres. Aujourd hui, les mathématiques appliquées pourraient probablement tirer parti d idées issues du monde libre. 139

154 7.1.1 Reproductibilité Un aspect important de la communication des travaux scientifiques est la reproductibilité des résultats publiés. Dans ce but, les biologistes et les médecins consacrent une part importante (fastidieuse à rédiger) de leurs articles à décrire précisément leur mode opératoire, ce que l on appelle le protocole. Pour cela, ils se basent sur des descriptions standardisées. En mathématiques pures, il est facile pour les autres membres de la communauté de vérifier une démonstration publiée, et le problème ne se pose pas vraiment. En mathématiques appliquées, on retrouve les difficultés des sciences plus expérimentales, sans toutefois avoir adopté ni leurs habitudes, ni leurs règles. Rappelons également qu une des caractéristiques du monde de la recherche est l évaluation par les pairs. Sans reproductibilité des résultats, cette évaluation est sévèrement compromise. Nous avons évoqué le sujet dans le Chapitre Comparaisons Lorsque l on cherche à obtenir le meilleur algorithme, quel que soit le critère (qualité de l image, vitesse de convergence), l outil méthodologique de base est la comparaison. La comparaison est utile au chercheur pour avancer dans ses propres travaux. Elle sert aussi pour communiquer ses résultats et convaincre ses pairs. Évidemment, ceci n est possible qu avec un minimum de partage de code. J ai plusieurs fois été confronté à ce problème au cours de ma thèse. Bien entendu, je pouvais utiliser les codes de mon directeur de thèse M. Combettes. Mais lorsque nous avons voulu faire des comparaisons avec les méthodes d autres chercheurs, il nous a fallu les mettre en œuvre, quand c était possible, en nous basant sur les informations très succinctes trouvées dans les articles (voir encore par exemple le Chapitre 5 ) Réutilisation de code Le concept de réutilisation de code, ou de composant logiciel, est l application de la notion de factorisation au logiciel. Ce concept existe depuis longtemps en informatique, a fait le succès du système Unix ( do one thing, and do it well ) dans les années 70, et est également une des raisons de l extraordinaire développement du logiciel libre depuis vingt ans. En recherche informatique, il existe de nombreux codes publics qui servent de références (on peut citer comme exemples les bibliothèques de composants Scilab [18] ou Octave [14] publiées par plusieurs laboratoires). Ils ont un rôle double : Ce sont des socles de base qui permettent aux chercheurs de se concentrer sur 140

155 la partie qui leur est spécifique, sans avoir à tout refaire depuis le début ; le terme anglais consacré est from scratch. Avec le temps, les mises en œuvre sont de plus en plus complexes et ce rôle gagne en importance. Ils fournissent une base commune permettant des comparaisons Mise en œuvre de référence L un des rôles de la recherche appliquée est de fournir des implémentations de référence pour les solutions qu elle propose. Ce ne sont pas forcément les versions utilisées dans l industrie (pas assez optimisées, pas de maintenance, développement des codes en interne pour mieux les maîtriser), mais elles permettent de faire le lien entre ces deux mondes. C est un vecteur de communication et de transfert de technologie. Un exemple très récent est le suivant. Le samedi 23 février 2008, la BBC (British Broadcasting Corporation), organe public de radio et télévision britannique, a rendu publique la version 1.0 d un nouveau codec appelé Dirac. Un codec (codeur/décodeur) est la partie d un logiciel qui compresse et décompresse un flux de données, en général vidéo ou audio. Les plus connus sont MPEG et DIVX. Le codec Dirac est basé sur les ondelettes, est indépendant de tout brevet, et est très riche en fonctionnalités modernes. Il a été développé conjointement par le laboratoire de recherche BBC Research and Development et par la société Fluendo. Un point important est que ce code de référence est publié sous des licences libres MPL 1.1, LGPLv2, GPLv2 et MIT. Ainsi, non seulement le logiciel peut être utilisé gratuitement par tout le monde, mais le code est accessible et peut être modifié sans payer de droit, par exemple par un laboratoire de recherche qui voudrait expérimenter une nouvelle optimisation sur un des nombreux composants de la chaîne d encodage L exemple des publications scientifiques Depuis plusieurs années, on peut observer un mouvement pour une ouverture plus grande des publications scientifiques, voir par exemple le mouvement Open Access [15]. Les signes sont nombreux : croissances des publications ouvertes comme PLos [16], succès des archives ouvertes [1, 8], support de la part de chercheurs de renom comme Grigori Perelman. Une lettre ouverte, signée par 25 prix Nobel, a été adressée dans ce sens en 2006 au congrès américain [10]. Plusieurs exemples importants méritent d être soulignés. Aux États-Unis, une loi exige que les chercheurs financés par une bourse d un institut de recherche NIH (National Institutes of Health) publient une copie de leurs articles sur des archives ouvertes [13] à partir du 1er octobre En france, le CNRS, l INRIA et d autres grands organismes de recherches encouragent les publications sur le site HAL [8] (ce 141

156 Figure 7.1 Gauche : les traits rouges indiquent les directions utilisées pour le calcul des vues. Droite : le sinogramme (ensemble des vues) correspondant. qui les rend visibles sur le site international ArXiv [1]). Plus récemment, en février 2008, l université de Harvard a fait le même choix [21] Le cas des méthodes de projections convexes Nous présentons ici la situation dans le cas particulier des méthodes étudiées dans cette thèse. Comme souvent, les applications numériques sont morcelées. Il n y a pas de vrai moyen de comparaison. Un auteur peut seulement comparer un algorithme à un de ses anciens algorithmes, ou à un algorithme suffisamment simple, et donc en général trop simple ou trop vieux pour être représentatif. De plus, chacun a sa propre implémentation, et les choses comparées ne sont pas toujours réellement comparables. À notre connaissance, deux initiatives auraient pu permettre de progresser sur ce sujet. On retrouve à l origine de ces initiatives deux grandes personnalités im- 142

Outils d analyse fonctionnelle Cours 5 Théorie spectrale

Outils d analyse fonctionnelle Cours 5 Théorie spectrale Outils d analyse fonctionnelle Cours 5 Théorie spectrale 22 septembre 2015 Généralités Dans tout ce qui suit V désigne un espace de Hilbert réel muni d un produit scalaire x, y. Définition Soit A une application

Plus en détail

Estimation consistante des paramètres d un. modèle non linéaire pour des données. fonctionnelles discrétisées aléatoirement

Estimation consistante des paramètres d un. modèle non linéaire pour des données. fonctionnelles discrétisées aléatoirement Estimation consistante des paramètres d un modèle non linéaire pour des données fonctionnelles discrétisées aléatoirement Consistent estimation of parameters in a nonlinear model for functional data with

Plus en détail

Calculs approchés d un point fixe

Calculs approchés d un point fixe M11 ÉPREUVE COMMUNE DE TIPE 2013 - Partie D TITRE : Calculs approchés d un point fixe Temps de préparation :.. 2 h 15 minutes Temps de présentation devant les examinateurs :.10 minutes Dialogue avec les

Plus en détail

Dédié à Ky Fan, en témoignage de notre profonde admiration

Dédié à Ky Fan, en témoignage de notre profonde admiration Topological Methods in Nonlinear Analysis Journal of the Juliusz Schauder Center Volume 5, 1995, 261 269 FAMILLES SÉLECTANTES Paul Deguire Marc Lassonde Dédié à Ky Fan, en témoignage de notre profonde

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Introduction à la Topologie

Introduction à la Topologie Introduction à la Topologie Licence de Mathématiques Université de Rennes 1 Francis Nier Dragoş Iftimie 2 3 Introduction Ce cours s adresse à des étudiants de Licence en mathématiques. Il a pour objectif

Plus en détail

Principe de symétrisation pour la construction d un test adaptatif

Principe de symétrisation pour la construction d un test adaptatif Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université

Plus en détail

Support du cours de Probabilités IUT d Orléans, Département d informatique

Support du cours de Probabilités IUT d Orléans, Département d informatique Support du cours de Probabilités IUT d Orléans, Département d informatique Pierre Andreoletti IUT d Orléans Laboratoire MAPMO (Bât. de Mathématiques UFR Sciences) - Bureau 126 email: pierre.andreoletti@univ-orleans.fr

Plus en détail

PAD - Notes de cours. S. Rigal, D. Ruiz, et J. C. Satgé

PAD - Notes de cours. S. Rigal, D. Ruiz, et J. C. Satgé ALGÈBRE PAD - Notes de cours S. Rigal, D. Ruiz, et J. C. Satgé November 23, 2006 Table des Matières Espaces vectoriels Applications linéaires - Espaces vectoriels............................... 3 -. Approche

Plus en détail

208 - Espaces vectoriels normés, applications linéaires continues. Exemples

208 - Espaces vectoriels normés, applications linéaires continues. Exemples 208 - Espaces vectoriels normés, applications linéaires continues. Exemples On se xe un corps K = R ou C. Tous les espaces vectoriels considérés auront K comme corps de base. 1 Généralités Remarque. Tout

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Reconstruction d images binaires par l estimation moindres carrés et l optimisation valeur propre

Reconstruction d images binaires par l estimation moindres carrés et l optimisation valeur propre Reconstruction d images binaires par l estimation moindres carrés et l optimisation valeur propre Stéphane Chrétien & Franck Corset Université de Franche-Comté, UMR6623, Département Mathématiques 16 route

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

TD2 Fonctions mesurables Corrigé

TD2 Fonctions mesurables Corrigé Intégration et probabilités 2012-2013 TD2 Fonctions mesurables Corrigé 0 Exercice qui avait été préparé chez soi Exercice 1. Soit (Ω, F, µ) un espace mesuré tel que µ (Ω) = 1. Soient A, B P (Ω) deux sousensembles

Plus en détail

COURS METHODES MATHEMATIQUES POUR L INGENIEUR. MAM 3, Polytech Lyon. Ionel Sorin CIUPERCA

COURS METHODES MATHEMATIQUES POUR L INGENIEUR. MAM 3, Polytech Lyon. Ionel Sorin CIUPERCA COURS METHODES MATHEMATIQUES POUR L INGENIEUR MAM 3, Polytech Lyon Ionel Sorin CIUPERCA Le cours s adresse en principal à des élèves des écoles d ingénieurs, filière modélisation mathématique. Une partie

Plus en détail

À propos des matrices échelonnées

À propos des matrices échelonnées À propos des matrices échelonnées Antoine Ducros appendice au cours de Géométrie affine et euclidienne dispensé à l Université Paris 6 Année universitaire 2011-2012 Introduction Soit k un corps, soit E

Plus en détail

Éléments spectraux d une fonction cyclostationnaire

Éléments spectraux d une fonction cyclostationnaire Éléments spectraux d une fonction cyclostationnaire Alain BOUDOU 1 & Sylvie VIGUIR-PLA 1 & 2 1 quipe de Stat. et Proba., Institut de Mathématiques, UMR5219 Université Paul Sabatier, 118 Route de Narbonne,

Plus en détail

Chapitre 5: Opérateurs dans les espaces de Hilbert. Notions d opérateur adjoint

Chapitre 5: Opérateurs dans les espaces de Hilbert. Notions d opérateur adjoint Chapitre 5: Opérateurs dans les espaces de Hilbert. Notions d opérateur adjoint 18 mars 2008 1 Généralités sur les opérateurs 1.1 Définitions Soient H et H deux espaces de Hilbert sur C. Définition 1.1

Plus en détail

Décomposition de domaine pour un milieu poreux fracturé

Décomposition de domaine pour un milieu poreux fracturé Décomposition de domaine pour un milieu poreux fracturé Laila AMIR 1, Michel KERN 2, Vincent MARTIN 3, Jean E ROBERTS 4 1 INRIA-Rocquencourt, B.P. 105, F-78153 Le Chesnay Cedex Email: laila.amir@inria.fr

Plus en détail

Cours MP. Espaces vectoriels normés

Cours MP. Espaces vectoriels normés Table des matières Espaces vectoriels normés B. Seddoug. Médiane Sup, Oujda I Norme et distance 1 I.1 Définitions..................... 1 I.2 Evn produit.................... 12 I.3 Notions topologiques

Plus en détail

Le théorème du sandwich au jambon

Le théorème du sandwich au jambon Le théorème du sandwich au jambon Florian Bouguet & Paul Schneider Ecole Normale Supérieure de Cachan - Antenne de Bretagne Travaux encadrés par Antoine Chambert-Loir Université de Rennes 1 1 2 Table des

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

L2 MIEE 2012-2013 VAR Université de Rennes 1

L2 MIEE 2012-2013 VAR Université de Rennes 1 . Sous-ensembles de R n et fonctions (suite) 1 Nappes paramétrées Si f une fonction de deux variables, son graphe est une surface incluse dans R 3 : {(x, y, f(x, y)) / (x, y) R 2 }. Une telle surface s

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Introduction aux Support Vector Machines (SVM)

Introduction aux Support Vector Machines (SVM) Introduction aux Support Vector Machines (SVM) Olivier Bousquet Centre de Mathématiques Appliquées Ecole Polytechnique, Palaiseau Orsay, 15 Novembre 2001 But de l exposé 2 Présenter les SVM Encourager

Plus en détail

Régression ridge à noyau pour des variables explicatives et d intérêts fonctionnelles

Régression ridge à noyau pour des variables explicatives et d intérêts fonctionnelles Régression ridge à noyau pour des variables explicatives et d intérêts fonctionnelles Hachem Kadri 1, Philippe Preux 1,2 & Emmanuel Duflos 1,3 1 Equipe-projet SequeL, INRIA Lille - Nord Europe, Villeneuve

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

Théorie spectrale. Stéphane Maingot & David Manceau

Théorie spectrale. Stéphane Maingot & David Manceau Théorie spectrale Stéphane Maingot & David Manceau 2 Théorie spectrale 3 Table des matières Introduction 5 1 Spectre d un opérateur 7 1.1 Inversibilité d un opérateur........................... 7 1.2 Définitions

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Dualité dans les espaces de Lebesgue et mesures de Radon finies Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention

Plus en détail

Estimation améliorée explicite d un degré de confiance conditionnel

Estimation améliorée explicite d un degré de confiance conditionnel Estimation améliorée explicite d un degré de confiance conditionnel Dominique Fourdrinier & Patrice Lepelletier UMR CNRS 6085, Université de Rouen, Site Colbert, 76 821 Mont-Saint-Aignan cedex, France

Plus en détail

- Mobiliser les résultats sur le second degré dans le cadre de la résolution d un problème.

- Mobiliser les résultats sur le second degré dans le cadre de la résolution d un problème. Mathématiques - classe de 1ère des séries STI2D et STL. 1. Analyse On dote les élèves d outils mathématiques permettant de traiter des problèmes relevant de la modélisation de phénomènes continus ou discrets.

Plus en détail

Programme de Première

Programme de Première BAC TECHNO STAV 66 I. Algèbre Programme de Première Objectif 1 - Effectuer de manière autonome des calculs numériques ou algébriques, résoudre des équations ou inéquations en vue de résoudre des problèmes

Plus en détail

Sélection de variables groupées avec les forêts aléatoires. Application à l analyse des données fonctionnelles multivariées.

Sélection de variables groupées avec les forêts aléatoires. Application à l analyse des données fonctionnelles multivariées. Sélection de variables groupées avec les forêts aléatoires. Application à l analyse des données fonctionnelles multivariées. Baptiste Gregorutti 12, Bertrand Michel 2 & Philippe Saint Pierre 2 1 Safety

Plus en détail

2 Ensembles convexes. 2.1 Définition et premières propriétés

2 Ensembles convexes. 2.1 Définition et premières propriétés 2 Ensembles convexes Les chapitres 2 et 3 présentent les éléments d analyse convexe qui nous seront utiles pour étudier les problèmes d optimisation et les algorithmes qui les résolvent. Le chapitre 2

Plus en détail

Topologie des espaces vectoriels normés

Topologie des espaces vectoriels normés Topologie des espaces vectoriels normés Cédric Milliet Version préliminaire Cours de troisième année de licence Université Galatasaray Année 2011-2012 2 Chapitre 1 R-Espaces vectoriels normés 1.1 Vocabulaire

Plus en détail

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h Télécom Physique Strasbourg Master IRIV Optimisation et programmation mathématique Professeur Michel de Mathelin Cours intégré : 20 h Programme du cours d optimisation Introduction Chapitre I: Rappels

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Compacité faible et Axiome du Choix Séminaire ERMIT

Compacité faible et Axiome du Choix Séminaire ERMIT Compacité faible et Axiome du Choix Séminaire ERMIT Marianne Morillon 12 et 19 février 2007 Questions Etant donné un espace normé E, on note par défaut. sa norme, B E sa boule unité large: B E := {x E

Plus en détail

PROBABILITÉ ET CONVEXITÉ : APPLICATIONS À LA GÉOMÉTRIE ALGÉBRIQUE (GROUPE DE LECTURE À L ENS LYON 2015) Huayi Chen

PROBABILITÉ ET CONVEXITÉ : APPLICATIONS À LA GÉOMÉTRIE ALGÉBRIQUE (GROUPE DE LECTURE À L ENS LYON 2015) Huayi Chen PROBABILITÉ ET CONVEXITÉ : APPLICATIONS À LA GÉOMÉTRIE ALGÉBRIQUE (GROUPE DE LECTURE À L ENS LYON 2015) Huayi Chen Le but de ce groupe de lecture est de comprendre les méthodes probabilistes dans l étude

Plus en détail

Association des Doctorants du campus STIC. Séminaires doctorants 11

Association des Doctorants du campus STIC. Séminaires doctorants 11 Association des Doctorants du campus STIC Séminaires doctorants 11 07 mars 2007 Actes édités par l association des doctorants du campus STIC. Les travaux individuels publiés restent l unique propriété

Plus en détail

THÉORIE DE LA MESURE ET INTÉGRATION

THÉORIE DE LA MESURE ET INTÉGRATION Université Pierre et Marie Curie Licence de Mathématiques Années 2004-2005-2006 LM 363 THÉORIE DE LA MESURE ET INTÉGRATION Cours de P. MAZET Edition 2004-2005-2006 Table des matières Table des matières

Plus en détail

Résolution d un problème d assimilation variationnelle 4D-VAR par des modèles réduits POD adaptatifs

Résolution d un problème d assimilation variationnelle 4D-VAR par des modèles réduits POD adaptatifs Résolution d un problème d assimilation variationnelle 4D-VAR par des modèles réduits POD adaptatifs G. TISSOT, L. CORDIER, B. R. NOACK Institut Pprime, Dpt. Fluides, Thermique et Combustion, 8636 Poitiers

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Notes de cours L1 MATH120. Hervé Le Dret

Notes de cours L1 MATH120. Hervé Le Dret Notes de cours L1 MATH120 Hervé Le Dret 18 octobre 2004 40 Chapitre 3 Vecteurs dans R m Dans ce chapitre, nous allons nous familiariser avec la notion de vecteur du point de vue algébrique. Nous reviendrons

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Projet CLANU en 3GE: Compléments d algèbre linéaire numérique

Projet CLANU en 3GE: Compléments d algèbre linéaire numérique Projet CLANU en 3GE: Compléments d algèbre linéaire numérique Année 2008/2009 1 Décomposition QR On rappelle que la multiplication avec une matrice unitaire Q C n n (c est-à-dire Q 1 = Q = Q T ) ne change

Plus en détail

1 Formalisme de la Mécanique Quantique

1 Formalisme de la Mécanique Quantique Théorie Spectrale et Mécanique Quantique Christian Gérard Département de Mathématiques, Bât. 425 UMR 8628 du CNRS Université de Paris-Sud F-91405 Orsay Cédex FRANCE email : Christian.Gerard@math.u-psud.fr

Plus en détail

1 Topologies, distances, normes

1 Topologies, distances, normes Université Claude Bernard Lyon 1. Licence de mathématiques L3. Topologie Générale 29/1 1 1 Topologies, distances, normes 1.1 Topologie, distances, intérieur et adhérence Exercice 1. Montrer que dans un

Plus en détail

Le corps R des nombres réels

Le corps R des nombres réels Le corps R des nombres réels. Construction de R à l aide des suites de Cauchy de nombres rationnels On explique brièvement dans ce paragraphe comment construire le corps R des nombres réels à partir du

Plus en détail

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples, Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très

Plus en détail

1 - INTERPOLATION. J-P. Croisille. Semestre S7, master de mathématiques M1, année 2008/2009. Université Paul Verlaine-Metz

1 - INTERPOLATION. J-P. Croisille. Semestre S7, master de mathématiques M1, année 2008/2009. Université Paul Verlaine-Metz 1 - INTERPOLATION J-P. Croisille Université Paul Verlaine-Metz Semestre S7, master de mathématiques M1, année 2008/2009 1- INTRODUCTION Théorie de l interpolation: approximation de f(x) par une fonction

Plus en détail

COURS METHODES MATHEMATIQUES POUR L INGENIEUR 2. Cours de filière MAM, ISTIL deuxième année. Ionel Sorin CIUPERCA

COURS METHODES MATHEMATIQUES POUR L INGENIEUR 2. Cours de filière MAM, ISTIL deuxième année. Ionel Sorin CIUPERCA COURS METHODES MATHEMATIQUES POUR L INGENIEUR 2 Cours de filière MAM, ISTIL deuxième année Ionel Sorin CIUPERCA Le but de ce cours est d introduire un outil très utilisé dans la modélisation mathématique

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Simulation de variables aléatoires S. Robin INA PG, Biométrie Décembre 1997 Table des matières 1 Introduction Variables aléatoires discrètes 3.1 Pile ou face................................... 3. Loi de

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions.

Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions. Problèmes mathématiques de la mécanique/mathematical problems in Mechanics Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions. Cristinel Mardare Laboratoire

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Méthode de Fast Marching pour des équations de HJB:

Méthode de Fast Marching pour des équations de HJB: Méthode de Fast Marching pour des équations de HJB: - dépendance en u, - fonction coût de signe arbitraire, - Application au Shape From Shading. Emmanuel Prados SÉMINAIRE DE CALCUL SCIENTIFIQUE DU CERMICS

Plus en détail

Rappels sur les applications linéaires

Rappels sur les applications linéaires Rappels sur les applications linéaires 1 Définition d une application linéaire Définition 1 Soient E et F deux espaces vectoriels sur un même corps K et f une application de E dans F Dire que f est linéaire

Plus en détail

Jeux à somme nulle : le cas fini

Jeux à somme nulle : le cas fini CHAPITRE 2 Jeux à somme nulle : le cas fini Les jeux à somme nulle sont les jeux à deux joueurs où la somme des fonctions de paiement est nulle. Dans ce type d interaction stratégique, les intérêts des

Plus en détail

Actions de groupes. Exemples et applications

Actions de groupes. Exemples et applications 4 Actions de groupes. Exemples et applications G, ) est un groupe multiplicatif et on note ou G si nécessaire) l élément neutre. E est un ensemble non vide et S E) est le groupe des permutations de E.

Plus en détail

Introduction à l Optimisation Numérique

Introduction à l Optimisation Numérique DÉPARTEMENT STPI 3ÈME ANNÉE MIC Introduction à l Optimisation Numérique Frédéric de Gournay & Aude Rondepierre Table des matières Introduction 5 Rappels de topologie dans R n 7 0.1 Ouverts et fermés de

Plus en détail

Éléments d analyse convexe

Éléments d analyse convexe Éléments d analyse convexe Cours de M1 Mathématiques Fondamentales Université Paul Sabatier Pierre Maréchal Table des matières 1 Préliminaires 2 1.1 Notations et définitions élémentaires................

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

MEDIAPLANNING & HYBRIDATION APPLIQUE A L INTERNET

MEDIAPLANNING & HYBRIDATION APPLIQUE A L INTERNET MEDIAPLANNING & HYBRIDATION APPLIQUE A L INTERNET MOBILE Gaël Crochet 1 & Gilles Santini 2 1 Médiamétrie, 70 rue Rivay, 92532 Levallois-Perret, France, gcrochet@mediametrie.fr 2 Vintco SARL, 8 rue Jean

Plus en détail

COURS OPTIMISATION. Cours à l ISFA, en M1SAF. Ionel Sorin CIUPERCA

COURS OPTIMISATION. Cours à l ISFA, en M1SAF. Ionel Sorin CIUPERCA COURS OPTIMISATION Cours à l ISFA, en M1SAF Ionel Sorin CIUPERCA 1 Table des matières 1 Introduction 4 1.1 Motivation.................................... 4 1.2 Le problème général d optimisation......................

Plus en détail

Probabilités 5. Simulation de variables aléatoires

Probabilités 5. Simulation de variables aléatoires Probabilités 5. Simulation de variables aléatoires Céline Lacaux École des Mines de Nancy IECL 27 avril 2015 1 / 25 Plan 1 Méthodes de Monte-Carlo 2 3 4 2 / 25 Estimation d intégrales Fiabilité d un système

Plus en détail

Systèmes linéaires. 1. Introduction aux systèmes d équations linéaires. Exo7. 1.1. Exemple : deux droites dans le plan

Systèmes linéaires. 1. Introduction aux systèmes d équations linéaires. Exo7. 1.1. Exemple : deux droites dans le plan Exo7 Systèmes linéaires Vidéo partie 1. Introduction aux systèmes d'équations linéaires Vidéo partie 2. Théorie des systèmes linéaires Vidéo partie 3. Résolution par la méthode du pivot de Gauss 1. Introduction

Plus en détail

TOPOLOGIE - SÉRIE 1. x f 1 B i f(x) B i x f 1 (B i ). f 1 ( i I B i) = i I f 1 (B i ); en effet. f 1 B i = f 1 B i et f 1 (B \ B ) = A \ f 1 B ; i I

TOPOLOGIE - SÉRIE 1. x f 1 B i f(x) B i x f 1 (B i ). f 1 ( i I B i) = i I f 1 (B i ); en effet. f 1 B i = f 1 B i et f 1 (B \ B ) = A \ f 1 B ; i I TOPOLOGIE - SÉRIE 1 Exercice 1. Soit f : A B une application. Prouver que (a) A f 1 fa pour tout A A, avec égalité si f est injective; (b) ff 1 B B pour tout B B, avec égalité si f est surjective; Preuve.

Plus en détail

La mesure de Lebesgue sur la droite réelle

La mesure de Lebesgue sur la droite réelle Chapitre 1 La mesure de Lebesgue sur la droite réelle 1.1 Ensemble mesurable au sens de Lebesgue 1.1.1 Mesure extérieure Définition 1.1.1. Un intervalle est une partie convexe de R. L ensemble vide et

Plus en détail

Décomposition de domaine et préconditionnement pour un modèle 3D en milieu poreux fracturé

Décomposition de domaine et préconditionnement pour un modèle 3D en milieu poreux fracturé Décomposition de domaine et préconditionnement pour un modèle 3D en milieu poreux fracturé Laila AMIR 1, Michel KERN 2, Vincent MARTIN 3, Jean E ROBERTS 4 Résumé : Dans cet article, nous nous intéressons

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

La fonction exponentielle

La fonction exponentielle DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction

Plus en détail

IV.1 Dual d un espace vectoriel... 77

IV.1 Dual d un espace vectoriel... 77 76 IV FORMES LINÉAIRES, DUALITÉ IV Formes linéaires, dualité Sommaire IV.1 Dual d un espace vectoriel.......... 77 IV.1.a Rappels sur les e.v................... 77 IV.1.b Rappels sur les applications linéaires........

Plus en détail

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R Yves Aragon, David Haziza & Anne Ruiz-Gazen GREMAQ, UMR CNRS 5604, Université des Sciences

Plus en détail

Un tout petit peu d homotopie

Un tout petit peu d homotopie Vincent Beck On note I = [ 0, 1 ]. Un tout petit peu d homotopie 0.1 Homotopie Définition 1 Applications homotopes. Soient X, Y deux espaces topologiques et f, g : X Y deux applications continues. On dit

Plus en détail

Opérateurs non-bornés

Opérateurs non-bornés Master Mathématiques Analyse spectrale Chapitre 4. Opérateurs non-bornés 1 Domaine, graphe et fermeture Soit H un espace de Hilbert. On rappelle que H H est l espace de Hilbert H H muni du produit scalaire

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Table des matières I La programmation linéaire en variables continues 1 Présentation 3 1 Les bases de la programmation linéaire 5 1.1 Formulation d'un problème de programmation linéaire........... 5 1.2

Plus en détail

Espaces vectoriels euclidiens. Groupe orthogonal

Espaces vectoriels euclidiens. Groupe orthogonal 19 Espaces vectoriels euclidiens. Groupe orthogonal Dans un premier temps, E est un espace vectoriel réel de dimension n 1. 19.1 Espaces vectoriels euclidiens Dénition 19.1 On dit qu'une forme bilinéaire

Plus en détail

Exercices théoriques

Exercices théoriques École normale supérieure 2008-2009 Département d informatique Algorithmique et Programmation TD n 9 : Programmation Linéaire Avec Solutions Exercices théoriques Rappel : Dual d un programme linéaire cf.

Plus en détail

Tavakoli, Shahin Fourier analysis of functional time series, with applications to DNA... 2014

Tavakoli, Shahin Fourier analysis of functional time series, with applications to DNA... 2014 resultats sont ensuite utilises pour construire des estimateurs des operateurs de densite spectrale bases sur des versions lissees du periodogramme, le generalisation fonctionnelle de la matrice de periodogramme.

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

AGRÉGATION INTERNE: RÉDUCTION DES ENDOMORPHISMES

AGRÉGATION INTERNE: RÉDUCTION DES ENDOMORPHISMES AGRÉGATION INTERNE: RÉDUCTION DES ENDOMORPHISMES VINCENT GUEDJ 1. Notions fondamentales 1.1. Noyau, Image. On se donne E un K-espace vectoriel de dimension finie (K = R, C principalement) et f L(E) un

Plus en détail

Espaces vectoriels 2006-2007. Agrégation interne de Mathématiques Département de Mathématiques Université de La Rochelle F.

Espaces vectoriels 2006-2007. Agrégation interne de Mathématiques Département de Mathématiques Université de La Rochelle F. Agrégation interne de Mathématiques Département de Mathématiques Université de La Rochelle 2006-2007 Espaces vectoriels Convention 1. Dans toute la suite, k désignera un corps quelconque. Définition 2.

Plus en détail

2 Opérateurs non bornés dans un espace de Hilbert

2 Opérateurs non bornés dans un espace de Hilbert 2 Opérateurs non bornés dans un espace de Hilbert 2. Opérateurs non bornés: définitions et propriétés élémentaires Soit H un espace de Hilbert et A un opérateur dans H, c est-à-dire, une application linéaire

Plus en détail

Université Rennes 1, Master de Mathématiques, 2015-2016. Introduction à la Géométrie Algébrique. Le langage des schémas. Cours du 7 septembre 2015

Université Rennes 1, Master de Mathématiques, 2015-2016. Introduction à la Géométrie Algébrique. Le langage des schémas. Cours du 7 septembre 2015 Université Rennes 1, Master de Mathématiques, 2015-2016 Matthieu Romagny Introduction à la Géométrie Algébrique. Le langage des schémas Cours du 7 septembre 2015 Références [Pour la géométrie] [EH] D.

Plus en détail

Mathématiques pour l informatique. - Soutien - 1 Nombres complexes. 2 Suites. Exercice 1. (Nombres complexes) Soit le nombre complexe z = (2 + 2i) 7.

Mathématiques pour l informatique. - Soutien - 1 Nombres complexes. 2 Suites. Exercice 1. (Nombres complexes) Soit le nombre complexe z = (2 + 2i) 7. Mathématiques pour l informatique IMAC première année - Soutien - Nombres complexes Rappels. Un nombre complexe z admet plusieurs représentations : représentation vectorielle z = (a, b) où a, b R représentation

Plus en détail

Statistique en grande dimension pour la génomique Projets 2014-2015 L. Jacob, F. Picard, N. Pustelnik, V. Viallon

Statistique en grande dimension pour la génomique Projets 2014-2015 L. Jacob, F. Picard, N. Pustelnik, V. Viallon Statistique en grande dimension pour la génomique Projets 2014-2015 L. Jacob, F. Picard, N. Pustelnik, V. Viallon Table des matières 1 Graph Kernels for Molecular Structure-Activity Relationship Analysis

Plus en détail

VIII Relations d ordre

VIII Relations d ordre VIII Relations d ordre 20 février 2015 Dans tout ce chapitre, E est un ensemble. 1. Relations binaires Définition 1.0.1. On appelle relation binaire sur E tout triplet R = (E, E, Γ) où Γ est une partie

Plus en détail

Méthodes numériques d optimisation

Méthodes numériques d optimisation Méthodes numériques d optimisation Marie Postel 1 Laboratoire Jacques-Louis Lions Université Pierre et Marie Curie, Paris 6 Version septembre 015 1. marie.postel@upmc.fr, http ://www.ljll.math.upmc.fr/postel

Plus en détail

Parcours d un arbre Arbres de recherche CHAPITRE 6. Arbres binaires. Karelle JULLIAN. MPSI, Option Info 2014/2015. Karelle JULLIAN

Parcours d un arbre Arbres de recherche CHAPITRE 6. Arbres binaires. Karelle JULLIAN. MPSI, Option Info 2014/2015. Karelle JULLIAN CHAPITRE 6 Arbres binaires Lycée Kléber MPSI, Option Info 2014/2015 1 Définitions 2 Parcours en largeur Parcours en profondeur Parcours préfixe, infixe, postfixe Reconstitution 3 Recherche Complexité Insertion

Plus en détail

Continuité d une fonction de plusieurs variables

Continuité d une fonction de plusieurs variables Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

L3 MASS Calcul différentiel (cours et exercices) John BOXALL (Année universitaire 2009 2010 ) Introduction

L3 MASS Calcul différentiel (cours et exercices) John BOXALL (Année universitaire 2009 2010 ) Introduction L3 MASS Calcul différentiel (cours et exercices) John BOXALL (Année universitaire 2009 2010 ) Introduction (0.1) Ce cours s articule autour du calcul différentiel et, en particulier, son application au

Plus en détail

Problèmes de Mathématiques Noyaux et images itérés

Problèmes de Mathématiques Noyaux et images itérés Énoncé Soit E un espace vectoriel sur IK (IK = IR ou lc). Soit f un endomorphisme de E. On pose f 0 = Id E, et pour tout entier k 1, f k = f f k 1. 1. Montrer que (Im f k ) k 0 et (Ker f k ) k 0 forment

Plus en détail

Utilisation d espaces de Sobolev fractionnaires en reconstruction tomographique d objets binaires

Utilisation d espaces de Sobolev fractionnaires en reconstruction tomographique d objets binaires Utilisation d espaces de Sobolev fractionnaires en reconstruction tomographique d objets binaires M. Bergounioux & E. Trélat MAPMO Université d Orléans Journées du GDR - MOA Porquerolles 19-21 Octobre

Plus en détail