M2 SC - Usages du hasard l échantillonnage compressé



Documents pareils
10ème Congrès Français d'acoustique Lyon, Avril 2010

Echantillonnage Non uniforme

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Méthodes de Simulation

de calibration Master 2: Calibration de modèles: présentation et simulation d

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Intérêt du découpage en sous-bandes pour l analyse spectrale

PROBABILITES ET STATISTIQUE I&II

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Résolution d équations non linéaires

Renforcement des trois compétences : compréhension orale, expression orale et expression écrite à partir de documents et vidéos.

Projet de Traitement du Signal Segmentation d images SAR

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Programmes des classes préparatoires aux Grandes Ecoles

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Fonctions de plusieurs variables

Simulation de variables aléatoires

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Principe de symétrisation pour la construction d un test adaptatif

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

Introduction à l approche bootstrap

Apprentissage non paramétrique en régression

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Évaluation de la régression bornée

Programmation linéaire

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Applications en imagerie cérébrale (MEG/EEG)

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Systèmes de communications numériques 2

Photons, expériences de pensée et chat de Schrödinger: une promenade quantique

Amélioration de la fiabilité d inspection en CND grâce à la fusion d information : applications en rayons X et ultrasons

Programmation linéaire

Codage hiérarchique et multirésolution (JPEG 2000) Codage Vidéo. Représentation de la couleur. Codage canal et codes correcteurs d erreur

I. Polynômes de Tchebychev

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Étoiles doubles par Interférométrie des tavelures au T60 du pic du midi

TD1 Signaux, énergie et puissance, signaux aléatoires

Analyse d images. Edmond.Boyer@imag.fr. Edmond Boyer UFRIMA 1

Enjeux mathématiques et Statistiques du Big Data

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Une application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies

Etude des propriétés empiriques du lasso par simulations

Coup de Projecteur sur les Réseaux de Neurones

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Soutenance de stage Laboratoire des Signaux et Systèmes

Chapitre 3. Les distributions à deux variables

Étude des Corrélations entre Paramètres Statiques et Dynamiques des Convertisseurs Analogique-Numérique en vue d optimiser leur Flot de Test

Les atouts et faiblesses des caméras TEP dédiées, TEP corps entier, TEP-CT, TEMP pour la quantification

Différentiabilité ; Fonctions de plusieurs variables réelles

Chapitre I La fonction transmission

Résolution de systèmes linéaires par des méthodes directes

Cours d Analyse. Fonctions de plusieurs variables

Mesure agnostique de la qualité des images.

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Approximations variationelles des EDP Notes du Cours de M2

MCMC et approximations en champ moyen pour les modèles de Markov

Apprentissage Automatique

Économetrie non paramétrique I. Estimation d une densité

Sujet 4: Programmation stochastique propriétés de fonction de recours

Cours 02 : Problème général de la programmation linéaire

Etude comparative de différents motifs utilisés pour le lancé de rayon

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies

Introduction au Data-Mining

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

INF6304 Interfaces Intelligentes

Calcul différentiel. Chapitre Différentiabilité

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Introduction au Data-Mining

Cours d analyse numérique SMI-S4

NON-LINEARITE ET RESEAUX NEURONAUX

LABO 5 ET 6 TRAITEMENT DE SIGNAL SOUS SIMULINK

Géométrie discrète Chapitre V

LES MÉTHODES DE POINT INTÉRIEUR 1

Optimisation, traitement d image et éclipse de Soleil


Master IMA - UMPC Paris 6 RDMM - Année Fiche de TP

TABLE DES MATIÈRES CHAPITRE I. Les quanta s invitent

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R

Utiliser une WebCam. Micro-ordinateurs, informations, idées, trucs et astuces

Traitement bas-niveau

Programmation Linéaire - Cours 1

Quantification Scalaire et Prédictive

Chp. 4. Minimisation d une fonction d une variable

Qu est-ce qu un ordinateur quantique et à quoi pourrait-il servir?

Interception des signaux issus de communications MIMO

Précision d un résultat et calculs d incertitudes

Projet : Recalage par maximisation de l information mutuelle

3 Approximation de solutions d équations

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor

Object Removal by Exemplar-Based Inpainting

Transcription:

M2 SC - Usages du hasard l échantillonnage compressé Pierre BORGNAT CNRS, Équipe Sisyphe (Signaux, Systèmes and Physique) Laboratoire de Physique de l ENS de Lyon, Université de Lyon ECOLE NORMALE SUPERIEURE DE LYON CENTRE NATIONAL DE LA RECHERCHE SCIENTIFIQUE

!"#"$%&'!%$%'()*+","$"-. Acquisition de données numériques / 0-+.1%$"-.2''Shannon Cadre Théorie classique de l échantillonnage sampling theorem : Théorème 3"4'5-+',%67&8'18.,8&5'8.-+#9 de Shannon : «:%$'$98';5*+",$ En prenant des échantillons <%$8=>'5-+')%.' assez denses (à la fréquence 78<48)$&5'<8)-.,$<+)$'$98' de Shannon-Nyquist au moins), on peut reconstruire -<"#".%&'%.%&-#'1%$%? partaitement le signal (ou l image)» $"68,7%)8

L échantillonnage de Shannon-Nysquist Soit x(t) un signal analogique à temps continu L échantillonnage régulier idéal consiste à retenir un échantillon tous les τ e pas de temps : x n := x(nτ e ), n Z Théorème de Shannon-Nysquist : si x(t) est un signal à bande limité, i.e., son spectre (par transformée de Fourier) est nul en dehors de [ B, B] et que F e = 1/τ e > 2B alors x n représente exactement x(t), au sens qu on peut reconstruire x(t): x(t) = ( ) π x n sinc (t nτ e ) τ e n Z Remarque : il est possible d obtenir un signal bien échantillonné conjointement en temps et en fréquence avec N points.

* +,#&-"$./(0%$1"2'3/4/2%&5'6,4'2%&%./0'2/./'/789%$%.%,# : 9#%6,450)'sample 2/./'/.';)89%$. 4/."'<=>'?,94%"4'(/#2@%2.1A' Acquisition de données numériques Schéma classique $/530" too much data! Une image classique : N = 2304 3072 7 10 6 échantillons. De plus en plus (et beaucoup) de données numériques : Photos, vidéos, réseaux de capteurs, wifi,... Augmentation des résolutions, des durées,... Multiplication des modalités : sons, images, RF, IR, UV,... «Avalanche de données»!

!"#$%&'( )*+,-"$.%%&/&0&'( Compressibilité Modern Image Representation: des signaux, 2D images,... Wavelets (transformée en ondelettes, bases adaptées, DCT, Temps-fréquence,...) 0#$2. 3#4.0.' 5,.66&5&.7'% 8/09.*:*;< #7= 0 0.% Sparse structure: few large coeffs, many small coeffs Basis for JPEG2000 image compression standard 6$.A9.75( Wavelet approximations: smooths regions great, edges much sharper Fundamentally better than DCT for images with edges Nombre de points du signal = N K 0#$2. nombre de >#/,$*8?@< coefficients significatifs 5,.66&5&.7'% '&-.

Compressibilité des signaux, images,... Wavelet Approximation 0!1!2!3!4!5 2 4 6 8 10 x 10 5 1 megapixel 1 image 2525k kpixel term approx log(erreur) B-term approx à K termes error Approximation à K termes x K, de l image initiale x : Within 2 digits (in MSE) with 2.5% of coeffs x x K 2 0.01 x 2 Original image = f, K-term approximation = f K f f K 2.01 f 2

Acquisition!"#$%#&'()'Sampling de données numériques Schéma classique * +,#&-"$./(0%$1"2'3/4/2%&5'6,4'2%&%./0'2/./'/789%$%.%,# : 9#%6,450)'sample 2/./'/.';)89%$. 4/."'<=>'?,94%"4'(/#2@%2.1A : compress 2/./ $/530" compress JPEG JPEG2000.4/#$5%.B$.,4" 4"7"%C" 2"7,534"$$

!"#$%#&'()'Sampling!"#$%#&'()'Sampling Acquisition de données numériques * +,#&-"$./(0%$1"2'3/4/2%&5'6,4'2%&%./0'2/./'/789%$%.%,# -"$./(0%$1"2'3/4/2%&5'6,4'2%&%./0'2/./'/789%$%.%,# : 9#%6,450)'sample 2/./'/.';)89%$. Schéma classique 4/."'<=>'?,94%"4'(/#2@%2.1A %6,450)'sample : compress 2/./'/.';)89%$. 4/."'<=>'?,94%"4'(/#2@%2.1A mpress 2/./ $/530" $/530" compress.4/#$5%.b$.,4" compress.4/#$5%.b$.,4" JPEG JPEG2000 JPEG Modern Image Repr JPEG2000 4"7"%C" 2"7,534"$$ 4"7"%C" 2"7,534"$$ Sparse structure: few large coef

Questions sur le schéma d acquisition usuel Pourquoi se fatiguer à acquérir (à haute fréquence) N points et en jetter le plus grand nombre pour n en garder que K N? Echantillonnage = opération linéaire Compression = opération non-linéaire les regrouper en une seule? Proposition récente : l echantillonnage compressé essayer d acquérir directement des données compressées? généraliser l opération de mesure

Acquisition de données numériques L échantillonnage compressé (Compressed Sensing ou Compressive Sampling) renouvelle l approche de l acquisition de données numériques. Proposition récente : travaux précurseurs (et théoriques) : 2000 à 2005 ; explosion du domaine : depuis 2006 ou 2007 en TSI ou en apprentissage en 2010 : 1/3 de articles de conf. mentionnent ce sujet... Remarque : ici, formulation signaux discrets ; cf. travaux de Vetterli et al. pour questions analogues en temps continu.

. :&$240&*'4#$2&'*;3*#"%&*-&,&%42*7#&4'6%&#&,1'8 Modern Image R Acquisition en Compressed Sensing compressive sensing 1%4,'#(1<'1"%& %&0&()& %&0",'1%601 Nombre initial de points : N Nombre de coefficients importants : K Nombre de mesures : M K M N x α Sparse structure: few large y Basis for JPEG2000 image Wavelet approximations: sm Fundamentally better than

Coded Acquisition Généraliser l opération de mesure Instead of pixels, take linear measurements signal x y 1 = f, φ 1, y 2 = f, φ 2,..., y M = f, φ M base ou dictionnaire de fonctions φ i mesures linéaire : y i = x, y φ= i, Φf i = 1,..., M Equivalent to transform domainy sampling, = Φx {φ m } = basis functions Example: Exemple big pixels : moyenne sur un gros pixel y m =,

Coded Acquisition Généraliser l opération de mesure Instead of pixels, take linear measurements signalyx 1 = f, φ 1, y 2 = f, φ 2,..., y M = f, φ M base ou dictionnaire de fonctions φ i y = Φf mesures linéaire : y i = x, φ i, i = 1,..., M Equivalent to transform domain sampling, y = Φx {φ m } = basis functions Example: line integrals (tomography) Exemple : intégrale sur une ligne (tomographie) y m =,

Coded Acquisition Généraliser l opération de mesure Instead of pixels, take linear measurements signalyx 1 = f, φ 1, y 2 = f, φ 2,..., y M = f, φ M base ou dictionnaire de fonctions φ y = Φf i mesures linéaire : y i = x, φ i, i = 1,..., M Equivalent to transform domain sampling, y = Φx {φ m } = basis functions Example: sinusoids (MRI) Exemple : acquisition dans l espace de Fourier (sinusoïde) y m =,

Généraliser Sampling Domain l opération de mesure y k =,? Quel choix de Φ pour minimiser le nombre de mesures M? Modern Image Representation: 2D Wavelets La position des K coefficients dépend du signal! Which φ m should we use to minimize the number of samples? Say we use a sparsity basis for the φ m : M measurements = M-term approximation So, should we measure wavelets? Sparse structure: few large coeffs, many small coeffs

Principe d acquisition incohérente Idée : chaque mesure doit combiner plusieurs points, sans cohérence entre eux.56789:, En statistique : group testing [Robert Dorfman, 1943] Autre problème jeu : identifer le seau avec les fausses pièces d or!"#$%&'()*+,-.&+/)&0123)+&4,+/&-#3)&2",*56&&.56789:,!"#$%&'()*+,-.&+/)&0123)+&4,+/&-#3)&2",*56&& ;<=>"#:%& Approche à la Shannon : peser 1 pièce par seau N 7),8/&#&2",*& mesures Compression = ;":<9)55,"*& 1 résultat -9":&)#2/&0123)+& *1:0)95&.5?9*8##8),086#"6@%& ;<=>"#:%& 7),8/&#&&"68%*&2":0,*#+,"*& 7),8/&#&2",*& "-&2",*5&-9":&%&&&0123)+5& -9":&)#2/&0123)+& *1:0)95& =123)+&>&?&*1:0)9& Echantillonnage compressé : peser des combinaisons (linéaires) de pièces de tous les seaux peu de mesures =123)+&>& ;":<9)55,"*&?&*1:0)9& =123)+&>&?&*1:0)9&

Principe d acquisition incohérente En signal & images : principe d incertitude généralisée Rappel : incertitude à la Gabor-Heisenberg t f 4π Pour des séquences de N points [Donoho, Starck 1989] : on note N t le nombre de points non nuls en temps, N f en fréquence N t + N f 2 N Csq : si x concentré en temps, il est étendu en fréquence Pour d autres bases orthonormale ϕ i et ψ j : cohérence µ ϕ,ψ = max i,j ϕ i, ψ j et on a N ϕ + N ψ 2/µ ϕ,ψ

Principe d acquisition incohérente Utilisation : un signal parcimonieux (avec K coefficients non nuls, K petit) dans un domaine est forcément étalé dans un domaine peu cohérent avec le domaine de parcimonie voir [Donoho, 1999], [Candès, Romberg, 2004] on peut le retrouver avec peu de mesures ds ce 2e domaine Signal original K Parcimonieux Signal dans Fourier 1 0.5 0 5 0 0.5 1 5 0 50 100 150 200 250 300 350 400 450 500 Espace / Temps 0 50 100 150 200 250 300 350 400 450 500 Fréquence En poussant au bout de cette logique : un domaine de représentation incohérent avec tous les autres est de mesurer en combinant au hasard les échantillons. idée de base de l échantillonnage compressé

"&9;'#%$ Comment peut marcher le Compressed Sensing? Hypothèse x signal K -sparse (parcimonieux)! "#$%&'((((((#)((((*sparse (ou dans une base ou un#%(+&)#),-#./#0%&12 dictionnaire Ψ, 3 4567(&))89:();&1):(#%();&.:(-09&#% signal x = Ψα et α parcimonieux) Exemple minimal : signal 1D parcimonieux à K éléments,! Samples (Ψ = Id et x = α). 9:&)81:9:%/) );&1): )#$%&' %0%<:10 :%/1#:)

Compressive!"#$%&'( ) *+,'-."/"-&0-0$"10,234#$1,00&5%,6-3"'-.&1,3/%7- "389&1,-"-condensed representation :&/+- '42%&//%,-&';41#"/&4'-%400-/+149(+- %&',"1-dimensionality reduction Objectif : mesure condensée du signal, avec seulement M mesures linéaires Comment peut marcher le Compressed Sensing? #,"091,#,'/0 0$"10, 0&('"% '4'<,14,'/1&,0

Comment peut marcher le Compressed Sensing? Projection Φ ne peut pas être de rang plein : M < N perte d information en général (infinité de solutions à y = Φx) '$()$*"+,-!"#$%&'$()$*"+,- Cependant : on se limite à des vecteurs parcimonieux. /+"012)3"'$ '")$4566$+&',7 '1+&6 2"65:'9 7 &'8$9"$ 6"919$3'4"+:&)3"'$3'$;1'1+&6 2"65:'9

Comment peut marcher le Compressed Sensing?!"#$%&'$()$*"+,- Projection Φ doit être choisie telle que les sous-matrices l: /0123'$$$$$$1"$)4&)$2)1$ 9";68'1 M K sont de rang plein. K 1678&)+2901 En fait : les&+0$:6;;$+&', sous-matrices M 2K de rang plein. la différence de 2 vecteurs parcimonieux est 2::0+0'90$$$$$$$$$$$$$$$$$$70)#00'$)#"$K>1?&+10$@09)"+1$ 2K -parcimonieuse ; $AK 1?&+10$2'$30'0+&; cela préserve l information des vecteurs K -parcimonieux ; c est la Restricted Isometry Property (RIP) d ordre 2K. +010+@0$2':"+8&)2"'$2'$K>1?&+10$123'&;1 Question : design? combinatoire, NP-complet,... estricted Isometry Property BC(DE$":$"+=0+$AK

2" 4&,'1%&#&2-'******5* Comment peut marcher lerandom Compressed linear Sensing combi? "6*-7&*&2-%(&'*"6 Projection Φ doit prendre de l information un peu partout et ce, à chaque ligne, sans trop de spécificité. 89:*;"&'*2"-*;('-"%-*'-%1/-1%&*"6*'$,%'&*'(<2 > 2"*(26"%#,-("2*="'' Signal original K Parcimonieux 1 0.8 0.6 Φ matrice aléatoire!? 0.4 0.2 0 0.2 0.4 0.6 0.8 #&,'1%&#&2-' 1 0 50 100 150 200 250 300 350 400 450 500 Espace / Temps '$ '(

Comment peut marcher le Compressed Sensing?!"#$%&''()&*+,-,*./01('(-("2 Résultat des années 80 (Kashin, Gluskin) : Si on tire Φ au hasard : i.i.d. Gaussien, 3 4&,'1%&#&2-'******5* random linear combinations i.i.d. Bernoulli (±1),... "6*-7&*&2-%(&'*"6 alors Φ a la RIP(2K) avec grande probabilité sous 3 89:*;"&'*2"-*;('-"%-*'-%1/-1%&*"6*'$,%'&*'(<2,='* condition que > 2"*(26"%#,-("2*="'' M = O(K log(n/k )) N #&,'1%&#&2-' '$,%'& '(<2,= 2"2?&%" &2-%(&'

Illustration du principe de Compressed Sensing Signal de N = 512 points, parcimonieux avec K = 10 pics. Matrice aléatoire N par M = 128 mesures. Matrice de mesure aleatoire (gaussienne) Signal original K Parcimonieux 50 1 100 0.8 0.6 0.4 150 200 0.2 250 0 0.2 300 0.4 0.6 0.8 1 350 400 450 0 50 100 150 200 250 300 350 400 450 500 Espace / Temps 500 20 40 60 80 100 120

Illustration du principe de Compressed Sensing Signal de N = 512 points, parcimonieux avec K = 10 pics. Matrice aléatoire N par M = 128 mesures Signal original K Parcimonieux Signal mesure de DIMENSION reduite 1 0.8 0.6 0.4 0.2 0 0.2 0.4 1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.6 0.8 0.8 1 1 0 50 100 150 200 250 300 350 400 450 500 Espace / Temps 0 20 40 60 80 100 120 Axe variable mesuree Question : retrouver x en pratique? (P) Etant donné y = Φx (et Φ), trouver x?

Reconstruction en Compressed Sensing Φ n est pas de rang plein (seules ses sous-matrices...) Inversion naïve par moindres carrés échoue : ( ) (l 2 ) ˆx = arg min x 2 ou arg min y Φx 2 x:y=φx x 2 + λ x 2 2 Reconstruction en Optimisation l2 1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1 0 50 100 150 200 250 300 350 400 450 500 Espace / Temps Exploiter la parcimonie (supposée) du signal et sa géométrie changer de norme de mesure!

Reconstruction en Compressed Sensing Parcimonie = chercher les solutions avec le plus petit nombre de coefficients non nuls. x 0 = Card {i : x i 0} ; x 1 = i x i Inversion au min de l 0 est exacte, mais combinatoire (l 0 ) ˆx = arg min x:y=φx x 0 Inversion au min de l 1 est exacte si x est parcimonieux (i.e., x 0 K ) (l 1 ) ˆx = arg min x:y=φx x 1 [Candès, Romberg, Tao (2004) ; Donoho (2001-2003)] (aussi : l 1 rend les solutions parcimonieuses [Fuchs 97])

Reconstruction en Compressed Sensing (l 1 ) ˆx = arg min x 1 x:y=φx Ce problème se résout bien par Programmation linéaire. Signal mesure de DIMENSION reduite Reconstruction en Optimisation l1 avec égalité 1 0.8 0.6 0.4 0.2 0 0.2 0.4 1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.6 0.8 0.8 1 1 0 20 40 60 80 100 120 Axe variable mesuree 0 50 100 150 200 250 300 350 400 450 500 Espace / Temps

Reconstruction en Compressed Sensing (l 1 ), aussi appelé (BP) pour Basis Pursuit (Donoho 2000): ˆx = arg min x:y=φx x 1 (l 1 ) peut se réécrire en Programmation linéaire : ˆx = arg min (u,v): u + v { u, v 0 (Φu Φv) = y cf. un cours d optimisation...

Pourquoi reconstruction marche en l 1? Théorèmes... cf. [Candès, Romberg, Tao; Donoho; Baraniuk, Wakin;...] %&'()*+$!&,-$!"#$L 1!%&'( Regard géométrique )*+*),)$L 1 (%-,.*%+ /$L 0 (01&(2(.$(%-,.*%+$*3 rse random orientation dimension N-M

Lien avec les problèmes inverses Problème inverse retrouver l information (ou les sources) à partir des mesures

Lien avec les problèmes inverses Tomographie à rayons X (imagerie médicale)

Lien avec les problèmes inverses Reconstruction 2D à partir de projections

Lien avec les problèmes inverses Autre de problème inverse : déconvolution

Approche générale des problèmes inverses Modèle (direct) de mesure y à partir de la source x : y = Φ{x} + bruit Φ = opérateur de convolution, de flou, de tomographie, etc. En géneral, problème mal posé (plus de sources que de mesures) ou au moins mal conditionné (bruit à la mesure est amplifié en un bruit très fort sur l estimation de la source). Stratégie usuelle : combiner une attache aux données avec une régularisation, par exemple : ˆx = arg min x y Φ{x} 2 2 + λ x 2 2 (moindre carré + régularisation de Tikhonov)

Lien avec les problèmes inverses Exemple : sur-résolution Image de Saturne par le Hubble Space Telescope (image Eric Thiébaut, CRAL)

Lien avec les problèmes inverses Exemples : déconvolution aveugle Image de microscopie confocale (algo. Eric Thiébaut, CRAL) Données du Centre commun de Quantimétrie (Univ. Lyon 1)

Lien avec les problèmes inverses Problème initial du compressed sensing ˆx = arg min x:y=φx x 0 Problème relâché : l 1 est la relaxation convexe de l 0 ˆx = arg min x:y=φx x 1 Problème inverse un peu plus général, avec attache aux données moins contraignante ˆx = arg min x:y=φx x 1 + λ y Φx 2 2 Plus généralement : critère variationnel selon problème direct ou approche bayésienne

Traiter le bruit en Compressed Sensing Résistance au bruit : (BPDN) pour Basis Pursuit Denoising (Donoho 1998) : 1 (BPDN) arg min x 2 y Φx 2 + λ x 1 problème dual de celui à Contraintes Quadratiques : (QC) arg min x 1 x: y Φx 2 <ɛ Signal mesure de DIMENSION reduite Reconstruction en Optimisation l1 avec QC 1 0.8 0.6 0.4 0.2 0 0.2 0.4 1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.6 0.8 0.8 1 1 0 20 40 60 80 100 120 Axe variable mesuree 0 50 100 150 200 250 300 350 400 450 500 Espace / Temps

Ajouter la compressibilité en Compressed Sensing Résultats théoriques de Candès & Tao. Reconstruction robuste : pour tout x R n, soit ˆx, solution de (l 1 ). Alors, on a x ˆx 1 C x x K 1 et x ˆx 2 C x x K 1 K 1/2 Reconstruction stable : mesure de y = Φx + e où le bruit est t.q. e 2 < ɛ et retrouver ˆx par (QC). Alors, pour tout x R n, on a x ˆx 2 C 1 x x K 1 K 1/2 + C 2 ɛ

Acquisition avec de l aléatoire Universalité du CS!"#$%&'()#*+ Propriétés pour Φ : mesures globales, incohérentes On vient de voir une solution : matrices aléatoires, -("./010%('2&%0%"*'13("14%12'%.15/&1'#6"()'1 Adaptation à des signaux parcimonieux sur bases ou '7(&'%1#"1any 4('#' dictionnaires (Ψ) x = Ψα ou x i = φ i, α

'7(&'%1#"1any 4('#' Acquisition avec de l aléatoire Universalité du CS Le schéma devient :!"#$%&'()#*+, -("./010%('2&%0%"*'13("14%12'%.15/&1'#6"()'1 '7(&'%1#"1any 4('#' '7(&'% 3/%55#3#%"* $%3*/& "/"8%&/ %"*&#%'

Acquisition avec de l aléatoire Universalité du CS Propriété : Matrice aléatoire Base Matrice aléatoire stratégie universelle d encodage, Ψ précisé a posteriori Autres solutions : incohérence de Φ par rapport à Ψ tirage aléatoire de coefficients de Fourier fonctions de mesures à produit scalaire toujours non nul avec tous les signaux parcimonieux ( cf. travaux sur la cohérence entre dictionnaires, en particulier [Tropp & Gribonval]) Sorte de Principe d incertitude à vérifier entre la base de mesure et la base de parcimonie.

Algorithmes de reconstruction Le nombre d algorithmes disponibles augmente. Catégories d algorithmes d optimisation (convexe) pour (BP) : y = arg min x:y=φx x 1 méthodes de point intérieur (lent, très précis, analyses théoriques) méthodes de gradient (1er ordre) (rapide, mais convergence...) méthode d homotopie (rapide, exact mais pour petites tailles) Domaine actif : trouver les bonnes méthodes pour pb de grande taille, résistantes au bruit, marchant pour signaux compressibles (et non seulement parcimonieux), convergence prouvable, etc. Deux exemples : MP, IST

Algorithme de reconstruction : Matching Pursuit Algorithme itératif 1) Retenir les composantes actives, en cherchant les colonnes de Φ qui sont les plus corrélées avec y 2) Soustraire ces composantes de y donne un résidu y 3) Itérer avec y Les composantes actives sont orthogonales d une itération à l autre Très rapide pour pb de petite taille Pas très précis si plus grande taille (images...) ou avec bruit Amélioration : Orthogonal Matching Pursuit [Mallat & Zhang, 93; Gribonval & Tropp;...]

Algorithme de reconstruction : Iterated Thresholding Algorithme itératif 1) À l étape k, projeter x k pour obtenir w k = Φ T Φx k 2) Seuillage de w k donne x k+1, par exemple par Soft Thresholding Marche bien car, pour des signaux parcimonieux, w k grand sur les coefficients actifs, petit ailleurs Méthode de minimisation l 1 Très rapide, très bon pour signaux parcimonieux, ok si approximativement parcimonieux Remarque : ouvre le chemin aux algorithmes proximaux [Daubechies, DeFrise, DeMol 2004; Chambolle 2005; Combettes & Pesquet; Blumensath & Davies;...]

Illustration 1 - exemple simulé [Candès, Romberg, Tao, IEEE Info. Theory, 2006] Exemple en tomographie IRM : acquisition dans le domaine fréquentrie, ici d une image fantôme Image originelle (lisse par morceaux) Log de Norme des coefficients de Fourier 20 20 40 40 60 60 80 80 100 100 120 120 20 40 60 80 100 120 20 40 60 80 100 120 Axe variable mesuree

Illustration 1 - exemple simulé Image ( parcimonieuse) en espace ; donc incohérence vis-à-vis du domaine de Fourier Masque de mesure dans plan de Fourier Log de Norme des coefficients de Fourier mesures 20 20 40 40 60 60 80 80 100 100 120 120 20 40 60 80 100 120 20 40 60 80 100 120 Axe variable mesuree

Illustration 1 - exemple simulé Reconstruction par (BP) : ˆx = arg min x:y=(fx) Ω x 1 Image originelle (lisse par morceaux) Reconstruction en Optimisation L1 avec egalite 20 20 40 40 60 60 80 80 100 100 120 120 20 40 60 80 100 120 20 40 60 80 100 120

Illustration 1 - exemple simulé Reconstruction par (QC) : ˆx = arg min x: (y Fx) Ω 2 <ɛ x 1 Image originelle (lisse par morceaux) Reconstruction en Optimisation L1 avec erreur 20 20 40 40 60 60 80 80 100 100 120 120 20 40 60 80 100 120 20 40 60 80 100 120

Illustration 1 - exemple simulé Reconstruction en Variation Totale : (TV )ˆx = arg min x:y=(fx) Ω TV (x) x 1 Image originelle (lisse par morceaux) Reconstruction en Optimisation TV 20 20 40 40 60 60 80 80 100 100 120 120 20 40 60 80 100 120 20 40 60 80 100 120

Illustration 2 - caméra à 1 pixel [Duarte et Rice al., Single-Pixel Imaging via CS Compressive Camera Sampling, IEEE Signal Processing Mag., 83, 2008] single photon detector random pattern on DMD array DMD DMD image reconstruction or processing

Single Pixel Camera Illustration 2 - caméra à 1 pixel Object LED (light source) Photodiode circuit Lens 2 Lens 1 DMD+ALP Board

Illustration Single 2Pixel - caméra Camera à 1 pixel Object LED (light source) Photodiode circuit Lens 2 Lens 1 DMD+ALP Board

Illustration Single 2 Pixel - caméra Camera à 1 pixel Object LED (light source) Photodiode circuit Lens 2 Lens 1 DMD+ALP Board

Illustration First Image 2 - caméra Acquisition à 1 pixel target 65536 pixels 11000 measurements (16%) 1300 measurements (2%)

Second Image Acquisition Illustration 2 - caméra à 1 pixel 4096 pixels 500 random measurements

Illustration Single-Pixel 2 - caméra Camera à 1 pixel single photon detector random pattern on DMD array DMD DMD image reconstruction or processing

Remarques finales Autres exemples d applications : Echantillonnage sous-nysquist Tomographie à faible nombre de vue Holographie numérique de particules Astronomie, imagerie ultra-sonore, DNA-arrays, multi-capteurs (dont réseaux de capteurs),... Et bien d autres,... Page de ressource : Pour trouver une bibliographie riche sur le sujet : page CS de Rice University http://dsp.rice.edu/cs Remerciements à R. Baraniuk, dont les images ont été amplement empruntées pour ce cours