Filtre de Wiener. Analyse en Composantes Principales



Documents pareils
1 Complément sur la projection du nuage des individus

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Analyse en Composantes Principales

Extraction d informations stratégiques par Analyse en Composantes Principales

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Exercice : la frontière des portefeuilles optimaux sans actif certain

Chapitre 3. Les distributions à deux variables

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Théorie et codage de l information

La classification automatique de données quantitatives

Programmation linéaire

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI


Résolution de systèmes linéaires par des méthodes directes

Cours d analyse numérique SMI-S4

L'analyse des données à l usage des non mathématiciens

Optimisation, traitement d image et éclipse de Soleil

Logiciel XLSTAT version rue Damrémont PARIS

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Relation entre deux variables : estimation de la corrélation linéaire

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

TD1 Signaux, énergie et puissance, signaux aléatoires

Introduction. Préambule. Le contexte

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Programmes des classes préparatoires aux Grandes Ecoles

10ème Congrès Français d'acoustique Lyon, Avril 2010

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Correction de l examen de la première session

STATISTIQUES. UE Modélisation pour la biologie

Une introduction aux codes correcteurs quantiques

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Quantification Scalaire et Prédictive

Une application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies

INF6304 Interfaces Intelligentes

Optimisation des fonctions de plusieurs variables

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Fonctions de plusieurs variables

Représentation des Nombres

ÉPREUVE COMMUNE DE TIPE Partie D

3. Caractéristiques et fonctions d une v.a.

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

de calibration Master 2: Calibration de modèles: présentation et simulation d

Traitement des données avec Microsoft EXCEL 2010

TABLE DES MATIÈRES. Bruxelles, De Boeck, 2011, 736 p.

Chapitre 3 : Le budget des ventes. Marie Gies - Contrôle de gestion et gestion prévisionnelle - Chapitre 3

Projet de Traitement du Signal Segmentation d images SAR

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Cours 02 : Problème général de la programmation linéaire

Optimisation Discrète

Programmation linéaire

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Probabilités stationnaires d une chaîne de Markov sur TI-nspire Louis Parent, ing., MBA École de technologie supérieure, Montréal, Québec 1

Analyses multivariées avec R Commander (via le package FactoMineR) Qu est ce que R? Introduction à R Qu est ce que R?

Introduction à l approche bootstrap

Fonctions de deux variables. Mai 2011

Etude des propriétés empiriques du lasso par simulations

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

NOTATIONS PRÉLIMINAIRES

Expérience 3 Formats de signalisation binaire

Chapitre 2. Matrices

Structures algébriques

Le Modèle Linéaire par l exemple :

Master IAD Module PS. Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique. Gaël RICHARD Février 2008

Apprentissage Automatique

ARBRES BINAIRES DE RECHERCHE

Exercices Corrigés Premières notions sur les espaces vectoriels

Introduction à l étude des Corps Finis

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Partie 1: Gestion de l interférence entre symboles

Température corporelle d un castor (une petite introduction aux séries temporelles)

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Évaluation de la régression bornée

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Intérêt du découpage en sous-bandes pour l analyse spectrale

NON-LINEARITE ET RESEAUX NEURONAUX

Apprentissage non paramétrique en régression

Découverte du logiciel ordinateur TI-n spire / TI-n spire CAS

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

Mathématiques appliquées à l'économie et à la Gestion

Fonctions de plusieurs variables

MAP 553 Apprentissage statistique

Fonctions de plusieurs variables. Sébastien Tordeux

Chapitre 5 : Flot maximal dans un graphe

Programmation linéaire et Optimisation. Didier Smets

Simulation de variables aléatoires

Calcul intégral élémentaire en plusieurs variables


La problématique des tests. Cours V. 7 mars Comment quantifier la performance d un test? Hypothèses simples et composites

Transcription:

Filtre de Wiener Analyse en Composantes Principales Guillaume Obozinski LIGM/Ecole des Ponts - ParisTech Traitement de l information et vision artificielle Ecole des Ponts

Filtre de Wiener Norbert Wiener (1894-1964)

Image floutée g(x,y) = f (x,y) h(x,y) +n(x,y) f (x,y) image d origine h(x, y) noyau de convolution (noyau de floutage) n(x,y) bruit additif g(x,y) image dégradée But Estimer le signal d origine à partir du signal flouté et bruité, en supposant connu le noyau h. Formalisation Trouver une estimée du signal f tel que E [ + + ( f (x,y) f (x,y) ) 2 dxdy ], où E est l espérance par rapport au bruit, soit minimal.

Notations On utilise les notations classiques pour présenter le filtre de Wiener Definition Image T. de Fourier image d origine f (x,y) F (u,v) noyau h(x,y) H(u,v) image dégradée g(x,y) G(u,v) bruit n(x,y) N(u,v) estimateur f (x,y) F (u,v) f ne note pas la transformée de Fourier de f : c est F. Ces transformées sont des fonctions à valeurs complexes!

Approche naïve Dans le domaine spatial : g(x,y) = f (x,y) h(x,y) +n(x,y) Dans le domaine spectral : G(u,v) = F (u,v)h(u,v) +N(u,v) Si on ignore le bruit F (u,v) = G(u,v) H(u,v) Problème en présence de bruit Le noyau est typiquement proche de 0 aux hautes fréquences, alors que le bruit est d amplitude non nulle

Filtre de Wiener S f (u,v) = F (u,v) 2 densité spectrale de puissance du signal S n (u,v) = E [ N(u,v) 2] densité spectrale de puissance du bruit K(u,v) rapport bruit sur signal (inverse du rapport signal sur bruit). Wiener propose avec F (u,v) = W (u,v)g(u,v) H(u,v) W (u,v) = H(u,v) 2 +K(u,v) Problème : K(u,v) est évidement inconnu. En pratique, on traite K(u,v) = K comme une constante à ajuster. Lorsque K 0 on retrouve le cas sans bruit Lorsque K H(u,v) 2 on atténue les hautes fréquences

Le filtre de Wiener minimise les moindres carrés Par Plancherel : [ 2dxdy ] [ E ( f (x,y) f (x,y)) = E R 2 R 2 F (u,v) F (u,v) 2 dudv F (u,v) F (u,v) 2 ( ) 2 = F (u,v) W (u,v) F (u,v)h(u,v) +N(u,v) On n écrit plus la dépendance en (u,v). On a alors : E (1 WH)F WN 2 = (1 WH)F 2 + E WN 2 1 ( E (1 WH)F WN 2 ) 2 W ]. = ( 1 2W H + W 2 H 2) F 2 + W 2 E N 2 = ( H +W H 2) F 2 +W E N 2 Gradient nul ssi H +W ( H 2 +K ) = 0 puisque K = E N 2 F 2. Donc H W = H 2 +K

Analyse en composantes principales (1901) Karl Pearson (1857-1936)

Deux points de vue différents Le but de l analyse en composantes principales (ACP) est de trouver une base de l espace dans lequel une famille de signaux se trouvent et qui soient bien adaptés à ces signaux. Deux points de vues. Deux problèmes. Point de vue de l analyse de signaux Point de vue de la synthèse de signaux Une solution : l ACP!

Matrice de design Soit une famille de signaux finis x i R d pour i = 1...n. Matrice de design C est la matrice : x 1 X =.... xn On suppose que les signaux sont centrés, c est-à-dire que n i=1 x i = 0. Si on part de signaux x i qui ne sont pas centrés on construit la matrice de design X dont les lignes sont les x i Ψx avec Ψx = 1 n ni=1 x i.

Covariance empirique, correlation empirique Pour des signaux centrés : Pour des signaux non-centrés : Σ = 1 n X X = 1 n x n i xi i=1 Σ = 1 n (x n i Ψx)(x i Ψx) i=1 On peut aussi normalisées (où réduire) les données en divisant chaque colonne par son écart-type. On obtient alors la matrice de corrélations C = Diag( σ) 1 ΣDiag( σ) 1 avec σ 2 k = Σ k,k. C k,k = 1 n (x (k) Ψx i k n i=1 σ k La normalisation (réduction) est optionnelle... (k )(x ) Ψx i k σ k ).

ACP : Point de vue de l analyse de signaux Les signaux vivent dans R d on cherche une direction v dans R n telle que la variance des signaux projetés selon cette direction soit maximisée. Or Var((v x i ) i=1...n ) = 1 n (v x n i ) 2 i=1 = 1 n v x n i xi v i=1 = v ( 1 n ) x n i xi v i=1 = v Σv On cherche donc à résoudre max v 2 =1 v Σv Solution : premier vecteur propre de Σ disons v 1

Déflation Comment trouver une deuxième direction sur laquelle projeter les données pour maximiser la dispersion des données? On fait une déflation i, x i x i v 1 (v 1 x i ) Donc pour la matrice : X X Xv 1 v 1. Puis on cherche la direction qui maximise la variance pour Σ = 1 n X X On résout donc maxv v 2 De façon équivalente maxv v 2 tel que v v 1. Solution : Second vecteur propre de Σ disons v 2. Etc.

Directions principales et diagonalisation de la covariance On appelle directions principales du nuage de points les vecteurs v 1,v 2,...,v k. composantes principales : la projection des données sur les k directions principales. Les directions principales sont les vecteurs propres de Σ = V S 2 V.

Décomposition en valeurs singulières et ACP La décomposition en valeurs singulières (SVD) d une matrice X R n p telle que n p est une factorisation de la forme X = USV, avec U R n n une base orthogonale de R n S R n p une matrice diagonale (de forme rectangulaire). V R p p une base orthogonale de R p SVD compacte On utilise plus souvent la SVD réduite : Si r est le rang de X alors X = USV avec, U R n r dont les colonnes sont orthonormées. S R r r une matrice diagonale carrée. V R r p dont les colonnes sont orthonormées. Si la diagonale de S est telle que s 1 > s 2 >... > s r > 0 et U 1k 0 pour tout k la SVD réduite est unique. On a que U S 2 U est une diagonalisation (compacte) de la matrice XX V S 2 V est une diagonalisation (compacte) de la matrice X X

Décomposition en valeurs singulières et ACP-II Si V = [v 1,...,v n ] et U = [u 1,...,u n ] alors s k est la kième valeur singulière de X. v k est le kième vecteur singulier à droite u k est le kième vecteur singulier à gauche Pseudo-inverse de X de Moore-Penrose Si X = USV est la SVD compacte de X on définit le pseudo inverse par X = V S 1 U. Exercice : X X =? XX =?, XX X =?, X XX =?

ACP à partir de la SVD Si X = U SV alors on a les axes principaux V [k] = [v 1,...,v k ] les composantes principales sont donc XV k = USV V [k] = U [k] S [k] avec U [k] = [u 1,...,u k ] et S [k] = Diag(s 1,...,s k ). Et symétriquement que peut-on dire de U [k]?

ACP des données vs ACP des variables ACP des données Nous avons vu jusqu à présent l ACP des données : Les x i vivent dans R p Les axes principaux sont les v k R p Les composantes principales sont les lignes de U [k] S [k] ACP des variables On centre + normalise la matrice de design + 1 n. Comme les variables correspondent aux colonnes x (j) de X, on fait une ACP sur X dont Les x (j) vivent dans R n et x (j) 2 2 = 1 par normalisation. Les variables principales sont les u k R n Les décomposition des variables sur les variables principales sont les lignes de V [k] S [k]

Cercle des corrélations

ACP : Point de vue de synthèse de signaux Etant donnés des signaux on cherche une famille de K atomes Λv k R p tels que Λv k 2 = 1, formant un dictionnaire Ṽ Rp K et des coefficient de décompositions Ũ = (Λu ik) 1 i n,1 k K de sorte que x i K k=1 Λu ik Λv k. On demande de minimiser Ce qui est équivalent à min min Ũ R n K,Ṽ Rp K i=1 Ũ R n K,Ṽ Rp K i=1 n K x i k=1 Λu ik Λv k 2 2 n X ŨṼ 2 F t.q. k, Λv k 2 = 1. Remarque : Il n y a pas de contrainte d orthogonalité entre les v k. Solution : Ṽ = V [k] et Ũ = U [k]s [k] à permutation des colonnes près et des signes des colonnes de V et U.

Analyse et synthèse Les problèmes de synthèse et d analyse sont tous deux résolus par l ACP Il existe plusieurs généralisations de l ACP pour les deux points de vue. En particulier, si on autorise K à être grand (éventuellement) et qu on requiert que pour chaque i la plupart des coefficients (u ik ) 1 k K sont nuls. On obtient des dictionnaires qui ont des bonnes propriétés pour le traitement des images et des signaux en général.