Cours analyse spectrale art III Mesures spectrales paramétriques olytech EEO-AA hilippe Ravier 1
Classification des méthodes d AS Méthodes non paramétriques Fourier (périodogramme/corrélogramme) Minimum de variance (capon, MV) Décomposition en valeurs singulières (MUSIC, vecteurs propres) Maximum d entropie (MEM) Méthodes paramétriques Signal vu comme la filtrée d un bruit blanc par un modèle paramétrique AR, MA ou ARMA Signal vu comme une somme de sinusoïdes bruitées (rony, rony modifié, isarenko) 2
Rappels de filtrage numérique x n H( z) y n équation aux différences a y = Q bx i n i j n j i= 0 j= 0 TZ fonction de transfert Q i j az i Y( z) = bz j X( z) i= 0 j= 0 d où H( z) Y( z) = = X( z) Q q= 0 p= 0 bz q az p q p 2i f z = e π H( f) Q j= 0 p= 0 be q p 2iπ fq = = 2iπ f p ae H e ( f). b H e ( f). a 3
Filtres numériques couramment utilisés H( z) = Q q= 0 p= 0 bz q az p q p Modèle ARMA autorégressif - moyenne ajustée H( z) = p= 0 1 az p p Modèle AR autorégressif Tout pôle ou filtre RII ou structure récursive H( z) Q = bq z q= 0 q Modèle MA moyenne ajustée Tout zéro ou filtre RIF ou structure transversale 4
Forme des spectres AR, MA ou ARMA AR MA ARMA Fourier (ériodogramme, Corrélogramme) + + + + o o o o o o o o + + Tout pôle Tout zéro ôle et zéro 5
Densité spectrale de puissance d un signal filtré x() t H( f) yt () Que vaut ( f )? Cas Temps Continu! y x n H( z) y n Que vaut y ( z)? Cas Temps Discret! 6
Modélisations L estimation classique utilise les estimateurs (mesure). Aucun modèle n est imposé au signal. On suppose ici que le signal y n suit un modèle paramétrique. Deux formulations équivalentes : - le signal y n est vu comme la filtrée d un bruit blanc x n par un modèle paramétrique xn bruit blanc A 1 ( z) yn - si on fait passer le signal y n dans un filtre linéaire et stationnaire à paramètres ajustables et si on obtient un bruit blanc à la sortie du filtre, alors on peut dire que toute l information spectrale est contenue dans le filtre. yn A( z) x n bruit blanc 1 En effet : x( z) = AzA ( ) y( z) et x( z) = 1, alors y( z) ne dépend que de Az ( ) z 7
DS d un bruit blanc filtré par un modèle paramétrique (cas continu) Densité spectrale de puissance à la sortie du filtre ( f ) = H ( f ) ( f ) y 2 x Exemple pour le filtre AR xt () bruit blanc 1 A( f) yt () x ( f ) = 1 H( f) 1 A( f) 1 1 ( f) = = = AR 2 H 2 2i fp e ( f ). a ae π p p= 0 ARMA ( f) = H e ( f ). b H e ( f ). a 2 2 ( f) = e H ( f). b MA 2 8
Estimation des paramètres du modèle (cas discret) rincipe : on cherche les coefficients d un filtre dont la sortie est le signal et l entrée un bruit blanc On dispose des échantillons y n et on cherche le filtre blanchisseur A(z) de y BB centré, variance σ 2 x n 1 A( z) yn y = x + a y n n p n p p= 1 A( z) x x xn = n p n p p= 0 = y a y yˆ n n n BB ( a = 1) 0 erreur de prédiction ou «innovation» ou résidu yˆ prédiction linéaire (L) : n on estime y à partir des n échantillons aux instants antérieurs 9
I - Estimation off-line : équations de Yule-Walker Critère pour trouver les a p : on minimise l EQM de l erreur de prédiction (ou puissance moyenne du résidu) 2 2 EQM = E x n E yn apyn = + p p= 1 min 2 E x n Dérivée par rapport aux ap : = 2E yn + apyn p yn j = 0 pour j = 1, K, a p p= 1 En notant ryy ( j) = E yn yn j l'autocorrélation de yn on obtient ryy ( p j) ap = ryy ( j) j = 1K Équations de Yule-Walker p= 1 10
Équations de Yule-Walker (suite ) Écriture sous forme matricielle ryy (0) L ryy ( 1) a1 ryy (1) M O M M = M ryy ( 1) ryy (0) a ryy ( ) L 1444 42444443 { 14243 R a r 1 r = Ra a= R r coefficients du filtre blanchisseur b : inversion de la matrice R algorithme rapide d inversion 2 2 n σ yy p yy p= 1 ar ailleurs, E x = = r (0) + a r ( p) et l'ensemble peut s'écrire 2 ryy (0) ryy (1) L ryy ( ) 1 σ ryy (1) ryy (0) ryy ( 1) a L 1 0 = M M O M M M ryy ( ) ryy ( 1) L ryy (0) a 0 11
Algorithme de Durbin-Levinson r fait intervenir r (1) L r ( p) R yy fait intervenir r (0) L r ( p 1) yy yy yy Récurrence sur l ordre p Initialisation (0) = [] 1 a (0) r = ryy (1) 2 σ (0) = ryy (0) Récurrence p = 1 à ( p 1) ( p) a ( p) 0 a = + k ( p 1) 0 a % H ( p 1) r ( p) p 1 a% k = 2 ( p σ 1) ( ) ( 2 ) 2 p ( p) 2( p 1) σ = 1 k σ On calcule les coeff du filtre de longueur p+1 à partir des coeff du filtre de longueur p a0 (0) itération 1 (1) a0 itération 2 (2) a = [ a0 ] a = a a 1 a = 1 a 2 12
k p : coefficients de corrélation partielle (ARCOR) Interprétation : si on introduit les échantillons de prédiction progressive et rétrograde rédiction rétrograde n-p-1 n-p n-p+1 n-2 n-1 n rédiction progressive alors le coefficient ARCOR est la covariance normalisée des résidus de prédiction progressif et rétrograde Intérêt : correspondent aux coefficients d une structure de filtre en treillis pour le filtre blanchisseur 13
La récurrence en p permet d actualiser les erreurs de prédiction linéaire forward et backward : f f b ε p ( n) = ε p 1( n) + k pε p 1( n 1) b b * f ε p( n) = ε p 1( n 1) + k pε p 1( n) Trois représentations équivalentes d un processus AR Séquence des coefficients ARCOR r k k (0), 1, L, Séquence des paramètres AR σ 2, a (1), L, a ( ) Séquence d autocorrélation r(0), r(1), L, r( ) 14
Signal test complexe de 64 points 15
Spectre AR sur signal test 16
Extensions de cette méthode Méthode de Burg (pour estimation spectrale AR) Minimisation des erreurs de prédiction forward (progressive) et backward (rétrograde) avec la récurrence de Levinson Méthode de la covariance (pour estimation spectrale AR) Minimisation de l erreur de prédiction forward Méthode de la covariance modifiée (pour estimation spectrale AR) Minimisation des erreurs de prédiction forward et backward 17
Exemple sur signal test (1) - Burg 18
Exemple sur signal test (2) - Covariance 19
Exemple sur signal test (3) Covariance modifiée 20
Interventions de l utilisateur Nature du filtre : AR, MA ou ARMA? Selon l allure du spectre Ordre du modèle : - Ordre trop bas : lissage = faible variance, fort biais - Ordre trop élevé : fluctuations = forte variance, faible biais Ces 2 paramètres sont liés : un AR(p) est équivalent à un MA( ) Bien choisir le modèle, c est économiser des coefficients 21
Sélection de l ordre optimal Ordre trop faible => lissage trop fort Ordre trop élevé => trop de détails Compromis résolution/variance Critères statistiques d erreur à minimiser erreur de prédiction finale (FE) FE 2 N ( p 1) [ p] ˆ + + = σ p N ( p + 1) critère d information d Akaïke (AIC) 2 [ ] σˆ AIC p = N ln + 2 p p longueur de description minimum (MDL) 2 [ ] ln σˆ M DL p = N + p ln N p En pratique, on peut confronter les résultats donnés par chacun des critères. 22
Exemple : signal d analyse HRV (1) 23
Exemple : signal d analyse HRV (2) pré post 24
Exemple : signal d analyse HRV (3) 25
II - Estimation on-line : algorithmes LMS et RLS Méthode du gradient pour estimer un paramètre θ en minimisant le critère ξ ˆ ˆ ξ θn+ 1 = θn μ θ θ = ˆ θ n ( ˆ ) 2 2 ξ = Ε x n Ε yn y = n n 1 H La prédiction à 1 pas s'écrit ˆ yn = a yn 1 avec yn 1 = M H H dξ ξ = r0 2a r + a Ra = 2r + 2Ra da ( ) aˆ = aˆ + 2μ r R aˆ + d où pb : r inconnus! n 1 n n y y n 26
On montre que E x n y n 1 = r R a Algorithme du gradient stochastique : on remplace le comportement moyen d une variable aléatoire par une réalisation particulière yˆ = y aˆ H n n 1 n 1 x = y yˆ n n n aˆ = aˆ + 2μ x y n n 1 n n 1 LMS Choix de μ : 1 μ théorique μ μsup = et en pratique, μ= trace( R) théorique sup f μ 27
Convergence plus rapide avec les moindres carrés récursifs (RLS) Les paramètres AR ont estimés à partir des observations jusqu à l instant n y = Y a+ x 1 n n 1 1 n y = y a+ x H n+ 1 n n+ 1 H ( ) 1 solution aux moindres carrés aˆ = Y Y Y y H n n 1 n 1 n 1 n Nouvel échantillon y n+1 : mise à jour du «gain de Kalman» k = n+ 1 + 1 G y n y n G y H n n n Estimation AR à l instant n+1 H ( ) aˆ = aˆ + k y y aˆ n+ 1 n n+ 1 n+ 1 n n RLS Estimation de la matrice de corrélation inverse : 1 H ( ) estimée récursivement par = H + 1 ( k + 1y ) G = Y Y G I G n n n n n n n On peut appliquer une pondération W pour : travailler en coût relatif introduire un facteur d oubli effectuer une identification sélective minimiser la variance des estimateurs 28
Estimateur de rony 1. rony déterministe rincipe : y n est la somme de K sinusoïdes amorties K yn = Ak e e k = 1. k k k α n i(2 π f n+ θ ) - On estime les A, α, f, - Résolution matricielle θ k k k k Sinusoïdes amorties rony étendu { α } 0 k Sinusoïdes pures rony modifié { α k } = 0 29
Comparaisons : Le périodogramme préselectionne un ensemble harmonique de fréquences La méthode de rony estime les fréquences à partir des données AR et ARMA : correspondance avec un modèle aléatoire rony : correspondance avec un modèle exponentiel déterministe En pratique, on utilise une variation de la méthode de covariance AR pour estimer les a i. 30
2. rony aléatoire rincipe : on minimise l EQM entre y ( n) et son modèle déterministe yˆ ( n) somme de sinusoïdes amorties N 1 EQM = y ( n) yˆ ( n) n = 0 2 - roblème Non Linéaire difficile - as de solution analytique - Algos très lourds et effet du bruit néfaste 31
32