Mathieu Fauvel. 19 janvier 2007
|
|
- Eléonore Mélançon
- il y a 8 ans
- Total affichages :
Transcription
1 Méthodes à Noyaux pour L analyse de Données Mathieu Fauvel gipsa-lab 19 janvier 2007 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
2 Introduction 1 Présentation Générale Les Données Idée Principale Un exemple linéairement séparable Un exemple non-linéairement séparable 2 Fonctions noyaux Théorème Démonstration Quelques noyaux semi-défini positif 3 Analyse non-linéaire en composante principale (kernel PCA) Analyse en composante principale Kernel PCA Application 4 Conclusions Pour - Contre Autres méthodes Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
3 Présentation Générale 1 Présentation Générale Les Données Idée Principale Un exemple linéairement séparable Un exemple non-linéairement séparable 2 Fonctions noyaux Théorème Démonstration Quelques noyaux semi-défini positif 3 Analyse non-linéaire en composante principale (kernel PCA) Analyse en composante principale Kernel PCA Application 4 Conclusions Pour - Contre Autres méthodes Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
4 Présentation Générale Les Données Représentation des données : x R ou C x R n ou C n x R n R n ou C n C n x (Ω, σ, P ) x ensemble de toutes les séquences finies de l alphabet {A, C, G, T } (x est une séquences d ADN) x P(E)... Notations : X un ensemble quelconque, un objet x X et S = {x 1,..., x N } un ensemble fini de N objets à notre disposition. Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
5 Présentation Générale Idée Principale Méthodes à noyaux : Transformer tout algorithme linéaire, s exprimant sous forme de produits scalaires, en un algorithme non linéaire. Idée de Base : Projeter les données dans un espace vectoriel Chercher des relations linéaires dans cet espace f(x) o o o o o x x x x x x x x o o o o f f(x) f(x) f(x) f(x) f(o) f(o) f(x) f(x) f(x) f(o) f(o) f(o) f(o) f(o) f(o) Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
6 Présentation Générale Un exemple linéairement séparable Classification : S = {(x i, y i ) R n { 1; 1}; i [1, N]} M 1 x 2? M 1 x 2 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
7 Présentation Générale Un exemple linéairement séparable M 1 x 2 = = M 1 x 2 = 1 m 1 1 M 1 x 2 M 1 x 2? 0 m 1 m 1 m 1 = 1 1 m 1 x i x, x i x m 1 m 1 m 1 m 1 x i 1, x i 1 + x, x 2 x i, x m 1 m 1 x i, x k m x, x 2 x i, x m 2 1 k=1 m 1 1 m 2 1 l=1 x j, x l + x, x 2 m 1 1 m 1 m 1 x j, x Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
8 Présentation Générale Un exemple linéairement séparable Règle de décision : ( m x i 1 m 1 m 1 m 1 ) x j, x + 1 m 2 1 m 1 k=1 x i, x k 1 m 2 1 m 1 x j, x l? 0 l=1 Étudier le signe : f(x) = w, x + b w = 2 m 1 +m 1 m=1 α m = 1 m 1 ou 1 m 1 y m = 1 ou 1 b = 1 m 2 1 m 1 k=1 α m y m x m x i, x k 1 m 2 1 m 1 x j, x l l=1 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
9 Présentation Générale Un exemple linéairement séparable Séparation : {x f(x) = 0} Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
10 Présentation Générale Un exemple non-linéairement séparable Projection : Φ : R 2 R 3 x Φ(x) (x 1, x 2 ) (x 2 1, x 2 2, 2x 1 x 2 ) Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
11 Présentation Générale Un exemple non-linéairement séparable Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
12 Présentation Générale Un exemple non-linéairement séparable Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
13 Présentation Générale Un exemple non-linéairement séparable Ré-écriture du produit scalaire : Φ(x), Φ(y) R 3 3 Φ(x) i Φ(y) i = Φ(x) 1 Φ(y) 1 + Φ(x) 2 Φ(y) 2 + Φ(x) 3 Φ(y) 3 = x 1 2 y x 2 2 y x 1 x 2 y 1 y 2 = (x 1 y 1 + x 2 y 2 ) 2 = x, y 2 R 2 = k(x, y) Ré-écriture de la règle de décision : f(x) = k(w, x) + b b = 1 m 2 1 m 1 k=1 k(x i, x k ) 1 m 2 1 m 1 k(x j, x l ) l=1 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
14 Présentation Générale Un exemple non-linéairement séparable Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
15 Présentation Générale Un exemple non-linéairement séparable Pour quelles fonctions k a-t on : k(x, y) = Φ(x), Φ(y) H Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
16 Fonctions noyaux 1 Présentation Générale Les Données Idée Principale Un exemple linéairement séparable Un exemple non-linéairement séparable 2 Fonctions noyaux Théorème Démonstration Quelques noyaux semi-défini positif 3 Analyse non-linéaire en composante principale (kernel PCA) Analyse en composante principale Kernel PCA Application 4 Conclusions Pour - Contre Autres méthodes Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
17 Fonctions noyaux Théorème Pour quelles fonctions k a-t-on l égalité suivante : avec k(x, y) = Φ(x), Φ(y) H k : X X R Φ : X H (x, y) k(x, y) x Φ(x) Theorem (Théorème de Moore-Aronsjan (1950)) A chaque noyau semi-défini positif k : X X R, on peut associer un unique espace de Hilbert (H,, H ) ayant k comme noyau reproduisant : f H, : x X, f(x) = f, k(., x) H Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
18 Fonctions noyaux Démonstration Noyau semi défini positif : k : X X R est semi défini positif si : 1 (x, y) X X ; k(x, y) = k(y, x) 2 n N, ξ 1... ξ n R, x 1... x n X, n i,j ξ iξ j k(x i, x j ) 0 Espace de Banach : Espace vectoriel normé complet pour la distance issue de sa norme. Espace de Hilbert : Espace de Banach dont la norme. découle d un produit scalaire : x H = x, x H. Espace de Hilbert à noyau auto-reproduisant : Soit X un espace quelconque, H un espace vectoriel de fonctions définies sur X à valeurs réelles ; H R X et (H,, H ) un espace de Hilbert. La fonction K : X X R est un noyau reproduisant si : 1 y X : K(., y) : x K(x, y) H 2 y X et f H : f(y) = f, K(., y) H Propriété reproduisante : K(x, y) = K(., x), K(., y) H. Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
19 Fonctions noyaux Démonstration Noyau semi défini positif : k : X X R est semi défini positif si : 1 (x, y) X X ; k(x, y) = k(y, x) 2 n N, ξ 1... ξ n R, x 1... x n X, n i,j ξ iξ j k(x i, x j ) 0 Espace de Banach : Espace vectoriel normé complet pour la distance issue de sa norme. Espace de Hilbert : Espace de Banach dont la norme. découle d un produit scalaire : x H = x, x H. Espace de Hilbert à noyau auto-reproduisant : Soit X un espace quelconque, H un espace vectoriel de fonctions définies sur X à valeurs réelles ; H R X et (H,, H ) un espace de Hilbert. La fonction K : X X R est un noyau reproduisant si : 1 y X : K(., y) : x K(x, y) H 2 y X et f H : f(y) = f, K(., y) H Propriété reproduisante : K(x, y) = K(., x), K(., y) H. Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
20 Fonctions noyaux Démonstration Noyau semi défini positif : k : X X R est semi défini positif si : 1 (x, y) X X ; k(x, y) = k(y, x) 2 n N, ξ 1... ξ n R, x 1... x n X, n i,j ξ iξ j k(x i, x j ) 0 Espace de Banach : Espace vectoriel normé complet pour la distance issue de sa norme. Espace de Hilbert : Espace de Banach dont la norme. découle d un produit scalaire : x H = x, x H. Espace de Hilbert à noyau auto-reproduisant : Soit X un espace quelconque, H un espace vectoriel de fonctions définies sur X à valeurs réelles ; H R X et (H,, H ) un espace de Hilbert. La fonction K : X X R est un noyau reproduisant si : 1 y X : K(., y) : x K(x, y) H 2 y X et f H : f(y) = f, K(., y) H Propriété reproduisante : K(x, y) = K(., x), K(., y) H. Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
21 Fonctions noyaux Démonstration Propriétés des noyaux auto-reproduisant (a.r.) : 1 Si K existe, alors il est unique 2 Un noyau a.r. est un noyau semi-défini positif : Preuve 2. K(x, y) = K(., x), K(., y) H = K(., y), K(., x) H = K(y, x) n n ξ i ξ j K(x i, x j ) = ξ i ξ j K(., x i ), K(., x j ) H = n n ξ i K(., x i ), ξ j K(., x j ) H n = ξ i K(., x i ) 2 H 0 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
22 Fonctions noyaux Démonstration Construction de l espace de Hilbert : k : un noyau semi-défini positif, k : X X R H 0 espace vectoriel des combinaisons linéaires finies : f := p α i k(., x i ) x i X, α i R et p N On définit : f, g H0 := p,q i, Montrons que f, g H0 est un produit scalaire : Indépendant de la base de représentation bilinéaire (immédiat) symétrique (immédiat) positif défini α i β j k(x i, y j ) Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
23 Fonctions noyaux Démonstration Indépendance de la représentation de f et g. p q p f, g H0 = β j k(x i, y j ) = α i g(x i ) = α i q β j f(y j ) Positivité. f, f H0 = positif. Défini. p α i α j k(x i, x j ) 0, α i, x i, p. k est un noyau semi-défini Remarquons : f, k(., x) H0 = p α i k(x i, x) = f(x) (prop. reproduisante). f(x) = f, k(, x) H0 f H0 k(x, x) 1/2 (bilinéarité + positivité + symétrie) Donc f H0 = 0 (f(x) = 0, x) f = 0 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
24 Fonctions noyaux Démonstration Indépendance de la représentation de f et g. p q p f, g H0 = β j k(x i, y j ) = α i g(x i ) = α i q β j f(y j ) Positivité. f, f H0 = positif. Défini. p α i α j k(x i, x j ) 0, α i, x i, p. k est un noyau semi-défini Remarquons : f, k(., x) H0 = p α i k(x i, x) = f(x) (prop. reproduisante). f(x) = f, k(, x) H0 f H0 k(x, x) 1/2 (bilinéarité + positivité + symétrie) Donc f H0 = 0 (f(x) = 0, x) f = 0 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
25 Fonctions noyaux Démonstration Indépendance de la représentation de f et g. p q p f, g H0 = β j k(x i, y j ) = α i g(x i ) = α i q β j f(y j ) Positivité. f, f H0 = positif. Défini. p α i α j k(x i, x j ) 0, α i, x i, p. k est un noyau semi-défini Remarquons : f, k(., x) H0 = p α i k(x i, x) = f(x) (prop. reproduisante). f(x) = f, k(, x) H0 f H0 k(x, x) 1/2 (bilinéarité + positivité + symétrie) Donc f H0 = 0 (f(x) = 0, x) f = 0 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
26 Fonctions noyaux Démonstration Theorem (Complété) Si (E 0,, E0 ) est un espace métrique, il existe un espace métrique (Ẽ0,, fe0 ) complet dont (E 0,, E0 ) est un sous espace dense. Cet espace est unique à isométrie près. On l appelle le complété de (E 0,, E0 ) Conclusion : ( H 0,, fh0 ), complété de (H 0,, H0 ), est un espace Hilbertien. k semi-defini positif k(x, y) = k(., x), k(., y) H = Φ(x), Φ(y) H Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
27 Fonctions noyaux Démonstration Theorem (Complété) Si (E 0,, E0 ) est un espace métrique, il existe un espace métrique (Ẽ0,, fe0 ) complet dont (E 0,, E0 ) est un sous espace dense. Cet espace est unique à isométrie près. On l appelle le complété de (E 0,, E0 ) Conclusion : ( H 0,, fh0 ), complété de (H 0,, H0 ), est un espace Hilbertien. k semi-defini positif k(x, y) = k(., x), k(., y) H = Φ(x), Φ(y) H Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
28 Fonctions noyaux Quelques noyaux semi-défini positif (X,, X ) espace de Hilbert k(x, y) = x, y X est semi-défini positif. k(x, y) = x, y X = y, x X = k(y, x) n n n ξ i ξ j x i, x j X = ξ i x i, ξ j x j X n 2 = ξ i x i X 0 g : X R k(x, y) = g(x) g(y) est semi-défini positif. k(x, y) = g(x) g(y) = g(y) g(x) = k(y, x) ( n n n n 2 ξ i ξ j g(x i ) g(x j ) = ξ i g(x i ) ξ j g(x j ) = ξ i g(x )) i 0 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
29 Fonctions noyaux Quelques noyaux semi-défini positif k 1 et k 2 semi-défini positif k 1 + k 2 semi-défini positif. k(x, y) = k 1 (x, y) + k 2 (x, y) = k 1 (y, x) + k 2 (y, x) = k(y, x) n n n ξ i ξ j k(x i, x j ) = ξ i ξ j k 1 (x i, x j ) + ξ i ξ j k 2 (x i, x j ) 0 k 1 et k 2 semi-défini positif k 1 k 2 semi-défini positif. k 1 semi-défini positif k = exp(k 1 ) est semi-défini positif. + n n ξ i ξ j k(x i, x j k ) = ξ i ξ 1(x r i, x j ) + 1 n j = ξ i ξ j k r r! r! 1(x i, x j ) 0 r=1 r=1 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
30 Fonctions noyaux Quelques noyaux semi-défini positif k(x, y) = x, y p noyau polynomial d ordre p. k 1 (x, y) = x, y est un noyau k 2 (x, y) = k 1 (x, y) k 1 (x, y) est un noyau... Correspond à l espace de tous les monômes d ordre p. Variante : espace de tous les monômes jusqu à l ordre p. k(x, y) = ( x, y + q) p Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
31 Fonctions noyaux Quelques noyaux semi-défini positif ( k(x, y) = exp ( ) exp x y 2 2 γ = exp 2 ( k 1 (x, y) = exp k 2 (x, y) = exp ) x y 2 2 γ 2 ( x,x R d ) x,x R d γ exp 2 noyau radial. γ 2 ) exp ( 2 x,y R d γ 2 ) = exp (k 3 (x, y)) ( y,y R d γ 2 ) exp ( y,y R d γ 2 ) = g(x) g(y) ( ) 2 x,y R d γ 2 Espace de projection associé de dimension infinie. Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
32 Fonctions noyaux Quelques noyaux semi-défini positif Autres noyaux : x, y R + k(x, y) = min(x, y) x, y (Ω, F, P) un espace de probabilité. k(x, y) = P(x, y) P(x)P(y) (Mesure de similarité d événements probabilistes) Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
33 Analyse non-linéaire en composante principale (kernel PCA) 1 Présentation Générale Les Données Idée Principale Un exemple linéairement séparable Un exemple non-linéairement séparable 2 Fonctions noyaux Théorème Démonstration Quelques noyaux semi-défini positif 3 Analyse non-linéaire en composante principale (kernel PCA) Analyse en composante principale Kernel PCA Application 4 Conclusions Pour - Contre Autres méthodes Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
34 Analyse non-linéaire en composante principale (kernel PCA) Analyse en composante principale Vecteur aléatoire x R n, N observations x i. Algorithme 1 Centrer 2 Matrice de covariance : C x = 1 N N x i x it 3 Résoudre : λv = C x v v R n = 1 4 Projection sur k ieme PC : x k pc = v k, x R n Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
35 Analyse non-linéaire en composante principale (kernel PCA) Kernel PCA Projection : Φ : R n H x Φ(x) Matrice de covariance dans H : C Φ(x) = 1 N N Φ(x i )Φ(x i ) T Résoudre : λv Φ = C Φ(x) v Φ Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
36 Analyse non-linéaire en composante principale (kernel PCA) Kernel PCA Projection : Φ : R n H x Φ(x) Matrice de covariance dans H : C Φ(x) = 1 N N Φ(x i )Φ(x i ) T Résoudre : λv Φ = C Φ(x) v Φ N Φ(x i )Φ(x i ) T v Φ = 1 N Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
37 Analyse non-linéaire en composante principale (kernel PCA) Kernel PCA Projection : Φ : R n H x Φ(x) Matrice de covariance dans H : C Φ(x) = 1 N N Φ(x i )Φ(x i ) T Résoudre : λv Φ = C Φ(x) v Φ N Φ(x i )Φ(x i ) T v Φ = 1 N = 1 N N Φ(x i ), v Φ H Φ(x i ) Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
38 Analyse non-linéaire en composante principale (kernel PCA) Kernel PCA v Φ est généré par les Φ(x i ) : v Φ = N α i Φ(x i ) Ré-écriture : λv Φ = 1 N N Φ(xi ), v Φ H Φ(x i ) λ N α iφ(x i ) = 1 N Φ(xi ), N α N jφ(x j ) H Φ(x i ) λ N α iφ(x i ) = 1 N N α j Φ(x i ), Φ(x j ) H Φ(x i ) N m=1 Φ(x m),. H λ N m=1 α i Φ(x i ), Φ(x m ) H = 1 N N m=1 α j Φ(x i ), Φ(x j ) H Φ(x i ), Φ(x m ) H Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
39 Analyse non-linéaire en composante principale (kernel PCA) Kernel PCA K la matrice N N, K ij := Φ(x i ), Φ(x j ) H On obtient : Les solutions α sont trouvées par : λkα = 1 N K 2 α λα = 1 N Kα Connaître α connaître v Φ Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
40 Analyse non-linéaire en composante principale (kernel PCA) Kernel PCA Preuve. α = p a pβ p, solution de λkα = 1 N K2 α Nλ p a pµ p β p = p a pµ 2 pβ p p, Nλ = µ p ou a p = 0 ou µ p = 0 α = p a pβ p, solution de λα = 1 N Kα Nλ p a pβ p = p a pµ p β p p, Nλ = µ p ou a p = 0 α = β p µ p = 0. On a Kα = 0 i : j K ijα j = 0 i : j Φ(xi ), Φ(x j ) H α j = 0 i : Φ(x i ), j α jφ(x j ) H = 0 Le vecteur propre de C Φ(x) associé à β p µ p = 0 n est pas pertinent. Projection : N Φ(x) k kpc = vφ, k Φ(x) H = αi k Φ(x i ), Φ(x) H Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
41 Analyse non-linéaire en composante principale (kernel PCA) Kernel PCA Preuve. α = p a pβ p, solution de λkα = 1 N K2 α Nλ p a pµ p β p = p a pµ 2 pβ p p, Nλ = µ p ou a p = 0 ou µ p = 0 α = p a pβ p, solution de λα = 1 N Kα Nλ p a pβ p = p a pµ p β p p, Nλ = µ p ou a p = 0 α = β p µ p = 0. On a Kα = 0 i : j K ijα j = 0 i : j Φ(xi ), Φ(x j ) H α j = 0 i : Φ(x i ), j α jφ(x j ) H = 0 Le vecteur propre de C Φ(x) associé à β p µ p = 0 n est pas pertinent. Projection : N Φ(x) k kpc = vφ, k Φ(x) H = αi k Φ(x i ), Φ(x) H Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
42 Analyse non-linéaire en composante principale (kernel PCA) Kernel PCA Preuve. α = p a pβ p, solution de λkα = 1 N K2 α Nλ p a pµ p β p = p a pµ 2 pβ p p, Nλ = µ p ou a p = 0 ou µ p = 0 α = p a pβ p, solution de λα = 1 N Kα Nλ p a pβ p = p a pµ p β p p, Nλ = µ p ou a p = 0 α = β p µ p = 0. On a Kα = 0 i : j K ijα j = 0 i : j Φ(xi ), Φ(x j ) H α j = 0 i : Φ(x i ), j α jφ(x j ) H = 0 Le vecteur propre de C Φ(x) associé à β p µ p = 0 n est pas pertinent. Projection : N Φ(x) k kpc = vφ, k Φ(x) H = αi k Φ(x i ), Φ(x) H Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
43 Analyse non-linéaire en composante principale (kernel PCA) Kernel PCA Matrice de Gram : Matrice de tout les produits scalaires possibles. Φ(x 1 ), Φ(x 1 ) H Φ(x 1 ), Φ(x 2 ) H... Φ(x 1 ), Φ(x N ) H Φ(x 2 ), Φ(x 1 ) H Φ(x 2 ), Φ(x 2 ) H... Φ(x 2 ), Φ(x N ) H K = Φ(x N ), Φ(x 1 ) H Φ(x N ), Φ(x 2 ) H... Φ(x N ), Φ(x N ) H Matrice noyau (kernel matrix) : k(x 1, x 1 ) k(x 1, x 2 )... k(x 1, x N ) k(x 2, x 1 ) k(x 2, x 2 )... k(x 2, x N ) K = k(x N, x 1 ) k(x N, x 2 )... k(x N, x N ) Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
44 Analyse non-linéaire en composante principale (kernel PCA) Kernel PCA Algorithme 1 Construire et centrer K 2 Diagonaliser K 3 Normalisation des vecteurs propres : λ k α k, α k = 1 4 Projection sur k ieme KPC : N Φ(x) k kpc = αi k k(x i, x) Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
45 Analyse non-linéaire en composante principale (kernel PCA) Application Un autre exemple originale 2 premières kpc Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
46 Analyse non-linéaire en composante principale (kernel PCA) Application Application aux images hyperspectrales : pc1 pc2 kpc1 kpc2 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
47 Conclusions 1 Présentation Générale Les Données Idée Principale Un exemple linéairement séparable Un exemple non-linéairement séparable 2 Fonctions noyaux Théorème Démonstration Quelques noyaux semi-défini positif 3 Analyse non-linéaire en composante principale (kernel PCA) Analyse en composante principale Kernel PCA Application 4 Conclusions Pour - Contre Autres méthodes Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
48 Conclusions Pour - Contre Avantages : Fondement théorique Analyse non linéaire Utilisation d a priori pour les noyaux Implémentation facile Inconvénients : Stockage Kernel Matrice Boîte noire de certain noyaux (RBF) Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
49 Conclusions Autres méthodes Kernel ICA Kernel Fisher discriminant analysis Support Vector Machines Kernel Maximum Likelyhood Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
50 Conclusions Autres méthodes Méthodes à Noyaux pour L analyse de Données Mathieu Fauvel gipsa-lab 19 janvier 2007 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier / 39
Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Plus en détail1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailUniversité Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications
Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au
Plus en détailApprentissage non paramétrique en régression
1 Apprentissage non paramétrique en régression Apprentissage non paramétrique en régression Résumé Différentes méthodes d estimation non paramétriques en régression sont présentées. Tout d abord les plus
Plus en détailCalcul fonctionnel holomorphe dans les algèbres de Banach
Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte
Plus en détailFonctions de plusieurs variables. Sébastien Tordeux
Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................
Plus en détailCalcul différentiel. Chapitre 1. 1.1 Différentiabilité
Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace
Plus en détailCapes 2002 - Première épreuve
Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailCalcul différentiel sur R n Première partie
Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailwww.h-k.fr/publications/objectif-agregation
«Sur C, tout est connexe!» www.h-k.fr/publications/objectif-agregation L idée de cette note est de montrer que, contrairement à ce qui se passe sur R, «sur C, tout est connexe». Cet abus de langage se
Plus en détailFONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Plus en détailCours 02 : Problème général de la programmation linéaire
Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailStructures algébriques
Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe
Plus en détailThéorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailFonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Plus en détailRO04/TI07 - Optimisation non-linéaire
RO04/TI07 - Optimisation non-linéaire Stéphane Mottelet Université de Technologie de Compiègne Printemps 2003 I Motivations et notions fondamentales 4 I1 Motivations 5 I2 Formes quadratiques 13 I3 Rappels
Plus en détail* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours
Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****
Plus en détailAmphi 3: Espaces complets - Applications linéaires continues
Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite
Plus en détailExemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions
Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions HQ = He 1 He 2 He 3 He 4 HQ e 5 comme anneaux (avec centre Re 1 Re 2 Re 3 Re 4
Plus en détailChapitre VI - Méthodes de factorisation
Université Pierre et Marie Curie Cours de cryptographie MM067-2012/13 Alain Kraus Chapitre VI - Méthodes de factorisation Le problème de la factorisation des grands entiers est a priori très difficile.
Plus en détailAnalyse en Composantes Principales
Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées
Plus en détailProgrammation linéaire et Optimisation. Didier Smets
Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des
Plus en détailUn K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E
Exo7 Espaces vectoriels Vidéo partie 1. Espace vectoriel (début Vidéo partie 2. Espace vectoriel (fin Vidéo partie 3. Sous-espace vectoriel (début Vidéo partie 4. Sous-espace vectoriel (milieu Vidéo partie
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailExo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.
Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailChapitre 3. Mesures stationnaires. et théorèmes de convergence
Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée
Plus en détail3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailLa fonction exponentielle
DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailOM 1 Outils mathématiques : fonction de plusieurs variables
Outils mathématiques : fonction de plusieurs variables PCSI 2013 2014 Certaines partie de ce chapitre ne seront utiles qu à partir de l année prochaine, mais une grande partie nous servira dès cette année.
Plus en détailDe même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que
Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailPolynômes à plusieurs variables. Résultant
Polynômes à plusieurs variables. Résultant Christophe Ritzenthaler 1 Relations coefficients-racines. Polynômes symétriques Issu de [MS] et de [Goz]. Soit A un anneau intègre. Définition 1.1. Soit a A \
Plus en détailPremiers exercices d Algèbre. Anne-Marie Simon
Premiers exercices d Algèbre Anne-Marie Simon première version: 17 août 2005 version corrigée et complétée le 12 octobre 2010 ii Table des matières 1 Quelques structures ensemblistes 1 1.0 Ensembles, relations,
Plus en détailExercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Plus en détailINTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES
INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailApproximations variationelles des EDP Notes du Cours de M2
Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation
Plus en détailCorrection du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Plus en détailFonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples
45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailCalcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.
1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le
Plus en détailChapitre VI Fonctions de plusieurs variables
Chapitre VI Fonctions de plusieurs variables 6. 1 Fonctions différentiables de R 2 dans R. 6. 1. 1 Définition de la différentiabilité Nous introduisons la différentiabilité sous l angle des développements
Plus en détailCorrection de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
Plus en détailhttp://cermics.enpc.fr/scilab
scilab à l École des Ponts ParisTech http://cermics.enpc.fr/scilab Introduction à Scilab Graphiques, fonctions Scilab, programmation, saisie de données Jean-Philippe Chancelier & Michel De Lara cermics,
Plus en détailFonctions de plusieurs variables et applications pour l ingénieur
Service Commun de Formation Continue Année Universitaire 2006-2007 Fonctions de plusieurs variables et applications pour l ingénieur Polycopié de cours Rédigé par Yannick Privat Bureau 321 - Institut Élie
Plus en détailCours de mathématiques
DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................
Plus en détailThéorèmes de Point Fixe et Applications 1
Théorèmes de Point Fixe et Applications 1 Victor Ginsburgh Université Libre de Bruxelles et CORE, Louvain-la-Neuve Janvier 1999 Published in C. Jessua, C. Labrousse et D. Vitry, eds., Dictionnaire des
Plus en détailExercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.
14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,
Plus en détailDifférentiabilité ; Fonctions de plusieurs variables réelles
Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détailExtrait du poly de Stage de Grésillon 1, août 2010
MINI-COURS SUR LES POLYNÔMES À UNE VARIABLE Extrait du poly de Stage de Grésillon 1, août 2010 Table des matières I Opérations sur les polynômes 3 II Division euclidienne et racines 5 1 Division euclidienne
Plus en détailFonctions de plusieurs variables
Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les
Plus en détailFonctions de plusieurs variables et changements de variables
Notes du cours d'équations aux Dérivées Partielles de l'isima, première année http://wwwisimafr/leborgne Fonctions de plusieurs variables et changements de variables Gilles Leborgne juin 006 Table des
Plus en détailDérivées d ordres supérieurs. Application à l étude d extrema.
Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailThéorie de l estimation et de la décision statistique
Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory
Plus en détailCours d Analyse 3 Fonctions de plusieurs variables
Université Claude Bernard, Lyon I Licence Sciences, Technologies & Santé 43, boulevard 11 novembre 1918 Spécialité Mathématiques 69622 Villeurbanne cedex, France L. Pujo-Menjouet pujo@math.univ-lyon1.fr
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détail[http://mp.cpgedupuydelome.fr] édité le 30 avril 2015 Enoncés 1
[http://mpcpgedupuydelomefr] édité le 3 avril 215 Enoncés 1 Exercice 1 [ 265 ] [correction] On note V l ensemble des matrices à coefficients entiers du type a b c d d a b c c d a b b c d a et G l ensemble
Plus en détailI - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et
Plus en détailLe Modèle Linéaire par l exemple :
Publications du Laboratoire de Statistique et Probabilités Le Modèle Linéaire par l exemple : Régression, Analyse de la Variance,... Jean-Marc Azaïs et Jean-Marc Bardet Laboratoire de Statistique et Probabilités
Plus en détailApprentissage Automatique
Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
Plus en détailIntégration sur des espaces produits
Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure
Plus en détailSuites numériques 3. 1 Convergence et limite d une suite
Suites numériques 3 1 Convergence et limite d une suite Nous savons que les termes de certaines suites s approchent de plus en plus d une certaine valeur quand n augmente : par exemple, les nombres u n
Plus en détailExercices Corrigés Premières notions sur les espaces vectoriels
Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3
Plus en détailThéorie et codage de l information
Théorie et codage de l information Les codes linéaires - Chapitre 6 - Principe Définition d un code linéaire Soient p un nombre premier et s est un entier positif. Il existe un unique corps de taille q
Plus en détailCours d analyse numérique SMI-S4
ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,
Plus en détailPremière partie. Introduction à la méthodes des différences finies
Première partie Introduction à la méthodes des différences finies 5 7 Introduction Nous allons présenter dans cettte partie les idées de base de la méthode des différences finies qui est sans doute la
Plus en détailIntroduction à l étude des Corps Finis
Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur
Plus en détailContinuité d une fonction de plusieurs variables
Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailChapitre 0 Introduction à la cinématique
Chapitre 0 Introduction à la cinématique Plan Vitesse, accélération Coordonnées polaires Exercices corrigés Vitesse, Accélération La cinématique est l étude du mouvement Elle suppose donc l existence à
Plus en détailEnjeux mathématiques et Statistiques du Big Data
Enjeux mathématiques et Statistiques du Big Data Mathilde Mougeot LPMA/Université Paris Diderot, mathilde.mougeot@univ-paris-diderot.fr Mathématique en Mouvements, Paris, IHP, 6 Juin 2015 M. Mougeot (Paris
Plus en détailTABLE DES MATIÈRES CHAPITRE I. Les quanta s invitent
TABLE DES MATIÈRES AVANT-PROPOS III CHAPITRE I Les quanta s invitent I-1. L Univers est en constante évolution 2 I-2. L âge de l Univers 4 I-2.1. Le rayonnement fossile témoigne 4 I-2.2. Les amas globulaires
Plus en détailUne comparaison de méthodes de discrimination des masses de véhicules automobiles
p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans
Plus en détailThèse. Mathieu RAMONA
Thèse présentée pour obtenir le grade de docteur de l Ecole Télécom ParisTech Spécialité : Signal et Images Mathieu RAMONA Classification automatique de flux radiophoniques par Machines à Vecteurs de Support
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailFonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
Plus en détailExercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA
75. Un plombier connaît la disposition de trois tuyaux sous des dalles ( voir figure ci dessous ) et il lui suffit de découvrir une partie de chacun d eux pour pouvoir y poser les robinets. Il cherche
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailExercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT
Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,
Plus en détailMA6.06 : Mesure et Probabilités
Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................
Plus en détailOptimisation Discrète
Prof F Eisenbrand EPFL - DISOPT Optimisation Discrète Adrian Bock Semestre de printemps 2011 Série 7 7 avril 2011 Exercice 1 i Considérer le programme linéaire max{c T x : Ax b} avec c R n, A R m n et
Plus en détailDurée de L épreuve : 2 heures. Barème : Exercice n 4 : 1 ) 1 point 2 ) 2 points 3 ) 1 point
03 Mai 2013 Collège Oasis Durée de L épreuve : 2 heures. apple Le sujet comporte 4 pages et est présenté en livret ; apple La calculatrice est autorisée ; apple 4 points sont attribués à la qualité de
Plus en détailAnalyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57
Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation
Plus en détailLimitations of the Playstation 3 for High Performance Cluster Computing
Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détailAnalyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe
Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe des n n groupes quantiques compacts qui ont la théorie
Plus en détailModel checking temporisé
Model checking temporisé Béatrice Bérard LAMSADE Université Paris-Dauphine & CNRS berard@lamsade.dauphine.fr ETR 07, 5 septembre 2007 1/44 Nécessité de vérifier des systèmes... 2/44 Nécessité de vérifier
Plus en détailTests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA
Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université
Plus en détail