Vision Par Ordinateur James L. Crowley DEA IVR Premier Bimestre 2000/200 Séance 3 2 Novembre 2000 Plan de la Séance : Perception de la Couleur Les Espace de la Couleur...2 La Perception de la couleur...2 l'espace RVB...7 l'espace CMY...7 L'espace YIQ...8 L'espace TLS...9 L'histogramme de la chrominance... Reconnaissance par la Règle de Bayes... 2 3-
Les Espace de la Couleur La Perception de la couleur Nerf Optique Fovéa (cônes) Périphéríe (bâtonnets) Fovéa Cornéa Spectre de la lumière visible pour l'homme : 380 spectre des lumières visibles 720 Ultra- Violet Violet bleu vert jaune orange rouge infrarouge 300 400 500 600 700 800 nm Le système humain est composé de bâtonnets et de cônes. Les bâtonnets sont responsables de la perception achromatique et des lumières atténuées. Ils sont formés d'une pigmentation, la rhodopsine, sensible à tout le spectre, avec un sensibilité maximum de 50 nm (vert). Ils sont dans la périphérie de la rétine, et donnent une perception de plus faible résolution. 3-2
Les cônes sont responsables de notre vision chromatique. Ils sont concentrés dans une zone appelée la fovéa. Il y a trois sortes de cônes, distingués par leurs pigments : cyanolabe α (445 nm), chlorolabe β (535 nm), et erythrolabe γ (570 nm) Reponse Relative β γ 0.5 α 300 400 500 600 700 800 nm λ La transformation entre stimuli de cônes et perception de couleur est un phénomène perceptuel qui n'est pas encore bien modélisé. 3-3
La sensitivité des caméras S( λ) CCD Vidicon 400 600 800 000 Intensité de lumière perçue : nm λ elle dépend : et du spectre de la source : S(λ) de la réflectance d'un point i,j de la scène vue : P(i, j, λ) du spectre de réceptivité de la caméra, c(λ) p(i,j) = p o P(i, j, λ) S( λ) c(λ) dλ 0 po est le Gain. P(i, j, λ) est le cône "vue" par le pixel i, j. 3-4
Caméra couleur "classique" : retine retine filtre Miroir Partiel filtre filtre retine Les filtres suivent un standard defini par la IIC (International Illumination Commision ). Ils sont des fonctions de λ : b(λ), g(λ), et r(λ). Note : ils sont composés d'un autre ensemble de fonctions, x(λ), y(λ), z(λ). Ceci permet la valeur négative de r(λ). 0.3 bleu λ b( ) vert rouge λ r( ) 0.2 g( λ ) 0. 300 400 500 600 700 800-0. nm λ 3-5
Un pixel "couleur" est défini par : oú : ou bien : R(i,j) P (i,j) = V(i,j) B(i,j) R(i,j) = ro P(i, j, λ) S(λ) r(λ) dλ 0 V(i,j) = go P(i, j, λ) S(λ) g(λ) dλ 0 B(i,j) = bo P(i, j, λ) S(λ) b(λ) dλ 0 R = V = B = ro S(λ) r(λ) dλ 0 go S(λ) g(λ) dλ 0 bo S(λ) b(λ) dλ 0 Donc, la couleur est une projections de la spectre sur les spectres des recepteurs. On ne peut pas percevoir la spectre d'une manière directe. 3-6
Les Espaces de la Couleur l'espace RVB Les signaux d'une caméra vidéo nous donnent un espace RVB. RVB est un espace ADDITIF. magenta B bleu R rouge blanc noir cyan jaune vert Axe Achromatique Triangle de Maxwell [R + V + B = ] V Plan Chromatique "complémentaire" [R + V + B = 2] L'axe achromatique est R = V = B l'espace CMY Une page est imprimé avec les pigments. Les pigments sont "soustractifs". Ils absorbe les photons. On utilise l'espace : CMY : "Cyan-Magenta-Yellow". C M Y = R max R V max V B max B CMYK est une variation de CMY dans lequel on ajoute du noir (k). 3-7
L'espace YIQ Le norme TV NTSC des États-Unis utilise l'encodage Y I Q : Y I Q = Approximation de : 0.30 0.59 0. R 0.60 0.28 0.32 0.2 0.52-0.3 G B Y = Luminance I = rouge - cyan Q = magenta - vert Les téléviseurs noir et blanc n'affiche que Y. 3-8
L'espace TLS (en anglais Hue Luminance Saturation - HLS) Pour mieux modéliser la perception de la couleur, nous pouvons transformer l'espace RVB dans l'espace TLS, composé de teinte, luminance, et saturation : Axe de Luminance Plan Chromatique S T L luminance : L = (R + V + B ) Normalisation des couleurs : r = R/ L v = V/ L b = B/ L saturation : - 3*min(R, G, B)/L 2 [(R-V) + (R - B)] teinte : x = Cos- (R-V)2 + (R-B)(V-B) puis si b v alors T = x si b > v alors T = 2π - x 3-9
La Distribution de la Couleur d'une Surface Qu'est-ce que la couleur d'un reflet? Réponse : la couleur de la source. Qu'est-ce qui fait la frontière d'un reflet? Le corps d'une surface a la couleur de ses pigments. Le reflet a la couleur de la source. La frontière donne une transition : B Couleur du Objet Couleur de la Lumiere R V On peut detecter les deux axes a partir d'une histogramme de couleur. Une histogramme de couleur est une tableau listant le fréquence d'occurence pour chaque triple (R, G, B) dans l'image. On alloue un tableau 3D de taille N h (exemple 32 x 32x 32 = 32 K cellules : R(i, j) h(r, V, B). Pour chaque pixel C = c(i, j) = V(i, j), on incrémente la cellule de B(i, j) l'histogramme qui correspond à (R, V, B) h(r, V, B) := h(r, V, B) + 3-0
L'histogramme de la chrominance L'axe achromatique definit la luminance, L L = R + V + B Normalisation par la luminence laisse deux axe chromatique : r, v r = R R+V+B v = V R+V+B Un histogramme de couleur peut fournir une estimation de la densité de probabilité pour les couleurs. Ceci permet de detecter les pixels qui sont les images d'un objet, par exemple, la peau humaine. On alloue un tableau 2D de taille N h (exemple 32 x 32 = 024 cellules : h(r, v). Pour chaque pixel C = c(i, j) = r(i, j) v(i, j), on incrémente la cellule de l'histogramme qui correspond à (r, v) h(r, v) := h(r, v) + Un histogramme des couleurs, h(c), de N pixels donne une approximation de la probabilité de chaque couleur p(c) = Lim N { N h(c)} Un histogramme des de couleurs, h tot (C), de les N tot pixels dans une l'image donne une approximation de la probabilité de chaque couleur dans l'image. p(c) N tot h tot (C) Un histogramme des de couleurs d un objet, h o (C), de les N o pixels dans une région d'une image de l'objet, w(i, j), donne une approximation de la probabilité de chaque couleur de l'objet. p(c objet ) N o h o (C) 3-
Reconnaissance par la Règle de Bayes. L histogramme permet d'utiliser la règle de Bayes afin de calculer la probabilité qu'un pixel corresponde à un objet. Pour chaque pixel C(i, j) p(objet C) = p( C objet ) p(objet) p(c) Soit M images de N pixels. Ceci fait N tot Pixels. Soit h tot (r, v), l'histogramme de tous les N tot pixels. Soit h o (r, v), l'histogramme des N o pixels de l'objet "o". p(objet) = N o N tot p(c) = N h tot (r, v) tot p(c objet ) = N o h o (C) Donc p(objet C) = p( C objet ) p(objet) p(c) p(objet C) = h o (C) h tot (C) = N o h o (C) N o N tot N h tot (C) tot Cependant, il faut assurer que h tot (C) 0!! Pour cela il faut que N tot >> N h (nombre de cellules de l'histogramme.). Ainsi, on peut créer une image de probabilité de l'objet. En peut ensuite déterminer un seuil pour l image de probabilité. 3-2
Caractérisation par moments On peut définir les caractéristiques "invariantes" de l'orientation avec des "moments de la forme. Les moments sont invariants autransformations affines. Pour une image w(i, j) de taille N x M Somme des Pixels : Premiers moments : M N S = w(i, j) i=0 j=0 µ i = S M N w(i, j). i µ j = i=0 j=0 S M N i=0 j=0 w(i, j). j Le premier moment est le centre de gravité de la forme : Deuxième moment : σ i 2 = S M N (w(i, j)).(i µ i ) 2 σ j 2 = i=0 j=0 S M N w(i, j).(j µ j ) 2 i=0 j=0 σ ji 2= S M N w(i, j).(i µ i )(j µ j ) i=0 j=0 Ceci permet de définir les "axes", majeur, λ et mineur, λ 2, de la forme par analyse des composantes principales de la deuxième moment C o σ i 2 σ ij 2 σ ij 2 σ j 2 λ2 λ Les deuxièmes moments sont "invariants" à l orientation Composantes principales Les axes sont calculés par une analyse en composantes principales 3-3
de la matrice C. Il s'agit de trouver une rotation, dans l'espace de caractéristiques C P = telles que soit diagonale. λ 0 0 λ tel que λ 2 > λ 2 = Cos(θ) Sin(θ) Sin(θ) Cos(θ) λ 0 C P = 0 λ = I = 0 2 0 λ 0 C P = C P 0 λ 2 Cos(θ) Sin(θ) Sin(θ) Cos(θ) Les lignes du sont des vecteurs propres du C. La longueur des axes majeur et mineur est les valeurs propres de la matrice C. θ est l'orientation de l'axe "majeur" et λ / λ 2 est le rapport entre la longueur et la largeur. λ / λ 2 est une caractéristique invariante de la taille et de l'orientation. 3-4