Normalisation et validation d images de documents capturées en mobilité

Dimension: px
Commencer à balayer dès la page:

Download "Normalisation et validation d images de documents capturées en mobilité"

Transcription

1 Normalisation et validation d images de documents capturées en mobilité Marçal Rusiñol * Joseph Chazalon Jean-Marc Ogier Laboratoire L3i, Université de La Rochelle Avenue Michel Crépeau, La Rochelle Cédex 1, France * Computer Vision Center, Dept. Ciències de la Computació Edifici O, Universitat Autònoma de Barcelona, Bellaterra (Barcelona), Spain RÉSUMÉ. La numérisation de documents à l aide des smartphones introduit un nombre important de dégradations qui doivent être corrigées ou détectées sur le mobile, avant l envoi de données sur un réseau payant ou la perte de disponibilité du document. Dans cet article, nous proposons un système permettant de corriger les problèmes de perspective et d illumination avant d estimer la netteté de l image pour un traitement OCR. L étape corrective repose sur une détection des contours, suivie d une normalisation de l illumination. Son évaluation sur un jeu de données privé montre une amélioration franche des résultats OCR. L étape de contrôle repose sur une combinaison de mesures de focus. Son évaluation sur un jeu de données public montre que cette approche simple donne des performances comparables à celles des meilleures méthodes basées sur des traitements lourds, et surpasse les méthodes basées sur des métriques. ABSTRACT. Mobile document image acquisition integrates many distortions which must be corrected or detected on the device, before the document becomes unavailable or paying data transmission fees. In this paper, we propose a system to correct perspective and illumination issues, and estimate the sharpness of the image for OCR recognition. The correction step relies on fast and accurate border detection followed by illumination normalization. Its evaluation on a private dataset shows a clear improvement on OCR accuracy. The quality assessment step relies on a combination of focus measures. Its evaluation on a public dataset shows that this simple method compares well to state of the art, learning-based methods which cannot be embedded on a mobile, and outperforms metric-based methods. MOTS-CLÉS : acquisition d image de document avec mobile ; correction de perspective ; correction d illumination ; estimation de qualité ; mesure de focus ; prédiction de la fiabilité OCR KEYWORDS: mobile document image acquisition; perspective correction; illumination correction; quality assessment; focus measure; OCR accuracy prediction CIFED 2014, pp , Nancy, mars 2014

2 110 M. Rusiñol, J. Chazalon, J.-M. Ogier 1. Introduction L acquisition d images de documents avec des périphériques mobiles, les smartphones en particulier, est devenu un point d entrée essentiel dans les chaînes de traitement documentaires industrielles. Malgré l attrait évident de la numérisation à la volée et le transfert quasi instantané des images de documents, trois défis majeurs restent à surmonter pour libérer le potentiel de la capture mobile d images de documents. Les distorsions de numérisation sont, dans le cas d images de documents capturées avec un dispositif mobile, la principale cause de perturbation du signal de l image. Parmi les distorsions les plus courantes, le flou provoqué par un mauvais focus est particulièrement délicat. Il modifie sérieusement la lisibilité, à la fois pour les humains et les systèmes OCR, et l utilisateur a peu de contrôle sur lui car il est lié au comportement interne de l appareil, contrairement au flou de mouvement, à la distorsion de perspective ou aux conditions d éclairage. Pour éviter de mauvaises performances dans le traitement des documents, la lisibilité d une image de document capturée avec un mobile doit donc être optimisée et contrôlée le plus tôt possible dans le processus. Les frais de communication des réseaux mobiles imposent une sélection rigoureuse sur les images à transférer. Par conséquent, le contrôle de la lisibilité doit être effectué sur le dispositif mobile, avant l envoi de données. La mobilité change la façon dont les utilisateurs capturent les documents : l opportunité de numériser un document peut être temporaire. Tout contrôle sur les images capturées doit donc être effectué pendant ou juste après la capture, pour éviter de manquer l occasion d une autre capture. Il est alors nécessaire de viser un contrôle aussi rapide que possible, en temps réel idéalement, pour débloquer progressivement différents niveaux d assistance à la capture tels que : 1) la notification à l utilisateur d une mauvaise capture, ainsi que l - explication de cette évaluation ; 2) le déclenchement automatique de la capture lorsque les conditions de capture sont optimales ; 3) le guidage de l utilisateur lors de la capture à l aide d indications précises telles que «rapprochez l appareil du document», ou «l éclairage est trop faible», comme suggéré dans (Chen et al., 2013a). Dans cet article, nous présentons un prototype de système d acquisition d images de documents destinés à un traitement OCR. Ce système permet la productions d images où les distorsions liées à la perspective, à l éclairage et au flou sont maîtrisées. Une première étape corrective, présentée en section 2, permet de corriger la perspective de l image et son illumination afin d optimiser de la qualité de l image avant l évaluation de cette dernière. Les résultats en terme de performance OCR montrent le gain apporté par cette étape. Une seconde étape de contrôle, présentée en section 3, permet prédire la fiabilité attendue d un système OCR à l aide d une analyse du focus de l image et donc, indirectement, des conditions de capture (on fait l hypothèse que la qualité intrinsèque du document est suffisante). La technique proposée dans cette étape se base sur évaluation de mesures de focus jamais testées (à notre connaissance) sur des images de documents. Elle présente des performances comparables aux

3 Normalisation et validation d images de documents capturées en mobilité 111 meilleures techniques basées sur des algorithmes lourds, tout en étant rapide et simple à calculer. 2. Correction de la perspective et de l illumination Les images de documents capturées avec un dispositif mobile contiennent, en plus d une région représentant la page, une portion du fonds. De plus, si le dispositif de capture n est pas orthogonal au plan de la page, une déformation liée à la perspective sera visible. Ces deux perturbations peuvent dégrader très sérieusement la performance d un système OCR. Par ailleurs, l éclairage de la scène peut être affecté par l utilisation d un illuminant «non standard» qui provoquera, après une capture avec un mobile, des teintes bleuâtres ou verdâtres à la place de la teinte blanche attendue du papier. Ce changement dans l espace de couleur peut, lui aussi, avoir un effet négatif sur la performance des systèmes OCR conçus pour traiter des images numérisées à l aide de scanners avec lesquels ces artéfacts sont négligeables. Cette section présente les deux solutions proposées afin de faire face à ces défauts de perspective et d illumination Correction de la perspective Depuis quelques années, on peut trouver dans la littérature un bon nombre de publications qui traitent de la segmentation des pages acquises avec des dispositifs mobiles et de la correction des effets de perspective, comme par exemple (Clark et Mirmehdi, 2001 ; Lu et al., 2005 ; Jagannathan et Jawahar, 2005 ; Rodríguez-Piñeiro et al., 2011). La plupart de ces travaux visent soit à détecter les points de fuite horizontaux et verticaux en se basant sur les lignes horizontales du texte et les éléments verticaux des glyphes du texte, soit à détecter les quatre coins de la page pour essayer ensuite de transformer le quadrilatère trouvé en un rectangle parfait. Puisque la numérisation de pages A4 complètes est un scénario courant, nous avons décidé d attaquer le problème en essayant d extraire la page (supposée complète) en détectant ses bords et ses quatre coins. Pour détecter les bords de la page, on utilise un détecteur de contours classique comme la méthode de Canny. Au préalable, on traite l image avec un filtre médian, avec un élément structurant assez large afin d éliminer le texte imprimé et ne conserver que le fond. La figure 1 illustre ce processus. Une fois la détection des contours de la page réalisée, on procède à la détection de ses quatre coins. Au lieu d utiliser directement un détecteur de coins comme celui de Harris, nous cherchons d abord à identifier les bords de la page à l aide la transformée de Hough (Ballard, 1981). Ceci a l avantage de permettre une détection des coins même lorsque ceux-ci ne sont pas visibles dans l image, dès lors qu une partie de chacun des quatre bords est présente dans l image.

4 112 M. Rusiñol, J. Chazalon, J.-M. Ogier a) b) c) Figure 1. Exemple d extraction des contours. a) Image originale, b) image traitée avec le filtre médian, c) image des contours détectés par la méthode de Canny. Lors de la sélection des paramètresρetθ de la transformée de Hough, il faut tenir compte de l influence du facteur de quantification dans l espace de vote : une quantification grossière aura tendance à provoquer davantage d erreurs dans la détection des lignes, tandis qu en diminuant la taille des bins on fait progressivement apparaître plusieurs lignes candidates pour une même zone de l image. Dans notre cas, on favorise la sur-segmentation des lignes. Une fois ces lignes détectées, on les analyse deux à deux pour calculer l angle qu elles forment entre elles. Si l angle entre deux lignes est extrêmement aigu ou grave, on écarte cette paire qui correspond à des lignes presque parallèles qui se croisent. Dans tous les autres cas, on génère l ensemble des points d intersection pour former les candidats à la représentation de chacun des quatre coins de la page. Le résultat de ce processus d extraction de lignes est illustré par la figure 2. Une fois l ensemble des points candidats identifiés, il faut commencer par les affecter à un quadrant de la page, afin de déterminer s il s agit d un candidat pour le coin haut gauche, haut droit, etc. Il suffit pour cela de calculer les coordonnées du centre de gravité du nuage de points candidats pour ensuite changer de repère et identifier le cadran de chaque point. Pour chacun de ces points, suivant leur cadran, on construit des couples associant leurs coordonnées dans l image d origine et celles dans l image cible : par exemple, si on cherche à numériser des pages A4 à 300 dpi, tous les points correspondant au quadrant haut gauche auraient comme point modèle le ; ceux du quadrant haut droit auraient le point ; et ainsi de suite. Finalement, on applique la méthode de RANSAC (Fischler et Bolles, 1981) aux couples ainsi formés afin de trouver la transformation à appliquer à l image acquise pour rectifier l effet de perspective, tout en éliminant les aberrations liées aux points détectés par erreur et ne correspondant à aucun coin. La figure 3 illustre quelques exemples de corrections de perspective à laquelle notre méthode aboutit.

5 Normalisation et validation d images de documents capturées en mobilité 113 a) b) c) Figure 2. Détection des bords et de coins de la page avec la transformée de Hough. a) Image originale, b) image des contours, c) lignes et croisements détectés. Figure 3. Exemples d images acquises avec un dispositif mobile avec des effets de perspective en haut, et les corrections correspondantes en bas Correction de l illumination Afin de corriger l illumination de l image, on adapte la méthode classique dite du monde gris (gray world assumption) au domaine de la numérisation de documents. Notre hypothèse de base est que le document à numériser consiste en une page idéalement blanche sur laquelle est imprimé un texte noir. Dans l algorithme original du monde gris, la couleur grise moyenne est calculée en prenant la moyenne de la valeur moyenne de chaque composante couleur. La valeur de chaque composante de l image est ensuite multipliée par la valeur de couleur grise

6 114 M. Rusiñol, J. Chazalon, J.-M. Ogier Image Image acquise Correction Correction scannée avec mobile perspective illumination Taux OCR 96.2% 66.29% 94.62% 95.23% Tableau 1. Taux de précision de l OCR en fonction du traitement. moyenne divisée par l intensité de cette composante de couleur. Ceci empêche une composante de contribuer beaucoup plus à l image qu une autre. Dans notre cas, au lieu d appliquer une translation de chaque composante couleur vers le gris moyen, on propose de réaliser cette translation vers une intensitéldonnée. On calculera donc le nouveau triplet(r,g,b ) à partir de R = R l R, G = G l Ḡ, B = B l B. Dans un second temps, on procède à un étirement de l histogramme de luminance de l image pour garantir que les valeurs les plus claires de l image sont bien représentées par un blanc pur, et que les valeurs les plus sombres correspondent bien à un noir parfait. Il faut commencer par convertir l image depuis l espace RGB vers un espace possédant une composante de luminance : Lab, LCH, LSV, etc. Ensuite, on applique une méthode d augmentation de contraste seulement dans le canal de luminance avec deux seuils de coupure pour les valeurs basses et hautes, respectivement l et h. L image est finalement retransformée à l espace RGB. En portant les paramètres l et h à la limite, on obtient des images qui semblent binaires, bien qu elles soient représentées dans un espace RGB. La figure 4 donne quelques exemples de résultats de cette méthode Résultats : effets des corrections sur la performance de l OCR Pour évaluer l effet des corrections proposées sur la performance d outils OCR, nous avons réalisé 35 captures d une même page, à l aide d un smartphone, avec plusieurs degrés de perspective et sous différentes illuminations. Pour disposer d une référence, nous avons également scanné cette page, et nous disposons de la vérité terrain pour le texte. Pour cette expérience, nous avons utilisé l OCR commercial AB- BYY FineReader. On peut apprécier, dans le tableau 1, l impact des corrections proposées sur le comportement de l OCR. FineReader montre en effet de faible performance pour les images acquises avec le smartphone qui présentent des déformations de perspective. Dans la plupart des cas, les erreurs sont dues à un échec de l étape de segmentation de la page ; les zones de texte étant considérées comme des images. Cependant, après correction de la perspective, on constate un fort gain en précision. Finalement, la cor-

7 Normalisation et validation d images de documents capturées en mobilité 115 Figure 4. Correction de l illumination des images. Pour chaque image, la vignette du haut est la version après correction de perspective, et celle du bas la version après correction de l illumination. rection de l illumination aide également FineReader et permet d obtenir des résultats très proches de ceux obtenus à partir de la version scannée du document. 3. Estimation de la qualité Dans cette section, nous décrivons la méthode d estimation de qualité (dans un objectif de traitement OCR) que nous proposons d appliquer aux images de documents capturées à l aide d un téléphone mobile, ainsi que les évaluations que nous avons réalisées. Cette méthode garantie que l image produite dispose d une netteté suffisante, et limite donc le risque de flou de focus délicat à maîtriser par l utilisateur. Cette estimation de la qualité a lieu, dans le scénario que nous considérons, après le pré-traitement de l image pour ne conserver que la partie concernant la page de document, où la perspective et l illumination ont été corrigées. Cette étape fait alors

8 116 M. Rusiñol, J. Chazalon, J.-M. Ogier office de barrière avant l envoi (souvent via un réseau payant) des images vers un service centralisé. Notons que si, dans sa version actuelle, notre méthode d estimation de la qualité intervient après la capture, il est possible d imaginer un fonctionnement plus interactif où des conseils pour l amélioration de la prise de vue pourraient être fournis une fois l image capturée, voire même pendant la capture comme proposé par (Chen et al., 2013b). Si le temps de traitement est suffisamment court, ce qui est ici une condition indispensable, il pourrait même être possible, à terme, de déclencher automatiquement la capture lorsqu un optimum est détecté dans la configuration de prise de vue. Il s agit donc d une estimation de qualité s intéressant spécifiquement aux conditions de capture, et non à la qualité intrinsèque d un document pour laquelle d autres méthodes existent depuis un certain temps à présent (Gonzalez et al., 1998). L estimation de la qualité d images de documents peut-être entendu de différentes façons, selon qu on dispose ou non d une référence pour comparaison. (Ye et Doermann, 2013) proposent ainsi de distinguer trois formes. Estimation de qualité avec référence complète Cette méthode est possible lorsque l image de référence est disponible, par exemple lors du contrôle du résultat d une compression. Estimation de qualité avec référence partielle Cette méthode repose sur la présence de marqueurs ou de mires de calibration, par exemple, dans l image capturée qui permet d estimer précisément les paramètres de la capture. Estimation de qualité sans référence Ce cas plus général est celui où la qualité de l image doit être estimée «à l aveugle», en se basant sur une connaissance à priori des propriétés attendues de l image. Dans notre cas, la capture d un document inconnu impose une estimation de qualité sans référence, afin de prédire le niveau de fiabilité d un système OCR État de l art Comme montré par (Ye et Doermann, 2013), peu de travaux ont été menés sur la prédiction du niveau de fiabilité des systèmes OCR pour des images de documents capturées avec appareil photo, caméras ou encore smartphones. La gestion spécifique du flou du focus n a fait l objet que de quelques études à notre connaissance. Une étude récente menée par (Kumar et al., 2013) compare les résultats de différentes méthodes à l aide d un jeu d images de documents spécifique. Le jeu de test utilisé par ces auteurs comporte, pour 25 documents différents, une série de captures faisant varier la distance focale de l appareil, et ainsi le flou de focus. Cette base est accessible publiquement, et nous l avons utilisée pour l évaluation de notre méthode. Parmi les trois méthodes comparées par les précédents auteurs, la méthode COR- NIA présentée par (Ye et Doermann, 2012 ; Ye et al., 2012), présente les meilleurs résultats. Elle est cependant basée sur une représentation éparse et une sélection automatique des caractéristiques, imposant des apprentissages lourds et des traitements

9 Normalisation et validation d images de documents capturées en mobilité 117 coûteux difficilement intégrables dans des smartphones. Les méthodes Q (proposée par (Zhu et Milanfar, 2010) et basée sur une décomposition en valeurs singulières) et DoM (proposée par (Kumar et al., 2012) et basée sur une métrique plus simple à base de gradients) présentent quant à elles des résultats plus modestes. Il ressort de cette étude que les méthodes adaptées au traitements de documents inconnus sont actuellement soit trop lourde pour être intégrées dans les smartphones, soit trop peu performantes. Une autre méthode, ne figurant pas dans l évaluation précédente, a été proposée par (Peng et al., 2011). Bien que l information produite par cette approche, destinée à faciliter la prise de décision relative à l image courante, soit particulièrement intéressante, la méthode proposée se base sur des caractéristiques définies manuellement considérant la forme du contour des caractères, ainsi que des rapports hauteur-largeur pour les mots et caractères. Ce type de caractéristiques limite, selon nous, le champs d application de cette méthode à une classe de documents textuels bien connus, et ne semble pas adaptée au traitement de documents inconnus. Il est donc nécessaire de rechercher d autres méthodes basées sur des métriques simples et rapides à calculer permettant d estimer efficacement la netteté d une image de document inconnu sans être spécifique à une classe de contenu particulière. Des travaux dans cette direction existent dans d autres communautés scientifiques, en particulier pour la mise au point d algorithmes d auto-focus (travaillant en temps réel). (Pertuz et al., 2013) proposent ainsi une comparaison de 36 mesures de focus classées en 6 familles présentant un comportement homogène selon le type de perturbation considéré. Le comportement de ces mesures sur des images de documents n a, à notre connaissance, jamais été étudié. Par ailleurs, ces mesures étant généralement très rapides à calculer, nous avons souhaité étudier la possibilité de les combiner pour aboutir à une méthode globale restant rapide à calculer, mais permettant de compenser les défauts des méthodes isolées, et ainsi mieux modéliser l évolution de la fiabilité d un système OCR Mesures de focus étudiées Dans (Pertuz et al., 2013), les auteurs distinguent 6 familles de mesures de focus aux comportements homogènes. Famille des méthodes «à base de gradients» Abrégée GRA pour «gradientbased», cette famille estime la netteté des contours du contenu de l image grâce à une analyse des gradients de cette dernière. Famille des méthodes «à base de laplacien» Abrégée LAP pour «Laplacianbased», cette famille vise le même objectif que la précédente, mais en utilisant la dérivée seconde ou le laplacien de l image. Famille des méthodes «à base d ondelettes» Abrégée WAV pour «waveletbased», cette famille construit des indicateurs grâce à une transformée en ondelettes de l image.

10 118 M. Rusiñol, J. Chazalon, J.-M. Ogier Mesure Abrév. Mesure Abrév. Gaussian derivative GRA1 Ratio of wavelet coefficients WAV3 Gradient energy GRA2 Gray-level variance STA3 Thresholded absolute gradient GRA3 Gray-level local variance STA4 Squared gradient GRA4 Normalized gray-level variance STA5 Tenengrad GRA6 Histogram entropy STA7 Tenengrad variance GRA7 Histogram range STA8 Energy of Laplacian LAP1 Brenner s measure MIS2 Modified Laplacian LAP2 Image curvature MIS4 Diagonal Laplacian LAP3 Helmli and Scherer s mean MIS5 Variance of Laplacian LAP4 Steerable filters-based MIS7 Sum of wavelet coefficients WAV1 Spatial frequency measure MIS8 Variance of wavelet coefficients WAV2 Vollath s autocorrelation MIS9 Tableau 2. Noms et abréviations des 24 mesures de focus extraites de (Pertuz et al., 2013) pour lesquelles nous avons recherché la combinaison optimale. Famille des méthodes «à base de transformée en cosinus discrète» Abrégée DCT pour «discrete cosine transform-based», cette famille, à l instar de la précédente, utilise l espace de représentation induit par la transformée en cosinus discrète pour extraire des indicateurs. Famille des méthodes «à base d indicateurs statistiques» Abrégée STA pour «statistic-based», cette famille utilise des analyses statistiques (moments, variance, etc.) pour extraire des indicateurs. Famille des méthodes «diverses» Abrégée MISC pour «miscellaneous-based», cette famille regroupe les méthodes qui ne rentrent dans aucune des catégories précédentes. Parmi les 36 mesures proposées par ces auteurs, nous en avons sélectionné 24, indiquées dans le tableau 2, pour lesquelles le temps de calcul était raisonnable au regard de notre scénario. Cette sélection a notamment provoqué l élimination des méthodes à base de transformée en cosinus discrète, trop coûteuses Combinaison des mesures Parmi les mesures présentées précédemment, il est difficile de savoir à priori quelles sont celles qui présenteront la meilleure corrélation avec la mesure de la fiabilité de l OCR, tout comme il est délicat de choisir comment combiner ces mesures pour palier leurs défauts respectifs. Pour résoudre ce problème, nous avons testé toutes les combinaisons possibles de ces 24 mesures. Soit n = 24 et S = {FM 1,FM 2,...,FM n } l ensemble de toutes les mesures de focus FM appliquées à une image de test donnée. Nous avons évalué toutes les

11 Normalisation et validation d images de documents capturées en mobilité 119 combinaisonst possibles de cet ensemble. On notet m, oùm [1, n], tous les sousensembles possibles de mesures formés en choisissant m éléments de S. En particulier,tm j (avecj [ 1, ( n m)] ), dénote lej-ième sous-ensemble possédant exactement m éléments. Ces combinaisons représentent plus de 16 millions de configurations différentes. Une fois un sous-ensemble de mesures de focus à combiner choisi, un double problème se pose alors : 1) comment normaliser les mesures pour qu elles produisent des valeurs dans un domaine cohérent ; et 2) comment fusionner ces valeurs pour produire un résultat unique Méthodes de normalisation Comme noté par (Kittler et al., 1998), il est nécessaire de normaliser les mesures pour que les domaines de valeurs de ces dernières soient comparables. Nous avons utilisé des techniques usuelles, présentées ci-après, dans nos expérimentations. Pour un ensemble de mesurest j m, nous notonst j m leur variante normalisée. Min-max Cette technique applique un facture de mise à l échelle et transforme la mesure pour qu elle renvoie des valeurs dans le domaine[0,1]. Soientmin(T j m) etmax(t j m) les minimum et maximum, respectivement, des scores. Tm j T j = m min(tm) j max(tm) min(t j m) j Cette méthode est très sensible aux points aberrants dans les données. Z-score Cette technique est une des plus couramment utilisées. Elle utilise la moyenne arithmétiqueµet l écart-typeσ des données considérées. Tm j T j = m µ σ L utilisation de la moyenne arithmétique et de l écart-type rend également cette méthode sensible aux points aberrants. Tanh Cette technique robuste et efficace est elle aussi basée sur la moyenne arithmétique et l écart-type. { [ Tm j 1 = tanh ( T j m µ σ )] } +1 MAD Les écarts médians et médians absolus utilisés par cette méthode sont insensibles aux points aberrants et aux extremums de la distribution. T j m = T j m median(t j m) median( T j m median(t j m) )

12 120 M. Rusiñol, J. Chazalon, J.-M. Ogier Stratégies de fusion Après la normalisation des valeurs renvoyées par chacune des mesures de focus, plusieurs stratégies de fusion des mesures normalisée contenues dans un sousensemble Tm j : il est possible de choisir le minimum, le maximum, la somme, le produit, la moyenne ou encore la médiane de ces valeurs. Plus formellement, on définit les stratégies de fusion suivantes : ( ) ( ) combmax = max Tm j, combmin = min Tm j, ( m) n ( ) combsum = Tm j, combprod = j=1 combavg = mean ( m) n j=1 ( T j m ), ( ) ( ) Tm j, combmed = median Tm j. Notre choix d utiliser, dans un premier temps, ces techniques de fusion au lieu de techniques de régression se justifie par la nécessité, dans l application finale, de privilégier la détection et le refus de mauvaises captures à une prédiction exacte de la qualité des résultats OCR. Une combinaison linéaire aurait pour effet de rendre certaines mesures plus importantes que les autres, et notre approche vise au contraire à permettre de tirer profit des «doutes» de chacune des mesures. Les résultats expérimentaux présentés ci-après indiquent les performances obtenues pour chaque méthode de normalisation et chaque stratégie de fusion Validation expérimentale Nous avons utilisé la base publique proposée par (Kumar et al., 2013) pour évaluer notre approche, et la comparer à celles évaluées dans cet article. Cette base comporte 175 images qui représentent les différentes captures (entre 6 et 8) réalisées avec différentes distances focales pour chacun des 25 documents. Pour chacun des documents, certaines captures sont parfaitement nettes, et d autres présentent des niveaux de flou variables. La vérité terrain ainsi que les réponses de trois systèmes OCR (FineReader, Omnipage et Tesseract) pour chacune des images est fournie. La fiabilité de l OCR pour chacune des images est également disponible. La figure 5 illustre le contenu de ces documents. Dans la mesure où la base publique de (Kumar et al., 2013) est la seule à proposer une variation du focus dans des images de documents, mais qu elle ne contient pas de déformation de perspective, nous avons évalué séparément l étape d estimation de la qualité des images basée sur une mesure de focus et celle de normalisation de la perspective et de l illumination présentées en section 2. Pour simuler une étape de correction de perspective idéale, nous nous sommes contentés de détecter automatiquement la zone de l image contenant le document avec une version simplifiée de la

13 Normalisation et validation d images de documents capturées en mobilité 121

14 122 M. Rusiñol, J. Chazalon, J.-M. Ogier Méthode Principe LCC médian SROCC médian Q Métrique DOM Métrique CORNIA Apprentissage Proposée Métrique Tableau 4. Comparaison avec l état de l art (Kumar et al., 2013). Méthode FineReader Omnipage Tesseract CombMIN+Z-score Tableau 5. Médiane des coefficients de la corrélation de Pearson pour les différents systèmes OCR. D une manière générale, les mesures ayant donné les meilleurs résultats sont celles à base de gradient. La meilleure configuration était, quant à elle, formé du sousensemble de 4 mesures T j 4 = {GRA1,GRA2,GRA4,STA8}. Le temps moyen pour le calcul et la normalisation de ces quatre mesures 0,61 secondes sur une machine récente avec un code Matlab séquentiel et non optimisé. Le tableau 4 compare nos résultats avec deux recensés dans (Kumar et al., 2013). On remarque que notre méthode est meilleure que Q (Zhu et Milanfar, 2010) et DOM (Kumar et al., 2012) pour les deux mesures. Cependant, la méthode COR- NIA (Ye et al., 2012), basée sur un apprentissage plus lourd, reste plus performante selon ces critères. Pour terminer, le tableau 5 synthétise les médianes des coefficients de la corrélation de Pearson obtenus pour les différents systèmes OCR. Le fait qu on observe une très faible différence entre les systèmes FineReader et Tesseract, malgré leur très grande disparité en terme de performance réelle (voir (Kumar et al., 2013), figures 4 et 6), laisse penser que la méthode d évaluation proposée par (Kumar et al., 2013) présente un biais optimiste. En effet, le calcul de la corrélation de Pearson sur l ensemble des images (en intégrant donc les résultats moins avantageux) donne des résultats plus modestes. Pour les 175 images de la base, le coefficient global (LLC) que nous obtenons est de 0,6467, ce qui est bien inférieur au coefficient de 0,9378 donné par la méthode d évaluation de l état de l art. 4. Conclusion Pour faire face aux distorsions spécifiques contenues dans les images de documents numérisées avec des périphérique mobiles, nous avons proposé un prototype de

15 Normalisation et validation d images de documents capturées en mobilité 123 système d acquisition permettant d améliorer puis contrôler la qualité des images sur le mobile, avant leur transfert ou la perte de disponibilité du document. La correction de la perspective est réalisée grâce à une détection des contours de la page, ce qui permet à la méthode de fonctionner même si la page contient peu de texte, ou si les coins ne sont pas visibles. La correction de l illumination est réalisée grâce à une translation des composantes couleurs vers une illumination cible selon une hypothèse de monde gris, puis grâce à un étirement de l histogramme pour la composante de luminance. L évaluation de chacune de ces étapes sur des images réelles montre qu elles apportent chacune un gain de terme de performance pour l OCR. L estimation de la qualité de l image est réalisée grâce à combinaison optimale de mesures de focus évaluées pour la première fois sur ce type de données. La validation de cette seconde étape sur une base publique montre que cette méthode surpasse les autres méthodes à base de métriques, et donne de bons résultats par rapport aux méthodes à base d algorithmes plus lourds. Le système résultant proposé est basé sur une combinaison de méthodes légères pouvant facilement être mise en œuvre sur un smartphone. Remerciements Ce projet a été financé par le consortium Valconum ( tt r). This project has been funded by the People Program (Marie Curie Actions) of the 7th Framework Program of the EU (FP7/ ) under the grant agreement number of the REA. 5. Bibliographie Ballard D., «Generalizing the Hough transform to detect arbitrary shapes», Pattern Recognition, vol. 13, no 2, p , Chen F., Carter S., Denoue L., Kumar J., «SmartDCap : Semi-Automatic Capture of Higher Quality Document Images from a Smartphone», Proceedings of the International Conference on Intelligent User Interfaces, p , 2013a. Chen F., Carter S., Denoue L., Kumar J., «SmartDCap : Semi-Automatic Capture of Higher Quality Document Images from a Smartphone», Proceedings of the 2013 international conference on Intelligent user interfaces (IUI 13), p , March, 2013b. Clark P., Mirmehdi M., «Estimating the Orientation and Recovery of Text Planes in a Single Image», Proceedings of the 12th British Machine Vision Conference, p , Fischler M., Bolles R., «Random sample consensus : a paradigm for model fitting with applications to image analysis and automated cartography», Communications of the ACM, vol. 24, no 6, p , Gonzalez J., Kanai J., Nartker T. A., «Prediction of OCR Accuracy Using a Neural Network», in S. L. Taylor, J. J. Hull (eds), Document Analysis Systems II, vol. 29, World Scientific, p , 1998.

16 124 M. Rusiñol, J. Chazalon, J.-M. Ogier Jagannathan L., Jawahar C., «Perspective correction methods for camera based document analysis», Proceedings of the First International Workshop on Camera-based Document Analysis and Recognition, p , Kittler J., Hatef M., Duin R., Matas J., «On combining classifiers», IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 20, no 3, p , March, Kumar J., Chen F., Doermann D., «Sharpness estimation for document and scene images», 21st International Conference on Pattern Recognition (ICPR), p , Kumar J., Ye P., Doermann D., «A Dataset for Quality Assessment of Camera Captured Document Images», International Workshop on Camera-Based Document Analysis and Recognition (CBDAR), Lu S., Chen B., Ko C., «Perspective rectification of document images using fuzzy set and morphological operations», Image and Vision Computing, vol. 23, p , Peng X., Cao H., Subramanian K., Prasad R., Natarajan P., «Automated image quality assessment for camera-captured OCR», 18th IEEE International Conference on Image Processing (ICIP), p , Pertuz S., Puig D., Angel Garcia M., «Analysis of focus measure operators for shape-fromfocus», Pattern Recognition, vol. 46, no 5, p , May, Rodríguez-Piñeiro J., Comesaña-Alfaro P., Pérez-González F., Malvido-Garc ía A., «A new method for perspective correction of document images», Proceedings of the Document Recognition and Retrieval XVIII, p , Ye P., Doermann D., «Learning features for predicting OCR accuracy», 21st International Conference on Pattern Recognition (ICPR), p , Ye P., Doermann D., «Document Image Quality Assessment : A Brief Survey», 12th International Conference on Document Analysis and Recognition (ICDAR), p , Ye P., Kumar J., Kang L., Doermann D., «Unsupervised feature learning framework for noreference image quality assessment», IEEE Conference on Computer Vision and Pattern Recognition (CVPR), p , Zhu X., Milanfar P., «Automatic parameter selection for denoising algorithms using a noreference measure of image content», IEEE Transactions on Image Processing, vol. 19, no 12, p , 2010.

Normalisation et validation d images de documents capturées en mobilité

Normalisation et validation d images de documents capturées en mobilité Normalisation et validation d images de documents capturées en mobilité Marçal Rusiñol * Joseph Chazalon Jean-Marc Ogier Laboratoire L3i, Université de La Rochelle Avenue Michel Crépeau, 17042 La Rochelle

Plus en détail

L ANALYSE DU RISQUE DE FAILLITE PAR LE BIAIS DES SYSTÈMES DE L INTELLIGENCE ARTIFICIELLE

L ANALYSE DU RISQUE DE FAILLITE PAR LE BIAIS DES SYSTÈMES DE L INTELLIGENCE ARTIFICIELLE L ANALYSE DU RISQUE DE FAILLITE PAR LE BIAIS DES SYSTÈMES DE L INTELLIGENCE ARTIFICIELLE Paul Pașcu, Assist Prof, PhD, Ștefan cel Mare University of Suceava Abstract: This article aims to present a number

Plus en détail

Mesure agnostique de la qualité des images.

Mesure agnostique de la qualité des images. Mesure agnostique de la qualité des images. Application en biométrie Christophe Charrier Université de Caen Basse-Normandie GREYC, UMR CNRS 6072 Caen, France 8 avril, 2013 C. Charrier NR-IQA 1 / 34 Sommaire

Plus en détail

Introduction à la Vision 3D

Introduction à la Vision 3D à la Vision 3D David Fofi Le2i UMR CNRS 6306 IUT Le Creusot Les applications présentées sont le fruit d une collaboration entre le Le2i et le laboratoire VICOROB de l Université de Gérone (Espagne). Les

Plus en détail

Bibliothèque de Traitement d Images en Niveaux de Gris

Bibliothèque de Traitement d Images en Niveaux de Gris TP Bibliothèque de Traitement d Images en Niveaux de Gris Étudiants : Besnier Alexandre Taforeau Julien Version 1.2 Janvier 2008 2008 Rapport TP - Version 1.2 i Table des matières Introduction 1 1 Objectif

Plus en détail

Analyse d images en vidéosurveillance embarquée dans les véhicules de transport en commun

Analyse d images en vidéosurveillance embarquée dans les véhicules de transport en commun des s Analyse d images en vidéosurveillance embarquée dans les véhicules de transport en commun Sébastien Harasse thèse Cifre LIS INPG/Duhamel le 7 décembre 2006 1 Système de surveillance des s Enregistreur

Plus en détail

Analyse d images introduction

Analyse d images introduction L3, option Image Analyse d images introduction http ://perception.inrialpes.fr/people/boyer/teaching/l3/ Elise Arnaud - Edmond Boyer Université Joseph Fourier / INRIA Rhône-Alpes elise.arnaud@inrialpes.fr

Plus en détail

Vision industrielle Dispositif optique

Vision industrielle Dispositif optique Vision industrielle Dispositif optique Plan du cours L objectif La focale L ouverture La mise au point Qualité d image Choix de l objectif Cours de Vision Industrielle Nicolas Vandenbroucke 2 Constitution

Plus en détail

La version 12 de PaperPort s est enrichie de nombreuses fonctions qui vont vous aider à gérer encore plus efficacement l ensemble de vos documents.

La version 12 de PaperPort s est enrichie de nombreuses fonctions qui vont vous aider à gérer encore plus efficacement l ensemble de vos documents. Bienvenue! Nuance PaperPort est un logiciel de gestion documentaire qui vous permet de numériser, d organiser, de consulter, de manipuler et de partager vos documents papier et vos fichiers numériques

Plus en détail

Analyse d images, vision par ordinateur. Partie 6: Segmentation d images. Segmentation? Segmentation?

Analyse d images, vision par ordinateur. Partie 6: Segmentation d images. Segmentation? Segmentation? Analyse d images, vision par ordinateur Traitement d images Segmentation : partitionner l image en ses différentes parties. Reconnaissance : étiqueter les différentes parties Partie 6: Segmentation d images

Plus en détail

Laboratoire 4 Développement d un système intelligent

Laboratoire 4 Développement d un système intelligent DÉPARTEMENT DE GÉNIE LOGICIEL ET DES TI LOG770 - SYSTÈMES INTELLIGENTS ÉTÉ 2012 Laboratoire 4 Développement d un système intelligent 1 Introduction Ce quatrième et dernier laboratoire porte sur le développement

Plus en détail

Automatisation des copies de systèmes SAP

Automatisation des copies de systèmes SAP Pour plus d informations sur les produits UC4 Software, visitez http://www.liftoff-consulting.com/ Automatisation des copies de systèmes SAP Introduction Le thème de la copie des systèmes SAP est une source

Plus en détail

Projet ESINSA 5 TRAITEMENT D IMAGE. Active Contours without Edges for Vector-Valued Images. Par Nicolas Brossier et Cyril Cassisa

Projet ESINSA 5 TRAITEMENT D IMAGE. Active Contours without Edges for Vector-Valued Images. Par Nicolas Brossier et Cyril Cassisa Projet ESINSA 5 TRAITEMENT D IMAGE Active Contours without Edges for Vector-Valued Images Par Nicolas Brossier et Cyril Cassisa Page 1 sur 14 Abstract Pour ce projet, nous implémentons un algorithme de

Plus en détail

Approche hybride de reconstruction de facettes planes 3D

Approche hybride de reconstruction de facettes planes 3D Cari 2004 7/10/04 14:50 Page 67 Approche hybride de reconstruction de facettes planes 3D Ezzeddine ZAGROUBA F. S.T, Dept. Informatique. Lab. d Informatique, Parallélisme et Productique. Campus Universitaire.

Plus en détail

Extraction d informations stratégiques par Analyse en Composantes Principales

Extraction d informations stratégiques par Analyse en Composantes Principales Extraction d informations stratégiques par Analyse en Composantes Principales Bernard DOUSSET IRIT/ SIG, Université Paul Sabatier, 118 route de Narbonne, 31062 Toulouse cedex 04 dousset@irit.fr 1 Introduction

Plus en détail

- Mobiliser les résultats sur le second degré dans le cadre de la résolution d un problème.

- Mobiliser les résultats sur le second degré dans le cadre de la résolution d un problème. Mathématiques - classe de 1ère des séries STI2D et STL. 1. Analyse On dote les élèves d outils mathématiques permettant de traiter des problèmes relevant de la modélisation de phénomènes continus ou discrets.

Plus en détail

Analyse factorielle des correspondances de Benzécri

Analyse factorielle des correspondances de Benzécri Analyse factorielle des correspondances de Benzécri One Pager Décembre 2013 Vol. 8 Num. 011 Copyright Laréq 2013 http://www.lareq.com Analyse Factorielle des Correspondances de Benzécri Une illustration

Plus en détail

PROJET DE FIN D ÉTUDES Asservissement visuel d un robot parallèle à câbles pour la réalisation d une fresque verticale de grande taille

PROJET DE FIN D ÉTUDES Asservissement visuel d un robot parallèle à câbles pour la réalisation d une fresque verticale de grande taille Résumé de PFE PROJET DE FIN D ÉTUDES Asservissement visuel d un robot parallèle à câbles pour la réalisation d une fresque verticale de grande taille Introduction Dans le domaine de la robotique, la robotique

Plus en détail

Propriétés des images numériques Contraintes sur l interprétation

Propriétés des images numériques Contraintes sur l interprétation Propriétés des images numériques Contraintes sur l interprétation M.LOUYS, Traitement d images et problèmes inverses Master Astrophysique, Observatoire de Strasbourg, 2013 Propriétés générales d une image

Plus en détail

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies Régis Boulet Charlie Demené Alexis Guyot Balthazar Neveu Guillaume Tartavel Sommaire Sommaire... 1 Structure

Plus en détail

Le Data Mining au service du Scoring ou notation statistique des emprunteurs!

Le Data Mining au service du Scoring ou notation statistique des emprunteurs! France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative

Plus en détail

Validité prédictive des questionnaires Cebir. Etude 1 : validité critérielle dans le secteur du gardiennage

Validité prédictive des questionnaires Cebir. Etude 1 : validité critérielle dans le secteur du gardiennage Validité prédictive des questionnaires Cebir Introduction Dans le domaine de la sélection, il est particulièrement intéressant de déterminer la validité prédictive d un test. Malheureusement, les occasions

Plus en détail

Évaluation de la classification et segmentation d'images en environnement incertain

Évaluation de la classification et segmentation d'images en environnement incertain Évaluation de la classification et segmentation d'images en environnement incertain EXTRACTION ET EXPLOITATION DE L INFORMATION EN ENVIRONNEMENTS INCERTAINS / E3I2 EA3876 2, rue F. Verny 29806 Brest cedex

Plus en détail

TP2 Opérations et filtres

TP2 Opérations et filtres TP2 Opérations et filtres 1. Opérations arithmétiques Mettre en place les fonctions Min et Max sur 2 images en niveaux de gris. Min() conserve entre 2 images les pixels de luminance minimum, Max() conserve

Plus en détail

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 2 Discrimination Invariance Expressions faciales Age Pose Eclairage 11/12/2012 3 Personne Inconnue Identité

Plus en détail

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme? Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version

Plus en détail

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme? Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version

Plus en détail

Sélection de variables groupées avec les forêts aléatoires. Application à l analyse des données fonctionnelles multivariées.

Sélection de variables groupées avec les forêts aléatoires. Application à l analyse des données fonctionnelles multivariées. Sélection de variables groupées avec les forêts aléatoires. Application à l analyse des données fonctionnelles multivariées. Baptiste Gregorutti 12, Bertrand Michel 2 & Philippe Saint Pierre 2 1 Safety

Plus en détail

ENSEIRB-MATMECA PG-113 2014. TP6: Optimisation au sens des moindres carrés

ENSEIRB-MATMECA PG-113 2014. TP6: Optimisation au sens des moindres carrés ENSEIRB-MATMECA PG-113 014 TP6: Optimisation au sens des moindres carrés Le but de ce TP est d implémenter une technique de recalage d images qui utilise une méthode vue en cours d analyse numérique :

Plus en détail

Traitement bas-niveau

Traitement bas-niveau Plan Introduction L approche contour (frontière) Introduction Objectifs Les traitements ont pour but d extraire l information utile et pertinente contenue dans l image en regard de l application considérée.

Plus en détail

Projet de Traitement du Signal Segmentation d images SAR

Projet de Traitement du Signal Segmentation d images SAR Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,

Plus en détail

Reconnaissance d'objets routiers - Application

Reconnaissance d'objets routiers - Application Reconnaissance d'objets routiers - Application Perception pour la conduite automatisée A07 : Interaction Véhicule Environnement Aurélien Cord Aurelien.Cord@lcpc.fr Reconnaissance de piétons 2 1 Etat de

Plus en détail

PRÉSENTATION TRAVAIL EN COURS - APPRENTISSAGE INTERACTIF. Ianis Lallemand, 21 janvier 2013

PRÉSENTATION TRAVAIL EN COURS - APPRENTISSAGE INTERACTIF. Ianis Lallemand, 21 janvier 2013 PRÉSENTATION TRAVAIL EN COURS - APPRENTISSAGE INTERACTIF Ianis Lallemand, 21 janvier 2013 APPRENTISSAGE INTERACTIF definition Contours encore assez flous dans le champ de l apprentissage automatique. Néanmoins,

Plus en détail

Cours IFT6266, Exemple d application: Data-Mining

Cours IFT6266, Exemple d application: Data-Mining Cours IFT6266, Exemple d application: Data-Mining Voici un exemple du processus d application des algorithmes d apprentissage statistique dans un contexte d affaire, qu on appelle aussi data-mining. 1.

Plus en détail

Contrôle de flacons par vision industrielle

Contrôle de flacons par vision industrielle Contrôle de flacons par vision industrielle Le but du TP est d effectuer le contrôle de flacons après leur remplissage, leur bouchonnage et leur étiquetage. Le développement de cette application de vision

Plus en détail

Document de synthèse. Optimisation des conditions d éclairage Les défis d un éclairage minimum

Document de synthèse. Optimisation des conditions d éclairage Les défis d un éclairage minimum Document de synthèse Optimisation des conditions d éclairage Les défis d un éclairage minimum Table des matières 1. Introduction 3 2. Sensibilité à la lumière : une mesure complexe 3 3. Ne vous faites

Plus en détail

Indexation 3D à partir de vues 2D

Indexation 3D à partir de vues 2D Indexation 3D à partir de vues 2D Thibault Napoléon 1 Télécom ParisTech - TSI Qu est ce que l indexation 3D? Recherche dans une grande base de donnée 3D Recherche par le contenu (la forme, la couleur...)

Plus en détail

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories : La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.

Plus en détail

23. Interprétation clinique des mesures de l effet traitement

23. Interprétation clinique des mesures de l effet traitement 23. Interprétation clinique des mesures de l effet traitement 23.1. Critères de jugement binaires Plusieurs mesures (indices) sont utilisables pour quantifier l effet traitement lors de l utilisation d

Plus en détail

Livre blanc Système d imagerie LLI (Long-Length Imaging) CARESTREAM DirectView DR avec assemblage automatique et manuel

Livre blanc Système d imagerie LLI (Long-Length Imaging) CARESTREAM DirectView DR avec assemblage automatique et manuel Un traitement de l image avancé avec un assemblage automatique et des fonctions d ajustement pour une image composite complète, sans ligne de jonction Analyse de la géométrie dans le cas d une imagerie

Plus en détail

Principe des tests statistiques

Principe des tests statistiques Principe des tests statistiques Jean Vaillant Un test de signification est une procédure permettant de choisir parmi deux hypothèses celles la plus probable au vu des observations effectuées à partir d

Plus en détail

Codage Compression d images

Codage Compression d images Codage Compression d images E. Jeandel Emmanuel.Jeandel at lif.univ-mrs.fr E. Jeandel, Lif CodageCompression d images 1/1 Une image Une image est un tableau de w h pixels, chaque pixel étant représenté

Plus en détail

Introduction. Photoshop Elements 12 pour les photographes du numérique. Introduction

Introduction. Photoshop Elements 12 pour les photographes du numérique. Introduction Introduction Le fait d avoir choisi Photoshop Elements parmi la multitude de logiciels existants dont certains totalement gratuits pour traiter et retoucher vos images signifie deux choses : vous souhaitez

Plus en détail

Parcours Ingénieur Polytech. Mini-projets. Banque d images. Auteur : Encadrant : Jonathan Courtois

Parcours Ingénieur Polytech. Mini-projets. Banque d images. Auteur : Encadrant : Jonathan Courtois École Polytechnique de l Université de Tours 64, Avenue Jean Portalis 37200 TOURS, FRANCE Tél. (33)2-47-36-14-14 Fax (33)2-47-36-14-22 www.polytech.univ-tours.fr Parcours Ingénieur Polytech Mini-projets

Plus en détail

Chapitre 1 Introduction

Chapitre 1 Introduction Chapitre 1 Introduction La réalité augmentée assistée par ordinateur est un domaine émergeant, qui progresse rapidement. Son principe est de mélanger le monde réel et le monde virtuel. De nombreuses applications

Plus en détail

Vérification du bâti à partir de la disparité de points de contour

Vérification du bâti à partir de la disparité de points de contour Vérification du bâti à partir de la disparité de points de contour Charles Beumier Signal and Image Centre (Prof. Marc Acheroy) Ecole royale militaire Bruxelles, Belgique 8 Jan 29, Paris-Tech 1 Vérification

Plus en détail

Quelques conseils pour bien réaliser son année de Master 2 Recherche

Quelques conseils pour bien réaliser son année de Master 2 Recherche http://adstic.free.fr adstic@gmail.com Quelques conseils pour bien réaliser son année de Master 2 Recherche Qu est ce que l Adstic? L Adstic est l association des doctorants du campus sciences et techniques

Plus en détail

Open Bee TM e-fact PRO

Open Bee TM e-fact PRO Open Bee TM e-fact PRO SOLUTION GLOBALE D AUTOMATISATION DU TRAITEMENT DES FACTURES FOURNISSEURS 80 % des factures fournisseurs sont encore actuellement reçues au format papier. 13,8 est le coût moyen

Plus en détail

Encryptions, compression et partitionnement des données

Encryptions, compression et partitionnement des données Encryptions, compression et partitionnement des données Version 1.0 Grégory CASANOVA 2 Compression, encryption et partitionnement des données Sommaire 1 Introduction... 3 2 Encryption transparente des

Plus en détail

Discrétisation et génération de hiérarchies de concepts

Discrétisation et génération de hiérarchies de concepts Prétraitement des données 1 Pourquoi prétraiter les données? Nettoyage des données Intégration et transformation Réduction des données Discrétisation et génération de hiérarchies de g concepts Pourquoi

Plus en détail

Si nous nous contentions d un champ de vision de 40, il faudrait quatre ou cinq perspectives pour représenter un espace d habitation.

Si nous nous contentions d un champ de vision de 40, il faudrait quatre ou cinq perspectives pour représenter un espace d habitation. Avant-propos La vue en perspective correspond bien à une perception humaine de l espace. La représentation d une perspective à l aide de la géométrie traduit, elle, avec précision les phénomènes optiques

Plus en détail

PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011

PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011 Projet 2009 2010 Biométrie 3D PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011 Département : TIC Mots clés : Biométrie, Analyse d images, Vision, Caméra thermique, Caméra temps de vol, Détection

Plus en détail

Chapitre 3 : INFERENCE

Chapitre 3 : INFERENCE Chapitre 3 : INFERENCE 3.1 L ÉCHANTILLONNAGE 3.1.1 Introduction 3.1.2 L échantillonnage aléatoire 3.1.3 Estimation ponctuelle 3.1.4 Distributions d échantillonnage 3.1.5 Intervalles de probabilité L échantillonnage

Plus en détail

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57 Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation

Plus en détail

Etude des propriétés empiriques du lasso par simulations

Etude des propriétés empiriques du lasso par simulations Etude des propriétés empiriques du lasso par simulations L objectif de ce TP est d étudier les propriétés empiriques du LASSO et de ses variantes à partir de données simulées. Un deuxième objectif est

Plus en détail

Profil du candidat et connaissances techniques à connaître/maîtriser

Profil du candidat et connaissances techniques à connaître/maîtriser Utilisation d algorithmes de deep learning pour la reconnaissance d iris. jonathan.milgram@morpho.com Dans ce cadre, l'unité de recherche et technologie a pour but de maintenir le leadership Au sein de

Plus en détail

Animation d un robot

Animation d un robot nimation d un robot IFT3355 : Infographie - TP #1 Jérémie Dumas Baptiste De La Robertie 3 février 2010 Université de Montréal Table des matières Introduction au problème 2 1 Transformations 2 1.1 Passage

Plus en détail

Un livre illustré. Cycle: fin du 1 er cycle du primaire Durée de l activité: plusieurs semaines

Un livre illustré. Cycle: fin du 1 er cycle du primaire Durée de l activité: plusieurs semaines Un livre illustré Cycle: fin du 1 er cycle du primaire Durée de l activité: plusieurs semaines Résumé de la tâche Domaines généraux de formation Compétences transversales Domaines d apprentissage et compétences

Plus en détail

Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6

Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6 Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6 Ludovic Denoyer 21 septembre 2015 Ludovic Denoyer () FDMS 21 septembre 2015 1 / 1 Contexte Observation La plupart des bonnes

Plus en détail

Analyse d images numériques en microscopie

Analyse d images numériques en microscopie Analyse d images numériques en microscopie Yves Usson Reconnaissance et Microscopie Quantitative, Laboratoire TIMC UMR5525 CNRS Institut d Ingénierie et d Information de Santé (IN3S), La Tronche Traitement

Plus en détail

Esiee 2008 Buzer. Guide d utilisation. Scanner LPX-600

Esiee 2008 Buzer. Guide d utilisation. Scanner LPX-600 Esiee 2008 Buzer Guide d utilisation Scanner LPX-600 Principes de base Scan à balayage rotatif L objet est placé sur un plateau rotatif. Le système de mesure se déplace uniquement en hauteur. L objet va

Plus en détail

LES SOLUTIONS MES HUMAINES METTENT EN AVANT LES INDIVIDUS

LES SOLUTIONS MES HUMAINES METTENT EN AVANT LES INDIVIDUS LIVRE BLANC LES SOLUTIONS MES HUMAINES METTENT EN AVANT LES INDIVIDUS Une collaboration entre homme et machine LIVRE BLANC LES SOLUTIONS MES HUMAINES METTENT EN AVANT LES INDIVIDUS 2 A PROPOS Les hommes

Plus en détail

SAS BI DASHBOARD 4.3 : POUR LE MEILLEUR ET POUR LE FILTRE

SAS BI DASHBOARD 4.3 : POUR LE MEILLEUR ET POUR LE FILTRE SAS BI DASHBOARD 4.3 : POUR LE MEILLEUR ET POUR LE FILTRE En tant qu outils d aide à la décision, les tableaux de bord doivent répondre rapidement. Pour participer à cet effort de réactivité en termes

Plus en détail

6.3 Détramage* d'un document

6.3 Détramage* d'un document 6.3 Détramage* d'un document *Disponibilité Versions Studio : offrent l'ensemble des nouvelles fonctions, y compris les deux fonctions entièrement automatiques. Dans les dernières versions Studio de SilverFast,

Plus en détail

«Vers une méthode rapide de l évaluation de la tendreté»

«Vers une méthode rapide de l évaluation de la tendreté» Matthieu ALRIC - matthieu.alric@adiv.fr Chargé d Etudes en Génie Mécanique et Robotique «Vers une méthode rapide de l évaluation de la tendreté» Développement d un système robotique équipé de capteurs

Plus en détail

Travaux pratiques de traitement d images numériques. Institut Galilée 2010-2011

Travaux pratiques de traitement d images numériques. Institut Galilée 2010-2011 G. Dauphin et A. Beghdadi Travaux pratiques de traitement d images numériques Première séance Institut Galilée 2010-2011 Les travaux pratiques de traitement d image sont répartis en trois séances de 8

Plus en détail

Liste des résultats d apprentissage et indicateurs de rendement

Liste des résultats d apprentissage et indicateurs de rendement ANNEXE Mathématiques appliquées 3232 Liste des résultats d apprentissage et indicateurs de rendement (incluant les pages de au programme d études) PROGRAMME D ÉTUDES - MATHÉMATIQUES APPLIQUÉES 3232 (2013)

Plus en détail

SY09 Rapport TP4 : Analyse discriminante, régression logistique

SY09 Rapport TP4 : Analyse discriminante, régression logistique UNIVERSITÉ DE TECHNOLOGIE DE COMPIÈGNE SY09 Rapport TP4 : Analyse discriminante, régression logistique CUNI Frédéric 15 juin 2015 Objectifs du TP : Le but de ce TP est l application de l analyse discriminante

Plus en détail

Guide pour une utilisation correcte d un système de vision industriel

Guide pour une utilisation correcte d un système de vision industriel Guide pour une utilisation correcte d un système de vision industriel Comment optimiser les performances d un système de vision industriel avancées Utilisation de l éclairage 1. Éclairage pour le traitement

Plus en détail

11. Evaluation de la qualité des essais

11. Evaluation de la qualité des essais 11. Evaluation de la qualité des essais L évaluation de la qualité méthodologique d un essai thérapeutique est une tâche difficile [117]. L essai thérapeutique contrôlé randomisé est considéré comme étant

Plus en détail

Rapport IN52. Sujet : Résolution d un puzzle

Rapport IN52. Sujet : Résolution d un puzzle CARRE Julien PIERNOT Jérôme Rapport IN52 Sujet : Résolution d un puzzle Responsable : M. Ruicheck Y. Automne 2007 1 SOMMAIRE INTRODUCTION...3 I. Description et approche du sujet...4 1. Description 2. Outils

Plus en détail

StatEnAction 2009/10/30 11:26 page 111 #127 CHAPITRE 10. Machines à sous

StatEnAction 2009/10/30 11:26 page 111 #127 CHAPITRE 10. Machines à sous StatEnAction 2009/0/30 :26 page #27 CHAPITRE 0 Machines à sous Résumé. On étudie un problème lié aux jeux de hasard. Il concerne les machines à sous et est appelé problème de prédiction de bandits à deux

Plus en détail

Outils Statistiques du Data Mining

Outils Statistiques du Data Mining Outils Statistiques du Data Mining Pr Roch Giorgi roch.giorgi@univ-amu.fr SESSTIM, Faculté de Médecine, Aix-Marseille Université, Marseille, France http://sesstim-orspaca.org http://optim-sesstim.univ-amu.fr

Plus en détail

Synthèse sur les segmentations testées 2D et 3D Dernière mise à jour : avril 2011

Synthèse sur les segmentations testées 2D et 3D Dernière mise à jour : avril 2011 Projet 2009 2010 Biométrie 3D Synthèse sur les segmentations testées 2D et 3D Dernière mise à jour : avril 2011 Département : TIC Mots clés : Biométrie, Analyse d images, Vision, Caméra thermique, Caméra

Plus en détail

Reconstruction et Animation de Visage. Charlotte Ghys 15/06/07

Reconstruction et Animation de Visage. Charlotte Ghys 15/06/07 Reconstruction et Animation de Visage Charlotte Ghys 15/06/07 1 3ème année de thèse Contexte Thèse CIFRE financée par Orange/France Telecom R&D et supervisée par Nikos Paragios (Ecole Centrale Paris) et

Plus en détail

MAXIMISER LA DISPONIBILITÉ DES PRODUITS DANS LES MAGASINS

MAXIMISER LA DISPONIBILITÉ DES PRODUITS DANS LES MAGASINS Distribution MAXIMISER LA DISPONIBILITÉ DES PRODUITS DANS LES MAGASINS METTRE LES RUPTURES SOUS CONTRÔLE Introduction Tout distributeur veut que tous les produits soient bien présents dans ses rayons.

Plus en détail

À PROPOS D IMAGES : Fiche professeur

À PROPOS D IMAGES : Fiche professeur À PROPOS D IMAGES : Fiche professeur Damier Assiette Danseuse Eventail Danseuse 1 FICHE ÉLÈVE (1) Que devient une image lorsqu on la grossit? Ouvrir (par exemple avec l application «Aperçu»), les deux

Plus en détail

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com Intelligence Artificielle et Systèmes Multi-Agents Badr Benmammar bbm@badr-benmammar.com Plan La première partie : L intelligence artificielle (IA) Définition de l intelligence artificielle (IA) Domaines

Plus en détail

Comparaison d images binaires reposant sur une mesure locale des dissimilarités Application à la classification

Comparaison d images binaires reposant sur une mesure locale des dissimilarités Application à la classification 1/54 Comparaison d images binaires reposant sur une mesure locale des dissimilarités Application à la classification Étienne Baudrier CReSTIC vendredi 9 décembre 2005 2/54 Contexte programme national de

Plus en détail

Partie I : Implantation d un réseau de neurones RBF sur des systèmes embarqués : la détection et la reconnaissance de visages en temps réel

Partie I : Implantation d un réseau de neurones RBF sur des systèmes embarqués : la détection et la reconnaissance de visages en temps réel 1 Partie I : Implantation d un réseau de neurones RBF sur des systèmes embarqués : la détection et la reconnaissance de visages en temps réel F.Yang M.Paindavoine GDR-ISIS 20 Janvier 2005 Paris 2 Plan

Plus en détail

6.1 Méthode des champs de potentiel

6.1 Méthode des champs de potentiel Chapitre 6 Évitement d obstacles L évitement d obstacles est un comportement de base présent dans quasiment tous les robots mobiles. Il est indispensable pour permettre au robot de fonctionner dans un

Plus en détail

Département de physique

Département de physique Département de physique Etude de la densité spectrale de puissance du bruit thermique dans une résistance Travail expérimental et rédaction du document : Jean-Baptiste Desmoulins (P.R.A.G.) mail : desmouli@physique.ens-cachan.fr

Plus en détail

Test de sélection du 4 juin 2013

Test de sélection du 4 juin 2013 Test de sélection du 4 juin 2013 Vous étiez 270 candidat-e-s à ce test de sélection, et 62 d entre vous (23%) participeront au stage olympique de Montpellier, du 19 au 29 août 2013, dont 12 filles : la

Plus en détail

Numérisation de grands documents

Numérisation de grands documents Numérisation de grands documents Objectif Numériser plusieurs segments d image, les assembler en photoshop, puis harmoniser les couleurs. Nous partons d un document A3 numérisé en 2 fois. Pourquoi constatons-nous

Plus en détail

5. Validité de la méta-analyse

5. Validité de la méta-analyse 5. Validité de la méta-analyse 5.1. Poids de la preuve d une méta-analyse Le poids de la preuve d un résultat scientifique quantifie le degré avec lequel ce résultat s approche de la réalité. Il ne s agit

Plus en détail

Le problème des multiplications matricielles enchaînées peut être énoncé comme suit : étant

Le problème des multiplications matricielles enchaînées peut être énoncé comme suit : étant Licence informatique - L Année 0/0 Conception d algorithmes et applications (LI) COURS Résumé. Dans cette cinquième séance, nous continuons l exploration des algorithmes de type Programmation Dynamique.

Plus en détail

Prévision de la demande

Prévision de la demande But : Pour prendre des décisions relatives à la structure et au fonctionnement opérationnel de tout système logistique; il faut s appuyer sur un système de prévision fiable. Concerne le long, moyen et

Plus en détail

TEST DE MONTE CARLO DE DETECTION DE MODIFICATIONS CLIMATIQUES

TEST DE MONTE CARLO DE DETECTION DE MODIFICATIONS CLIMATIQUES TEST DE MONTE CARLO DE DETECTION DE MODIFICATIONS CLIMATIQUES Jean-Cléophas ONDO (*) (*) Institut Sous-régional de Statistique et d Economie Appliquée (ISSEA) Résumé Les procédures couramment utilisées

Plus en détail

LE CONTROLE D ERREURS LES CODES AUTOVERIFICATEURS OU AUTOCORRECTEURS. Les codes de blocs

LE CONTROLE D ERREURS LES CODES AUTOVERIFICATEURS OU AUTOCORRECTEURS. Les codes de blocs LE CONTROLE D ERREURS LES CODES AUTOVERIFICATEURS OU AUTOCORRECTEURS Les codes de blocs Le principe employé dans les codes de blocs consiste à construire le mot de code en «sectionnant» l information utile

Plus en détail

STAT0162-1 Analyse statistique de données qualitatives et quantitatives en sciences sociales. Transparents Philippe Lambert

STAT0162-1 Analyse statistique de données qualitatives et quantitatives en sciences sociales. Transparents Philippe Lambert STAT0162-1 Analyse statistique de données qualitatives et quantitatives en sciences sociales Transparents Philippe Lambert http : //www.statsoc.ulg.ac.be/quali.html Institut des Sciences Humaines et Sociales

Plus en détail

La version 11 de PaperPort s est enrichie de nombreuses fonctions qui vont vous aider à gérer encore plus efficacement l ensemble de vos documents.

La version 11 de PaperPort s est enrichie de nombreuses fonctions qui vont vous aider à gérer encore plus efficacement l ensemble de vos documents. Bienvenue! ScanSoft PaperPort est un logiciel de gestion documentaire qui vous permet de numériser, d organiser, de consulter, de manipuler et de partager vos documents papier et vos fichiers numériques

Plus en détail

Méthodes d apprentissage :

Méthodes d apprentissage : Méthodes d apprentissage : application au tri de complexes protéines-protéines Jérôme Azé Apprentissage: tâches Apprentissage non supervisé (Eisen, ) Apprentissage supervisé (arbres de décision, k-ppv,

Plus en détail

L informatique des entrepôts de données

L informatique des entrepôts de données L informatique des entrepôts de données Daniel Lemire SEMAINE 9 Les opérations OLAP 9.1. Présentation de la semaine Nous avons vu la semaine précédente qu il est possible de définir partiellement le paradigme

Plus en détail

Poker. A rendre pour le 25 avril

Poker. A rendre pour le 25 avril Poker A rendre pour le 25 avril 0 Avant propos 0.1 Notation Les parties sans * sont obligatoires (ne rendez pas un projet qui ne contient pas toutes les fonctions sans *). Celles avec (*) sont moins faciles

Plus en détail

Introduction aux épreuves de logique des concours ACCÈS et SESAME

Introduction aux épreuves de logique des concours ACCÈS et SESAME Introduction aux épreuves de logique des concours ACCÈS et SESAME «La chance aide parfois, le travail toujours» Vous vous apprêtez à vous lancer dans cette course contre la montre qu est l admission en

Plus en détail

Computix. Dans la colonne du 10, B choisit le 7 inférieur A 10 B 7

Computix. Dans la colonne du 10, B choisit le 7 inférieur A 10 B 7 Computix Matériel : grilles carrées comportant un nombre impair de cases. Quelques-unes sont données en annexe ; mais on peut aussi les construire soi-même, ou les faire construire par les élèves. Elles

Plus en détail

SCI03 - Analyse de données expérimentales

SCI03 - Analyse de données expérimentales SCI03 - Analyse de données expérimentales Introduction à la statistique Thierry Denœux 1 1 Université de Technologie de Compiègne tél : 44 96 tdenoeux@hds.utc.fr Automne 2014 Qu est ce que la statistique?

Plus en détail

Plan II-1. Généralités II-1-1. Définitions et principes II-1-2. Mise en place

Plan II-1. Généralités II-1-1. Définitions et principes II-1-2. Mise en place SPC 1 Plan II-1. Généralités II-1-1. Définitions et principes II-1-2. Mise en place II-2-1. Définitions II-1-2. Capabilité machine et capabilité procédé II-2-3. Ppm 2 II-1. GénéralitG ralités Définitions

Plus en détail

Rapport d enquête: Les stratégies de diversification des cabinets comptables

Rapport d enquête: Les stratégies de diversification des cabinets comptables UNIVERSITÉ DE GAND FACULTÉ D ÉCONOMIE ET D AFFAIRES ACADÉMIQUE 2010 2011 Rapport d enquête: Les stratégies de diversification des cabinets comptables Frederik Verplancke sous la supervision de Prof. dr.

Plus en détail

Calibration automatique

Calibration automatique ÉC O L E P O L Y T E C H N I Q U E FÉ DÉR A L E D E L A U S A N N E Calibration automatique d une caméra Fanny Gilliéron Projet supervisé par François Fleuret et Jérôme Berclaz Juillet 2007 2 Table des

Plus en détail