ALS - Magazine 4 - Janvier 2013

ALS Mag / 19 Positionnement basé vision Puisqu’on cherche à aligner un modèle 3D dans une image, il semble naturel de considérer que l’image elle-même peut aider à résoudre le problème. En effet, si l’on parvient à identifier dans une image vidéo des zones d’ancrage du modèle, il est possible de calculer le point de vue d’obser- vation (position + orientation de la caméra) corres- pondant à cette image. Ces zones d’ancrage sont la plupart du temps des points (coins ou autres types de points saillants), mais on peut aussi considérer les arêtes du modèle qui corres- pondent généralement à des gradients forts (contours) de l’image. Si l’on parvient à identifier six points du modèle dans l’image, le point de vue de la caméra associé à cette image est calculable. En pratique, un plus grand nombre de points est utilisé afin de réduire la sensibilité au bruit des mesures. La principale difficulté réside aujourd’hui dans la capacité à retrouver les primitives du modèle dans les images vidéo. Cette tâche peut être aisée si l’on place des marqueurs artificiels dans la scène, dont les positions sont définies par rapport au modèle. On sait reconnaître des marqueurs artifi- ciels en temps réel depuis une quinzaine d’années, et la majorité des applications de RA utilisent ce procédé. Cependant, l’utilisation de marqueurs n’est pas adaptée aux environnement de grande taille. Le positionnement sans marqueur repose généra- lement sur l’utilisation d’un modèle texturé de l’environnement. Le problème revient à retrouver des imagettes associées à des points du modèle dans les images vidéo (figure 4). Malheureu- sement, les distorsions géométriques dues à la perspective et les variations d’éclairage peuvent rendre les imagettes difficilement reconnaissables dans les images vidéo. Si l’on dispose d’une connaissance approximative du point de vue (par exemple, en utilisant des données capteurs), les déformations dues à la perspective peuvent être atténuées en synthétisant une image du modèle tel qu’il serait observé depuis le point de vue hypothé- tique. Cependant, il n’est pas toujours possible d’obtenir cette connaissance. Beaucoup de travaux ont visé ces dernières années à retrouver dans une image des imagettes ayant subi une forte distorsion géométrique et/ou photométrique. En fait, plutôt qu’à des imagettes, on s’est intéressé à des descripteurs de points, c’est-à-dire des vecteurs dont les coefficients sont liés à la distri- bution des valeurs de l’image autour des points détectés. L’objectif étant que ces coefficients soient le plus invariants possible aux changements de points de vue et d’éclairage. Figure 4 : Le positionnement basé vision requiert de retrouver des imagettes associées à des points du modèle dans les images vidéo acquises en temps réel.

RkJQdWJsaXNoZXIy MTIzMTM=