Mapping 3D, la boucle est bouclée
Des chercheurs du MIT et de l’université nationale d’Irlande viennent de mettre au point un algorithme de reconstruction de scène en 3D. Cette méthode exploite une caméra low-cost Kinect afin de produire, en temps réel, des images haute définition de lieux à mapper (ou à cartographier).
Les tests ont été effectués en arpentant, Kinect en main, le hall et des couloirs du MIT Stata Center, ce qui représente une petite randonnée de 500 mètres. Une fois que la caméra a accompli son premier tour, les chercheurs ont pu constater que la boucle était bouclée du côté de la vidéo reconstructrice avec un alignement correct par rapport au plan original.
Cet algorithme résout ainsi un problème rencontré couramment dans le secteur de la robotique et de la reconstruction 3D, appelé « drift » ou fermeture de boucle après retour au point de départ. L’avantage principal de cette technique se situe dans les informations sur la profondeur en provenance de la Kinect, qui permettent d’ajuster les coordonnées 3D d'une scène reconstruite, avec plus de précision qu’un simple tracking ou une géolocalisation de la caméra.
Toutefois, afin d'optimiser la représentation de la scène la méthode de profondeur a été couplée à celle du tracking afin d’offrir une estimation de la zone dont on doit ajuster les points 3D. Ce qui a conduit à une reconstruction plus dense et plus rapide de la scène.
La trouvaille, qui doit être présentée à la Conférence internationale sur les Systèmes et Robots intelligents (IROS2013) au mois de novembre, a déjà des subventions du conseil de recherche irlandais et de l’office américain de recherche navale.