Mappatura 3D in tempo reale


Il nuovo algoritmo di mappatura sviluppato dalgli informatici del MIT e la National University of Ireland (NUI) a Maynooth è in grado di creare mappe molto dettagliate in 3D ed in tempo reale, con una telecamera Kinect a basso costo. L’algoritmo è stato testato come possiamo vedere nel primo video dove vengono esplorati i corridoi e le scalinate tortuose del MIT Stata Center. Applicando la tecnica di mappatura di questi video, i ricercatori hanno creato mappe ricche, tridimensionali appena la fotocamera ha esplorato i suoi dintorni.

Con il ritorno della fotocamera al punto di partenza, i ricercatori hanno scoperto che dopo essere arrivata ad un punto conosciuto come familiare, l’algoritmo unisce le immagini insieme in modo efficace “per chiudere il cerchio”, creando una mappa 3D realistica ed in tempo reale. Questa tecnica risolve un problema importante nella comunità della mappatura robotica che è noto come “chiusura del ciclo” o “deriva“.

VIDEO: THOMAS WHELAN E JOHN MCDONALD / NUI MAYNOOTH-; MICHAEL KAESS E JOHN J. LEONARD / MIT

Come una telecamera ruota in una stanza o viaggia lungo un corridoio, produce dei lievi errori nel percorso di stima adottato. Una porta nell’immagine può apparire più a destra, un muro più alto di quello che realmente è; e su distanze più lunghe questi errori possono peggiorare, causando una mappa disarticolata. Invece, la nuova tecnica di mappatura determina come collegare una mappa tracciando la posizione nello spazio, durante tutto il suo percorso.

Prima che la mappa sia corretta, è una sorta di tutto aggrovigliato in se stessa “, così dice Thomas Whelan, uno studente di dottorato presso la NUI. “Usiamo la conoscenza delle posizioni della camera per districare il tutto. La tecnica che abbiamo sviluppato permette di spostare la mappa, in modo che si deformi e si adatti alla vera posizione.” Continua dicendo che “La tecnica può essere usata per guidare i robot in ambienti potenzialmente pericolosi o sconosciuti“.

Fonte Immagine PDF Robust Real-Time Visual Odometry for Dense RGB-D Mapping

Fonte Immagine PDF Robust Real-Time Visual Odometry for Dense RGB-D Mapping

John Leonard collega di Whelan e professore di ingegneria meccanica al MIT, prevede anche un’applicazione più benigna. “Io sogno di fare un modello completo di tutto il MIT “, dice Leonard, che è anche affiliato con il MIT Computer Science and Artificial Intelligence Laboratory. “Con questa mappa 3D, un potenziale studente candidato ad immatricolarsi da noi potrebbe potrebbe farsi una sorta di ‘nuotata’ attraverso il MIT come se fosse un grande acquario. C’è ancora molto lavoro da fare, ma penso che sia fattibile “.

Leonard , Whelan e gli altri membri del team – Michael Kaess del MIT e John McDonald di NUI – presenteranno il loro lavoro in occasione della Conferenza Internazionale 2013 su Robot intelligenti e sistemi di Tokyo.

Il problema con un milione di punti la telecamera Kinect produce un’immagine a colori, insieme alle informazioni sulla posizione di ogni pixel in quell’immagine. Un sensore di profondità nella fotocamera traduce la spaziatura tra i pixel in una misurazione di profondità, registrando la profondità di ogni singolo pixel in un’immagine.

Questi dati possono essere analizzati da un software per generare una rappresentazione 3D dell’immagine.

Nel 2011, un gruppo dell’Imperial College di Londra e Microsoft Research hanno sviluppato un’applicazione di mappatura 3D chiamata KinectFusion, che ha prodotto con successo modelli 3D a partire dai dati di Kinect in tempo reale. La tecnica ha generato modelli molto dettagliati, con risoluzione subcentimetrica , ma è limitata a una regione fissa nello spazio.

Whelan, Leonard e il loro team hanno ampliato il lavoro di quel gruppo sviluppando una tecnica per creare mappe altrettanto ad alta risoluzione 3D, ma di centinaia di metri, in vari ambienti e in tempo reale.

L’obiettivo, fanno notare, era ambizioso dal punto di vista dei dati: Un ambiente che copre centinaia di metri è composto di milioni di punti 3D. Per generare una mappa accurata, si dovrebbe sapere quali punti usare tra i milioni, per allinearsi. Gruppi precedenti hanno affrontato questo problema eseguendo i dati più e più volte – un approccio poco pratico se si desidera creare mappe in tempo reale.

Invece, Whelan ed i suoi colleghi si sono avvicinati con un approccio molto più veloce, che essi descrivono in due fasi: una estremità anteriore ed una estremità posteriore. Nel front-end, i ricercatori hanno sviluppato un algoritmo per seguire la posizione di una telecamera in ogni dato momento lungo il suo percorso.

Nel mentre la fotocamera Kinect prende immagini a 30 fotogrammi al secondo, misura con un algoritmo quanto e in quale direzione la telecamera si è spostata tra un fotogramma e l’altro.

Allo stesso tempo, l’algoritmo costruisce un modello 3D, costituito da piccole “fette di nuvola” – sezioni trasversali di migliaia di punti 3D nell’ambiente circostante. Ogni fetta di nuvola è legata a una particolare posa della fotocamera.

Nel back-end, la tecnica consente di regolare automaticamente le fette di nuvole associati, con le loro migliaia di punti – un approccio veloce che evita di dover determinare, punto per punto, come spostarsi.

Ad esempio, una mappa 3D non solo può aiutare un robot a decidere se svoltare a destra o a sinistra, ma anche presentare le informazioni più dettagliate. “Si può immaginare un robot potrebbe guardare a una di queste mappe e dire che c’è un bidone qui, o un estintore qui, e fare interpretazioni più intelligenti dell’ambiente “, dice Whelan.

Questa ricerca ha ricevuto il sostegno della Fondazione Scienza dell’Irlanda, il Consiglio irlandese Ricerca e l’Office of Naval Research.

Fonte notizia: MIT

LINK: cs.nuim.ie;

LINK AL PDF “Robust Real-Time Visual Odometry for Dense RGB-D Mapping“;

LINK: mit.edu;

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.