Unendo i risultati di ricerche precedenti e ottimizzandoli con l'apprendimento automatico dell'Intelligenza Artificiale, un gruppo di ricercatori è riuscito a istruire un robot che sa quale sarà la consistenza di un oggetto prima ancora di afferrarlo.
I ricercatori del Computer Science e Artificial Intelligence Laboratory (CSAIL) del Massachusetts Institute of Technology hanno trovato un modo per consentire a una mano robotica di percepire come sarà un oggetto al tatto, semplicemente guardandolo. Sembra una banalità per un essere umano, che guarda una pallina in gommapiuma e sa che sarà morbida al tatto, o una forchetta e sa che sarà liscia e dura. Per un computer non è affatto scontato, anzi.
Per riuscire nell’intento è stato necessario unire diversi elementi già sviluppati in passato: il braccio robot KUKA (nel video qui sotto) sviluppato dal CSAIL, a cui hanno aggiunto un sensore tattile chiamato GelSight creato dal MIT e un’Intelligenza Artificiale che recepisce le informazioni di GelSight e le usa per “imparare” quale relazione c’è fra le informazioni visive e quelle tattili.
Per insegnare all’Intelligenza Artificiale a identificare gli oggetti tramite il tocco, i ricercatori hanno registrato 12.000 video di 200 oggetti tessuti, strumenti e accessori domestici che venivano toccati. I video sono stati suddivisi in immagini fisse, e l’Intelligenza Artificiale le ha usate per creare una connessione fra dati tattili e visivi.
Yunzhu Li, dottorando del CSAIL e autore principale dello studio, spiega che “guardando la scena, il nostro modello può immaginare la sensazione di toccare una superficie piatta o un bordo tagliente. Può predire l’interazione con l’ambiente partendo dalle sensazioni tattili”. Un robot capace di unire le informazioni visive e quelle tattili potrebbe svolgere compiti che implicano la manipolazione e la presa di oggetti. Pensiamo ad esempio all’azione che si deve fare per afferrare e sollevare una tazzina o un pupazzo di peluche: sono differenti e richiedono movimenti diversi, e la capacità di prevederli.
La ricerca non è terminata perché al momento il robot può solo identificare oggetti in un ambiente controllato. Il prossimo passo sarà creare un set di dati più ampio, in modo che il robot possa lavorare con impostazioni diverse.