Nei laboratori del MIT è nato STAG, un guanto tattile che raccoglie dati per istruire le Intelligenze Artificiali sui movimenti delle mani quando afferrano oggetti. I dati che raccoglie aiuteranno a progettare protesi migliori.
I ricercatori del Computer Science & Artificial Intelligence Lab del Massachusetts Institute of Technology hanno progettato un guanto a basso costo, pieno di sensori, che permette alle Intelligenze Artificiali di “imparare” a identificare gli oggetti tramite il tocco. Potrebbe essere importante per aiutare la progettazione di protesi e bracci robotici di nuova generazione.
L’idea cerca di porre rimedio a un importante problema di molte protesi: non consentono a chi le indossa di avere una sensibilità tattile. “Gli esseri umani possono identificare e gestire bene gli oggetti perché hanno un feedback tattile. Quando tocchiamo oggetti, ci rendiamo conto di cosa sono anche senza guardarli. I robot non hanno questa dote” ha spiegato il ricercatore Subramanian Sundaram. “Abbiamo sempre desiderato che i robot possano fare ciò che fanno gli umani, come lavare i piatti o altro”.
Il “guanto tattile scalabile” (STAG, in inglese Scalable Tactile Glove) progettato dai ricercatori statunitensi è dotato di circa 550 piccoli sensori su quasi tutta la mano. Ogni sensore cattura i segnali di pressione quando chi lo indossa interagisce con gli oggetti. Le informazioni vengono convogliate in una rete neurale, che li elabora e “apprende” modelli di pressione associati a oggetti specifici. A questo punto il sistema utilizza i set di dati per classificare gli oggetti e prevederne il peso, senza bisogno di input visivi.
A indossare il guanto non sono i portatori di protesi, ma persone normodotate che aiutano a raccogliere la quantità maggiore possibile di dati. Saranno poi i produttori di protesi a sfruttare questo patrimonio di informazioni per produrre prodotti più avanzati di quelli attuali. In un articolo pubblicato sulla prestigiosa rivista Nature, i ricercatori descrivono i set di dati che hanno compilato usando il guanto mentre maneggiavano 26 oggetti comuni, come ad esempio una lattina, delle forbici, una pallina da tennis, un cucchiaio, una penna e una tazza. Il set di dati così realizzato include circa 135.000 fotogrammi video.
I ricercatori hanno ottimizzato i sensori per misurare la cooperazione tra le regioni della mano durante l’interazione con gli oggetti. Ad esempio, quando qualcuno usa la parte centrale dell’indice, raramente usa il pollice. Ma le punte dell’indice e del medio vengono sempre impiegate insieme al pollice. Queste informazioni posso servire a scegliere i punti ottimali in cui posizionare i sensori di pressione delle protesi. Grazie alle informazioni raccolte, il sistema ha previsto il peso degli oggetti con una precisione fino al 76%.
Fra gli aspetti di rilievo di STAG c’è il costo: solo 10 dollari, contro le migliaia di dollari di prodotti simili in circolazione, che contengono meno sensori. Il passo avanti è stato possibile grazie all’impiego di materiali ampiamente disponibili in commercio.