In futuro passeremo da macchine che eseguono direttive a macchine in grado di decidere. Il che, applicato alla guida autonoma, significa auto "senzienti" che saranno capaci di scegliere i comportamenti più adeguati. Per fare questo, i ricercatori del MIT da tempo sperimentano una piattaforma online chiamata Moral Machine. Nel frattempo, dagli Usa arrivano indiscrezioni sul sinistro che ha coinvolto una vettura Uber e provocato la morte di Elaine Herzberg: il radar-laser dell'auto sarebbe stato disattivato
In futuro il pilota automatico per auto potrà sostituire il guidatore in carne e ossa. Perciò la sfida di oggi (e domani) è insegnare alle macchine come gestire situazioni limite. Ad esempio, in caso di una collisione inevitabile (per un guasto semaforico, tecnico, o per colpa di persone che si parano improvvisamente in strada, etc.) come dovrà comportarsi l’intelligenza artificiale che controllerà il veicolo? Dare precedenza alla salvaguardia di chi occupa l’abitacolo o agli altri utenti della strada? Proteggere in primis il guidatore, il ciclista che sbuca “dal nulla” o il pedone? E se quest’ultimo attraversa col rosso?
Tanti possibili scenari a cui il Massachusetts Institute of Technology (una delle più importanti università di ricerca del mondo, con sede a Cambridge, vicino a Boston, Usa) sta tentando di dare una risposta con la “Moral Machine”: trattasi di una piattaforma on line – già visitata da milioni di naviganti – che permette al pubblico di descrivere come vorrebbe fosse programmato il cervello elettronico dell’automobile e come dovrebbe comportarsi nelle eventualità più estreme.
Secondo i suoi creatori, la Moral Machine servirà per studiare una sorta di “codice etico” cibernetico, senza la presunzione di farlo diventare l’unico discriminante fra i numerosi algoritmi di funzionamento che governano l’autonomous driving. A dire il vero, nei momenti di panico, difficilmente gli esseri umani prendono decisioni “morali”: più semplicemente “cercano di evitare il peggio”, sostengono gli studiosi. Probabilmente le auto del futuro proveranno a fare lo stesso, col valore aggiunto di essere programmate per rispettare sempre i limiti di velocità: fattore molto spesso essenziale per dribblare i pericoli.
Nel frattempo proseguono le polemiche per l’incidente di Uber in cui ha perso la vita una donna americana. In questo caso però l’intelligenza artificiale non c’entra: oltre alla sciagurata distrazione del safety-driver che supervisionava il test, alcune indiscrezioni suggeriscono che al momento dell’incidente uno dei sistemi di rilevamento dell’auto, il lidar (telerilevamento laser), fosse spento. Una scelta tecnica che potrebbe essere stata dettata dalla volontà di sperimentare un autopilota più economico da costruire e da vendere. L’ipotesi deve ancora essere confermata ma, se vera, farebbe aumentare le responsabilità a carico di Uber.