L'auto driverless di Mountain view penalizzata dal comportamento degli esseri umani. Che improvvisano, interpretano le regole o le maltrattano. Problemi etici in caso di incidente: l'auto deve privilegiare gli occupanti o i passanti? Le grandi case si rivolgono a filosofi ed esperti
L’incubo peggiore per la Google car? Guidare a Milano con il traffico di una giornata di pioggia e di uno sciopero dei mezzi oppure trovarsi nel mezzo dei festeggiamenti per uno scudetto del Napoli. Due situazioni che metterebbero a dura prova il forte senso di legalità della driverless car. Come racconta il New York Times uno dei problemi dei prototipi che già circolano sulle strade americane è la presenza di quelle strane presenze, gli esseri umani, che guidano non rispettando rigorosamente le regole oppure, interpretandole.
Così cambiano corsia senza mettere la freccia, svoltano improvvisamente, non si fermano sulle strisce per fare passare i pedoni e molto altro ancora. Immaginiamo la Google car che si avvicina alle strisce pedonali. Non c’è nessuno poi improvvisamente compare una signora che vuole attraversare. La “svizzera” auto senza guidatore è programmata per fermarsi, mentre l’essere umano alla guida della vettura che segue dà per scontato che tiri dritto, oppure è semplicemente distratto. Ed è il crash.
E’ quanto è successo il mese scorso quando un’auto di Google è stata centrata da una vettura guidata da un essere umano proprio perché si era fermata alle strisce pedonali. In un test del 2009, invece, una driverless si fermò prima di entrare in un incrocio perché i suoi sensori aspettavano che gli altri guidatori si fermassero per lasciarla passare. Il classico flusso delle auto, che magari si limitavano a rallentare per permettere all’auto di passare, la mise in crisi, paralizzandola.
Il problema non riguarda solo Google, ma tutte le società impegnate nello sviluppo di auto di questo tipo. Secondo i ricercatori infatti una delle più grandi sfide è quella di fare circolare queste auto in un mondo dove gli umani non seguono le regole del codice della strada. “Il vero problema è che quest’auto è troppo sicura”, spiega Donald Norman, direttore del Laboratorio di Design presso l’Università della California a San Diego, che studia i veicoli autonomi. “Deve imparare a essere aggressiva nella giusta quantità”.
Dal 2009 a oggi le vetture di Mountain View hanno avuto 16 incidenti e, secondo quanto riferisce la società, tutti sono stati dovuti a errore umano. E anche quando, nell’agosto di quest’anno, l’auto ha rallentato per fare passare un pedone ed è stata tamponata, la frenata era stata opera del guidatore che aveva ripreso temporaneamente la guida dell’auto. Solo che il report sull’incidente lascia il dubbio che la frenata umana sia stata un po’ troppo brusca e che la driverless in quel caso avrebbe potuto fare meglio. L’unico incidente del quale Google ammette la responsabilità è avvenuto nell’agosto del 2011. Ma anche in quel caso un driver in carne e ossa si era sostituito al sistema.
Ma c’è un altro problema, forse ancora più complicato da risolvere. Il Nyt non ne parla, ma l’utilizzo dell’auto senza guidatore comporta anche qualche problema etico. Come dovrebbe comportarsi una di queste vetture in caso di possibile incidente? Sacrificare i suoi occupanti contro il camion che si parato di fronte all’improvviso oppure sterzare sul marciapiede affollato? La questione è seria al punto che Ford, General Motors, Audi, Renault e Toyota hanno fatto ricorso a esperti di etica e filosofi che al centro della Stanford University for Automotive Research hanno avviato le discussioni. Perché alla fine, come sostiene Chris Gerdes, responsabile del centro di Stanford “non c’è ancora un sensore che funziona come l’occhio o il cervello umano”.