9 Lug 2016

Google Car, ha un bel problema

Un prototipo della Google Car.

Un prototipo della Google Car.

È dei giorni scorsi la notizia del primo incidente mortale in una vettura che viaggiava con il pilota automatico. A maggio in Florida il conducente di una Tesla Model S che aveva in quel momento inserito il sistema Autopilot (una specie di guida semiautomatica) ha perso la vita. La Tesla ha subito precisato che si tratta del primo incidente mortale dopo 200 milioni di chilometri percorsi dalle vetture di questo tipo,  ma non ha potuto impedire l’inchiesta negli Usa dell’NHTSA, l’ente federale Usa per la sicurezza stradale.

Intanto resta vivace il dibattito sugli algoritmi con cui programmiamo le auto a guida autonoma, le Google Car, per intenderci: in base agli algoritmi che i programmatori, cioè l’uomo, le assegneranno, l’auto “saprà” come comportarsi. Ora, è certo che la Google Car potrà risparmiare migliaia di incidenti e di vittime, per la semplice ragione che non è suscettibile del classico “errore umano”. Semmai è emerso che proprio la scrupolosa attenzione e osservanza del Codice stradale potrebbe provocare degli incidenti, perché impatterebbe con l’umana tendenza a fare il contrario…

Tuttavia è un’altra questione a sollevare i problemi più spinosi, perché sconfina dall’ambito prettamente tecnologico in quello filosofico ed etico. Per spiegare di che cosa stiamo parlando, conviene fare un esempio: la nostra Google Car con un passeggero a bordo sta viaggiando tranquilla, “vede” un semaforo verde e quindi procede per la sua strada. All’improvviso un gruppo di pedoni attraversano, noncuranti del rosso. In situazioni del genere, che cosa dovrà fare la Google Car? Investire i pedoni, perché non hanno rispettato la segnaletica? Oppure buttarsi di lato, per salvarli, con l’alta possibilità di ferire o uccidere il suo passeggero? Che cosa è giusto fare?

La situazione si può complicare ulteriormente, in base alle varianti immaginabili: se il passeggero è una donna incinta? Se ad attraversare la strada sono dei bambini? E così via…

Qualcuno ha provato a proporre la celebre dottrina del male minore come soluzione. Ma siamo sicuri che sia davvero una soluzione? Oppure non è, in questo caso, un criterio eccessivamente utilitaristico? E come calcolare, ammesso che sia possibile, il “valore” delle persone? Basta un criterio quantitativo a dirimere il dilemma: il valore dipende dal numero di persone in gioco, cioè meglio sacrificarne una per salvarne ad esempio quattro? E se quell’unica persona è una madre incinta, appunto?

Inutile dire che la Google Car, con tutta la sua fiammante e avveniristica tecnologia, non è in grado di rispondere a queste domande. Reagirà alla situazioni in base ai comandi, agli algoritmi che le verranno trasmessi da noi uomini. E quindi: come vogliamo configurarla? Nelle situazioni prospettate, dovrà seguire la teoria del male minore? Oppure?

Vale la pena aggiungere che alcune ricerche hanno evidenziato che tutti noi siamo d’accordo, in linea di massima, che è preferibile salvare quattro vite sacrificandone una sola. Salvo che quella vita da sacrificare sia la nostra. Il che significa che nessuno comprerebbe un’auto a guida autonoma programmata per sacrificare il suo passeggero al fine di salvare altre vite…

La tecnologia sembra più evoluta della nostra capacità di dare risposte etiche…

L’articolo è stato pubblicato l’1-7-2016 su Famigliacristiana.it

Leave a comment

Chi sono

Sono nato a Vicenza nel 1968. Mi sono laureato in Filosofia a Padova con una tesi su Martin Heidegger, poi ho frequentato il Biennio di giornalismo dell’Ifg di Milano. Sono caporedattore e responsabile del settore Cultura e spettacoli di Famiglia Cristiana. Mi sto occupando di Filosofia per bambini e per comunità (P4C). [leggi tutto…]

Preghiere selvatiche

There's a blaze of light In every word It doesn't matter which you heard The holy or the broken Hallelujah
Leonard Cohen