Approfondimenti
03/05/2019

Etica della guida autonoma

By: Raffaele Maurici

Rischi e opportunità dell’ethics by design

I veicoli a guida autonoma rappresentano oggi un settore tra i più promettenti, in esso convergono le strategie e gli investimenti dei principali player del comparto hi tech e dell’automotive tradizionale. Si stima che il mercato del settore possa raggiungere i 42 miliardi di dollari entro il 2025, con un tasso annuo di crescita composto (CAGR) al 21% fino al 2030.  [1]

I vantaggi che la nuova tecnologia offre sono numerosi: risparmio di tempo, minore congestione del traffico, riduzione delle emissioni, contenimento dell’inquinamento luminoso e acustico, diminuzione del consumo di energia e della dipendenza dai combustibili fossili, migliori potenzialità per il trasporto pubblico, riduzione dell’esclusione sociale e mobilità più inclusiva.

L’Organizzazione Mondiale della Sanità (OMS) calcola che, nel mondo, perdano la vita ogni anno circa 1,35 milioni di persone. Si tratta di perdite umane riconducibili in gran parte all’errore umano. È quindi lecito attendersi che un utilizzo su larga scala di veicoli a guida autonoma possa ridurre in modo significativo le morti sulla strada. Nel decennio successivo alla sua diffusione di massa di questa tecnologia, prevista intorno al 2035, si stima di poter salvare fino a 585 mila vite umane.

A lungo, il dibattito sui veicoli a guida autonoma si è focalizzato principalmente sulle sfide tecniche, normative e commerciali. La riflessione etica sul tema è emersa più lentamente, inizialmente circoscritta sulla potenziale di riduzione degli incidenti mortali, nel tentativo di comprendere se fosse necessario attendere la completa maturazione della tecnologia o se fosse auspicabile un’adozione più precoce, di certo più problematica ma in grado di migliorare al più presto il bilancio delle vittime della strada.

Solo recentemente la riflessione etica si è estesa a temi più controversi, come quello delle responsabilità.  Se un’auto a guida autonoma effettua un incidente, di chi è la responsabilità? Di fronte a macchine capaci di prendere decisioni e di autoapprendere, la normativa attuale può dimostrasi efficace? In caso di incidente o malfunzionamento, possiamo fare appello al codice del consumo per prodotti difettosi? Il soggetto che detiene l’auto in custodia è responsabile? E chi è il custode? Il passeggero? O la rete che la governa? Considerato che è in grado di prendere decisioni in autonomia, possiamo trattarla alla stregua di un minore con ridotta capacità di discernimento o di un essere animale sfuggito al controllo del proprietario?

La difficoltà di applicare la normativa vigente e di assegnare le responsabilità dei vari attori in gioco, ha reso chiara l’urgenza di specifiche linee guida etiche e normative per il settore.

La consapevolezza di dover coniugare meglio innovazione tecnologica e responsabilità sociale è ben testimoniata dall’avvio del primo corso universitario di “Ethics for Technology” rivolto a studenti di Ingegneria del Politecnico di Milano. Un corso che affronta non solo le  problematiche etiche della progettazione dei sistemi tecnologici e della gestione dei rischi, ma anche la questione, sempre più attuale, della distribuzione della responsabilità in ingegneria.

In situazioni critiche di malfunzionamento o in caso di incidente, il comportamento di un’automobile a guida autonoma può avere esiti drammatici, con implicazioni etiche rilevanti, come, per esempio, decidere se sacrificare i passeggeri o in alternativa i pedoni.

Sulla rivista Nature, nello scorso ottobre, è stato pubblicato lo studio The Moral Machine Experiment [2], condotto dai ricercatori del Media Lab e dell’Institute for Data System & Society del Massachusetts Institute of Technology, del dipartimento di biologia dell’evoluzione umana dell’università di Harvard, del dipartimento di psicologia dell’università della British Columbia e della Toulouse School of Economics.

Si tratta del più vasto studio di psicologia morale mai realizzato. Oltre due milioni di persone, provenienti da 233 paesi diversi, hanno risposto a una batteria di quiz online, generando oltre 40 milioni di decisioni. L’esperimento propone ai partecipanti una sequenza di 13 scenari, ciascuno dei quali prevede un diverso adattamento al contesto della driverless car di un dilemma classico di filosofia etica, noto come il problema del carrello ferroviario, elaborato da Philippa Ruth Foot nel 1967 e successivamente rielaborato da Judith Jarvis Thomson nel 1976.  Si tratta di simulare una serie di incidenti non evitabili che implicano la morte di almeno un individuo. Compito dei partecipanti è affrontare il dilemma morale di dover decidere se sacrificare i passeggeri a bordo dell’automobile o i pedoni che attraversano la strada. I vari scenari differiscono per il numero di persone coinvolte, per la loro età, genere, status sociale e atteggiamento verso le norme sociali; alcuni scenari prevedono la presenza di animali.

Lo studio ha evidenziato che è possibile individuare un ristretto nucleo di principi etici condivisi dall’intero campione: salvare il maggior numero di persone, privilegiare le vite più giovani e gli esseri umani rispetto agli animali.  Nel suo insieme però lo studio ha dimostrato che i principi etici non sono universali, ma dipendono dalla cultura e dall’area geografica di provenienza, dallo status sociale ed economico.

I dati mostrano che paesi geograficamente vicini tendono a mostrare profili morali simili e, in tal senso, i ricercatori hanno potuto delineare tre macro-aree distinte – gruppo occidentale, orientale e del sud – ciascuna con differenze di orientamento etico.

Il fatto che la ricerca non abbia riscontrato l’esistenza di una morale universale condivisa rende evidente quanto sia complesso declinare prospettive etiche all’interno dei processi decisionali automatici di una driverless car.

Sebbene, ad oggi, i produttori di veicoli a guida autonoma tendano a fornire limitate informazioni sui processi decisionali adottati negli algoritmi, è prevedibile che i consumatori, al di là delle affermazioni di principio sostenute in un quiz online, difficilmente si dimostrerebbero propensi a salire a bordo di veicoli che “eticamente” siano disposti a sacrificarli in caso di incidente.

Altrettanto problematica risulta la prospettiva di declinare all’interno degli algoritmi la complessità e la diversità di approccio etico oggi presente nel mondo. La suggestione di Asimov che ipotizzava macchine capaci di esprimere una condotta etica elementare, basata sul rispetto di un ristretto numero di principi, appare difficilmente applicabile e, in tal senso, le recenti  linee guida europee indicano espressamente che la responsabilità del comportamento delle macchine intelligenti resta, sempre e comunque, da ricondurre all’uomo.

A tal proposito, un gruppo di giuristi e ricercatori italiani dell’Università di Bologna ha suggerito l’adozione di un Ethical Knob [3], una sorta di manopola etica che consenta alla persona a bordo di scegliere, nella prospettiva di un incidente, tra tre diverse opzioni di guida: altruistica, egoistica ed imparziale. In tal modo l’utilizzatore potrebbe assumere in prima persona la responsabilità di influenzare la strategia delle decisioni critiche ed evitare che esse siano affidate unicamente alle macchine.

Grazie all’Ethical Knob, resterebbe affidata all’individuo la possibilità di adottare una prospettiva personale su come affrontare il dilemma se privilegiare le vite dei pedoni o quelle dei passeggeri.  Resterebbe comunque aperta la questione se stabilire o meno dei limiti a questa libertà di scelta.

Sul fronte invece dell’autonomia delle macchine, una recente ricerca dell’Università di Stanford [4], pubblicata su Science Robotics, ha dimostrato come i nuovi modelli di guida autonoma siano sempre più in grado di fronteggiare la gestione degli imprevisti. Apprendendo dalle esperienze passate, grazie all’intelligenza artificiale, possono meglio valutare le informazioni ricevute in tempo reale dalla sensoristica e rendere più sicura la guida anche in condizioni ambientali estreme o in situazioni non previste. A giudizio dei ricercatori, grazie all’integrazione di esperienze pregresse e dati raccolti in real time, i nuovi modelli di guida autonoma testati hanno saputo eguagliare le prestazioni di un pilota esperto.

Sempre di recente, un acceso dibattito [5] è stato sollevato attorno alla concreta possibilità che gli algoritmi che governano le automobili a guida autonoma possano risultare condizionati da bias che limitino l’individuazione – e quindi la sicurezza – di alcune tipologie di pedoni. Una ricerca condotta presso il Georgia Institute of Technology ha evidenziato che i sistemi di riconoscimento delle immagini rilevano i pedoni di pelle più scura con una accuratezza ridotta del 5 per cento. Si tratta di una distorsione che viene introdotta in fase di addestramento degli algoritmi e che segnala la necessità di predisporre set di dati più inclusivi e di introdurre linee guida etiche efficaci anche nelle fasi preliminari dei progetti, la cosiddetta ethics by design.

L’etica by design è un principio guida che la Commissione Europea ha indicato con chiarezza nel documento  Draft Ethics guidelines for trustworthy AI, dove l’adozione di un approccio etico “affidabile” è ritenuta la strategia di riferimento per migliorare la competitività dell’intelligenza artificiale europea, partendo dall’idea che accrescendo la fiducia degli utenti nell’AI sarà possibile favorirne una diffusione più ampia e partecipata.

L’ethics by design rappresenta oggi la via maestra per superare bias, distorsioni e conflitti di interessi, che altrimenti resterebbero annidati negli algoritmi e nei loro processi decisionali impliciti. Oltre a mostrarci la necessità di correggere discriminazioni e asimmetrie introdotte inavvertitamente negli algoritmi, l’ethics by design ci mette in guardia anche sul rischio che gli algoritmi decisionali possano venire considerati e utilizzati come una promettente scorciatoia per l’applicazione di politiche sociali. Comincia infatti ad emergere, nel dibattito sull’etica della tecnologie, l’idea che gli algoritmi possano essere configurati per operare come fossero delle politiche. E’ una visione ricca di incognite, rischi e opportunità. E’ un cambio di prospettiva molto audace che estende enormemente la complessità dell’impatto dell’innovazione tecnologica. In questa prospettiva, non si tratta solo di stabilire se in uno scenario specifico l’automobile a guida autonoma debba sterzare o andare dritto, ma chiedersi anche che tipo di mondo stiamo creando nel momento in cui implementiamo nelle macchine prestabiliti principi etici e decisionali.  Ad esempio, che tipo di mondo stiamo creando quando codifichiamo in un algoritmo di un veicolo a guida autonoma la scelta di privilegiare la salvaguardia della vita di un bambino a scapito di quella di un anziano? Quali saranno gli effetti cumulativi nei diversi contesti sociali di questa decisione? Implementare processi decisionali in dispositivi intelligenti che operano nella quotidianità, significa dare vita non solo a soluzioni che facilitano le attività umane, ma anche vere e proprie politiche, processi tipici della negoziazione sociale, fino ad oggi mediati dall’interazione interpersonale, che rischiano di divenire dinamiche implicite, annidate nelle tecnologie, difficilmente visibili ai più.

I primi esiti della riflessione etica sui veicoli a guida autonoma ci segnalano la necessità di una visione più sistemica rispetto a quella finora adottata nei centri di sviluppo tecnologico, in grado di considerare meglio gli effetti sociali accumulativi delle soluzioni adottate e di perseguire una prospettiva etica già nelle fasi iniziali della progettazione. E’ una visione che conduce verso un’etica by design. Una prospettiva che per avere successo, necessariamente dovrà dimostrarsi democratica e partecipata.

 

Raffaele Maurici è presidente di Innovation Agency e membro del comitato direttivo dell’Istituto Italiano di Bioetica.

 

RIFERIMENTI

[1] The Rise Of Autonomous Vehicles And Why Ethics Matter

https://www.digitalistmag.com/improving-lives/2019/04/02/rise-of-autonomous-vehicles-why-ethics-matter-06197534

[2] The Moral Machine experiment

https://www.nature.com/articles/s41586-018-0637-6

[3] “The Ethical Knob: ethically-customisable automated vehicles and the law”

https://link.springer.com/article/10.1007/s10506-017-9211-z

[4] Stanford autonomous car learns to handle unknown conditions

https://news.stanford.edu/press/view/27012

[5] “Self-driving cars may be more likely to hit you if you have dark skin”, MIT Technology

https://www.technologyreview.com/f/613064/self-driving-cars-are-coming-but-accidents-may-not-be-evenly-distributed/