Approfondimenti
15/02/2019

Verso il codice etico europeo dell’intelligenza artificiale

By: Raffaele Maurici

Allo studio una soluzione condivisa sempre più urgente

L’intelligenza artificiale è un’innovazione tecnologica che, più di altre, è suscettibile di modificare in modo imprevisto il nostro tessuto sociale. Negli ultimi anni questa tecnologia ha compiuto significativi progressi, mettendo a frutto la disponibilità di enormi quantità di dati digitali, la crescente potenza di calcolo e lo sviluppo del machine learning.

Sempre meno confinata nei laboratori, l’intelligenza artificiale comincia oggi ad operare, in modo sempre più pervasivo, negli ambienti lavorativi e nella quotidianità di un numero enorme di persone. Uno sviluppo molto rapido ma solo in parte controllato, che, pur promettendo di generare grandi vantaggi per la società, comporta rischi e problemi etici che dovrebbero essere gestiti in modo adeguato. Sono maturi i tempi per un codice etico che ne orienti la progettazione, l’implementazione, l’utilizzo e la regolamentazione.

A tal fine, la Commissione Europea ha pubblicato, il 18 dicembre scorso, una bozza di linee guida per lo sviluppo di sistemi affidabili di intelligenza artificiale Draft Ethics guidelines for trustworthy AI1. Il documento si propone di indicare uno specifico orientamento etico all’IA ed è stato redatto da un gruppo di esperti ad alto livello (AI HLEG High-Level Expert Group on Artificial Intelligence), istituito dalla Commissione Europea individuando 52 esperti provenienti dal mondo accademico, economico e della società civile, compresi quattro italiani: Andrea Renda, Francesca Rossi, Giuseppe Stefano Quintarelli e Luciano Floridi. Dopo un’approfondita consultazione pubblica con i portatori di interessi tramite la piattaforma dell’Alleanza europea per l’IA, si prevede per marzo 2019 la presentazione di una versione finale del documento.

Alle linee guida etiche seguirà, entro la metà dell’anno, un secondo documento, sempre a cura del gruppo di esperti AI HLEG, contenente specifiche raccomandazioni politiche e di investimento.

 

Draft Ethics guidelines for trustworthy AI costituisce oggi, nel panorama del dibattito etico, una proposta indubbiamente chiara e innovativa per contenuti, formulazione ed approccio metodologico. Con un’impostazione prevalentemente top-down, il documento è indirizzato a sensibilizzare ed orientare secondo una prospettiva soprattutto chi sviluppa e implementa i sistemi di intelligenza artificiale. Al momento, la proposta si prospetta su un piano squisitamente etico e, pertanto, si affida alla volontà di adesione dei destinatari. La formulazione del documento resterà aperta e destinata ad essere aggiornata periodicamente e in relazione agli avanzamenti dell’innovazione e della tecnologia.

L’impianto del lavoro appare solido sia sul piano teorico sia su quello della concretezza, offrendo una chiara correlazione tra il quadro di principi e valori etici a cui fa riferimento e un insieme di requisiti ed indicazioni operative in grado di guidare sin dalle prime fase di progettazione, in una prospettiva etica, il ciclo di vita dei sistemi di intelligenza artificiale.

A fondamento della proposta, l’Europa ritiene necessario un approccio antropocentrico allo sviluppo dell’intelligenza artificiale, che metta costantemente al centro delle finalità l’essere umano nella sua interezza, senza mai considerare la tecnologia un obiettivo di per sé, ma uno strumento per il miglioramento del benessere umano.

Un fattore chiave che deriva da questa impostazione è la convinzione che la diffusione della tecnologia non può prescindere da aspetti assai rilevanti nella dimensione umana, quali la fiducia e l’affidabilità. In tal senso, l’approccio europeo introduce la nozione di intelligenza artificiale “affidabile” (Trustworthy AI). Se questa saprà dimostrarsi affidabile, gli utenti potranno fidarsi di essa, favorirne la diffusione, generando un circolo virtuoso tra innovazione  e benefici sociali.

Per adoperarsi per una IA affidabile e antropocentrica è necessario basarsi sui diritti fondamentali, già indicati nella Carta dei Diritti Fondamentali dell’Ue, mettendoli in relazione con un sistema di principi e valori che dovranno, in ultima istanza, tradursi in requisiti per lo sviluppo e l’operatività dei sistemi di intelligenza artificiale.

In linea con le raccomandazioni elaborate da AI4People “An Ethical Framework for a Good AI Society”2 e con le riflessioni più avanzate del dibattito pubblico e accademico sul tema, il documento indica cinque principi da porre a fondamento di un’intelligenza artificiale etica ed affidabile:

  • il principio di beneficenza (“fare del bene”), che implica che l’intelligenza artificiale debba perseguire il fine di aumentare il benessere individuale e sociale;
  • il principio di non maleficenza (“non nuocere”), che presuppone che l’intelligenza artificiale non dovrebbe danneggiare gli esseri umani;
  • il principio di autonomia (“preservare l’autodeterminazione dell’essere umano”), inteso come rispetto dell’agente umano e della sua libertà decisionale, nel senso che la volontà dell’essere umano non potrà essere controllata o subordinata a un’intelligenza artificiale;
  • il principio di giustizia (“essere equo”), che implica che i sistemi di intelligenza artificiale assicurino il pari trattamento degli esseri umani e debbano essere esenti da pregiudizi e discriminazioni o pregiudizi verso individui o minoranze, prevenendo anche il rischio di distorsioni (bias) che gli esseri umani possono inserire nella tecnologia anche non intenzionalmente;
  • il principio di trasparenza (“operare in modo trasparente”), che richiede che i processi decisionali dei sistemi di IA siano controllabili, comprensibili e intellegibili per esseri umani dotati di diversi livelli di conoscenza ed esperienza.

All’interno del quadro di diritti e principi di riferimento, la proposta dell’AI HLEG individua anche dieci requisiti necessari per l’affidabilità dei sistemi di intelligenza artificiale:

  • Responsabilità, intesa come un impianto di attribuzione delle responsabilità ma anche di criteri per le sanzioni e i risarcimenti;
  • Controllo dei dati, che comprende la registrazione dei dati, la prevenzione di manipolazioni e la possibilità di intervenire su di essi per prevenire bias e distorsioni;
  • Design for All, che implica l’accessibilità senza discriminazione ai servizi e ai prodotti dell’intelligenza artificiale;
  • Supervisione umana dell’autonomia dell’IA, intesa come controllo umano sui processi decisionali e sulle raccomandazioni dei sistemi di intelligenza artificiale, che dovrà crescere all’aumentare delle capacità di autonomia della tecnologia;
  • Non discriminazione; intesa come prevenzione dei bias e delle discriminazione implicite in fase di progettazione e programmazione;
  • Rispetto e miglioramento dell’autonomia umana, che implica la prevenzione in fase di progettazione dei possibili abusi che governi o privati possono realizzare grazie alle nuove tecnologie;
  • Rispetto della privacy, intesa come controllo e protezione dei dati forniti direttamente dall’utente o generati dal sistema;
  • Robustezza, che prevede algoritmi e tecnologie in grado di far fronte ad errori e incongruenze, di garantire l’accuratezza, l’affidabilità e la riproducibilità dei dati, di mostrare resilienza agli attacchi;
  • Sicurezza, intesa come prevenzione dei danni alle persone, alle risorse e all’ambiente;
  • Trasparenza, che implica la riduzione dell’asimmetria informativa e la capacità di esplicitare, ispezionare e verificare i processi che generano le decisioni dell’IA.

Draft Ethics guidelines for trustworthy AI rappresenta un contributo di rilievo all’interno del dibattito pubblico sugli aspetti etici dell’intelligenza artificiale e ha l’indubbio merito di spostare l’orientamento dalla semplice enunciazione del quadro generale dei principi e dei valori alla formulazione di linee guida, requisiti e persino checklist di valutazione che introducano i temi etici in tutte le fasi del ciclo di vita dei sistemi di IA, e forse di una prospettiva etica “by design”.

In attesa di comprendere come la proposta per le linee guida etiche sull’intelligenza artificiale si concretizzerà nel documento finale previsto per il mese di marzo e soprattutto nel documento di raccomandazioni politiche e di investimento atteso per metà anno, è possibile sviluppare alcune riflessioni sulla strategia che ispira l’iniziativa europea.

In analogia con la strategia attuata in tema di riservatezza dei dati, dove ha imposto l’obbligo di conformarsi al Regolamento Generale sulla Protezione dei Dati (GDPR) a chi intende operare in Europa o trattare dati di cittadini europei, l’Europa aspira anche in tema di approccio etico all’intelligenza artificiale a costituirsi come standard di riferimento, consentendole di affermarsi come leader globale nel campo dell’intelligenza artificiale etica, sicura e all’avanguardia.  Lo scopo è mostrare all’attenzione mondiale l’approccio etico dell’Europa, coinvolgendo paesi terzi disposti a condividerne principi e valori.

Resta da comprendere se l’adozione di un approccio etico “affidabile” si dimostrerà in grado di migliorare la competitività dell’intelligenza artificiale europea, perché accrescendone la fiducia degli utenti si dimostrerà capace di favorirne una più ampia diffusione. Oppure se, viceversa, l’Europa sarà in grado di  diffondere un approccio etico all’intelligenza artificiale, solo se si dimostrerà competitiva sui mercati globali.

Lo scenario di riferimento globale risulta oggi complesso; ad oggi l’approccio etico all’IA risulta molto articolato e riflette la diversità di modelli culturali, tessuti socio-economici e interessi geopolitici che condizionano lo sviluppo e l’utilizzo dell’intelligenza artificiale.

La Cina sembra procedere, senza eccessive remore, verso un sistema di controllo di massa, con l’attuazione di un Social Credi System che implica un uso crescente dell’intelligenza artificiale. Negli Stati Uniti s’intravedono soprattutto le iniziative della società civile e dei grandi player digitali, che spingono, con prospettive diverse,  per una regolamentazione in chiave etica dell’intelligenza artificiale.

Nell’ottobre 2018, la Public Voice Coalition ha pubblicato le “Universal guidelines for Artificial intelligence”, in gran parte in linea con principi ispiratori della bozza delle Linee Guida dell’Europa. Verso principi di regolamentazione meno restrittivi e mirati ad casistiche e ambiti applicativi si muovono invece i grandi player globali, in particolare Google che ha recentemente diffuso il suo libro bianco “Perspectives on Issues in AI Governance3.

Sono solo alcuni esempi di un dibattito molto animato che vede in campo numerosi soggetti, spesso essi stessi portatori di interessi e prospettive talvolta ambivalenti, come dimostra la crescente casistica di questioni etiche legate all’utilizzo dell’intelligenza artificiale che vedono contrapposti il management e i dipendenti degli stessi player globali. Contrapposizioni che possono trovare una chiave di risoluzione facendo riferimento a un codice etico condiviso, come verificatosi nel caso Project Maven che ha visto Google rinunciare allo sviluppo di un progetto militare del Pentagono.

Ambivalenza etica che è d’altronde insita in gran parte dei sistemi di intelligenza artificiale, ma che rispecchia le finalità di chi li ha sviluppati e di chi li utilizza. Lo stesso sistema di riconoscimento facciale può essere utilizzato per ritrovare bambini smarriti o per facilitare la sorveglianza diffusa della popolazione. Più semplicemente, gli algoritmi dell’intelligenza artificiale possono essere utilizzati per il bene o il male, proprio per questo l’adozione di un codice etico condiviso è percepita come necessaria e sempre più urgente.

Raffaele Maurici è Presidente di Innovation Agency e membro del comitato direttivo dell’Istituto Italiano di Bioetica.

 

RIFERIMENTI

  1. Draft Ethics guidelines for trustworthy AI (18 dicembre 2018)

https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=57112

  1. AI4People – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations (dicembre 2018)

http://home.deib.polimi.it/colombet/AI/3%20Teaching%20material/AI4People-AnEthicalFramework.pdf

  1. Google – Perspectives on Issues in AI Governance (gennaio 2019)

https://ai.google/static/documents/perspectives-on-issues-in-ai-governance.pdf