intelligenza artificiale

Trustworthy AI – Un contributo europeo sullo sviluppo dell'intelligenza artificiale (IA)

| 12/04/2019 08:56

a cura dell'avv. Alessandro Negri della Torre

L'8 aprile 2019, il High-Level Expert Group on Artificial Intelligence, costituito dalla Commissione europea e composto da 52 membri scelti (nel prosieguo il "Gruppo"), ha reso disponibile un documento denominato "Ethics Guidelines for Trustworthy AI". Il documento, frutto di un processo di consultazione pubblica che ha visto la partecipazione di oltre 500 contributori, affronta temi di grande interesse per coloro che sono impegnati nella progettazione, implementazione e gestione di AI nei più diversi settori.

L'obiettivo è quello di promuovere lo sviluppo di una "Trustworthy AI" (il termine potrebbe tradursi con "affidabile", ma per precisione terminologica si utilizzerà il termine originale) ed è chiara l'esigenza di fondo: guidare il processo di sviluppo tecnologico dell'intelligenza artificiale verso implementazioni che siano anche affidabili, sicure e benefiche per gli individui e la società. In tal senso, si leggono le comunicazioni del 25 aprile 2018 e del 7 dicembre 2018 nelle quali la Commissione europea ha tratteggiato la propria "vision" di una AI etica, sicura e all'avanguardia. Il documento affronta quindi il tema dei principi e dei requisiti da adottare e incorporare nel processo creativo o applicativo di una Trustworthy AI.

Tre sono gli elementi richiesti in una Trustworthy AI: (i) il fatto che sia rispettosa delle leggi applicabili; (ii) il fatto che sia "etica" e (iii) che sia robusta. Ciascun elemento – osservano gli autori – è necessario ma non sufficiente e questi elementi dovrebbe sussistere durante tutto l'arco dell'esistenza stessa della IA. Il primo punto, il rispetto delle norme legali applicabili, non è trattato a fondo nel documento mentre gli altri due sono oggetto di maggiore attenzione. Il documento è diviso in tre capitoli dove nel primo sono individuati i principi generali, nel secondo tali principi sono declinati in requisiti e metodi da usare nella implementazione e, nel terzo capitolo, sono descritti i criteri per arrivare ad una valutazione circa l'esistenza di una Trustworthy AI.

Nel primo capitolo, il Gruppo osserva come i principi fondamentali posti a fondamento dell'Unione europea (di creazione europea o comunque adottati e fatti propri dall'Unione) siano il punto di partenza per una IA etica (nonostante il rilievo nel documento circa la soggettività della nozione di "etica"). All'interno di questi, si richiamano più precisamente: il rispetto per la dignità della persona (soggetti e non oggetti da sottoporre a trattamenti automatizzati potenzialmente nocivi), la libertà degli individui (da proteggere da forme di coercizione dirette o indirette), il rispetto per il principio democratico e il principio di legalità, l'uguaglianza, la non discriminazione e il principio solidaristico, nonché il rispetto dei diritti del cittadino. Il Gruppo elenca quindi gli imperativi etici cui attenersi nello sviluppo o uso di una Trustworthy AI: il rispetto per il libero arbitrio umano, il fatto che la stessa non arrechi danni, il principio dell'equità e il fatto che l'operato del sistema sia trasparente e giustificabile.

Nel secondo capitolo, i principi sopra richiamati sono declinati (con elencazione non esaustiva) in requisiti che gli sviluppatori dovrebbero "incorporare" nei sistemi di IA: il controllo umano sul sistema, la sicurezza e robustezza tecnica, il rispetto della riservatezza dei dati personali e della loro gestione, la trasparenza, evitare forme di discriminazione e garantire trattamenti equi, perseguire benefici per la società e l'ambiente e infine garantire il controllo del sistema medesimo con predisposizione di strumenti di tutela. Di nota è l'osservazione che quanto prescritto non è solo perseguibile in fase di sviluppo tramite incorporazione dei principi e dei processi nella fase di design (un approccio ben noto in ambito data protection con l'approccio privacy-by-design), ma anche tramite un approccio non-tecnico mediante, ad esempio, cambiamenti all'architettura normativa (anche di settore) applicabile alle IA, adattamento delle policy interne degli utilizzatori nonché standardizzazione e certificazione dei sistemi IA.

Il terzo capitolo, infine, introduce una lista (ancora in fase di sviluppo) predisposta per sviluppatori e coloro che implementeranno IA con diversi quesiti/temi divisi per categorie (che richiamano i principi e i requisiti descritti nei capitoli precedenti) senza pretesa, ovviamente, di completezza o esaustività.

In attesa del successivo esercizio pilota che sarà avviato a fine giugno 2019 con istituzioni e stakeholders per approfondire le questioni trattate, non si può non sottolineare l'importante messaggio di fondo: la IA non è vista come un mero strumento libero da qualsiasi regola, ma una potente tecnologia in grado di spiegare i propri effetti sulle vite umane e, quindi, necessariamente soggetto a limiti, anche di natura etica.

Vetrina