L'esercizio della giurisdizione al cospetto dell'Intelligenza Artificiale. L'utilizzo di algoritmi predittivi in sede giudiziaria

| 30/10/2019 09:11

Commento a cura dell'Avv. Carlo Tremolada, partner dello studio legale Arata e Associati

Il fenomeno dell'intelligenza artificiale rappresenta il punto più avanzato di quella rivoluzione tecnologica che, nel suo inarrestabile procedere, ha investito ormai in profondità settori sempre più ampi dell'esistenza del singolo e della comunità.

Benché non esista una definizione univoca e condivisa di "intelligenza artificiale", tutti sappiamo di che si tratta: sull'intelligenza artificiale fanno leva i motori di ricerca utilizzati in internet e le varie app che ciascuno di noi scarica sul proprio smartphone; l'intelligenza artificiale è alla base dei veicoli a guida autonoma, del funzionamento dei droni e dell'efficientamento di numerose funzioni all'interno degli ospedali.

Ma più che la molteplicità delle attuali applicazioni di A.I., è l'impressionante efficacia dei sistemi di intelligenza artificiale a destare più di un interrogativo, se sol si pensa che gli algoritmi di ultima generazione paiono in grado non solo di produrre l'attuazione dei comandi ricevuti, ma addirittura di auto apprendere dall'esperienza ed assumere decisioni in autonomia (c.d. machine learning).

Solo il tempo potrà confermare i timori di coloro che ritengono che in un futuro neppure molto lontano la formidabile evoluzione dei sistemi di a.i. ridurrà l'uomo a puro spettatore delle decisioni della macchina, anche nello specifico settore che qui interessa, quello relativo all'esercizio della giurisdizione.

Benché non manchino motivi di inquietudine al riguardo, pare tuttavia molto più sensato limitarsi ad illustrare con il presente articolo sino a quale punto è giunto oggi l'utilizzo degli algoritmi in ambito giudiziario, segnalando l'indubbio contributo che l'intelligenza artificiale a supporto della giustizia può dare (in termini di efficacia e velocità in alcuni aspetti della complessa funzione giudiziaria) e, al tempo stesso, i limiti e le criticità di un simile impiego, anche in considerazione della peculiarità del bene pubblico in argomento.

Occorre dunque precisare che parlare del rapporto tra intelligenza artificiale e Giustizia non significa evocare fantasiose figure di "giudici – robot" o "robot- lawyer" chiamati a dirimere la controversia con perfetta (utopistica) equidistanza. Lo stato dell'arte è molto meno avveniristico, e vede (l'uomo) giudice e (l'uomo) avvocato impegnati in uno sforzo comune volto a rendere, anche attraverso l'impiego di software di ultima generazione, più efficiente un servizio pubblico tanto decisivo per la convivenza umana quanto mal governato e povero di risorse.

Parlare di intelligenza artificiale in ambito giudiziario – infatti - significa oggi (e significherà ancora per molto tempo) parlare di "giustizia predittiva".

In sintesi, una piattaforma informatica capace di raccogliere una quantità rilevantissima di dati (Big Data), in questo caso sentenze e provvedimenti giudiziari già emessi in determinati campi del diritto, che l'algoritmo dovrà elaborare secondo le istruzioni impartite dal suo inventore, consentendo di conoscere in anticipo con ragionevole probabilità (tanto più elevata quanto più numerosi e completi saranno i dati giudiziari immessi nella "macchina") l'esito di una potenziale controversia in una determinata materia, orientando così operatori e utenti del servizio giustizia.

E' questo il cuore dell'ambizioso progetto al quale da un po' di tempo sta lavorando la Corte d'Appello di Brescia in collaborazione con il Dipartimento di Statistica della locale Università: la creazione di una banca dati il più possibile completa contenente tutti i provvedimenti emessi negli ultimi due anni nelle materie assegnate alla competenza del Tribunale delle Imprese ed in materia di appalti, infortunistica, rapporti di lavoro, capace di fornire – per ciascuna di queste materie e, al loro interno, per le problematiche ricorrenti con maggiore frequenza – il principio di diritto ormai consolidato (e per ciò stesso probabile fonte di ispirazione per la decisione della causa).

L'obiettivo è da un lato quello di fornire al giudice uno strumento di supporto nel processo decisionale, e dall'altro quello di consentire ad avvocati ed utenti una valutazione predittiva dell'instauranda controversia. Nulla di più lontano, appunto, da fantastiche ipotesi di "androidi giudicanti".


Nel sistema giudiziario nord americano l'impiego degli algoritmi in funzione predittiva si è spinto decisamente più in là.

È il caso di Compas (Correctional offender managment profiling for alternative sanctions), il noto algoritmo brevettato da una società americana ed impiegato da un ristretto numero di Corti di merito per la previsione su base statistica della probabilità di recidiva del prevenuto ai fini del suo eventuale rilascio su cauzione.

Attraverso l'inserimento di una serie di dati oggettivi relativi ai precedenti del soggetto, alle sue condizioni socio economiche e personali ed alle sue frequentazioni – e la comparazione di queste informazioni con quelle raccolte su di un vasto campione di soggetti nelle medesime condizioni giudiziarie – Compas misura il rischio di recidiva (come "basso", "medio" o "altro").

È noto, peraltro, che recenti ricerche hanno dimostrato come le previsioni di Compas si siano rivelate spesso inaffidabili e talvolta persino discriminatorie, sovrastimando il rischio di recidiva per gli imputati neri e sottostimando il rischio di recidiva per gli imputati bianchi.

E d'altra parte i meccanismi che governano il funzionamento del software, ovviamente brevettato e come tale coperto da segreto industriale, sono oscuri tanto ai giudici quanto ai legali.

Non a caso la Corte Suprema del Wisconsin nel 2016, pronunciandosi sul caso State v. Lomis, pur rigettando il ricorso dell'imputato (che lamentava, per l'appunto, la scarsa trasparenza dei criteri di funzionamento dell'algoritmo e dunque la sua incompatibilità con i principi del giusto processo) decretò che il Giudice, nel valutare il rischio di recidiva di un soggetto, non potesse certo riferirsi unicamente al responso di Compas, il quale – concluse la Corte Suprema – "resta solo uno di una serie di molti fattori che possono essere considerati e ponderati nella decisione".

Anche qui si è dunque ben lontani dal supporre la superfluità del decisore umano.

Vetrina