Uomo e macchina. Un binomio a cui, ormai, siamo abituati e che impaurisce ogni volta che lo si pronuncia. Il dilemma di fondo è quello di capire fino a che punto l’uomo debba cedere spazi di manovra alla macchina.
Uno dei campi del sapere in cui si discute maggiormente è senz’altro quello del diritto, in particolare delle decisioni giudiziarie cosiddette automatizzate.
È vero che avremo un giudice robot molto presto? Per rispondere, si individui prima cosa si intende, in generale, per previsione e predizione.
Esistono almeno quattro situazioni nelle quali il diritto e gli operatori (giuristi e legislatori) si misurano con la "previsione" ovvero con la necessità/capacità di vedere e valutare in anticipo ciò che accadrà in futuro. Vediamole.
1) La previsione normativa. Nel lessico dei giuristi compare spesso l’espressione "previsione normativa" per indicare la situazione astratta che il legislatore immagina e alla cui esistenza viene riconnesso il sorgere di determinate conseguenze. In dati contesti coincide con la cosiddetta "fattispecie astratta".
Il concetto di previsione è, quindi, connaturato a quello di norma: il compito di quest’ultima è prefigurare una situazione possibile del futuro. Quando interpretiamo un enunciato normativo siamo portati, da un lato, ad immaginare le circostanze di fatto nelle quali esso può trovare applicazione e, dall’altro, a chiederci il perché di quella previsione, cercando di individuare le ragioni che hanno spinto il legislatore a fare o a non fare certe scelte.
2) La previsione/prevedibilità della risposta dell’ordinamento: la certezza del diritto.
In una prospettiva connessa a quanto appena detto si colloca la previsione dell’esito di una controversia.
La sentenza segna il passaggio dalla "previsione normativa" astratta alla giustizia del singolo caso al quale quella previsione viene applicata. È il momento nel quale la fattispecie concreta si adatta perfettamente alla fattispecie astratta secondo un modello di ragionamento di tipo sillogistico. L’idea di un "diritto calcolabile" riposa sulla convinzione che l’esito di ogni controversia debba essere "prevedibile". Proprio tale assunto dà corpo ad uno dei pilastri della nostra civiltà giuridica: quello della "certezza del diritto". Il sistema giuridico compulsato in ordine ad un determinato problema deve fornire sempre la medesima risposta. Perché certo è solo ciò che è prevedibile.
3) La previsione degli effetti della regolazione.
Assumendo l’ottica propria dei regolatori/legislatori (e dei giuristi che con loro collaborano) si deve ricordare come, da qualche lustro, sempre maggiore enfasi venga posta sulla necessità di "prevedere" gli effetti delle norme e della regolazione: le norme si devono emanare solo se, al termine di una adeguata istruttoria, si è ragionevolmente certi che sortiranno gli effetti voluti e previsti.
Occorre quindi essere ragionevolmente in grado di "prevedere":
a) come reagiranno i consociati alle nuove regole (se terranno o meno i comportamenti auspicati e/o imposti);
b) se davvero gli effetti prodotti dalle nuove regole porteranno al conseguimento degli obiettivi voluti.
4) La previsione/predittività dell’intelligenza artificiale.
La nuova frontiera è rappresentata dalle capacità predittive dell’intelligenza artificiale, anche se meglio sarebbe dire della "data science" e del "data mining" applicati al mondo del diritto ("legal analytics"). Tralasciando il ben noto caso statunitense Loomis (nel quale al software COMPAS sembrava essere stata delegata la capacità di prevedere l’attitudine alla recidiva del signor Loomis) qui si intende la capacità di elaborare previsioni mediante un calcolo probabilistico effettuato da algoritmi operanti su base semplicemente statistica o su base logica.
La "legal analytics" può essere usata per prevedere l’esito di un giudizio.
Nel 2016, ad esempio, è stato svolto uno studio che, grazie ai progressi nell’elaborazione del linguaggio naturale e nell’apprendimento automatico, si proponeva di costruire modelli predittivi utili a svelare gli schemi che guidano le decisioni giudiziarie. Il lavoro ha previsto l’esito dei casi analizzati dalla Corte europea dei diritti umani basandosi sul loro contenuto testuale: la previsione è riuscita nel 79% dei casi. E, più in generale, può essere usata per predire i comportamenti di tutti gli attori del sistema giuridico. Lex Machina, una emanazione di Lexis-Nexis, combina dati e software per creare set di dati su giudici, avvocati, parti e soggetti di cause legali, analizzando milioni di pagine di informazioni sulle controversie. Con questi dati gli avvocati possono prevedere i comportamenti e gli esiti che produrranno le diverse possibili strategie legali.
La "legal analytics" si propone di predire gli esiti dei processi: non già sulla base di un rigoroso e meccanico ragionamento giuridico, bensì alla luce di sofisticate analisi algoritmico/statistiche di moli enormi di dati (big data).
Un conto è ipotizzare possibili orientamenti di una corte, dei giudici, degli operatori. Altra cosa è prevedere con certezza l’esito del singolo giudizio. Per ottenere questo dovremmo disporre di algoritmi in grado di governare incertezza e imprevedibilità. Ed, in ogni caso, residuerebbe il problema etico circa la legittimità di affidare una decisione giuridica a questo tipo di algoritmo.
A proposito di quest’ultimo aspetto, è doveroso richiamare il lavoro fatto dalla Commissione Europea per l’efficienza della giustizia (CEPEJ), la quale ha adottato la cosiddetta Carta Etica Europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi. La Carta, emanata nel 2018, ha stabilito cinque princìpi cardine sull’uso della Intelligenza Artificiale nel sistema “giustizia”.
Intanto, si veda cosa intende l’Europa per intelligenza artificiale
Insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani. Gli attuali sviluppi mirano a far svolgere alle macchine compiti complessi precedentemente svolti da esseri umani. Tuttavia, l’espressione “intelligenza artificiale” è criticata dagli esperti, che distinguono tra intelligenze artificiali “forti” (capaci di contestualizzare problemi specializzati di varia natura in maniera completamente autonoma) e intelligenze artificiali “deboli” o “moderate” (alte prestazioni nel loro ambito di addestramento). Alcuni esperti sostengono che le intelligenze artificiali “forti”, per essere in grado di modellizzare il mondo nella sua interezza, necessiterebbero di progressi significativi della ricerca di base e non soltanto di semplici miglioramenti delle prestazioni dei sistemi esistenti. Gli strumenti menzionati nel presente documento sono sviluppati utilizzando metodi di apprendimento automatico, ovvero intelligenze artificiali “deboli”.
E che cosa intende per Predictive justice (Giustizia Predittiva)
Per giustizia predittiva si intende l’analisi di una grande quantità di decisioni giudiziarie mediante tecnologie di intelligenza artificiale al fine di formulare previsioni sull’esito di alcune tipologie di controversie specialistiche (per esempio, quelle relative alle indennità di licenziamento o agli assegni di mantenimento). Il termine “predittivo” utilizzato dalle società di legal tech è tratto dalle branche della scienza (principalmente la statistica) che consentono di predire risultati futuri grazie all’analisi induttiva. Le decisioni giudiziarie sono trattate al fine di scoprire correlazioni tra i dati in ingresso (criteri previsti dalla legge, fatti oggetto della causa, motivazione) e i dati in uscita (decisione formale relativa, per esempio, all’importo del risarcimento). Le correlazioni che sono giudicate pertinenti consentono di creare modelli che, qualora siano utilizzati con nuovi dati in ingresso (nuovi fatti o precisazioni introdotti sotto forma di parametri, quali la durata del rapporto contrattuale), producono secondo i loro sviluppatori una previsione della decisione.
Alcuni autori hanno criticato questo approccio sia formalmente che sostanzialmente, sostenendo che, in generale, la modellizzazione matematica di determinati fenomeni sociali non è un compito paragonabile ad altre attività quantificabili più facilmente (isolare i fattori realmente causativi di una decisione giudiziaria è un compito infinitamente più complesso di giocare, per esempio, una partita di Go o riconoscere un’immagine): il rischio di false correlazioni è molto più elevato. Inoltre, in dottrina, due decisioni contraddittorie possono dimostrarsi valide qualora il ragionamento giuridico sia fondato. Conseguentemente la formulazione di previsioni costituirebbe un esercizio di carattere puramente indicativo e senza alcuna pretesa prescrittiva.
Fissati i termini, scopriamo quali sono i principi basilari stabiliti dalla CEPEJ
1) PRINCIPIO DEL RISPETTO DEI DIRITTI FONDAMENTALI:
assicurare l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale che siano compatibili con i diritti fondamentali. Quando gli strumenti di intelligenza artificiale sono utilizzati per dirimere una controversia, per fornire supporto nel processo decisionale giudiziario, o per orientare il pubblico, è essenziale assicurare che essi non minino le garanzie del diritto di accesso a un giudice e del diritto a un equo processo (parità delle armi e rispetto del contraddittorio).
Ciò significa che, fin dalle fasi dell’elaborazione e dell’apprendimento, dovrebbero essere pienamente previste norme che proibiscono la violazione diretta o indiretta dei valori fondamentali protetti dalle Convenzioni sovranazionali.
Human rights by design.
2) PRINCIPIO DI NON-DISCRIMINAZIONE:
prevenire specificamente lo sviluppo o l’intensificazione di qualsiasi discriminazione tra persone o gruppi di persone. Data la capacità di tali metodologie di trattamento di rivelare le discriminazioni esistenti, mediante il raggruppamento o la classificazione di dati relativi a persone o a gruppi di persone, gli attori pubblici e privati devono assicurare che le metodologie non riproducano e non aggravino tali discriminazioni e che non conducano ad analisi o usi deterministici.
Il metodo deve essere NON discriminatorio.
3) PRINCIPIO DI QUALITÀ E SICUREZZA:
in ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti certificate e dati intangibili con modelli elaborati multidisciplinarmente, in un ambiente tecnologico sicuro. I creatori di modelli di apprendimento automatico dovrebbero poter fare ampio ricorso alla competenza dei pertinenti professionisti del sistema della giustizia e ricercatori nei campi del diritto e delle scienze sociali. La costituzione di squadre di progetto miste, per brevi cicli di elaborazione, al fine di produrre modelli funzionali è uno dei metodi organizzativi che permettono di ottenere il meglio da tale approccio multidisciplinare.
Più siamo a progettare, meglio è.
4) PRINCIPIO DI TRASPARENZA, IMPARZIALITÀ ED EQUITÀ:
rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzare verifiche esterne. Deve essere raggiunto un equilibrio tra la proprietà intellettuale di alcune metodologie di trattamento e l’esigenza di trasparenza (accesso al processo creativo), imparzialità (assenza di pregiudizi), equità e integrità intellettuale (privilegiare gli interessi della giustizia) quando si utilizzano strumenti che possono avere conseguenze giuridiche, o che possono incidere significativamente sulla vita delle persone. Dovrebbe essere chiaro che tali misure si applicano all’intero processo creativo, così come alla catena operativa, in quanto la metodologia di selezione e la qualità e l’organizzazione dei dati influenzano direttamente la fase dell’apprendimento.
L’Intelligenza Artificiale deve poter essere verificata da terze parti.
5) PRINCIPIO DEL “CONTROLLO DA PARTE DELL’UTILIZZATORE”:
precludere un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte. L’utilizzo di strumenti e servizi di intelligenza artificiale deve rafforzare e non limitare l’autonomia dell’utilizzatore. L’utilizzatore deve essere informato con un linguaggio chiaro e comprensibile del carattere vincolante o meno delle soluzioni proposte dagli strumenti di intelligenza artificiale, delle diverse possibilità disponibili, e del suo diritto di ricevere assistenza legale e di accedere a un tribunale. Deve inoltre essere informato in modo chiaro di qualsiasi precedente trattamento di un caso mediante l’intelligenza artificiale, prima o nel corso di un procedimento giudiziario, e deve avere il diritto di opporvisi, al fine di far giudicare il suo caso direttamente da un tribunale ai sensi dell’articolo 6 della CEDU.
Essere correttamente informati per controllare le proprie scelte.
Conclusioni:
A ben vedere i principi dettati dalla CEPEJ ci indicano un via, che può essere riassunta (adattandola al contesto giudiziario) con una nozione elaborata durante il dibattito internazionale sviluppatosi nell’ambito dell’ONU sulle armi autonome. Nell’impossibilità di determinare lo stato computazionale dello strumento di intelligenza artificiale e, quindi, un controllo completo sull’esecuzione dell’algoritmo predittivo, per ovviare all’alterazione della "correttezza e della parità del contraddittorio fra le parti e fra queste ed il giudice" dovrebbe rinforzarsi la richiesta che la decisione predittiva sia resa senza servirsi unicamente dei risultati meramente probabilistici ottenuti, non soltanto poiché il suo assolvimento non è sempre adeguatamente verificabile.
Ci si riferisce al suggerimento dottrinale secondo cui andrebbe sancito che l’impiego della macchina in sede giurisdizionale sia assoggettato a un controllo umano significativo rappresentato dalle seguenti imprescindibili condizioni:
1) che il suo funzionamento sia reso pubblico e vagliato conformemente ai criteri di peer review;
2) che sia noto il potenziale tasso di errore;
3) che adeguate spiegazioni traducano la “formula tecnica” costitutiva dell’algoritmo nella regola giuridica, così da renderla leggibile e comprensibile dal giudice, dalle parti e dai loro difensori;
4) che sia salvaguardato il contraddittorio sulla scelta degli elementi archiviati, sui loro raggruppamenti e sulle correlazioni dei dati elaborati dall’apparato di intelligenza artificiale, particolarmente in relazione all’oggetto della controversia;
5) che la loro accettazione da parte del giudice sia giustificata alla luce di quanto emerso in giudizio e per le circostanze di fatto valutato secondo il principio del libero convincimento.
Sitografia:
https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348
https://teseo.unitn.it/biolaw/article/view/1353
https://www.agendadigitale.eu/cultura-digitale/predire-il-futuro-fra-machine-learning-e-magia/
https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf
https://archiviodpc.dirittopenaleuomo.org/upload/3089-basile2019.pdf
Bibliografia:
Intelligenza Artificiale. Un approccio moderno, Russell e Norvig, Pearson.
Yuval Noah Harari, Homo Deus: a brief history of tomorrow,Vintage publishing.
G.W.F. HEGEL, Lineamenti di filosofia del diritto, 1821, trad. it., Bari, 1996.
G. ROMANO, Diritto, robotica e teoria dei giochi: riflessioni su una sinergia, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pisa, 2020
G. TAMBURRINI, Etica delle macchine. Dilemmi morali per robotica e intelligenza artificiale, Roma, 2020
U. RUFFOLO – A. AMIDEI, Intelligenza Artificiale, human enhancement e diritti della persona, in Intelligenza artificiale. Il diritto, i diritti, l’etica, già anticipate in U. RUFFOLO – A. AMIDEI, Intelligenza Artificiale e diritti della persona: le frontiere del "transumanesimo”, in Giur. it., 2019
J. LASSÈGUE, Justice digitale. Révolution graphique et rupture anthropologique, Paris, 2018
J. NIEVA-FENOLL, Intelligenza artificiale e processo, 2018, trad. it., Torino, 2019
S. SIGNORATO, Giustizia penale e intelligenza artificiale. Considerazioni in tema di algoritmo predittivo, in Riv. dir. proc., 2020
Foto: www.golegal.co.za