Tra intelligenza e giustizia artificiale

Margherita Ramajoli sulla rivista Il Mulino scrive un pezzo sul rapporto tra Intelligenza Artificiale e mondo della giustizia dal titolo Siamo pronti per una giustizia artificiale? E’ del 25 marzo.

“Disciplinare una tecnologia inafferrabile e in costante evoluzione come l’intelligenza artificiale non è un’impresa facile. Ciò spiega perché il Regolamento sull’intelligenza artificiale (AI Act), approvato la scorsa settimana dal Parlamento europeo – manca solo il passaggio formale da parte del Consiglio –, ha avuto una gestazione lunga oltre tre anni ed entrerà in vigore gradualmente, tra la fine del 2024 e il 2026. La normativa, inevitabilmente complessa, segue un approccio fondato sul rischio e regola l’intelligenza artificiale sulla base della sua attitudine a causare danni alla società, modulando gli obblighi introdotti in base al diverso grado di pericolo di lesione per i diritti fondamentali: più alto è il rischio paventato, maggiori sono gli oneri e le responsabilità dei fornitori, distributori e operatori dei sistemi di IA.
Il Regolamento è conscio del fatto che l’applicazione dei sistemi di IA nello specifico campo della giustizia produce benefici, ma altrettanti problemi. L’AI Act parla di risultati vantaggiosi sul piano sociale che la giustizia digitale porta con sé. Più nello specifico, l’uso dell’IA nel campo della giustizia consente il raggiungimento degli obiettivi propri della giustizia standardizzata: l’efficienza, perché l’IA può essere impiegata in massa a scale e velocità di gran lunga superiori a quelle raggiungibili da qualsiasi essere umano o collegio di esseri umani nelle attività di archiviazione, indagine e analisi delle informazioni giudiziarie; l’uniformità, perché per definizione l’IA elimina spazi di creatività e fornisce risposte prevedibili.
Tuttavia, l’affidarsi a sistemi di IA nel processo decisionale presenta anche punti di debolezza e pone due problemi: il problema della scatola nera e il problema del pregiudizio dell’automazione. Si parla di scatola nera perché esiste una tensione intrinseca tra il dovere del giudice di motivare le proprie decisioni e la limitata «spiegabilità» di alcuni sistemi di IA. Il procedimento trasformativo degli input in output può risultare opaco al punto tale che gli esseri umani, compresi pure quelli che hanno ideato e progettato il sistema, non sono in grado di capire quali variabili abbiano esattamente condizionato e determinato il risultato finale. Questa opacità limita, se addirittura non impedisce, la capacità del giudice che si serve del sistema di IA di giustificare le decisioni assunte sulla scorta del sistema.
Il pregiudizio dell’automazione allude invece al fenomeno generale per cui gli esseri umani sono propensi ad attribuire una certa autorità intrinseca ai risultati suggeriti dai sistemi di IA e nella nostra quotidianità abbondano esempi di questo sottile condizionamento. Di conseguenza, l’applicazione dei sistemi IA nel campo della giustizia può soffocare l’aggiornamento valoriale, visto che i sistemi di IA imparano dal passato e tendono a riprodurre il passato. Se nel futuro un giudice facesse affidamento, sia pure inconsciamente, solo sui sistemi di IA, il cosiddetto effet moutonnier [una naturale tendenza a conformarsi alla maggioranza, ndr] spingerebbe i giudici verso un non desiderabile conformismo giudiziario, sordo alle trasformazioni sociali ed economiche.
Se queste sono le questioni poste dalla giustizia artificiale, le soluzioni offerte dal diritto risultano significative, anche se non sempre facili da applicare. I sistemi di IA destinati all’amministrazione della giustizia, tranne quelli impiegati per attività puramente strumentali (l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, le comunicazioni tra il personale e così via), sono reputati ad alto rischio e come tali sono sottoposti a rilevanti limiti e obblighi. Secondo il Regolamento «il processo decisionale finale deve rimanere un’attività a guida umana» e quindi l’IA può fornire sostegno ma mai sostituire il giudice. Questa riserva d’umanità, ora solennemente proclamata dal legislatore europeo, sottende la consapevolezza che l’attività giudiziaria ha una sua unicità, non è formalizzabile a priori e non è riproducibile artificiosamente. Per giudicare non sono sufficienti solo conoscenze giuridiche, perché il ragionamento giudiziario richiede una varietà di tecniche cognitive, l’apprezzamento dei fatti complessi e sempre diversi, l’impiego dell’induzione e dell’analogia, l’impegno nell’argomentazione, l’uso di ragionevolezza e proporzionalità.
Tuttavia, nel passaggio dal piano astratto proclamatorio al concreto piano applicativo riemergono alcune questioni irrisolte. Anzitutto, non è immediato individuare né quale soggetto istituzionale sia legittimato a controllare il rispetto della riserva d’umano nelle decisioni giudiziarie, né quali strumenti efficaci possano essere impiegati a tal fine. In secondo luogo, non può dirsi superato il rischio del pregiudizio dell’automazione, perché l’effetto gregge potrebbe spingere il giudice ad aderire al risultato algoritmico e a non assumersi la responsabilità di discostarsene anche quando tale risultato non risulti cucito su misura sulle specificità della lite in esame. Ancora, per quanto l’AI Act abbia introdotto specifici obblighi per i fornitori di IA e in particolare l’obbligo di procurare ai giudici e alle autorità di vigilanza le «istruzioni per l’uso», comprensive delle specifiche «per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova», queste fondamentali informazioni vanno condivise solo «ove opportuno». In altri termini, il Regolamento rende non necessaria, ma discrezionale la resa di informazioni proprio di quei dati di input che determinano in modo significativo gli output con cui i giudici dovranno fare i conti. Torna così anche il problema della scatola nera, quella tensione intrinseca tra il dovere del giudice di motivare le proprie decisioni e la limitata comprensibilità e, di conseguenza, spiegabilità di alcuni sistemi di IA.
In ultima analisi, i detentori della tecnologia – sviluppatori di sistemi di IA – si ergono a veri e propri poteri privati, rispetto ai quali l’ordinamento giuridico, ma ancora prima la politica, devono ancora ingegnarsi a trovare efficaci contrappesi.
Anche se non possiamo realisticamente ritornare a un mondo senza intelligenza artificiale, sia in generale, sia in campo giudiziario, le questioni da affrontare sono ancora tante e il diritto è solo uno dei tanti strumenti per cercare di risolverle.”

Gemme n° 343

https://www.youtube.com/watch?v=yXR608rEvvQ

La mia gemma è la scena finale di un film su due piloti di Formula 1 degli anni ’70, Niki Lauda e James Hunt: erano agli opposti, considerati da tutti dei rivali. Usavano rivalità per spingersi oltre i limiti; in fondo si piacevano e ammiravano. Penso che a questo serva la rivalità: a migliorarsi”. Queste le parole con cui P. (classe quarta) ha presentato la sua gemma.
Nell’800 Pierre-Marc-Gaston de Lévis affermava che “L’invidia rivela la mediocrità; i grandi caratteri non conoscono che le rivalità”. Personalmente penso sia un esercizio difficile ma anche stimolante quello di sfruttare una rivalità per crescere e migliorarsi senza cadere appunto nell’invidia e nel godimento della sconfitta dell’altro.

Sicuro, ma freddo

Fusine_0141 fb.jpg

In prima mi capita di raccontare la storia di Mister Gustavson di Leo Buscaglia, un uomo che passa la vita chiuso in una noce di cocco nella speranza che qualcuno lo trovi; muore lì dentro senza poter raccontare di un cugino che vive in una ghianda. Ne avevo scritto anche il 23 gennaio. L’argomento? Il mettersi in gioco nelle relazioni, il rischiarsi. Oggi aggiungo una paginetta di Alessandro D’avenia presa da “Cose che nessuno sa”:

“Qualunque sia la cosa che ti è cara, il tuo cuore prima o poi dovrà soffrire per quella cosa, magari anche spezzarsi. Vuoi startene al sicuro? Vuoi una vita tranquilla come tutti gli altri? Vuoi che il tuo cuore rimanga intatto? Non darlo a nessuno! Nemmeno a un cane, o a un gatto, o a un pesce rosso. Proteggilo, avvolgilo di passatempi e piccoli piaceri… Evita ogni tipo di coinvolgimento, chiudilo con mille lucchetti, riempilo di conservanti e mettilo nel freezer: stai sicuro che non si spazzerà… Diventerà infrangibile e impenetrabile. Sai come si chiama questo, Giulio?” chiese Filippo, che si era infervorato nel parlare. Gli era spuntata una vena nella fronte.

Giulio scosse la testa. Voleva sentire il seguito.

“Inferno. Ed è già qui: un posto dove il cuore è totalmente ghiacciato. Sicuro, ma freddo. Là fuori è pieno di queste persone. Glielo leggi in faccia che hanno il cuore freddo: per paura, per mancanza di fame, per pigrizia. Tu non sei così Giulio. Questo ti salva, anche se fai delle gran cavolate… Perché c’è modo e modo di tirare i rigori!”

Il rischio della fede

fede, credere, ateismo, abramo, rischio, domande, dubbio

Prima che la notizia della rinuncia di Benedetto XVI giungesse a stravolgere il contenuto delle lezioni, nelle quinte stavamo parlando del problema del male metafisico e avevo fatto cenno al rischio della fede. Ecco che, oggi, leggo nell’inserto Corriere Innovazione un articolo del filosofo Umberto Curi sulla bellezza del rischio che, dopo il preambolo, scrive:

“Un significato positivo è attribuito al rischio anche da Soeren Kierkegaard, vissuto a metà dell’Ottocento. Secondo il filosofo danese, la fede autentica coincide col coraggio di fronte all’ignoto ed è perciò strettamente connessa col rischio. Immagine emblematica di questa situazione limite è quella di Abramo, il quale corre consapevolmente il rischio di diventare l’assassino di suo figlio Isacco, pur di non venire meno all’obbligo di obbedienza nei confronti della voce del Signore che chiama. Una situazione analoga a quella di Abramo è quella nella quale si trova il credente. Egli non può infatti contare su alcuna certezza, perché la fede conserva sempre le caratteristiche indicate da san Paolo, vale a dire l’essere un “assenso fornito a contenuti non garantiti”. Ma neppure può affidarsi a una sorta di contabilità delle probabilità, visto che in gioco non è il successo di una singola e circoscritta intrapresa, per la quale può dunque essere ragionevole giovarsi del calcolo delle probabilità di successo, ma la sua stessa vita. Il credente è allora colui che corre il rischio supremo di impegnare tutto sé stesso, senza mai poter “verificare” se la sua scelta sia stata più o meno “giusta”.”

Aggiungo che stesso rischio è quello che si prende il non credente.