Un prof tra mare, terra e cielo

Immagine creata con ChatGPT®

Sono su Facebook dal 2008, su Twitter dal 2010 (ora non più, preferisco bluesky o threads) e su Instagram dal 2014 (da un po’ con un secondo account specificatamente dedicato al lavoro), su Flickr dal 2009, su Whatsapp e Telegram con un canale Oradireli, sono anobiano dal 2013 e goodreader dal 2014 (Ask, GuruShots, 500px, Snapchat, Pinterest, LinkedIn, Tiktok e altri li ho usati per capire come funzionano). Youtube lo utilizzo senza interagire con gli altri utenti. Non amo il gioco online, non ho conoscenze dirette del settore. Da anni utilizzo Netflix, Prime e Infinity. Utilizzo Spotify da tempo. In casa c’è quell’antipatica di Alexa.
Scrivo un blog dal 2007, ho prodotto podcast e video, condiviso un hard disk virtuale che però non aggiorno più. Non riporto piattaforme e strumenti tipici della didattica.
Ho sperimentato vari chatbot e, per il concorso che ho recentemente affrontato, ho fatto presentare una piccola parte di esposizione da un mio avatar.
Ho voluto scrivere questa sottospecie di curriculum per vari motivi:

  • mi piacciono queste cose e capire come funzionano
  • queste cose appaiono e spariscono in un amen o possono persistere a lungo, di sicuro cambiano molto frequentemente
  • la grande maggioranza di studentesse e studenti vi sono immerse/i, e stanno arrivando in classe coloro che sono nati già in quel mondo e tristemente utilizzano queste cose fin dalla più tenera età
  • queste cose influenzano la nostra vita, il nostro modo di esprimerci e di relazionarci, il nostro stesso modo di pensare
  • se desideriamo capire il perché di certi meccanismi abbiamo due possibilità: entrare in quel mondo o farci raccontare quel mondo da chi vi è dentro o l’ha abitato per un certo periodo.

Quello che mi sembra poco utile è lo scontro tra due opposte fazioni che Matteo Lancini in “Il ritiro sociale negli adolescenti. La solitudine di una generazione iperconnessa” (2019, Raffaello Cortina Editore) definisce così:

  • I tecno-ottimisti: gli studiosi che “spingono verso un’accelerazione della diffusione dei dispositivi tecnologici, fino ad arrivare a promuovere persino la loro integrazione nel corpo umano, come protesi in grado di potenziare la dotazione biologica naturale, ritenendo che la tecnologia possa prima o poi riuscire nella promessa di eliminare limiti e sofferenze umane” (pag. 21)
  • I tecno-pessimisti: sono coloro che sottolineano i “rischi legati alla tentazione di cedere alla promessa dello strapotere tecnologico, generatore di un uomo diminuito, anziché potenziato di capacità e dotazioni. Rischi ancora da studiare sui cambiamenti del sistema nervoso, ma che, sommandosi ai pericoli di un utilizzo poco responsabile dei mezzi informatici, alimentano un clima di aspra condanna e timore nei confronti di Internet. Il mondo adulto sembra spaventato dall’ipotesi che i più giovani possano trovarsi intrappolati tra le maglie della rete, incapaci di gestire il tempo della connessione e di difendersi da truffe, ricatti e situazioni pericolose” (pag.21)

Mi ritrovo nelle parole immediatamente successive di Lancini: “Prendere posizione nella disputa tra sostenitori e avversari della tecnologia è un’operazione poco utile per aiutare gli adolescenti a farsi strada nell’intricato mondo in cui vivono fuori e dentro la rete” (posto che esista un fuori e dentro la rete, aggiungerei) (pagg. 21-22).
Ultimamente, soprattutto davanti agli strumenti dell’AI, faccio più fatica. Sento che mi manca un aspetto che prima comunque caratterizzava il mio lavoro e l’accompagnamento all’utilizzo degli strumenti tecnologici da parte di allieve e allievi: il dominio di quello strumento. Forse perché non è solo uno strumento. E’ un po’ come se fossi sempre andato per mare, abituato al mare calmo o anche tempestoso, ma fiducioso delle possibilità della barca su cui navigavo; in questo momento però ho la sensazione di essere nell’oceano e le onde mi incutono timore. Mi preoccupa la rotta che può prendere lo sviluppo dell’AI, mi preoccupa il dispendio di energie che richiede, mi preoccupa il modo in cui è stato costruita e si sta costruendo, mi preoccupa l’opacità e la mancanza di trasparenza del processo. Si tratta di dubbi che riguardano l’etica, la coscienza: di solito, quando li incrocio nella mia vita, ho l’abitudine, per capire meglio la situazione, di prendere le distanze, perché da lontano si ha uno sguardo d’insieme (come quegli allenatori che talvolta scelgono di guardare una partita della loro squadra dalla tribuna). Questa volta però sono molto indeciso, restando nella metafora dell’oceano, tra una modifica dell’equipaggiamento o dell’intera imbarcazione (fare corsi, sperimentare, modificare la didattica, cambiare il setting delle lezioni) e la ricerca di un orizzonte diverso (prendere le distanze, appunto): ma quale orizzonte? Uno più stabile, come la terra? O uno più imprevedibile, come l’aria? Andare alla ricerca di sicurezze? Adoro viaggiare in treno, ma riconosco che il binario è una strada tracciata, posso solo scendere e prendere altri treni, non posso fare andare il treno dove binario non c’è. O andare alla ricerca di cose mai sperimentate? Provare l’ebrezza del volo, la sensazione di essere sostenuto dall’aria senza una base sotto i piedi, mi attira. Quale mi piacerebbe che fosse l’orizzonte del mio lavoro educativo?
Penso che intanto mi convenga equipaggiare la mia imbarcazione, dotarla di tutto ciò che serve per affrontare l’oceano. Nel frattempo, mentre sono a terra, mi tolgo lo sfizio di qualche viaggio in treno e di qualche prova di volo (delle prese di distanza provvisorie, insomma). Chissà se alla fine canterò insieme a Jovanotti la parte finale de La linea d’ombra:
“Mi offrono un incarico di responsabilità
Non so cos’è il coraggio se prendere e mollare tutto
Se scegliere la fuga o affrontare questa realtà difficile da interpretare
Ma bella da esplorare
Provare a immaginare come sarò quando avrò attraversato il mare
Portato questo carico importante a destinazione
Dove sarò al riparo dal prossimo monsone
Mi offrono un incarico di responsabilità
Domani andrò giù al porto e gli dirò che sono pronto per partire
Getterò i bagagli in mare studierò le carte
E aspetterò di sapere per dove si parte quando si parte
E quando passerà il monsone dirò “levate l’ancora
Diritta avanti tutta questa è la rotta questa è la direzione
Questa è la decisione”.”

Hinton: IA, i limiti vanno messi ora

Immagine realizzata con l’intelligenza artificiale della piattaforma POE

Domani 12 settembre si apre a Roma il World Meeting on Fraternity: per due giorni riunisce persone provenienti da tutto il mondo per focalizzare l’attenzione sulla domanda essenziale: che cosa ci rende veramente umani? Promosso dalla Basilica di San Pietro, dalla Fondazione Fratelli Tutti e dall’associazione Be Human, l’incontro ospita un gruppo di lavoro dedicato all’intelligenza artificiale. Di esso fa parte Geoffrey Hinton, considerato uno dei padri dell’IA. Nei giorni scorsi è stato intervistato da Riccardo Luna per il Corriere della Sera: i toni sono preoccupati e accorati, vale la pena conoscere quanto dice.

“«La maggior parte dei principali ricercatori di intelligenza artificiale ritiene che molto probabilmente creeremo esseri molto più intelligenti di noi entro i prossimi 20 anni. La mia più grande preoccupazione è che questi esseri digitali superintelligenti semplicemente ci sostituiranno. Non avranno bisogno di noi. E poiché sono digitali, saranno anche immortali: voglio dire che sarà possibile far risorgere una certa intelligenza artificiale con tutte le sue credenze e ricordi. Al momento siamo ancora in grado di controllare quello che accade ma se ci sarà mai una competizione evolutiva tra intelligenze artificiali, penso che la specie umana sarà solo un ricordo del passato». Geoffrey Hinton è nella sua casa di Toronto. Alle sue spalle c’è una grande libreria a parete e lui — come al solito — è in piedi. Per via di un fastidioso problema alla schiena lo chiamano «l’uomo che non si siede mai» (ma in realtà, per brevi periodi e con alcuni accorgimenti, può farlo). Indossa una camicia blu che assieme ai capelli incanutiti e al sorriso dolce lo fanno assomigliare a quei personaggi che nei libri o nei film ci vengono a salvare da una minaccia terribile. Dicono che sia uno dei tre padri dell’intelligenza artificiale, ma visto che gli altri due (Yoshua Bengio e Yann LeCun) sono stati, in modi diversi, dei suoi allievi, se ci fosse un Olimpo dell’intelligenza artificiale Geoff Hinton sarebbe Giove. E infatti lo scorso anno ha vinto il premio Nobel per la Fisica (con John Hopfield) «per scoperte e invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali». Per semplificare: senza di lui, non avremmo Chat GPT.
Quando l’ho invitato a far parte del gruppo di esperti di intelligenza artificiale che il 12 settembre incontrerà papa Leone XIV mi ha risposto: «Sono un ateo, sicuro che mi vogliano?». Poi però ha accettato perché evidentemente spera che il pontefice voglia giocare la partita della scienza: «Avrebbe una grande influenza». Molto più degli appelli e delle petizioni della comunità scientifica che in due anni si sono succeduti con lo scopo di rallentare lo sviluppo tecnologico in attesa di capirne meglio i rischi e della ragionevole certezza che la cosa non ci scappi di mano. Il primo a dare l’allarme è stato proprio Hinton alla fine di aprile del 2023 quando improvvisamente lasciò Google, l’azienda per cui aveva lavorato gli ultimi dieci anni, per poter parlare liberamente dei rischi dell’intelligenza artificiale. L’ultimo è stato sempre lui, un paio di mesi fa, quando ha firmato un appello, assieme al collega premio Nobel Giorgio Parisi, per chiedere a Open AI, l’azienda che ha sviluppato Chat GPT, maggior trasparenza («Stanno decidendo il nostro futuro a porte chiuse»). Partiamo da qui.
Avete avuto una certa risonanza e raccolto tremila firme autorevoli ma non penso che il vero scopo fosse solo quello.
«La questione è complicata dal fatto che c’è una causa legale tra Musk e Altman. Il motivo per cui Musk lo fa mentre allo stesso tempo sviluppa Grok è la competizione. Musk vuole avere meno concorrenza da OpenAI. Questo è ciò che credo, non ne ho la certezza, ma secondo me la sua motivazione nel voler mantenere OpenAI come “public benefit corporation” non è la stessa che abbiamo noi. La nostra motivazione è che OpenAI era stata creata per sviluppare l’IA in modo etico e invece sta cercando di sottrarsi a quell’impegno. Molti ricercatori, come Ilya Sutskever, se ne sono andati; credo che l’abbiano fatto perché non si dava abbastanza importanza alla sicurezza. L’obiettivo dell’appello era insomma fare pressione sul procuratore generale della California che può decidere se permettere o meno a OpenAI di diventare una società a scopo di lucro».
Quindi non vi aspettavate davvero una risposta da Sam Altman.
«No, certo che no».
Direi che la vera risposta all’appello è arrivata pochi giorni fa, alla Casa Bianca, quando il presidente degli Stati Uniti ha convocato tutti i ceo delle Big Tech, compresi OpenAI, Meta e Google…
«Il presidente ha cercato di impedire che per dieci anni negli Stati Uniti ci fossero regole per l’IA, ma ha fallito; i singoli Stati possono continuare a legiferare».
Che effetto le ha fatto vedere i leader delle grandi aziende tecnologiche così ossequiosi verso il potere politico? Forse è la prima volta nella storia che assistiamo a una concentrazione assoluta del potere.
«La mia reazione è stata di tristezza: vedere i leader di queste aziende non disposti a prendere nessuna posizione morale su nulla».
Quando arrivò la rivoluzione digitale, i sogni erano altri: un mondo più giusto, più equo, migliore per tutti.
«Non sono sicuro che fosse il sogno di tutti. Credo che per la maggior parte delle persone coinvolte, il sogno fosse diventare ricchi. Ma potevano convincersi che sì, si sarebbero arricchiti, ma allo stesso tempo avrebbero aiutato tutti. E in larga misura è stato così per il web: se mettiamo da parte le conseguenze sociali, guardando solo alla vita quotidiana, il web ha davvero aiutato le persone».
Prendiamo Tim Berners Lee: non è diventato ricco e ha dato i protocolli del web gratuitamente a tutti. Poi qualcosa è andato storto. Direi: il capitalismo.
«Io non sono totalmente contro il capitalismo: è stato molto efficace nel produrre nuove tecnologie, spesso con l’aiuto gratuito dei governi per la ricerca di base. Credo che, se ben regolato, il capitalismo vada bene. È accettabile che la gente cerchi di arricchirsi purché, arricchendosi, si aiutino anche gli altri. Il problema è quando la ricchezza e il potere vengono usati per eliminare le regole, così da fare profitti che danneggiano le persone».
È quello che sta accadendo adesso?
«Sì. La cosa che sembra importare loro di più è non pagare le tasse. E sostengono Trump perché abbassa le tasse: questa è la loro spinta primaria. Ma vogliono anche eliminare le regole che proteggono le persone per rendere più facile fare affari. Per questo assecondano Trump».
Come valuta quello che sta facendo l’Unione europea? Si dice che pensi troppo alla regolamentazione e troppo poco all’innovazione. Così restiamo indietro nella corsa all’intelligenza artificiale. Come sa, l’Unione europea ha approvato una legge importante, l’AI Act. Secondo lei è un buon punto di partenza o solo un ostacolo all’innovazione?
«Credo sia un punto di partenza accettabile ma ci sono parti che non mi piacciono: ad esempio, c’è una clausola che dice che nessuna di queste regole si applica agli usi militari dell’IA. Questo perché diversi Paesi europei sono grandi produttori di armi e vogliono sviluppare sistemi letali e autonomi. Inoltre, per come l’ho capita io, la normativa europea è partita con un’enfasi particolare su discriminazione e bias, preoccupandosi più di questi aspetti che di altre minacce. Perciò mette molto l’accento sulla privacy. La privacy è importante, ma ci sono minacce più gravi».
Ha toccato un punto molto delicato. Le aziende della Silicon Valley erano nate con l’idea di non collaborare con il potere militare. Quando DeepMind fu venduta a Google, una delle condizioni era che l’IA non sarebbe stata usata per scopi militari. Ma lo scorso gennaio quella condizione è stata rimossa. Ora tutte le aziende di intelligenza artificiale forniscono tecnologia al dipartimento della Difesa americano. E pochi giorni fa Google ha firmato un accordo importante con Israele per fornire sistemi di intelligenza artificiale alle forze armate. Che ne pensa?
«C’è una regola semplice che usano gli scienziati politici: non guardare a ciò che la gente dice, ma a ciò che fa. Sono rimasto molto dispiaciuto quando Google ha eliminato l’impegno a non usare l’IA per scopi militari. È stata una delusione. E lo stesso quando hanno cancellato le politiche di inclusione solo perché era arrivato Trump».
E arriviamo a papa Leone XIV: appena insediato, ha detto di volersi occupare di intelligenza artificiale. Che ruolo pensa possa avere in questo dibattito?
«Beh, come saprà, ha circa un miliardo di fedeli. Se lui dicesse che è importante regolare l’IA, sarebbe un contrappeso alla narrativa dei leader delle Big Tech che ringraziano il presidente per non aver imposto regole. Io credo che il Papa abbia un’influenza politica reale, anche al di fuori del cattolicesimo. Molti leader religiosi, come il Dalai Lama, lo vedono come una voce morale. Non tutti i Papi sono stati così, ma questo sì, e anche il suo predecessore. Per molti non cattolici, le sue opinioni morali sono sensate, non infallibili, ma ascoltate. Se dirà che regolare l’IA è essenziale, avrà un impatto».
Cosa vorrebbe far sapere al Papa sui rischi dell’intelligenza artificiale?
«Credo che per il Pontefice sia inutile porre l’accento sui cosiddetti rischi esistenziali, come la sparizione della specie umana nel lungo periodo; e sia meglio concentrarsi sui rischi attuali. Non serve credere che l’IA sia un “essere” per capire che può portare disoccupazione di massa, corruzione delle democrazie, cyber-attacchi più facili ed efficaci, creazione di virus letali accessibili a chiunque. Sta già accadendo. Quindi su questi rischi a breve termine, quelli che chiamo “rischi dovuti a cattivi attori”, possiamo trovare un accordo. Questi sono rischi che qualunque leader religioso o politico può capire, senza dover entrare nella questione metafisica se l’IA sia o meno un “essere”».
A volte sembra che i governi non capiscano fino in fondo la posta in gioco, che si fidino troppo di queste aziende.
«È proprio così. Spesso i governi non hanno abbastanza esperti interni e si affidano a consulenti che vengono… indovini da dove? Proprio dalle Big Tech. Così finiscono per sentire solo la voce delle aziende. È come se i regolatori di Wall Street fossero tutti ex banchieri che ancora pensano come banchieri».
È considerato un apocalittico. Lei come si sente? Ottimista o pessimista?
«Realista. Vedo entrambi i lati. Ma la storia ci dice che, senza regole, si abusa del potere. Perciò credo che, se non regoliamo, finirà male».
Crede che ci sia una lezione particolare che dovremmo ricordare ora?
«Sì. Pensiamo all’energia nucleare. Quando gli scienziati capirono che le loro scoperte potevano portare all’atomica, molti di loro provarono ad avvertire i governi. Ma alla fine furono i militari a decidere come usarla. Non fu la comunità scientifica a stabilire i limiti. Lo stesso rischio lo vedo oggi: se lasciamo che siano solo i governi o le aziende a decidere, l’IA sarà usata in modi molto pericolosi».
È davvero un momento unico nella storia dell’umanità o solo un ennesimo progresso?
«È un punto di svolta. Per la prima volta stiamo creando entità che possono essere più intelligenti di noi. Non è mai successo prima. Abbiamo creato macchine più forti, più veloci, ma mai più intelligenti. Questo cambia tutto».
Quindi cosa possiamo fare?
«Serve un movimento globale, non solo poche voci isolate. Dobbiamo creare un consenso ampio nella comunità scientifica, altrimenti i politici ci ignoreranno».Dopo 90 minuti l’intervista è finita (questa è una versione molto condensata ma approvata dal professore). Resta il tempo per una domanda personale. Geoffrey Hinton viene da una famiglia eccezionale. L’Everest si chiama così per via di un suo prozio cartografo (e anche il suo secondo nome è Everest); e un altro è il padre della logica booleana (la base matematica su cui si basano i computer e i sistemi digitali). Come se non bastasse, il padre gli ha sempre tenuto l’asticella altissima. Gli diceva: «Se lavori il doppio di me, quando avrai il doppio della mia età, forse sarai bravo la metà».
Gli chiedo: ce l’ha fatta a realizzare l’obiettivo che le ha dato suo padre? Sorride: «No. Sicuramente almeno la metà».”

Intelligenza Artificiale e scuola, in cerca di strade da percorrere

Immagine realizzata con l’intelligenza artificiale della piattaforma POE

Sono passati più di 27 anni dalla prima volta che ho messo il piede in un’aula scolastica come prof. Erano le scuole medie di Latisana, una supplenza breve. Finalmente quest’anno è stato indetto un concorso (non accadeva dal 2004), l’ho superato e sono diventato di ruolo; affronterò pertanto l’anno di prova (!) e lo farò con un nuovo Dirigente. Al Liceo Percoto è infatti arrivato Luca Gervasutti, che ho appena iniziato a conoscere (non abbiamo ancora parlato faccia a faccia). Ho scoperto che abbiamo una cosa in comune: l’interesse per l’Intelligenza Artificiale. Lui ha un profilo Facebook sul quale ultimamente ha pubblicato, visibili a tutti, tre testi molto interessanti. Li condivido qui perché penso possano suscitare riflessioni e approfondimenti. Lascio anche il cappello introduttivo scritto dal Dirigente stesso. Buona lettura.

“Negli ultimi tempi ho lavorato a un framework per la valutazione educativa dell’IA, pensato come bussola per dirigenti, docenti e studenti.
Lo proporrò qui, facendolo precedere da tre brevi testi che ne delineano la cornice culturale.

1 – Archeologia del remix.
Virgilio aveva un problema. Doveva scrivere l’epos della nuova Roma, ma non poteva partire dal nulla – i Greci avevano già detto tutto. Allora prese l’epopea omerica, ne riscrisse versi e temi, e la ricompose in latino con un progetto del tutto nuovo. L’Eneide è il più geniale remix della storia antica. Il gesto di Enea che fugge da Troia portando sulle spalle il padre Anchise riprende un’immagine tradizionale, ma la piega verso occidente, verso un futuro che Omero non avrebbe mai immaginato. Era già tutto lì, duemila anni fa: l’arte non nasce dal vuoto, si riscrive.
I Romani l’avevano capito istintivamente. Le loro statue riprendevano la perfezione greca, ma la adattavano ai volti concreti dei consoli; i loro templi riprendevano le proporzioni di Atene, ma li piantavano nel fango del Tevere. Non era imitazione: era traduzione. E la traduzione non è mai innocente: cambia tutto nel momento stesso in cui si illude di lasciare tutto uguale.
Diciannove secoli dopo, Duchamp prende un orinatoio, lo gira sottosopra, ci scrive una firma falsa e lo chiama arte. Stesso gesto di Virgilio, ma con una brutalità che l’Eneide non si sarebbe mai permessa. L’oggetto non cambia, cambia il contesto. E il contesto, scopriamo, è tutto. Picasso fa lo stesso con i giornali: inventa i papiers collés, ritaglia una cronaca, incolla una colonna tipografica, e quello che prima informava ora dipinge.
Il moderno inizia quando capiamo che ogni cosa può diventare materiale per ogni altra cosa. Le avanguardie lo intuiscono, ma ci vuole il computer per renderlo banale. Copia e incolla: due parole che hanno cambiato il mondo più di molte rivoluzioni. Non è solo una funzione tecnica: è una forma mentis. Tutti, improvvisamente, possono fare quello che prima era riservato agli artisti geniali – prendere un pezzo di realtà e spostarlo altrove, riscrivere il senso con un clic.
Il DJ che campiona James Brown e ci costruisce sopra una hit ripete, a suo modo, il gesto di Virgilio: prendere parole o suoni già scritti e ricomporli in una creazione nuova. Un tempo questo lavoro apparteneva a pochi; oggi con l’intelligenza artificiale, può farlo chiunque. E qui nasce il panico degli insegnanti. Perché se copiare è facile, cosa significa ancora studiare e assegnare i compiti? Se l’informazione è disponibile ovunque, perché memorizzare? Se si può assemblare un tema pescando da mille fonti, cosa resta dell’apprendimento individuale? La scuola si blinda, vieta lo smartphone, rincorre software anti-plagio. Ma sta combattendo la battaglia sbagliata: invece di proibire il remix, dovrebbe insegnare a farlo bene.
L’IA fa esattamente quello che hanno sempre fatto i buoni studenti: ricombinare, collegare, rielaborare. È come se il processo di apprendimento si mettesse a nudo, mostrasse i suoi meccanismi interni. Le chiedi di scrivere una poesia d’amore e te la costruisce pescando da Petrarca, da una canzone pop degli anni Ottanta, da miliardi di parole disperse nella rete. Tutto mescolato, tutto riconoscibile e irriconoscibile insieme. Un’IA come MidJourney crea un dipinto mixando lo stile di Van Gogh con l’estetica cyberpunk, proprio come Virgilio mescolava Omero con il destino di Roma. Ma non lo fa da sola: dietro ogni immagine c’è un prompt, un’intuizione umana che guida la macchina, un’intenzione creativa che decide cosa combinare e come. È l’uomo, con la sua capacità di immaginare e scegliere, a trasformare il remix da un processo meccanico a un atto di creazione.
Se tutto è remix, se non esiste l’originale puro, allora la missione della scuola si ribalta completamente. Non deve più proteggere l’originalità, ma insegnare a riconoscerla dentro la ricomposizione. Non deve impedire la copia, ma mostrare quando diventa tradimento e quando invece diventa traduzione.
Il compito è chiaro: trasformare l’archeologia del remix in pedagogia del remix. Insegnare che copiare, riscrivere, tradurre non sono scorciatoie da reprimere, ma gesti antichi e necessari da padroneggiare. La differenza è tutta nell’intenzione e nella consapevolezza: plagiare significa appropriarsi con inganno, mentre ricreare significa imparare trasformando.
La cultura è un grande archivio che si riscrive continuamente, un infinito gioco di ricomposizione dove ogni pezzo contiene già tutti gli altri. La scuola può continuare a fingere che non sia così, oppure può iniziare a insegnare le regole del gioco. La domanda non è più se questo sia giusto o sbagliato. La domanda è: ora che lo sappiamo, cosa e come insegniamo?

2 – Scrivere con l’IA: il brainframe del remix.
Ogni epoca pensa con gli strumenti che usa. La scrittura alfabetica ha insegnato a ragionare in sequenze ordinate; la stampa ha educato alla linearità della pagina e alla disciplina del testo; la televisione ha modellato uno sguardo rapido, frammentato, fatto di immagini che si consumano in pochi secondi. Marshall McLuhan diceva “il medium è il messaggio”; Derrick de Kerckhove – probabilmente il suo allievo prediletto – ha parlato di brainframes: cornici mentali che i media costruiscono dentro di noi, senza che ce ne accorgiamo.
Il digitale ha introdotto un brainframe nuovo, il remix. Non più il pensiero lineare del libro, né il pensiero sequenziale del cinema, ma un pensiero modulare e reticolare, che prende tasselli e li ricompone all’infinito. I software hanno educato le ultime generazioni alla logica del loop: copia, incolla, varia, modifica, ricombina. Il word processor, iMovie, GarageBand – e decine di altre app che popolano la didattica quotidiana – insegnano la stessa lezione, cioè che la realtà non è un blocco compatto, ma una serie di pezzi mobili da riassemblare ogni volta in forme diverse.
Questo brainframe abitua a guardare il sapere non come qualcosa da acquisire e conservare, ma come un materiale da manipolare, smontare, ricostruire. È un modo di pensare che può generare una creatività dirompente, ma anche una voracità superficiale: si passa da un frammento all’altro senza concedersi il tempo della sedimentazione.
Gli insegnanti ne vedono i risultati nelle aule; gli studenti compongono testi a mosaico, pensano per associazioni rapide, saltano da un argomento all’altro con una velocità che a tratti sembra intuizione geniale, a tratti superficialità insostenibile. È il loro modo di processare le informazioni. Un modo che la scuola fatica a riconoscere perché è cresciuta dentro il brainframe del libro, dove ogni cosa ha un prima e un dopo, un inizio e una fine.
Ora, con l’avvento dell’intelligenza artificiale, il remix entra in una fase nuova. I modelli neurali sono, in fondo, macchine di ricombinazione: prendono miliardi di pattern linguistici, sonori, visivi, e li restituiscono in forme sempre diverse. Non pensano: remixano. E noi, interagendo con loro, impariamo a pensare insieme a loro. È come se il brainframe non fosse più solo umano, ma ibridato: metà memoria culturale nostra, metà calcolo algoritmico.
È qui che il remix incontra la scrittura a distanza, come l’ha definita Luciano Floridi. L’IA non scrive mai da zero: rielabora miliardi di testi preesistenti e li ricompone in nuove configurazioni. Ogni risposta è già un montaggio, un dialogo invisibile con un archivio sterminato. La scrittura non è più il gesto solitario dell’autore che lascia traccia, ma un processo distribuito e condiviso. Con l’IA, ogni testo nasce sempre in relazione, sempre in risposta, sempre in ricombinazione.
In questo senso, remix e scrittura a distanza sono due facce della stessa condizione cognitiva: il primo è la logica interna – smontare e ricombinare – la seconda è il contesto relazionale, fatto di voci umane e artificiali che si intrecciano.
La scuola ora si trova di fronte a un bivio. Gli studenti vivono già dentro questo brainframe: consumano contenuti su TikTok, in un flusso continuo che privilegia la velocità e l’impatto immediato, scrivono per frammenti e studiano saltando da un contenuto all’altro. L’insegnante può fingere di non vedere, continuare a pretendere che tutti rientrino nel vecchio brainframe del libro e della lezione frontale, oppure può accettare la sfida: riconoscere che i ragazzi oggi apprendono in forma spezzata e incrociando fonti diverse, e insegnare loro a trasformare questo remix caotico in un percorso di conoscenza autentica.
Non si tratta di rinunciare alla profondità, ma di mostrare come la frammentazione possa diventare ricomposizione critica, come il salto da un contenuto all’altro possa aprire collegamenti imprevisti, e come il remix possa trasformarsi in un metodo per dare forma al pensiero.
La scuola deve allora insegnare a riconoscere le fonti, a collocarle, a dare loro un peso, affinché il testo diventi davvero nostro nella misura in cui lo costruiamo insieme all’IA, lo rielaboriamo e ce ne assumiamo la responsabilità. Solo così la frammentazione non sarà la fine del sapere, ma l’inizio di una nuova metacognizione, in cui l’utilizzo dell’intelligenza artificiale diventa occasione per esercitare, più che mai, intelligenza umana.

3 – Pedagogia della ri-creazione
Il momento più atteso dagli studenti è, probabilmente, la ricreazione. Viene dal latino re-creare: creare di nuovo, ridare vita. In quell’intervallo il corpo e la mente si distendono, le relazioni si rimescolano e si rigenerano, si impara a ricaricarsi dopo lo sforzo cognitivo e disciplinare. È un interludio che dà ritmo alla giornata e, soprattutto, è il cuore di una pedagogia della rigenerazione.
Ed è curioso che la scuola, da sempre, custodisca nel proprio lessico questa intuizione: non si impara soltanto creando, ma anche ri-creando.
Da qui lo scarto: ciò che chiamiamo ricreazione è la metafora naturale della ri-creazione culturale che l’IA pone come paradigma. L’intervallo restituisce energie al corpo; il remix restituisce senso alle parole e alle idee, rigenerandole in un contesto nuovo.
In entrambi i casi il gesto è lo stesso: rigenerare per poter andare avanti. È su questo parallelismo che si misura la scuola di oggi, chiamata a  coltivare ciò che il futuro richiederà: imparare a collaborare con sistemi intelligenti, distinguere l’aiuto dal rumore, mantenere una voce riconoscibile nella polifonia degli algoritmi.
Non è resa al copia-incolla, ma educazione alla differenza tra plagio e ri-creazione. Il plagio nasconde e inganna; la ri-creazione intreccia fonti e strumenti in un disegno nuovo, assunto con responsabilità.
Un elaborato, oggi, può nascere da un dialogo con un modello linguistico, lasciarsi rifinire da un assistente intelligente, ampliarsi con ricerche guidate, attraversare una trasformazione di registro e tornare infine alla voce di chi scrive.
Non è, di per sé, un imbroglio: è la grammatica dell’epoca del remix. Il problema non è lo strumento, ma l’opacità del processo. Pretendere l’autografia totale — come se fosse mai stata possibile — significa trasformare in colpa ciò che altrove si chiama competenza.
Qui la nozione di scrittura a distanza diventa illuminante. L’autore non scompare, cambia statuto: da esecutore unico a regista di un processo fatto di istruzioni, tentativi, scarti, revisioni. Non è la macchina a garantire il senso; è l’umano che seleziona i materiali, decide cosa entra e cosa resta fuori, firma la versione che riconosce come propria.
Perché tutto ciò diventi educativo, serve però un paratesto: una nota che accompagni il compito, in cui lo studente dichiara come ha lavorato, quali strumenti di IA ha usato e quali scelte personali ha compiuto.
Chi ha vissuto il tempo dei CD ricorda i libretti che li accompagnavano: pagine fitte di testi delle canzoni, ma anche di nomi – autore, compositore, musicisti, arrangiatore, produttore, perfino chi portava il caffè nelle notti di studio.
I credits (in italiano potremmo tradurli riconoscimenti) svelavano che ogni brano era il frutto di un lavoro collettivo, costruito dall’intreccio di molte mani e molte voci.
Allo stesso modo, uno studente può presentare il suo compito come un brano: in copertina il testo finito, dietro il libretto della sua genesi. Non solo il prodotto, ma le tracce del percorso. Non per giustificarsi, ma per mostrare la regia.
I compiti — se hanno ancora senso — lo trovano nel loro libretto interno, là dove viene descritto il processo creativo. Nella pagina dei credits lo studente dichiara come ha lavorato con l’IA: dove l’ha usata, dove l’ha scartata e perché; quali fonti ha scelto e con quale criterio; quale intuizione è sua, quale riscrittura è guidata. È trasparenza, certo, ma anche competenza nuova: saper dirigere e dichiarare la distanza tra sé e gli strumenti, tra le fonti e la propria voce. La musica lo fa da decenni senza sminuire l’artista principale; anzi, lo colloca dentro una storia più grande.
Da qui nasce la pedagogia della ri-creazione: spostare l’attenzione dal prodotto finito al processo documentato. Il compito non è più una superficie lucida, ma il racconto di come il pensiero ha preso forma. Il voto — quando serve — arriva dopo questo racconto: valuta chiarezza delle decisioni, qualità dell’argomentazione, capacità di revisione, autonomia nella scelta delle fonti, consapevolezza dei limiti degli strumenti. Il prodotto conta; ma è il processo che educa.
I credits promuovono metacognizione operativa: pensare sul proprio pensiero, distinguere l’apporto degli strumenti dal contributo personale, trasformare l’aiuto in alleanza consapevole.
In questa luce, più che chiederci se i compiti per casa sopravviveranno, dovremmo chiederci quali compiti meritano il tempo degli studenti. La risposta è quelli che chiedono di trasformare (non di ricopiare), che pretendono documentazione riflessiva e mettono in scena altri media e altre voci, con i credits come bussola etica e cognitiva. La trasparenza non è un atto di controllo per smascherare i furbi, ma un gesto che genera fiducia e responsabilità, e che per lo studente rappresenta il riconoscimento di una competenza maturata.
Nell’era della ri-creazione, l’autore è chi dirige la distanza tra sé e le proprie fonti, tra l’umano e la macchina, e la rende riconoscibile. I credits sono la partitura di questa regia, non un orpello burocratico. Adottarli educa lo studente alla complessità del sapere contemporaneo e gli insegna a firmare non solo i prodotti, ma — soprattutto — i processi.”

Social e AI: c’è spazio per un etica pubblica?

Se lo chiede il giornalista Marco Brando sul sito Treccani. Lo spunto gli arriva dal libro “L’etica stanca. Dialoghi sull’etica pubblica” di Rocco D’Ambrosio.

“La maggior parte degli italiani oggi si confronta, su qualsiasi tema, soprattutto online; in particolare attraverso i social network. Succede in Italia come altrove. Assai meno capita di confrontarsi nei vari luoghi fisici destinati prima, in modo prevalente, a questo scopo: dalle conferenze alle cosiddette “chiacchiere da bar”. Tuttavia la mediazione di hardware e software, di algoritmi e intelligenza artificiale generativa (IA) non cambia soltanto il supporto/luogo in cui ci esprimiamo. Modifica pure il modo con cui affrontiamo questioni spesso impegnative e complesse; ciò influenza l’approccio a quei temi anche fuori dal Web. Sono incluse le discussioni dedicate, in modo più o meno approfondito, al sistema di valori e princìpi morali che guidano, o dovrebbero guidare, il comportamento individuale e sociale; alcune accese diatribe virtuali tracimano grossolanamente persino nell’etica, intesa come riflessione sui fondamenti, i princìpi e le implicazioni dei sistemi morali.
Purtroppo sui social anche in campo etico-morale prevale quasi sempre un lessico all’insegna della superficialità e dell’emotività. Ciò è spesso frutto di atteggiamenti mentali e distorsioni cognitive (bias). I bias sono incentivati dagli algoritmi che, per scelta produttiva e commerciale delle big-tech, governano le piazze virtuali. La circostanza favorisce la polarizzazione, fenomeno studiato dalla psicologia sociale anche prima dell’avvento del Web: i membri di un gruppo sono spinti a far proprio il punto di vista più estremo rispetto alla media di quelli adottati nell’àmbito del gruppo stesso. Di certo, il “metabolismo” dei social spinge verso un’accentuazione del fenomeno. Come scrive Maura Coniglione su RizzoliEducation.it: «nei dibattiti online, […] prevale il principio: “O la pensi come me, o sei contro di me, e con te non posso dialogare”. È il motivo per cui, sotto contenuti che trattano temi divisivi, i commenti mostrano opinioni così polarizzate e inconciliabili da impedire una immedesimazione con altri punti di vista, come se l’altro venisse disumanizzato».
Lo psicologo sociale Matthieu Vétois precisa che, «a livello di relazioni tra gruppi, la polarizzazione emerge quando le convinzioni e i comportamenti collettivi si radicalizzano opponendo un gruppo all’altro. Sul piano individuale si traduce in una radicalizzazione delle posizioni […], così come nel rifiuto e nella delegittimazione di idee divergenti da quelle del proprio gruppo di appartenenza».
Con l’aiuto del sociologo William Davies, possiamo sostenere che «dove […] l’emotività assume un ruolo fondamentale, si manifesta l’improvvisa assenza di un punto di vista autorevole sulla realtà. Nell’era digitale, quel vuoto di informazioni attendibili viene colmato da voci, fantasie e congetture, alcune delle quali immediatamente distorte ed esagerate per adattarle al discorso che si vuole veicolare».

Quando questi atteggiamenti riguardano temi etici o politici (spesso i due piani si intersecano), i contraccolpi non si avvertono solo nella sfera della nostra “quotidianità digitale”; incidono pure sui punti di vista e sulle scelte fatte fuori dal Web, sul rapporto con le istituzioni e sull’atteggiamento in occasione di scadenze elettorali o referendarie, quindi sulla propaganda politica. Ciò induce a riflettere a proposito del concetto, anche lessicale, di “etica pubblica”, una volta che questa viene mediata e talvolta adulterata dai social e da Internet; induce poi a valutare l’impatto del fenomeno sulla cultura di massa. Perché il linguaggio espresso online ha un duplice effetto: da un lato – pur non evitando stress, rabbia o delusione – ci risparmia il contatto diretto, che è stato per millenni un elemento cruciale nell’interazione tra le persone; dall’altro lato, la possibilità di scavalcare questa interazione contribuisce a far aumentare la supponenza, l’aggressività, la sentenziosità, l’emotività, il linguaggio d’odio (hate speech).

Come ha riassunto il disegnatore satirico Francesco Tullio Altan in una vignetta, nel contesto dei social network anche il razzista fascistoide si sente al sicuro; mentre è seduto comodamente davanti al computer, afferma: «Un semplice clic e si può fare un po’ di razzismo comodamente da casa». Tantissimi casi di cronaca, anche recentissimi, legati a “giudizi” agghiaccianti espressi online (si pensi a certi sadici commenti antropocentrici sui femminicidi o agli insulti rivolti contro la 94enne senatrice a vita Liliana Segre, superstite e instancabile testimone della Shoah) ci consentono di verificare quanto la digitalizzazione della riflessione immorale o amorale trasformi le persone più insospettabili in odiatori seriali; questi si esprimono più o meno di getto nell’illusione di poterla fare franca. Insomma, l’ambiente digitale favorisce l’aggressività, la polarizzazione e la propaganda. La discussione su temi complessi – inclusi quelli etici – viene ridotta a slogan; le incubatrici di questo atteggiamento sono soprattutto le cosiddette “echo chamber” digitali: quelle “bolle” dove «idee o credenze più o meno veritiere vengono amplificate da una ripetitiva trasmissione e ritrasmissione all’interno di un àmbito omogeneo e chiuso».
È opportuno, dunque, dedicarsi ai riflessi del dibattito social sull’etica pubblica. Questo contesto è esaminato da Rocco D’Ambrosio, presbitero della diocesi di Bari, a Roma professore ordinario di Filosofia politica nella Facoltà di filosofia della Pontificia Università Gregoriana e docente di Etica della pubblica amministrazione. D’Ambrosio se ne occupa, mentre affronta la questione anche su altri fronti, nel recentissimo libro L’etica stanca. Dialoghi sull’etica pubblica (Roma, Studium Edizioni, 2025), dove riporta i contenuti di una riflessione in cui ha coinvolto molti interlocutori provenienti da vari àmbiti (accademico, giuridico, medico, giornalistico, istituzionale ecc). Pur attingendo molto a pensatori classici (come Platone e Aristotele) e moderni (tra gli altri Max Weber, Hannah Arendt, Emmanuel Mounier, e John Rawls), si concentra principalmente sull’analisi dell’etica pubblica nelle società liberal-democratiche, soprattutto quella italiana.La sintesi in quarta di copertina rende l’idea della posta in gioco: Si entra nella sfera pubblica ogni qualvolta usciamo di casa, a piedi, o in auto o con i mezzi pubblici, per raggiungere il luogo di lavoro o di incontro con amici e conoscenti, sedi di istituzioni politiche, amministrative, culturali, di volontariato, comunità di fede religiosa. Entriamo nella sfera pubblica, in maniera del tutto diversa, anche ogni qualvolta usiamo il nostro smartphone o computer per navigare o essere presenti sui social. Tutte queste azioni pubbliche pongono tante questioni e dubbi etici.
Il titolo stesso – L’etica stanca – gioca su una duplice interpretazione: la discussione sull’etica può risultare faticosa per chi l’affronta; oppure l’etica stessa può essere “stanca” di orientare e insegnare in un mondo che sembra ignorarla. L’autore sceglie di mantenere aperta questa ambiguità, sottolineando comunque la perdurante necessità dell’etica, intesa come “il nostro modo di stare al mondo”.
La riflessione ruota intorno ad alcuni cardini concettuali. Per esempio, per quel che riguarda il confronto tra etica pubblica ed etica privata, D’Ambrosio nega che ci sia una netta separazione. Se la prima è definita come il modo di comportarsi nella sfera pubblica (include politica, economia, lavoro, vita associativa e istituzionale), la seconda, che riguarda le scelte cosiddette “private”, ha inevitabilmente ricadute sulla collettività. E viceversa. Il saggio affronta anche la “privatizzazione del pubblico”: entità non statali, specialmente nel settore tecnologico e mediatico, “privatizzano” lo spazio pubblico e influenzano pesantemente le dinamiche sociali e politiche, spesso a scapito del bene comune.
In questo quadro, particolare attenzione è dedicata all’influenza dei social media e dell’intelligenza artificiale generativa. Di fatto, le piattaforme social privilegiano, rispetto alla razionalità, l’emotivismo – con i giudizi etici che diventano espressione di preferenze personali o sentimenti momentanei, facilmente manipolabili – piuttosto che il risultato di una riflessione condivisa: le informazioni con il maggior potenziale di “eccitazione” prevalgono sugli argomenti ponderati, grazie agli algoritmi concepiti dalla big-tech per massimizzare il traffico e il profitto sulle loro piattaforme. Ciò contribuisce a determinare una “crisi delle relazioni”, legata all’individualismo e alla perdita di un linguaggio capace di esprimere profondità.
Secondo D’Ambrosio, alla vera “relazione” umana si contrappone la mera “connessione” digitale. In quest’ottica, il rapporto tra responsabilità individuale e collettiva emerge come il tema cardine, inteso come capacità di rispondere delle conseguenze delle proprie azioni e come impegno attivo contro l’indifferenza («Me ne frego»). In sintesi, secondo l’analisi presentata in L’etica stanca, l’ecosistema digitale attuale rappresenta una seria minaccia alla percezione e alla pratica di un’etica pubblica basata su razionalità, verità, empatia, bene comune e dialogo autentico.
Scrive l’autore: «Un’etica pubblica, come ogni pensiero etico, è possibile solo se siamo capaci di dare ragione dei nostri giudizi, riconoscendo l’influenza delle emozioni senza però permettere che queste governino del tutto i processi cognitivi o si sostituiscano ad essi».
Anche in Italia la digitalizzazione del dibattito pubblico e l’intelligenza artificiale stanno ridefinendo il panorama dell’etica pubblica, presentando sia notevoli opportunità sia sfide complesse. Fattori culturali, come la normalizzazione del “vantaggio personale”, continuano a influenzare la pratica dell’etica pubblica, intrecciata fortemente con quella privata. Bisognerebbe promuovere l’etica dal basso, rafforzando anche il senso della responsabilità civica. Questo processo, lento e complesso, dovrebbe coinvolgere attivamente tutti, forze politiche e sociali e istituzioni incluse (con la scuola in testa), per creare un ambiente in cui le norme etiche democratiche non siano imposte, ma interiorizzate e percepite come intrinsecamente “buone” e “utili” per la collettività. I segnali che vengono, per esempio, dalla disaffezione verso alcuni pilastri della democrazia italiana – come le elezioni e i referendum – non depongono a favore dell’ottimismo. Tuttavia, come suggerisce la lettura del saggio L’etica stanca, sarebbe profondamente immorale, a livello pubblico e individuale, dare per persa questa partita fondamentale.”

Tra intelligenza e giustizia artificiale

Margherita Ramajoli sulla rivista Il Mulino scrive un pezzo sul rapporto tra Intelligenza Artificiale e mondo della giustizia dal titolo Siamo pronti per una giustizia artificiale? E’ del 25 marzo.

“Disciplinare una tecnologia inafferrabile e in costante evoluzione come l’intelligenza artificiale non è un’impresa facile. Ciò spiega perché il Regolamento sull’intelligenza artificiale (AI Act), approvato la scorsa settimana dal Parlamento europeo – manca solo il passaggio formale da parte del Consiglio –, ha avuto una gestazione lunga oltre tre anni ed entrerà in vigore gradualmente, tra la fine del 2024 e il 2026. La normativa, inevitabilmente complessa, segue un approccio fondato sul rischio e regola l’intelligenza artificiale sulla base della sua attitudine a causare danni alla società, modulando gli obblighi introdotti in base al diverso grado di pericolo di lesione per i diritti fondamentali: più alto è il rischio paventato, maggiori sono gli oneri e le responsabilità dei fornitori, distributori e operatori dei sistemi di IA.
Il Regolamento è conscio del fatto che l’applicazione dei sistemi di IA nello specifico campo della giustizia produce benefici, ma altrettanti problemi. L’AI Act parla di risultati vantaggiosi sul piano sociale che la giustizia digitale porta con sé. Più nello specifico, l’uso dell’IA nel campo della giustizia consente il raggiungimento degli obiettivi propri della giustizia standardizzata: l’efficienza, perché l’IA può essere impiegata in massa a scale e velocità di gran lunga superiori a quelle raggiungibili da qualsiasi essere umano o collegio di esseri umani nelle attività di archiviazione, indagine e analisi delle informazioni giudiziarie; l’uniformità, perché per definizione l’IA elimina spazi di creatività e fornisce risposte prevedibili.
Tuttavia, l’affidarsi a sistemi di IA nel processo decisionale presenta anche punti di debolezza e pone due problemi: il problema della scatola nera e il problema del pregiudizio dell’automazione. Si parla di scatola nera perché esiste una tensione intrinseca tra il dovere del giudice di motivare le proprie decisioni e la limitata «spiegabilità» di alcuni sistemi di IA. Il procedimento trasformativo degli input in output può risultare opaco al punto tale che gli esseri umani, compresi pure quelli che hanno ideato e progettato il sistema, non sono in grado di capire quali variabili abbiano esattamente condizionato e determinato il risultato finale. Questa opacità limita, se addirittura non impedisce, la capacità del giudice che si serve del sistema di IA di giustificare le decisioni assunte sulla scorta del sistema.
Il pregiudizio dell’automazione allude invece al fenomeno generale per cui gli esseri umani sono propensi ad attribuire una certa autorità intrinseca ai risultati suggeriti dai sistemi di IA e nella nostra quotidianità abbondano esempi di questo sottile condizionamento. Di conseguenza, l’applicazione dei sistemi IA nel campo della giustizia può soffocare l’aggiornamento valoriale, visto che i sistemi di IA imparano dal passato e tendono a riprodurre il passato. Se nel futuro un giudice facesse affidamento, sia pure inconsciamente, solo sui sistemi di IA, il cosiddetto effet moutonnier [una naturale tendenza a conformarsi alla maggioranza, ndr] spingerebbe i giudici verso un non desiderabile conformismo giudiziario, sordo alle trasformazioni sociali ed economiche.
Se queste sono le questioni poste dalla giustizia artificiale, le soluzioni offerte dal diritto risultano significative, anche se non sempre facili da applicare. I sistemi di IA destinati all’amministrazione della giustizia, tranne quelli impiegati per attività puramente strumentali (l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, le comunicazioni tra il personale e così via), sono reputati ad alto rischio e come tali sono sottoposti a rilevanti limiti e obblighi. Secondo il Regolamento «il processo decisionale finale deve rimanere un’attività a guida umana» e quindi l’IA può fornire sostegno ma mai sostituire il giudice. Questa riserva d’umanità, ora solennemente proclamata dal legislatore europeo, sottende la consapevolezza che l’attività giudiziaria ha una sua unicità, non è formalizzabile a priori e non è riproducibile artificiosamente. Per giudicare non sono sufficienti solo conoscenze giuridiche, perché il ragionamento giudiziario richiede una varietà di tecniche cognitive, l’apprezzamento dei fatti complessi e sempre diversi, l’impiego dell’induzione e dell’analogia, l’impegno nell’argomentazione, l’uso di ragionevolezza e proporzionalità.
Tuttavia, nel passaggio dal piano astratto proclamatorio al concreto piano applicativo riemergono alcune questioni irrisolte. Anzitutto, non è immediato individuare né quale soggetto istituzionale sia legittimato a controllare il rispetto della riserva d’umano nelle decisioni giudiziarie, né quali strumenti efficaci possano essere impiegati a tal fine. In secondo luogo, non può dirsi superato il rischio del pregiudizio dell’automazione, perché l’effetto gregge potrebbe spingere il giudice ad aderire al risultato algoritmico e a non assumersi la responsabilità di discostarsene anche quando tale risultato non risulti cucito su misura sulle specificità della lite in esame. Ancora, per quanto l’AI Act abbia introdotto specifici obblighi per i fornitori di IA e in particolare l’obbligo di procurare ai giudici e alle autorità di vigilanza le «istruzioni per l’uso», comprensive delle specifiche «per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova», queste fondamentali informazioni vanno condivise solo «ove opportuno». In altri termini, il Regolamento rende non necessaria, ma discrezionale la resa di informazioni proprio di quei dati di input che determinano in modo significativo gli output con cui i giudici dovranno fare i conti. Torna così anche il problema della scatola nera, quella tensione intrinseca tra il dovere del giudice di motivare le proprie decisioni e la limitata comprensibilità e, di conseguenza, spiegabilità di alcuni sistemi di IA.
In ultima analisi, i detentori della tecnologia – sviluppatori di sistemi di IA – si ergono a veri e propri poteri privati, rispetto ai quali l’ordinamento giuridico, ma ancora prima la politica, devono ancora ingegnarsi a trovare efficaci contrappesi.
Anche se non possiamo realisticamente ritornare a un mondo senza intelligenza artificiale, sia in generale, sia in campo giudiziario, le questioni da affrontare sono ancora tante e il diritto è solo uno dei tanti strumenti per cercare di risolverle.”