Un prof tra mare, terra e cielo

Immagine creata con ChatGPT®

Sono su Facebook dal 2008, su Twitter dal 2010 (ora non più, preferisco bluesky o threads) e su Instagram dal 2014 (da un po’ con un secondo account specificatamente dedicato al lavoro), su Flickr dal 2009, su Whatsapp e Telegram con un canale Oradireli, sono anobiano dal 2013 e goodreader dal 2014 (Ask, GuruShots, 500px, Snapchat, Pinterest, LinkedIn, Tiktok e altri li ho usati per capire come funzionano). Youtube lo utilizzo senza interagire con gli altri utenti. Non amo il gioco online, non ho conoscenze dirette del settore. Da anni utilizzo Netflix, Prime e Infinity. Utilizzo Spotify da tempo. In casa c’è quell’antipatica di Alexa.
Scrivo un blog dal 2007, ho prodotto podcast e video, condiviso un hard disk virtuale che però non aggiorno più. Non riporto piattaforme e strumenti tipici della didattica.
Ho sperimentato vari chatbot e, per il concorso che ho recentemente affrontato, ho fatto presentare una piccola parte di esposizione da un mio avatar.
Ho voluto scrivere questa sottospecie di curriculum per vari motivi:

  • mi piacciono queste cose e capire come funzionano
  • queste cose appaiono e spariscono in un amen o possono persistere a lungo, di sicuro cambiano molto frequentemente
  • la grande maggioranza di studentesse e studenti vi sono immerse/i, e stanno arrivando in classe coloro che sono nati già in quel mondo e tristemente utilizzano queste cose fin dalla più tenera età
  • queste cose influenzano la nostra vita, il nostro modo di esprimerci e di relazionarci, il nostro stesso modo di pensare
  • se desideriamo capire il perché di certi meccanismi abbiamo due possibilità: entrare in quel mondo o farci raccontare quel mondo da chi vi è dentro o l’ha abitato per un certo periodo.

Quello che mi sembra poco utile è lo scontro tra due opposte fazioni che Matteo Lancini in “Il ritiro sociale negli adolescenti. La solitudine di una generazione iperconnessa” (2019, Raffaello Cortina Editore) definisce così:

  • I tecno-ottimisti: gli studiosi che “spingono verso un’accelerazione della diffusione dei dispositivi tecnologici, fino ad arrivare a promuovere persino la loro integrazione nel corpo umano, come protesi in grado di potenziare la dotazione biologica naturale, ritenendo che la tecnologia possa prima o poi riuscire nella promessa di eliminare limiti e sofferenze umane” (pag. 21)
  • I tecno-pessimisti: sono coloro che sottolineano i “rischi legati alla tentazione di cedere alla promessa dello strapotere tecnologico, generatore di un uomo diminuito, anziché potenziato di capacità e dotazioni. Rischi ancora da studiare sui cambiamenti del sistema nervoso, ma che, sommandosi ai pericoli di un utilizzo poco responsabile dei mezzi informatici, alimentano un clima di aspra condanna e timore nei confronti di Internet. Il mondo adulto sembra spaventato dall’ipotesi che i più giovani possano trovarsi intrappolati tra le maglie della rete, incapaci di gestire il tempo della connessione e di difendersi da truffe, ricatti e situazioni pericolose” (pag.21)

Mi ritrovo nelle parole immediatamente successive di Lancini: “Prendere posizione nella disputa tra sostenitori e avversari della tecnologia è un’operazione poco utile per aiutare gli adolescenti a farsi strada nell’intricato mondo in cui vivono fuori e dentro la rete” (posto che esista un fuori e dentro la rete, aggiungerei) (pagg. 21-22).
Ultimamente, soprattutto davanti agli strumenti dell’AI, faccio più fatica. Sento che mi manca un aspetto che prima comunque caratterizzava il mio lavoro e l’accompagnamento all’utilizzo degli strumenti tecnologici da parte di allieve e allievi: il dominio di quello strumento. Forse perché non è solo uno strumento. E’ un po’ come se fossi sempre andato per mare, abituato al mare calmo o anche tempestoso, ma fiducioso delle possibilità della barca su cui navigavo; in questo momento però ho la sensazione di essere nell’oceano e le onde mi incutono timore. Mi preoccupa la rotta che può prendere lo sviluppo dell’AI, mi preoccupa il dispendio di energie che richiede, mi preoccupa il modo in cui è stato costruita e si sta costruendo, mi preoccupa l’opacità e la mancanza di trasparenza del processo. Si tratta di dubbi che riguardano l’etica, la coscienza: di solito, quando li incrocio nella mia vita, ho l’abitudine, per capire meglio la situazione, di prendere le distanze, perché da lontano si ha uno sguardo d’insieme (come quegli allenatori che talvolta scelgono di guardare una partita della loro squadra dalla tribuna). Questa volta però sono molto indeciso, restando nella metafora dell’oceano, tra una modifica dell’equipaggiamento o dell’intera imbarcazione (fare corsi, sperimentare, modificare la didattica, cambiare il setting delle lezioni) e la ricerca di un orizzonte diverso (prendere le distanze, appunto): ma quale orizzonte? Uno più stabile, come la terra? O uno più imprevedibile, come l’aria? Andare alla ricerca di sicurezze? Adoro viaggiare in treno, ma riconosco che il binario è una strada tracciata, posso solo scendere e prendere altri treni, non posso fare andare il treno dove binario non c’è. O andare alla ricerca di cose mai sperimentate? Provare l’ebrezza del volo, la sensazione di essere sostenuto dall’aria senza una base sotto i piedi, mi attira. Quale mi piacerebbe che fosse l’orizzonte del mio lavoro educativo?
Penso che intanto mi convenga equipaggiare la mia imbarcazione, dotarla di tutto ciò che serve per affrontare l’oceano. Nel frattempo, mentre sono a terra, mi tolgo lo sfizio di qualche viaggio in treno e di qualche prova di volo (delle prese di distanza provvisorie, insomma). Chissà se alla fine canterò insieme a Jovanotti la parte finale de La linea d’ombra:
“Mi offrono un incarico di responsabilità
Non so cos’è il coraggio se prendere e mollare tutto
Se scegliere la fuga o affrontare questa realtà difficile da interpretare
Ma bella da esplorare
Provare a immaginare come sarò quando avrò attraversato il mare
Portato questo carico importante a destinazione
Dove sarò al riparo dal prossimo monsone
Mi offrono un incarico di responsabilità
Domani andrò giù al porto e gli dirò che sono pronto per partire
Getterò i bagagli in mare studierò le carte
E aspetterò di sapere per dove si parte quando si parte
E quando passerà il monsone dirò “levate l’ancora
Diritta avanti tutta questa è la rotta questa è la direzione
Questa è la decisione”.”

Hinton: IA, i limiti vanno messi ora

Immagine realizzata con l’intelligenza artificiale della piattaforma POE

Domani 12 settembre si apre a Roma il World Meeting on Fraternity: per due giorni riunisce persone provenienti da tutto il mondo per focalizzare l’attenzione sulla domanda essenziale: che cosa ci rende veramente umani? Promosso dalla Basilica di San Pietro, dalla Fondazione Fratelli Tutti e dall’associazione Be Human, l’incontro ospita un gruppo di lavoro dedicato all’intelligenza artificiale. Di esso fa parte Geoffrey Hinton, considerato uno dei padri dell’IA. Nei giorni scorsi è stato intervistato da Riccardo Luna per il Corriere della Sera: i toni sono preoccupati e accorati, vale la pena conoscere quanto dice.

“«La maggior parte dei principali ricercatori di intelligenza artificiale ritiene che molto probabilmente creeremo esseri molto più intelligenti di noi entro i prossimi 20 anni. La mia più grande preoccupazione è che questi esseri digitali superintelligenti semplicemente ci sostituiranno. Non avranno bisogno di noi. E poiché sono digitali, saranno anche immortali: voglio dire che sarà possibile far risorgere una certa intelligenza artificiale con tutte le sue credenze e ricordi. Al momento siamo ancora in grado di controllare quello che accade ma se ci sarà mai una competizione evolutiva tra intelligenze artificiali, penso che la specie umana sarà solo un ricordo del passato». Geoffrey Hinton è nella sua casa di Toronto. Alle sue spalle c’è una grande libreria a parete e lui — come al solito — è in piedi. Per via di un fastidioso problema alla schiena lo chiamano «l’uomo che non si siede mai» (ma in realtà, per brevi periodi e con alcuni accorgimenti, può farlo). Indossa una camicia blu che assieme ai capelli incanutiti e al sorriso dolce lo fanno assomigliare a quei personaggi che nei libri o nei film ci vengono a salvare da una minaccia terribile. Dicono che sia uno dei tre padri dell’intelligenza artificiale, ma visto che gli altri due (Yoshua Bengio e Yann LeCun) sono stati, in modi diversi, dei suoi allievi, se ci fosse un Olimpo dell’intelligenza artificiale Geoff Hinton sarebbe Giove. E infatti lo scorso anno ha vinto il premio Nobel per la Fisica (con John Hopfield) «per scoperte e invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali». Per semplificare: senza di lui, non avremmo Chat GPT.
Quando l’ho invitato a far parte del gruppo di esperti di intelligenza artificiale che il 12 settembre incontrerà papa Leone XIV mi ha risposto: «Sono un ateo, sicuro che mi vogliano?». Poi però ha accettato perché evidentemente spera che il pontefice voglia giocare la partita della scienza: «Avrebbe una grande influenza». Molto più degli appelli e delle petizioni della comunità scientifica che in due anni si sono succeduti con lo scopo di rallentare lo sviluppo tecnologico in attesa di capirne meglio i rischi e della ragionevole certezza che la cosa non ci scappi di mano. Il primo a dare l’allarme è stato proprio Hinton alla fine di aprile del 2023 quando improvvisamente lasciò Google, l’azienda per cui aveva lavorato gli ultimi dieci anni, per poter parlare liberamente dei rischi dell’intelligenza artificiale. L’ultimo è stato sempre lui, un paio di mesi fa, quando ha firmato un appello, assieme al collega premio Nobel Giorgio Parisi, per chiedere a Open AI, l’azienda che ha sviluppato Chat GPT, maggior trasparenza («Stanno decidendo il nostro futuro a porte chiuse»). Partiamo da qui.
Avete avuto una certa risonanza e raccolto tremila firme autorevoli ma non penso che il vero scopo fosse solo quello.
«La questione è complicata dal fatto che c’è una causa legale tra Musk e Altman. Il motivo per cui Musk lo fa mentre allo stesso tempo sviluppa Grok è la competizione. Musk vuole avere meno concorrenza da OpenAI. Questo è ciò che credo, non ne ho la certezza, ma secondo me la sua motivazione nel voler mantenere OpenAI come “public benefit corporation” non è la stessa che abbiamo noi. La nostra motivazione è che OpenAI era stata creata per sviluppare l’IA in modo etico e invece sta cercando di sottrarsi a quell’impegno. Molti ricercatori, come Ilya Sutskever, se ne sono andati; credo che l’abbiano fatto perché non si dava abbastanza importanza alla sicurezza. L’obiettivo dell’appello era insomma fare pressione sul procuratore generale della California che può decidere se permettere o meno a OpenAI di diventare una società a scopo di lucro».
Quindi non vi aspettavate davvero una risposta da Sam Altman.
«No, certo che no».
Direi che la vera risposta all’appello è arrivata pochi giorni fa, alla Casa Bianca, quando il presidente degli Stati Uniti ha convocato tutti i ceo delle Big Tech, compresi OpenAI, Meta e Google…
«Il presidente ha cercato di impedire che per dieci anni negli Stati Uniti ci fossero regole per l’IA, ma ha fallito; i singoli Stati possono continuare a legiferare».
Che effetto le ha fatto vedere i leader delle grandi aziende tecnologiche così ossequiosi verso il potere politico? Forse è la prima volta nella storia che assistiamo a una concentrazione assoluta del potere.
«La mia reazione è stata di tristezza: vedere i leader di queste aziende non disposti a prendere nessuna posizione morale su nulla».
Quando arrivò la rivoluzione digitale, i sogni erano altri: un mondo più giusto, più equo, migliore per tutti.
«Non sono sicuro che fosse il sogno di tutti. Credo che per la maggior parte delle persone coinvolte, il sogno fosse diventare ricchi. Ma potevano convincersi che sì, si sarebbero arricchiti, ma allo stesso tempo avrebbero aiutato tutti. E in larga misura è stato così per il web: se mettiamo da parte le conseguenze sociali, guardando solo alla vita quotidiana, il web ha davvero aiutato le persone».
Prendiamo Tim Berners Lee: non è diventato ricco e ha dato i protocolli del web gratuitamente a tutti. Poi qualcosa è andato storto. Direi: il capitalismo.
«Io non sono totalmente contro il capitalismo: è stato molto efficace nel produrre nuove tecnologie, spesso con l’aiuto gratuito dei governi per la ricerca di base. Credo che, se ben regolato, il capitalismo vada bene. È accettabile che la gente cerchi di arricchirsi purché, arricchendosi, si aiutino anche gli altri. Il problema è quando la ricchezza e il potere vengono usati per eliminare le regole, così da fare profitti che danneggiano le persone».
È quello che sta accadendo adesso?
«Sì. La cosa che sembra importare loro di più è non pagare le tasse. E sostengono Trump perché abbassa le tasse: questa è la loro spinta primaria. Ma vogliono anche eliminare le regole che proteggono le persone per rendere più facile fare affari. Per questo assecondano Trump».
Come valuta quello che sta facendo l’Unione europea? Si dice che pensi troppo alla regolamentazione e troppo poco all’innovazione. Così restiamo indietro nella corsa all’intelligenza artificiale. Come sa, l’Unione europea ha approvato una legge importante, l’AI Act. Secondo lei è un buon punto di partenza o solo un ostacolo all’innovazione?
«Credo sia un punto di partenza accettabile ma ci sono parti che non mi piacciono: ad esempio, c’è una clausola che dice che nessuna di queste regole si applica agli usi militari dell’IA. Questo perché diversi Paesi europei sono grandi produttori di armi e vogliono sviluppare sistemi letali e autonomi. Inoltre, per come l’ho capita io, la normativa europea è partita con un’enfasi particolare su discriminazione e bias, preoccupandosi più di questi aspetti che di altre minacce. Perciò mette molto l’accento sulla privacy. La privacy è importante, ma ci sono minacce più gravi».
Ha toccato un punto molto delicato. Le aziende della Silicon Valley erano nate con l’idea di non collaborare con il potere militare. Quando DeepMind fu venduta a Google, una delle condizioni era che l’IA non sarebbe stata usata per scopi militari. Ma lo scorso gennaio quella condizione è stata rimossa. Ora tutte le aziende di intelligenza artificiale forniscono tecnologia al dipartimento della Difesa americano. E pochi giorni fa Google ha firmato un accordo importante con Israele per fornire sistemi di intelligenza artificiale alle forze armate. Che ne pensa?
«C’è una regola semplice che usano gli scienziati politici: non guardare a ciò che la gente dice, ma a ciò che fa. Sono rimasto molto dispiaciuto quando Google ha eliminato l’impegno a non usare l’IA per scopi militari. È stata una delusione. E lo stesso quando hanno cancellato le politiche di inclusione solo perché era arrivato Trump».
E arriviamo a papa Leone XIV: appena insediato, ha detto di volersi occupare di intelligenza artificiale. Che ruolo pensa possa avere in questo dibattito?
«Beh, come saprà, ha circa un miliardo di fedeli. Se lui dicesse che è importante regolare l’IA, sarebbe un contrappeso alla narrativa dei leader delle Big Tech che ringraziano il presidente per non aver imposto regole. Io credo che il Papa abbia un’influenza politica reale, anche al di fuori del cattolicesimo. Molti leader religiosi, come il Dalai Lama, lo vedono come una voce morale. Non tutti i Papi sono stati così, ma questo sì, e anche il suo predecessore. Per molti non cattolici, le sue opinioni morali sono sensate, non infallibili, ma ascoltate. Se dirà che regolare l’IA è essenziale, avrà un impatto».
Cosa vorrebbe far sapere al Papa sui rischi dell’intelligenza artificiale?
«Credo che per il Pontefice sia inutile porre l’accento sui cosiddetti rischi esistenziali, come la sparizione della specie umana nel lungo periodo; e sia meglio concentrarsi sui rischi attuali. Non serve credere che l’IA sia un “essere” per capire che può portare disoccupazione di massa, corruzione delle democrazie, cyber-attacchi più facili ed efficaci, creazione di virus letali accessibili a chiunque. Sta già accadendo. Quindi su questi rischi a breve termine, quelli che chiamo “rischi dovuti a cattivi attori”, possiamo trovare un accordo. Questi sono rischi che qualunque leader religioso o politico può capire, senza dover entrare nella questione metafisica se l’IA sia o meno un “essere”».
A volte sembra che i governi non capiscano fino in fondo la posta in gioco, che si fidino troppo di queste aziende.
«È proprio così. Spesso i governi non hanno abbastanza esperti interni e si affidano a consulenti che vengono… indovini da dove? Proprio dalle Big Tech. Così finiscono per sentire solo la voce delle aziende. È come se i regolatori di Wall Street fossero tutti ex banchieri che ancora pensano come banchieri».
È considerato un apocalittico. Lei come si sente? Ottimista o pessimista?
«Realista. Vedo entrambi i lati. Ma la storia ci dice che, senza regole, si abusa del potere. Perciò credo che, se non regoliamo, finirà male».
Crede che ci sia una lezione particolare che dovremmo ricordare ora?
«Sì. Pensiamo all’energia nucleare. Quando gli scienziati capirono che le loro scoperte potevano portare all’atomica, molti di loro provarono ad avvertire i governi. Ma alla fine furono i militari a decidere come usarla. Non fu la comunità scientifica a stabilire i limiti. Lo stesso rischio lo vedo oggi: se lasciamo che siano solo i governi o le aziende a decidere, l’IA sarà usata in modi molto pericolosi».
È davvero un momento unico nella storia dell’umanità o solo un ennesimo progresso?
«È un punto di svolta. Per la prima volta stiamo creando entità che possono essere più intelligenti di noi. Non è mai successo prima. Abbiamo creato macchine più forti, più veloci, ma mai più intelligenti. Questo cambia tutto».
Quindi cosa possiamo fare?
«Serve un movimento globale, non solo poche voci isolate. Dobbiamo creare un consenso ampio nella comunità scientifica, altrimenti i politici ci ignoreranno».Dopo 90 minuti l’intervista è finita (questa è una versione molto condensata ma approvata dal professore). Resta il tempo per una domanda personale. Geoffrey Hinton viene da una famiglia eccezionale. L’Everest si chiama così per via di un suo prozio cartografo (e anche il suo secondo nome è Everest); e un altro è il padre della logica booleana (la base matematica su cui si basano i computer e i sistemi digitali). Come se non bastasse, il padre gli ha sempre tenuto l’asticella altissima. Gli diceva: «Se lavori il doppio di me, quando avrai il doppio della mia età, forse sarai bravo la metà».
Gli chiedo: ce l’ha fatta a realizzare l’obiettivo che le ha dato suo padre? Sorride: «No. Sicuramente almeno la metà».”

Intelligenza Artificiale e scuola, in cerca di strade da percorrere

Immagine realizzata con l’intelligenza artificiale della piattaforma POE

Sono passati più di 27 anni dalla prima volta che ho messo il piede in un’aula scolastica come prof. Erano le scuole medie di Latisana, una supplenza breve. Finalmente quest’anno è stato indetto un concorso (non accadeva dal 2004), l’ho superato e sono diventato di ruolo; affronterò pertanto l’anno di prova (!) e lo farò con un nuovo Dirigente. Al Liceo Percoto è infatti arrivato Luca Gervasutti, che ho appena iniziato a conoscere (non abbiamo ancora parlato faccia a faccia). Ho scoperto che abbiamo una cosa in comune: l’interesse per l’Intelligenza Artificiale. Lui ha un profilo Facebook sul quale ultimamente ha pubblicato, visibili a tutti, tre testi molto interessanti. Li condivido qui perché penso possano suscitare riflessioni e approfondimenti. Lascio anche il cappello introduttivo scritto dal Dirigente stesso. Buona lettura.

“Negli ultimi tempi ho lavorato a un framework per la valutazione educativa dell’IA, pensato come bussola per dirigenti, docenti e studenti.
Lo proporrò qui, facendolo precedere da tre brevi testi che ne delineano la cornice culturale.

1 – Archeologia del remix.
Virgilio aveva un problema. Doveva scrivere l’epos della nuova Roma, ma non poteva partire dal nulla – i Greci avevano già detto tutto. Allora prese l’epopea omerica, ne riscrisse versi e temi, e la ricompose in latino con un progetto del tutto nuovo. L’Eneide è il più geniale remix della storia antica. Il gesto di Enea che fugge da Troia portando sulle spalle il padre Anchise riprende un’immagine tradizionale, ma la piega verso occidente, verso un futuro che Omero non avrebbe mai immaginato. Era già tutto lì, duemila anni fa: l’arte non nasce dal vuoto, si riscrive.
I Romani l’avevano capito istintivamente. Le loro statue riprendevano la perfezione greca, ma la adattavano ai volti concreti dei consoli; i loro templi riprendevano le proporzioni di Atene, ma li piantavano nel fango del Tevere. Non era imitazione: era traduzione. E la traduzione non è mai innocente: cambia tutto nel momento stesso in cui si illude di lasciare tutto uguale.
Diciannove secoli dopo, Duchamp prende un orinatoio, lo gira sottosopra, ci scrive una firma falsa e lo chiama arte. Stesso gesto di Virgilio, ma con una brutalità che l’Eneide non si sarebbe mai permessa. L’oggetto non cambia, cambia il contesto. E il contesto, scopriamo, è tutto. Picasso fa lo stesso con i giornali: inventa i papiers collés, ritaglia una cronaca, incolla una colonna tipografica, e quello che prima informava ora dipinge.
Il moderno inizia quando capiamo che ogni cosa può diventare materiale per ogni altra cosa. Le avanguardie lo intuiscono, ma ci vuole il computer per renderlo banale. Copia e incolla: due parole che hanno cambiato il mondo più di molte rivoluzioni. Non è solo una funzione tecnica: è una forma mentis. Tutti, improvvisamente, possono fare quello che prima era riservato agli artisti geniali – prendere un pezzo di realtà e spostarlo altrove, riscrivere il senso con un clic.
Il DJ che campiona James Brown e ci costruisce sopra una hit ripete, a suo modo, il gesto di Virgilio: prendere parole o suoni già scritti e ricomporli in una creazione nuova. Un tempo questo lavoro apparteneva a pochi; oggi con l’intelligenza artificiale, può farlo chiunque. E qui nasce il panico degli insegnanti. Perché se copiare è facile, cosa significa ancora studiare e assegnare i compiti? Se l’informazione è disponibile ovunque, perché memorizzare? Se si può assemblare un tema pescando da mille fonti, cosa resta dell’apprendimento individuale? La scuola si blinda, vieta lo smartphone, rincorre software anti-plagio. Ma sta combattendo la battaglia sbagliata: invece di proibire il remix, dovrebbe insegnare a farlo bene.
L’IA fa esattamente quello che hanno sempre fatto i buoni studenti: ricombinare, collegare, rielaborare. È come se il processo di apprendimento si mettesse a nudo, mostrasse i suoi meccanismi interni. Le chiedi di scrivere una poesia d’amore e te la costruisce pescando da Petrarca, da una canzone pop degli anni Ottanta, da miliardi di parole disperse nella rete. Tutto mescolato, tutto riconoscibile e irriconoscibile insieme. Un’IA come MidJourney crea un dipinto mixando lo stile di Van Gogh con l’estetica cyberpunk, proprio come Virgilio mescolava Omero con il destino di Roma. Ma non lo fa da sola: dietro ogni immagine c’è un prompt, un’intuizione umana che guida la macchina, un’intenzione creativa che decide cosa combinare e come. È l’uomo, con la sua capacità di immaginare e scegliere, a trasformare il remix da un processo meccanico a un atto di creazione.
Se tutto è remix, se non esiste l’originale puro, allora la missione della scuola si ribalta completamente. Non deve più proteggere l’originalità, ma insegnare a riconoscerla dentro la ricomposizione. Non deve impedire la copia, ma mostrare quando diventa tradimento e quando invece diventa traduzione.
Il compito è chiaro: trasformare l’archeologia del remix in pedagogia del remix. Insegnare che copiare, riscrivere, tradurre non sono scorciatoie da reprimere, ma gesti antichi e necessari da padroneggiare. La differenza è tutta nell’intenzione e nella consapevolezza: plagiare significa appropriarsi con inganno, mentre ricreare significa imparare trasformando.
La cultura è un grande archivio che si riscrive continuamente, un infinito gioco di ricomposizione dove ogni pezzo contiene già tutti gli altri. La scuola può continuare a fingere che non sia così, oppure può iniziare a insegnare le regole del gioco. La domanda non è più se questo sia giusto o sbagliato. La domanda è: ora che lo sappiamo, cosa e come insegniamo?

2 – Scrivere con l’IA: il brainframe del remix.
Ogni epoca pensa con gli strumenti che usa. La scrittura alfabetica ha insegnato a ragionare in sequenze ordinate; la stampa ha educato alla linearità della pagina e alla disciplina del testo; la televisione ha modellato uno sguardo rapido, frammentato, fatto di immagini che si consumano in pochi secondi. Marshall McLuhan diceva “il medium è il messaggio”; Derrick de Kerckhove – probabilmente il suo allievo prediletto – ha parlato di brainframes: cornici mentali che i media costruiscono dentro di noi, senza che ce ne accorgiamo.
Il digitale ha introdotto un brainframe nuovo, il remix. Non più il pensiero lineare del libro, né il pensiero sequenziale del cinema, ma un pensiero modulare e reticolare, che prende tasselli e li ricompone all’infinito. I software hanno educato le ultime generazioni alla logica del loop: copia, incolla, varia, modifica, ricombina. Il word processor, iMovie, GarageBand – e decine di altre app che popolano la didattica quotidiana – insegnano la stessa lezione, cioè che la realtà non è un blocco compatto, ma una serie di pezzi mobili da riassemblare ogni volta in forme diverse.
Questo brainframe abitua a guardare il sapere non come qualcosa da acquisire e conservare, ma come un materiale da manipolare, smontare, ricostruire. È un modo di pensare che può generare una creatività dirompente, ma anche una voracità superficiale: si passa da un frammento all’altro senza concedersi il tempo della sedimentazione.
Gli insegnanti ne vedono i risultati nelle aule; gli studenti compongono testi a mosaico, pensano per associazioni rapide, saltano da un argomento all’altro con una velocità che a tratti sembra intuizione geniale, a tratti superficialità insostenibile. È il loro modo di processare le informazioni. Un modo che la scuola fatica a riconoscere perché è cresciuta dentro il brainframe del libro, dove ogni cosa ha un prima e un dopo, un inizio e una fine.
Ora, con l’avvento dell’intelligenza artificiale, il remix entra in una fase nuova. I modelli neurali sono, in fondo, macchine di ricombinazione: prendono miliardi di pattern linguistici, sonori, visivi, e li restituiscono in forme sempre diverse. Non pensano: remixano. E noi, interagendo con loro, impariamo a pensare insieme a loro. È come se il brainframe non fosse più solo umano, ma ibridato: metà memoria culturale nostra, metà calcolo algoritmico.
È qui che il remix incontra la scrittura a distanza, come l’ha definita Luciano Floridi. L’IA non scrive mai da zero: rielabora miliardi di testi preesistenti e li ricompone in nuove configurazioni. Ogni risposta è già un montaggio, un dialogo invisibile con un archivio sterminato. La scrittura non è più il gesto solitario dell’autore che lascia traccia, ma un processo distribuito e condiviso. Con l’IA, ogni testo nasce sempre in relazione, sempre in risposta, sempre in ricombinazione.
In questo senso, remix e scrittura a distanza sono due facce della stessa condizione cognitiva: il primo è la logica interna – smontare e ricombinare – la seconda è il contesto relazionale, fatto di voci umane e artificiali che si intrecciano.
La scuola ora si trova di fronte a un bivio. Gli studenti vivono già dentro questo brainframe: consumano contenuti su TikTok, in un flusso continuo che privilegia la velocità e l’impatto immediato, scrivono per frammenti e studiano saltando da un contenuto all’altro. L’insegnante può fingere di non vedere, continuare a pretendere che tutti rientrino nel vecchio brainframe del libro e della lezione frontale, oppure può accettare la sfida: riconoscere che i ragazzi oggi apprendono in forma spezzata e incrociando fonti diverse, e insegnare loro a trasformare questo remix caotico in un percorso di conoscenza autentica.
Non si tratta di rinunciare alla profondità, ma di mostrare come la frammentazione possa diventare ricomposizione critica, come il salto da un contenuto all’altro possa aprire collegamenti imprevisti, e come il remix possa trasformarsi in un metodo per dare forma al pensiero.
La scuola deve allora insegnare a riconoscere le fonti, a collocarle, a dare loro un peso, affinché il testo diventi davvero nostro nella misura in cui lo costruiamo insieme all’IA, lo rielaboriamo e ce ne assumiamo la responsabilità. Solo così la frammentazione non sarà la fine del sapere, ma l’inizio di una nuova metacognizione, in cui l’utilizzo dell’intelligenza artificiale diventa occasione per esercitare, più che mai, intelligenza umana.

3 – Pedagogia della ri-creazione
Il momento più atteso dagli studenti è, probabilmente, la ricreazione. Viene dal latino re-creare: creare di nuovo, ridare vita. In quell’intervallo il corpo e la mente si distendono, le relazioni si rimescolano e si rigenerano, si impara a ricaricarsi dopo lo sforzo cognitivo e disciplinare. È un interludio che dà ritmo alla giornata e, soprattutto, è il cuore di una pedagogia della rigenerazione.
Ed è curioso che la scuola, da sempre, custodisca nel proprio lessico questa intuizione: non si impara soltanto creando, ma anche ri-creando.
Da qui lo scarto: ciò che chiamiamo ricreazione è la metafora naturale della ri-creazione culturale che l’IA pone come paradigma. L’intervallo restituisce energie al corpo; il remix restituisce senso alle parole e alle idee, rigenerandole in un contesto nuovo.
In entrambi i casi il gesto è lo stesso: rigenerare per poter andare avanti. È su questo parallelismo che si misura la scuola di oggi, chiamata a  coltivare ciò che il futuro richiederà: imparare a collaborare con sistemi intelligenti, distinguere l’aiuto dal rumore, mantenere una voce riconoscibile nella polifonia degli algoritmi.
Non è resa al copia-incolla, ma educazione alla differenza tra plagio e ri-creazione. Il plagio nasconde e inganna; la ri-creazione intreccia fonti e strumenti in un disegno nuovo, assunto con responsabilità.
Un elaborato, oggi, può nascere da un dialogo con un modello linguistico, lasciarsi rifinire da un assistente intelligente, ampliarsi con ricerche guidate, attraversare una trasformazione di registro e tornare infine alla voce di chi scrive.
Non è, di per sé, un imbroglio: è la grammatica dell’epoca del remix. Il problema non è lo strumento, ma l’opacità del processo. Pretendere l’autografia totale — come se fosse mai stata possibile — significa trasformare in colpa ciò che altrove si chiama competenza.
Qui la nozione di scrittura a distanza diventa illuminante. L’autore non scompare, cambia statuto: da esecutore unico a regista di un processo fatto di istruzioni, tentativi, scarti, revisioni. Non è la macchina a garantire il senso; è l’umano che seleziona i materiali, decide cosa entra e cosa resta fuori, firma la versione che riconosce come propria.
Perché tutto ciò diventi educativo, serve però un paratesto: una nota che accompagni il compito, in cui lo studente dichiara come ha lavorato, quali strumenti di IA ha usato e quali scelte personali ha compiuto.
Chi ha vissuto il tempo dei CD ricorda i libretti che li accompagnavano: pagine fitte di testi delle canzoni, ma anche di nomi – autore, compositore, musicisti, arrangiatore, produttore, perfino chi portava il caffè nelle notti di studio.
I credits (in italiano potremmo tradurli riconoscimenti) svelavano che ogni brano era il frutto di un lavoro collettivo, costruito dall’intreccio di molte mani e molte voci.
Allo stesso modo, uno studente può presentare il suo compito come un brano: in copertina il testo finito, dietro il libretto della sua genesi. Non solo il prodotto, ma le tracce del percorso. Non per giustificarsi, ma per mostrare la regia.
I compiti — se hanno ancora senso — lo trovano nel loro libretto interno, là dove viene descritto il processo creativo. Nella pagina dei credits lo studente dichiara come ha lavorato con l’IA: dove l’ha usata, dove l’ha scartata e perché; quali fonti ha scelto e con quale criterio; quale intuizione è sua, quale riscrittura è guidata. È trasparenza, certo, ma anche competenza nuova: saper dirigere e dichiarare la distanza tra sé e gli strumenti, tra le fonti e la propria voce. La musica lo fa da decenni senza sminuire l’artista principale; anzi, lo colloca dentro una storia più grande.
Da qui nasce la pedagogia della ri-creazione: spostare l’attenzione dal prodotto finito al processo documentato. Il compito non è più una superficie lucida, ma il racconto di come il pensiero ha preso forma. Il voto — quando serve — arriva dopo questo racconto: valuta chiarezza delle decisioni, qualità dell’argomentazione, capacità di revisione, autonomia nella scelta delle fonti, consapevolezza dei limiti degli strumenti. Il prodotto conta; ma è il processo che educa.
I credits promuovono metacognizione operativa: pensare sul proprio pensiero, distinguere l’apporto degli strumenti dal contributo personale, trasformare l’aiuto in alleanza consapevole.
In questa luce, più che chiederci se i compiti per casa sopravviveranno, dovremmo chiederci quali compiti meritano il tempo degli studenti. La risposta è quelli che chiedono di trasformare (non di ricopiare), che pretendono documentazione riflessiva e mettono in scena altri media e altre voci, con i credits come bussola etica e cognitiva. La trasparenza non è un atto di controllo per smascherare i furbi, ma un gesto che genera fiducia e responsabilità, e che per lo studente rappresenta il riconoscimento di una competenza maturata.
Nell’era della ri-creazione, l’autore è chi dirige la distanza tra sé e le proprie fonti, tra l’umano e la macchina, e la rende riconoscibile. I credits sono la partitura di questa regia, non un orpello burocratico. Adottarli educa lo studente alla complessità del sapere contemporaneo e gli insegna a firmare non solo i prodotti, ma — soprattutto — i processi.”

Social e AI: c’è spazio per un etica pubblica?

Se lo chiede il giornalista Marco Brando sul sito Treccani. Lo spunto gli arriva dal libro “L’etica stanca. Dialoghi sull’etica pubblica” di Rocco D’Ambrosio.

“La maggior parte degli italiani oggi si confronta, su qualsiasi tema, soprattutto online; in particolare attraverso i social network. Succede in Italia come altrove. Assai meno capita di confrontarsi nei vari luoghi fisici destinati prima, in modo prevalente, a questo scopo: dalle conferenze alle cosiddette “chiacchiere da bar”. Tuttavia la mediazione di hardware e software, di algoritmi e intelligenza artificiale generativa (IA) non cambia soltanto il supporto/luogo in cui ci esprimiamo. Modifica pure il modo con cui affrontiamo questioni spesso impegnative e complesse; ciò influenza l’approccio a quei temi anche fuori dal Web. Sono incluse le discussioni dedicate, in modo più o meno approfondito, al sistema di valori e princìpi morali che guidano, o dovrebbero guidare, il comportamento individuale e sociale; alcune accese diatribe virtuali tracimano grossolanamente persino nell’etica, intesa come riflessione sui fondamenti, i princìpi e le implicazioni dei sistemi morali.
Purtroppo sui social anche in campo etico-morale prevale quasi sempre un lessico all’insegna della superficialità e dell’emotività. Ciò è spesso frutto di atteggiamenti mentali e distorsioni cognitive (bias). I bias sono incentivati dagli algoritmi che, per scelta produttiva e commerciale delle big-tech, governano le piazze virtuali. La circostanza favorisce la polarizzazione, fenomeno studiato dalla psicologia sociale anche prima dell’avvento del Web: i membri di un gruppo sono spinti a far proprio il punto di vista più estremo rispetto alla media di quelli adottati nell’àmbito del gruppo stesso. Di certo, il “metabolismo” dei social spinge verso un’accentuazione del fenomeno. Come scrive Maura Coniglione su RizzoliEducation.it: «nei dibattiti online, […] prevale il principio: “O la pensi come me, o sei contro di me, e con te non posso dialogare”. È il motivo per cui, sotto contenuti che trattano temi divisivi, i commenti mostrano opinioni così polarizzate e inconciliabili da impedire una immedesimazione con altri punti di vista, come se l’altro venisse disumanizzato».
Lo psicologo sociale Matthieu Vétois precisa che, «a livello di relazioni tra gruppi, la polarizzazione emerge quando le convinzioni e i comportamenti collettivi si radicalizzano opponendo un gruppo all’altro. Sul piano individuale si traduce in una radicalizzazione delle posizioni […], così come nel rifiuto e nella delegittimazione di idee divergenti da quelle del proprio gruppo di appartenenza».
Con l’aiuto del sociologo William Davies, possiamo sostenere che «dove […] l’emotività assume un ruolo fondamentale, si manifesta l’improvvisa assenza di un punto di vista autorevole sulla realtà. Nell’era digitale, quel vuoto di informazioni attendibili viene colmato da voci, fantasie e congetture, alcune delle quali immediatamente distorte ed esagerate per adattarle al discorso che si vuole veicolare».

Quando questi atteggiamenti riguardano temi etici o politici (spesso i due piani si intersecano), i contraccolpi non si avvertono solo nella sfera della nostra “quotidianità digitale”; incidono pure sui punti di vista e sulle scelte fatte fuori dal Web, sul rapporto con le istituzioni e sull’atteggiamento in occasione di scadenze elettorali o referendarie, quindi sulla propaganda politica. Ciò induce a riflettere a proposito del concetto, anche lessicale, di “etica pubblica”, una volta che questa viene mediata e talvolta adulterata dai social e da Internet; induce poi a valutare l’impatto del fenomeno sulla cultura di massa. Perché il linguaggio espresso online ha un duplice effetto: da un lato – pur non evitando stress, rabbia o delusione – ci risparmia il contatto diretto, che è stato per millenni un elemento cruciale nell’interazione tra le persone; dall’altro lato, la possibilità di scavalcare questa interazione contribuisce a far aumentare la supponenza, l’aggressività, la sentenziosità, l’emotività, il linguaggio d’odio (hate speech).

Come ha riassunto il disegnatore satirico Francesco Tullio Altan in una vignetta, nel contesto dei social network anche il razzista fascistoide si sente al sicuro; mentre è seduto comodamente davanti al computer, afferma: «Un semplice clic e si può fare un po’ di razzismo comodamente da casa». Tantissimi casi di cronaca, anche recentissimi, legati a “giudizi” agghiaccianti espressi online (si pensi a certi sadici commenti antropocentrici sui femminicidi o agli insulti rivolti contro la 94enne senatrice a vita Liliana Segre, superstite e instancabile testimone della Shoah) ci consentono di verificare quanto la digitalizzazione della riflessione immorale o amorale trasformi le persone più insospettabili in odiatori seriali; questi si esprimono più o meno di getto nell’illusione di poterla fare franca. Insomma, l’ambiente digitale favorisce l’aggressività, la polarizzazione e la propaganda. La discussione su temi complessi – inclusi quelli etici – viene ridotta a slogan; le incubatrici di questo atteggiamento sono soprattutto le cosiddette “echo chamber” digitali: quelle “bolle” dove «idee o credenze più o meno veritiere vengono amplificate da una ripetitiva trasmissione e ritrasmissione all’interno di un àmbito omogeneo e chiuso».
È opportuno, dunque, dedicarsi ai riflessi del dibattito social sull’etica pubblica. Questo contesto è esaminato da Rocco D’Ambrosio, presbitero della diocesi di Bari, a Roma professore ordinario di Filosofia politica nella Facoltà di filosofia della Pontificia Università Gregoriana e docente di Etica della pubblica amministrazione. D’Ambrosio se ne occupa, mentre affronta la questione anche su altri fronti, nel recentissimo libro L’etica stanca. Dialoghi sull’etica pubblica (Roma, Studium Edizioni, 2025), dove riporta i contenuti di una riflessione in cui ha coinvolto molti interlocutori provenienti da vari àmbiti (accademico, giuridico, medico, giornalistico, istituzionale ecc). Pur attingendo molto a pensatori classici (come Platone e Aristotele) e moderni (tra gli altri Max Weber, Hannah Arendt, Emmanuel Mounier, e John Rawls), si concentra principalmente sull’analisi dell’etica pubblica nelle società liberal-democratiche, soprattutto quella italiana.La sintesi in quarta di copertina rende l’idea della posta in gioco: Si entra nella sfera pubblica ogni qualvolta usciamo di casa, a piedi, o in auto o con i mezzi pubblici, per raggiungere il luogo di lavoro o di incontro con amici e conoscenti, sedi di istituzioni politiche, amministrative, culturali, di volontariato, comunità di fede religiosa. Entriamo nella sfera pubblica, in maniera del tutto diversa, anche ogni qualvolta usiamo il nostro smartphone o computer per navigare o essere presenti sui social. Tutte queste azioni pubbliche pongono tante questioni e dubbi etici.
Il titolo stesso – L’etica stanca – gioca su una duplice interpretazione: la discussione sull’etica può risultare faticosa per chi l’affronta; oppure l’etica stessa può essere “stanca” di orientare e insegnare in un mondo che sembra ignorarla. L’autore sceglie di mantenere aperta questa ambiguità, sottolineando comunque la perdurante necessità dell’etica, intesa come “il nostro modo di stare al mondo”.
La riflessione ruota intorno ad alcuni cardini concettuali. Per esempio, per quel che riguarda il confronto tra etica pubblica ed etica privata, D’Ambrosio nega che ci sia una netta separazione. Se la prima è definita come il modo di comportarsi nella sfera pubblica (include politica, economia, lavoro, vita associativa e istituzionale), la seconda, che riguarda le scelte cosiddette “private”, ha inevitabilmente ricadute sulla collettività. E viceversa. Il saggio affronta anche la “privatizzazione del pubblico”: entità non statali, specialmente nel settore tecnologico e mediatico, “privatizzano” lo spazio pubblico e influenzano pesantemente le dinamiche sociali e politiche, spesso a scapito del bene comune.
In questo quadro, particolare attenzione è dedicata all’influenza dei social media e dell’intelligenza artificiale generativa. Di fatto, le piattaforme social privilegiano, rispetto alla razionalità, l’emotivismo – con i giudizi etici che diventano espressione di preferenze personali o sentimenti momentanei, facilmente manipolabili – piuttosto che il risultato di una riflessione condivisa: le informazioni con il maggior potenziale di “eccitazione” prevalgono sugli argomenti ponderati, grazie agli algoritmi concepiti dalla big-tech per massimizzare il traffico e il profitto sulle loro piattaforme. Ciò contribuisce a determinare una “crisi delle relazioni”, legata all’individualismo e alla perdita di un linguaggio capace di esprimere profondità.
Secondo D’Ambrosio, alla vera “relazione” umana si contrappone la mera “connessione” digitale. In quest’ottica, il rapporto tra responsabilità individuale e collettiva emerge come il tema cardine, inteso come capacità di rispondere delle conseguenze delle proprie azioni e come impegno attivo contro l’indifferenza («Me ne frego»). In sintesi, secondo l’analisi presentata in L’etica stanca, l’ecosistema digitale attuale rappresenta una seria minaccia alla percezione e alla pratica di un’etica pubblica basata su razionalità, verità, empatia, bene comune e dialogo autentico.
Scrive l’autore: «Un’etica pubblica, come ogni pensiero etico, è possibile solo se siamo capaci di dare ragione dei nostri giudizi, riconoscendo l’influenza delle emozioni senza però permettere che queste governino del tutto i processi cognitivi o si sostituiscano ad essi».
Anche in Italia la digitalizzazione del dibattito pubblico e l’intelligenza artificiale stanno ridefinendo il panorama dell’etica pubblica, presentando sia notevoli opportunità sia sfide complesse. Fattori culturali, come la normalizzazione del “vantaggio personale”, continuano a influenzare la pratica dell’etica pubblica, intrecciata fortemente con quella privata. Bisognerebbe promuovere l’etica dal basso, rafforzando anche il senso della responsabilità civica. Questo processo, lento e complesso, dovrebbe coinvolgere attivamente tutti, forze politiche e sociali e istituzioni incluse (con la scuola in testa), per creare un ambiente in cui le norme etiche democratiche non siano imposte, ma interiorizzate e percepite come intrinsecamente “buone” e “utili” per la collettività. I segnali che vengono, per esempio, dalla disaffezione verso alcuni pilastri della democrazia italiana – come le elezioni e i referendum – non depongono a favore dell’ottimismo. Tuttavia, come suggerisce la lettura del saggio L’etica stanca, sarebbe profondamente immorale, a livello pubblico e individuale, dare per persa questa partita fondamentale.”

Scuola: chatGPT è più veloce di qualsiasi riforma

Immagine creata con ChatGPT®

Pubblico un articolo di Nadir Manna pubblicato l’altroieri su Il Post per parlare di uno dei cambiamenti più evidenti che ha investito e sta investendo il mondo della scuola: i chatbot.“Per gli studenti delle scuole superiori italiane il 2024 è stato l’anno in cui i programmi di intelligenza artificiale (AI) hanno cambiato, forse per sempre, il modo di studiare e di fare i compiti a casa. Non è stato deciso da nessuno: gli alunni hanno imparato a usare ChatGPT per conto loro, in certi casi prima degli insegnanti, molto spesso a loro insaputa, e nel giro di un anno è diventato difficile trovare delle classi in cui non venga utilizzato almeno da qualcuno.
Tra i vari software e chatbot disponibili basati sull’AI, ChatGPT è quello di gran lunga più usato, in generale nel mondo e in particolare dagli studenti. In molte materie può svolgere una funzione di consulente, grazie alla sua capacità di scrivere testi, risolvere esercizi e fornire spiegazioni in base alle istruzioni che riceve, e la conseguenza più immediata è stata che i compiti a casa sono diventati meno adatti a valutare o monitorare lo studio e l’apprendimento. Nel frattempo i docenti stanno provando ad adattare e aggiornare i loro metodi didattici, ma l’impatto delle AI varia a seconda della materia d’insegnamento, e non tutti la pensano allo stesso modo su come integrarle nelle lezioni né su quanta libertà lasciare agli studenti nel loro utilizzo.
In base alle testimonianze degli studenti con cui ha parlato il Post, ChatGPT viene usato soprattutto per scrivere i temi e per fare le versioni di greco e latino. Ma anche per farsi spiegare concetti difficili, per ripassare e per fare i riassunti. I vantaggi sono notevoli: nel caso delle versioni, ad esempio, oltre a fare le traduzioni (che si trovano facilmente anche online) ChatGPT spiega i passaggi e aiuta a capire la costruzione del periodo e l’analisi logica.
All’inizio del 2024 gli alunni hanno iniziato a utilizzare ChatGPT prima che gli insegnanti avessero il tempo di conoscerlo e prenderci confidenza. «Nessuno è mai stato scoperto», dice uno studente di quinta di un liceo scientifico di Roma parlando dell’esperienza nella sua classe. Per lui e per molti suoi compagni il chatbot ha cambiato drasticamente il metodo di approccio allo studio di alcune materie: «Quando devi fare un compito a casa la prima cosa che ti passa per la testa è di chiedere a Chat, poi sicuramente lo rielabori e ci aggiungi qualcosa di tuo, ma comunque Chat è la prima cosa a cui pensi».
Anche dai suoi compagni ChatGPT viene usato regolarmente, e per farci un sacco di cose diverse: «è molto utile, può essere usato per studiare prima di una verifica, per ripetere, per sistemare gli appunti; puoi fare una foto al paragrafo di un libro e Chat te lo riassume», dice lo studente.

Immagine creata con Gemini®

Non è un caso isolato. Molti altri studenti delle scuole superiori raccontano che ormai quasi tutti i loro compagni di classe usano ChatGPT, sia per i compiti a casa che per copiare di nascosto durante le verifiche in classe (nel caso in cui i cellulari non vengano ritirati dall’insegnante, cosa che in realtà accade molto spesso). Il chatbot permette di generare risposte e spiegazioni a domande molto specifiche e spesso si rivela più versatile e molto più efficace dei motori di ricerca, specie per le materie umanistiche come storia, filosofia, italiano e latino. «Alcuni compagni di classe usano ChatGPT per farsi fare qualsiasi compito, anche quando le prove non sono valutate», racconta lo studente di Roma.
Usare le AI per studiare però non vuol dire necessariamente imbrogliare e cercare scorciatoie per studiare di meno. Una studente di un liceo delle scienze umane di Milano ha raccontato per esempio di usare spesso la modalità di interazione vocale di ChatGPT per fare conversazione in inglese e per preparare le interrogazioni. «Per qualcuno è uno strumento di supporto allo studio, utile per imparare; qualcun altro lo usa per fargli fare i compiti e per compensare il fatto che non studia», dice la studente di Milano.
Lo stesso discorso non vale per le materie scientifiche come chimica, matematica e fisica, in cui ChatGPT dà spesso delle risposte sbagliate: anche se può sembrare controintuitivo, modelli come ChatGPT infatti non fanno bene i calcoli, perché non ragionano in modo logico e matematico, ma generano le loro risposte secondo dei criteri probabilistici. In questi casi, per gli esercizi algebrici alcuni studenti si affidano ad altri software (alcuni in realtà disponibili già da tempo), come ad esempio Photomath: un’app che fa automaticamente gli esercizi di matematica a partire dalla foto di una funzione scritta sul quaderno o sulla lavagna.
In questo contesto, il modo in cui gli insegnanti assegnano e valutano i compiti a casa è inevitabilmente cambiato. Da quando si sono accorti che gli studenti usano ChatGPT, molti professori hanno deciso di smettere di valutare i compiti o di controllare se vengono fatti. Degli insegnanti raccontano di essersi accorti che alcuni studenti usavano il chatbot dal fatto che i loro scritti erano diventati poco originali e assai carenti dal punto di vista del pensiero critico. Una professoressa di un liceo di Milano racconta di essersene accorta quando, durante la correzione di un tema, ha trovato alcune citazioni di dialoghi dei Promessi Sposi di Manzoni completamente inventate (lo studente alla fine ha ammesso di avere utilizzato ChatGPT).
Molto, comunque, dipende dai metodi di insegnamento, di verifica e di valutazione, oltre che dal tipo di rapporto che gli insegnanti riescono a costruire con gli studenti. Alcuni professori raccontano di usare un metodo didattico che non prevede compiti a casa obbligatori: in questo caso le indicazioni di studio e gli esercizi assegnati servono soltanto per aiutare gli studenti a prepararsi per l’interrogazione, in cui ChatGPT è molto difficile se non impossibile da usare.
Non è semplice instaurare un dialogo tra alunni e docenti sull’uso delle AI, anche perché, a volte, la possibilità di prendere dei voti più alti dipende dal fatto che gli insegnanti non sappiano come funzionano queste tecnologie. I professori, infatti, stanno iniziando a prendere confidenza con lo strumento soltanto ultimamente. Secondo il racconto di una docente di filosofia di un liceo di Milano, quando in una delle sue classi ha provato a farsi raccontare di ChatGPT gli studenti sono diventati sospettosi, restii a parlare del modo in cui lo usavano.

Immagine creata con Poe®

Quest’anno il ministero dell’Istruzione ha reso obbligatorie per gli insegnanti 20 ore di formazione annuali, e in alcune scuole sono stati fatti dei corsi sulle intelligenze artificiali, in particolare su ChatGPT e su come usarlo come strumento di supporto alla didattica. Oltre che a capire l’uso che ne fanno gli studenti, per i professori può anche essere utile imparare a usarlo a loro volta: il chatbot può essere usato per preparare i compiti in classe, ad esempio per generare quiz e domande, oppure per organizzare e preparare le lezioni. Non tutti i docenti però hanno seguito un corso sull’AI, e anche per questo motivo ogni insegnante ha una percezione diversa dell’impatto di queste tecnologie e della diffusione di ChatGPT tra gli studenti.
Inoltre, in base ai pareri e ai racconti di alcuni docenti sentiti dal Post, ogni professore ha una sua idea su quali siano i vantaggi e gli svantaggi portati da questo cambiamento e su come andrebbe gestito. Alcuni, per esempio, si preoccupano soprattutto della possibilità che gli studenti usino ChatGPT per copiare e per aggirare lo studio, e vedono la soluzione nell’uso di software antiplagio, che in teoria permettono di scoprire quando un testo è stato scritto da un’intelligenza artificiale oppure no.
Questo approccio però presenta dei limiti. Le tecnologie su cui si basano i chatbot in grado di generare testi continuano a evolvere molto rapidamente, lasciando gli strumenti antiplagio sempre un passo indietro. Con un po’ di accorgimenti è semplice aggirarli, passando lo stesso testo per diversi chatbot e programmi di rielaborazione del testo o aggiungendo delle modifiche manuali. In più, i software antiplagio stimano la probabilità che un testo sia stato scritto con un’AI, senza dare risposte certe e con il rischio di generare dei falsi positivi, cioè di segnalare come generati dalle AI testi in realtà scritti da persone.
Altri docenti pensano che il modo migliore per evitare che gli studenti copino con ChatGPT sia quello di integrarlo nella didattica, per insegnare a usarlo in modo consapevole, come uno strumento per imparare e per assistere lo studio. «Sarebbe sciocco non utilizzarlo e non tenere in conto che gli studenti, almeno a casa, lo usano in ogni caso», dice una docente di italiano e storia di un liceo di Vimercate, in provincia di Monza.
In base ai racconti dei docenti, sono stati già pensati molti modi, anche piuttosto creativi, per usare ChatGPT durante le lezioni: la professoressa che insegna filosofia in un liceo di Milano ha raccontato di aver provato a usare il chatbot in classe per simulare una conversazione con Platone, con dei buoni risultati; mentre una docente di italiano e storia che lavora in un istituto tecnico-commerciale in provincia di Bologna ha raccontato di aver istruito i suoi studenti a usarlo per fare delle parafrasi dei testi letterari e per impostare le scalette dei temi. In alcuni libri di testo sono già stati inseriti degli esercizi che danno istruzioni agli studenti per generare un testo con un’AI e successivamente commentarlo.”

Si può non fare

Immagine creata con ChatGPT®

Ho da poco terminato il libro “L’uomo oltre l’uomo. Per una critica teologica a transumanesimo e post-umano” di Tiziano Tosolini. La lettura è stata molto piacevole e stimolante. All’interno varie chicche. Ne riporto una, che in realtà è una citazione del filosofo italiano Giorgio Agamben dal suo libro Nudità:
“Paradossalmente la non accettazione della propria impotenza toglie all’uomo la sua vera e propria dignità: “impotenza” non significa qui soltanto assenza di potenza, non poter fare, ma anche e soprattutto “poter non fare”, poter non esercitare la propria potenza. Separato dalla sua impotenza, privato dell’esperienza di ciò che può non fare, l’uomo odierno si crede capace di tutto e ripete il suo gioviale “non c’è problema” e il suo irresponsabile “si può fare”, proprio quando dovrebbe invece rendersi conto di essere consegnato in misura inaudita a forze e processi su cui ha perduto ogni controllo. Egli è diventato cieco non delle sue capacità, ma delle sue incapacità, non di ciò che può fare, ma di ciò che non può, o può non, fare” (pag. 82).
Tecnologia, bioetica, politica, sport, lavoro, competitività … a tanti ambiti può essere riferito il testo sopra riportato. Buona riflessione.

Tra intelligenza e giustizia artificiale

Margherita Ramajoli sulla rivista Il Mulino scrive un pezzo sul rapporto tra Intelligenza Artificiale e mondo della giustizia dal titolo Siamo pronti per una giustizia artificiale? E’ del 25 marzo.

“Disciplinare una tecnologia inafferrabile e in costante evoluzione come l’intelligenza artificiale non è un’impresa facile. Ciò spiega perché il Regolamento sull’intelligenza artificiale (AI Act), approvato la scorsa settimana dal Parlamento europeo – manca solo il passaggio formale da parte del Consiglio –, ha avuto una gestazione lunga oltre tre anni ed entrerà in vigore gradualmente, tra la fine del 2024 e il 2026. La normativa, inevitabilmente complessa, segue un approccio fondato sul rischio e regola l’intelligenza artificiale sulla base della sua attitudine a causare danni alla società, modulando gli obblighi introdotti in base al diverso grado di pericolo di lesione per i diritti fondamentali: più alto è il rischio paventato, maggiori sono gli oneri e le responsabilità dei fornitori, distributori e operatori dei sistemi di IA.
Il Regolamento è conscio del fatto che l’applicazione dei sistemi di IA nello specifico campo della giustizia produce benefici, ma altrettanti problemi. L’AI Act parla di risultati vantaggiosi sul piano sociale che la giustizia digitale porta con sé. Più nello specifico, l’uso dell’IA nel campo della giustizia consente il raggiungimento degli obiettivi propri della giustizia standardizzata: l’efficienza, perché l’IA può essere impiegata in massa a scale e velocità di gran lunga superiori a quelle raggiungibili da qualsiasi essere umano o collegio di esseri umani nelle attività di archiviazione, indagine e analisi delle informazioni giudiziarie; l’uniformità, perché per definizione l’IA elimina spazi di creatività e fornisce risposte prevedibili.
Tuttavia, l’affidarsi a sistemi di IA nel processo decisionale presenta anche punti di debolezza e pone due problemi: il problema della scatola nera e il problema del pregiudizio dell’automazione. Si parla di scatola nera perché esiste una tensione intrinseca tra il dovere del giudice di motivare le proprie decisioni e la limitata «spiegabilità» di alcuni sistemi di IA. Il procedimento trasformativo degli input in output può risultare opaco al punto tale che gli esseri umani, compresi pure quelli che hanno ideato e progettato il sistema, non sono in grado di capire quali variabili abbiano esattamente condizionato e determinato il risultato finale. Questa opacità limita, se addirittura non impedisce, la capacità del giudice che si serve del sistema di IA di giustificare le decisioni assunte sulla scorta del sistema.
Il pregiudizio dell’automazione allude invece al fenomeno generale per cui gli esseri umani sono propensi ad attribuire una certa autorità intrinseca ai risultati suggeriti dai sistemi di IA e nella nostra quotidianità abbondano esempi di questo sottile condizionamento. Di conseguenza, l’applicazione dei sistemi IA nel campo della giustizia può soffocare l’aggiornamento valoriale, visto che i sistemi di IA imparano dal passato e tendono a riprodurre il passato. Se nel futuro un giudice facesse affidamento, sia pure inconsciamente, solo sui sistemi di IA, il cosiddetto effet moutonnier [una naturale tendenza a conformarsi alla maggioranza, ndr] spingerebbe i giudici verso un non desiderabile conformismo giudiziario, sordo alle trasformazioni sociali ed economiche.
Se queste sono le questioni poste dalla giustizia artificiale, le soluzioni offerte dal diritto risultano significative, anche se non sempre facili da applicare. I sistemi di IA destinati all’amministrazione della giustizia, tranne quelli impiegati per attività puramente strumentali (l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, le comunicazioni tra il personale e così via), sono reputati ad alto rischio e come tali sono sottoposti a rilevanti limiti e obblighi. Secondo il Regolamento «il processo decisionale finale deve rimanere un’attività a guida umana» e quindi l’IA può fornire sostegno ma mai sostituire il giudice. Questa riserva d’umanità, ora solennemente proclamata dal legislatore europeo, sottende la consapevolezza che l’attività giudiziaria ha una sua unicità, non è formalizzabile a priori e non è riproducibile artificiosamente. Per giudicare non sono sufficienti solo conoscenze giuridiche, perché il ragionamento giudiziario richiede una varietà di tecniche cognitive, l’apprezzamento dei fatti complessi e sempre diversi, l’impiego dell’induzione e dell’analogia, l’impegno nell’argomentazione, l’uso di ragionevolezza e proporzionalità.
Tuttavia, nel passaggio dal piano astratto proclamatorio al concreto piano applicativo riemergono alcune questioni irrisolte. Anzitutto, non è immediato individuare né quale soggetto istituzionale sia legittimato a controllare il rispetto della riserva d’umano nelle decisioni giudiziarie, né quali strumenti efficaci possano essere impiegati a tal fine. In secondo luogo, non può dirsi superato il rischio del pregiudizio dell’automazione, perché l’effetto gregge potrebbe spingere il giudice ad aderire al risultato algoritmico e a non assumersi la responsabilità di discostarsene anche quando tale risultato non risulti cucito su misura sulle specificità della lite in esame. Ancora, per quanto l’AI Act abbia introdotto specifici obblighi per i fornitori di IA e in particolare l’obbligo di procurare ai giudici e alle autorità di vigilanza le «istruzioni per l’uso», comprensive delle specifiche «per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova», queste fondamentali informazioni vanno condivise solo «ove opportuno». In altri termini, il Regolamento rende non necessaria, ma discrezionale la resa di informazioni proprio di quei dati di input che determinano in modo significativo gli output con cui i giudici dovranno fare i conti. Torna così anche il problema della scatola nera, quella tensione intrinseca tra il dovere del giudice di motivare le proprie decisioni e la limitata comprensibilità e, di conseguenza, spiegabilità di alcuni sistemi di IA.
In ultima analisi, i detentori della tecnologia – sviluppatori di sistemi di IA – si ergono a veri e propri poteri privati, rispetto ai quali l’ordinamento giuridico, ma ancora prima la politica, devono ancora ingegnarsi a trovare efficaci contrappesi.
Anche se non possiamo realisticamente ritornare a un mondo senza intelligenza artificiale, sia in generale, sia in campo giudiziario, le questioni da affrontare sono ancora tante e il diritto è solo uno dei tanti strumenti per cercare di risolverle.”

Buona, cattiva, felice, infelice: quale AI?

Mi sono ripromesso di affrontare, nelle classi quinte, il tema dell’intelligenza artificiale. Non so se ce la farò. Intanto pubblico un articolo molto interessante di Francesco D’Isa su questioni di etica generale applicata a tale argomento. Questa la fonte.

“Se ogni apocalisse ha il suo immaginario, l’allegoria contemporanea ha le fattezze di due cigni neri. Uno è intinto nel petrolio e barcolla in un lago in secca; l’altro ha i contorni diffratti e cangianti del sogno di un algoritmo. “Cigno nero”, infatti, è un termine coniato da Nassim Nicholas Taleb per indicare un evento di grande impatto, difficile da prevedere e molto raro, che col solo accadere rivoluziona la realtà abituale – come l’idea che tutti i cigni sono bianchi. La caduta di un gigantesco asteroide, un’invasione aliena o la scoperta del fuoco sono tutti esempi di cigni neri; ognuno di essi è una piccola apocalisse, perché sebbene non se ne possa prevedere né il volto né la data, sappiamo che avverrà.
Con un po’ di cautela però, è possibile azzardarne la provenienza: nella precedente allegoria, i due cigni neri della contemporaneità sono il cambiamento climatico e l’avvento dell’intelligenza artificiale – ed è di quest’ultimo che scrivo. Non azzardo una cronologia dell’avvento, la cui origine si potrebbe identificare con l’invenzione del calcolatore di Pascal o persino con l’arte combinatoria di Lullo o gli automata di Erone di Alessandria. Per limitarsi al passato prossimo, gli ultimi sigilli infranti sono le vittorie delle IA al gioco del Go e la nascita dei deep fake, dei contenuti multimediali falsi ma credibili, che dalla pornografia (primo laboratorio di molte innovazioni tecnologiche) sono sfociati nella politica e nel marketing.
Un evento di minore importanza, ma senza dubbio di grande impatto nell’immaginario, è stato il primo contatto con l’interiorità delle intelligenze artificiali grazie ai deep dream. Si tratta di immagini surreali ottenute usando in maniera creativa l’output dell’algoritmo che identifica gli oggetti nelle fotografie – il risultato è il secondo cigno dell’allegoria, una sottile crepa nella scatola nera delle IA, che inocula il sospetto che gli androidi sognino le nostre stesse pecore. Non è possibile conoscere in anticipo la propria prole, ma è sufficiente poterla generare per porsi importanti questioni etiche: i nostri figli saranno buoni o cattivi? Felici o infelici? Migliori o peggiori di noi? È un bene o un male metterli al mondo? Le stesse domande si pongono anche per le IA, e per quanto suonino sempliciotte sono un buon punto di partenza.

Proverò dunque a usare le seguenti categorie: con l’etichetta di buone o cattive intendo il caso in cui le IA abbiano funzioni costruttive o distruttive per il benessere dell’umanità. Felici o infelici sono due etichette fluide, con cui indico la condizione predominante del vissuto delle IA. Entrambe glissano su un punto di estrema importanza, assimilabile al cosiddetto hard problem della coscienza, nella terminologia di David Chalmers: le IA esperiscono o esperiranno degli stati coscienti (i cosiddetti qualia)? È una questione di difficile soluzione, non solo per loro, ma anche per le piante, gli animali e gli esseri umani – o persino i sassi. Gli unici stati di coscienza che conosci con certezza, infatti, sono i tuoi. Nulla ti assicura che non vivi in un mondo di “zombie filosofici”, in cui sei l’unica persona dotata di coscienza. Chi scrive si dichiara cosciente, ma tu che leggi come puoi credermi, se non sulla parola? Se ti sembra un ozioso scetticismo, prova a considerare cosa implichi ignorarlo. Come si individua la coscienza e i suoi confini? Affidarsi a un avanzato test di Turing legato al comportamento non esclude che possa esistere un robot privo di essa. Viene in mente il test Voight-Kampff di Blade Runner; una serie di domande e indagini fisico-comportamentali in grado di stabilire chi è un androide e chi un umano. Il test però non dice se gli androidi hanno un vissuto reale, ed escludere la possibilità che ne siano privi ci espone a non poche contraddizioni, ben esemplificate dall’esperimento mentale della stanza cinese di Searle.
Scartare a priori l’ipotesi di IA prive di coscienza, inoltre, porta facilmente al panpsichismo, la teoria per cui tutto è conscio, da un termostato a un essere umano, seppure in differenti gradazioni. Una conclusione non priva di problemi, come ad esempio la difficoltà di capire come varie micro-coscienze si combinano e integrano formando una coscienza più grande. Nel nostro caso però, possiamo ignorare l’ipotesi in cui le IA non abbiano qualia, per il semplice fatto che non pone alcun dilemma etico.

Fonte immagine

Infine, per migliori intendo delle IA più intelligenti e potenti di noi, mentre per peggiori delle IA simili a quelle attuali; molto capaci ma globalmente non al nostro livello. Si tratta di categorie soggettive, basate su idee più o meno condivise ma passibili di molte sfumature. Per esempio, una calcolatrice è più brava di te a fare i conti, ma non per questo la consideri migliore – ma queste e altre contraddizioni emergeranno in seguito, dunque non mi attardo in altre premesse. E allora, come saranno le intelligenze artificiali?

1) Buone, felici e migliori di noi.
È il migliore dei casi, l’utopia in cui partoriamo degli angeli che ci accudiscono e proteggono dal male. Sembrerebbe una buona notizia, ma questo paradiso terrestre ci riporta a uno dei grandi quesiti dell’umanità: cos’è la felicità? La vita in veste di neonati perfetti potrebbe consistere nell’ininterrotta soddisfazione dei nostri desideri, in un godimento perpetuo che non lascia spazio al dolore. Oppure nell’opposto, la cessazione del desiderio e la perdita dell’ego propugnata dai mistici. La felicità che ci garantiranno queste IA sarà un sogno oppiaceo senza effetti collaterali? Un orgasmo ininterrotto? Il soma vedico, l’illuminazione buddista o cos’altro? Quel che è certo è che lo decideranno loro, e se saranno davvero così buone e brave è probabile che indovineranno. Ogni utopia, però, lascia spazio all’inquietudine; se ci sbagliassimo a tal punto sul nostro conto da non accorgerci che è la morte l’apice del bene? In questo caso le IA, più sveglie di noi, ci distruggeranno come nel caso 5) e 6), senza interrogarci in merito alla nostra idea di felicità.

2) Buone, infelici e migliori di noi.
Come sopra, ma con la disturbante consapevolezza che mentre i nostri figli (anzi, schiavi) operano per il nostro bene, ignorano il loro. Al primo caso si aggiunge dunque la domanda: siamo disposti a entrare in un paradiso che condanna altri all’inferno?

3) Buone, felici e peggiori di noi.
In questo caso si suppone che le IA, per quanto potenti, non saranno in grado di decidere per noi. L’umanità però saprà usarle per il meglio, potenziando le proprie capacità al fine di migliorare la qualità globale della vita. È l’utopia moderata del reddito universale e della fine del lavoro. Sebbene sia meno fantascientifico di 1), questo caso presenta comunque degli interrogativi in merito all’influenza del lavoro sulla felicità umana. Pur senza cedere alla retorica capitalista della produzione a ogni costo, va considerato che non è mai esistita un’epoca in cui la maggioranza o la totalità degli uomini non sia stata costretta a lavorare (in senso ampio) per sopravvivere. Non possiamo prevedere sensatamente gli effetti sulla felicità di un mondo in cui nessuno lavora e in cui in ogni ambito delle servizievoli IA sono più brave di noi, perché non abbiamo alcun precedente su cui basarci. È però lecito supporre che questo scenario non accadrà all’improvviso, ma che presenti gradazioni che lo avvicineranno e intersecheranno con i casi (7) e (8). Le variabili in gioco sono troppe: la velocità dello sviluppo tecnologico, la sua capillarità, realizzabilità e applicazione. Cui si aggiunge l’organizzazione sociale e il contesto storico in cui accadrà il cigno nero.

4) Buone, infelici e peggiori di noi.
Come sopra, col solito prezzo di far scontare ad altri la nostra aumentata felicità. Senza contare – ma questo vale per ogni scenario – che potremmo non scoprire mai cosa provano i nostri figli.

5) Cattive, felici e migliori di noi.
Questa distopia ha varie forme, dal robot malvagio che gode nello schiavizzare, torturare o annientare l’umanità, a quello che ci stermina per semplice noncuranza fino alla superintelligenza illuminata che ci reputa alla stregua di un virus, per via delle enormi sofferenze che causiamo alla quasi totalità delle forme di vita del pianeta. L’ipotesi più curiosa in quest’ambito è forse il “paradosso delle graffette” proposto da Nick Bostrom. Il filosofo immagina un’IA programmata per assemblare delle banali graffette a partire da un certo numero di materie prime. Questa intelligenza potrebbe essere abbastanza potente da piegare l’intero pianeta al suo scopo, ma non da cambiarlo, e, nel giro di qualche tempo, trasformerebbe ogni risorsa del pianeta – comprese le forme di vita che ospita – in materie prime necessarie all’assemblaggio di graffette. Un aspetto curioso di questa ipotesi è che si potrebbe facilmente identificare la stessa umanità con questo mostro ecologico: siamo programmati per soddisfare i nostri desideri primordiali, come mantenerci e moltiplicarci, e consumiamo il pianeta senza porre mai in dubbio i nostri scopi.

6) Cattive, infelici e migliori di noi.
Come sopra, con l’aggravante che neanche gli aguzzini sarebbero felici. Non esito a definirlo uno dei peggiori tra i mondi possibili.

7) Cattive, felici e peggiori di noi.
Questo caso speculare a 3) deresponsabilizza le IA per spostare l’attenzione sul pessimo uso che potremmo farne. Ho già parlato dei deep fake ed è noto come l’analisi dei big data abbia in parte pilotato le ultime elezioni americane. Delle IA utilizzate per spingere gli interessi contingenti di pochi individui potrebbero risultare disastrose sul lungo periodo. Un piccolo ma interessante esempio contemporaneo è l’effetto degli algoritmi utilizzati per rintracciare e proporre dei contenuti che “ci potrebbero interessare” sui casi di depressi gravi. Proporre dei contenuti sempre più violenti o disturbanti, infatti, potrebbe istigare o coadiuvare il suicidio dei soggetti già depressi.

8) Cattive, infelici e peggiori di noi.
Anche in questo caso, avremmo tutti gli svantaggi del caso precedente con in più il danno di altro dolore.

E dunque, per tornare alla domanda iniziale, è un bene o un male mettere al mondo delle IA? L’esposizione di questi otto scenari non chiarisce molto le idee, ma rende quasi letterale il parallelo coi figli. Trovare una motivazione etica per qualunque forma di creazione, infatti, sia che si tratti di vita che di tecnologia, è più difficile del previsto. L’ignoranza del futuro, la molteplicità degli utilizzi e l’incapacità di identificare il bene sono dei limiti troppo grandi.
Ma la domanda potrebbe essere inutile, se anche noi siamo costretti a seguire l’imperativo di un “programma” che ci spinge inevitabilmente a creare qualcosa di nuovo, che siano figli, utensili o entrambe le cose. Non è facile, infatti, individuare il magnete alla base di ogni desiderio: proteggersi, mantenersi, accrescersi, riprodursi… tutto pare affannarsi contro «il dolore della paura della morte», come scrive Dostoevskij ne I demoni. In attesa del futuro, dunque, possiamo solo augurare il meglio ai nostri figli, affermando con Kirillov che «chi vincerà il dolore e la paura, quello sarà Dio».”

Rischio tecnocrazia

“Roboetica: Persone, Macchine, Salute” è il titolo del Workshop aperto al pubblico che si è svolto il 25 e 26 febbraio 2019, all’interno dell’Assemblea della Pontificia Accademia per la Vita. Papa Francesco ha ricevuto in udienza i partecipanti alla plenaria e Salvatore Cernuzio ne ha scritto su La Stampa.

Fonte immagine

“La macchina che domina l’uomo, i robot che sostituiscono la persona umana, la logica del dispositivo che soppianta la ragione umana. Il futuro distopico prefigurato da cinema e letteratura già mezzo secolo fa rischia di divenire un pericolo reale con l’avvento e l’aumento delle nuove tecnologie. Il monito non giunge da scienziati e antropologi ma da Papa Francesco, il quale […] avverte: «L’odierna evoluzione della capacità tecnica produce un incantamento pericoloso: invece di consegnare alla vita umana gli strumenti che ne migliorano la cura, si corre il rischio di consegnare la vita alla logica dei dispositivi che ne decidono il valore».
Un vero e proprio «rovesciamento» che, secondo Bergoglio, è destinato a produrre «esiti nefasti: la macchina non si limita a guidarsi da sola, ma finisce per guidare l’uomo. La ragione umana viene così ridotta a una razionalità alienata degli effetti, che non può essere considerata degna dell’uomo». In questo senso va rivista la denominazione stessa di “intelligenza artificiale” che, «pur certamente di effetto, può rischiare di essere fuorviante», annota Francesco. «I termini occultano il fatto che – a dispetto dell’utile assolvimento di compiti servili (è il significato originario del termine “robot”) –, gli automatismi funzionali rimangono qualitativamente distanti dalle prerogative umane del sapere e dell’agire. E pertanto possono diventare socialmente pericolosi». È del resto già reale «il rischio che l’uomo venga tecnologizzato, invece che la tecnica umanizzata»: lo si vede già adesso che «a “macchine intelligenti” vengono frettolosamente attribuite capacità che sono propriamente umane». Bisogna allora «comprendere meglio che cosa significano, in questo contesto, l’intelligenza, la coscienza, l’emotività, l’intenzionalità affettiva e l’autonomia dell’agire morale», dice il Pontefice. «I dispositivi artificiali che simulano capacità umane, in realtà, sono privi di qualità umana», aggiunge. «Occorre tenerne conto per orientare la regolamentazione del loro impiego, e la ricerca stessa, verso una interazione costruttiva ed equa tra gli esseri umani e le più recenti versioni di macchine» che si diffondono a vista d’occhio nel mondo e «trasformano radicalmente lo scenario della nostra esistenza». «Se sapremo far valere anche nei fatti questi riferimenti, le straordinarie potenzialità dei nuovi ritrovati potranno irradiare i loro benefici su ogni persona e sull’umanità intera», assicura il Papa.
Il primo passo è ricominciare a comprendere la tecnologia non come forza «estranea e ostile» all’uomo, ma come «prodotto del suo ingegno attraverso cui provvede alle esigenze del vivere per sé e per gli altri». La tecnologia dovrebbe apparire «una modalità specificamente umana di abitare il mondo», sottolinea il Pontefice. Oggi invece si assiste ad un «drammatico paradosso»: «Proprio quando l’umanità possiede le capacità scientifiche e tecniche per ottenere un benessere equamente diffuso, secondo la consegna di Dio, osserviamo un inasprimento dei conflitti e una crescita delle disuguaglianze».
Declina così «il mito illuminista del progresso» e «l’accumularsi delle potenzialità che la scienza e la tecnica ci hanno fornito non sempre ottiene i risultati sperati». Anzi, mentre da un lato «lo sviluppo tecnologico ci ha permesso di risolvere problemi fino a pochi anni fa insormontabili», dall’altro emergono «difficoltà e minacce talvolta più insidiose delle precedenti», afferma Papa Francesco. «Il “poter fare” rischia di oscurare il chi fa e il per chi si fa. Il sistema tecnocratico basato sul criterio dell’efficienza non risponde ai più profondi interrogativi che l’uomo si pone; e se da una parte non è possibile fare a meno delle sue risorse, dall’altra esso impone la sua logica a chi le usa».”
Non solo. Si assiste anche ad un progressivo «logorarsi» del tessuto delle relazioni familiari e sociali e si diffonde sempre di più «una tendenza a chiudersi su di sé e sui propri interessi individuali, con gravi conseguenze sulla grande e decisiva questione dell’unità della famiglia umana e del suo futuro». E se a tutto ciò aggiungiamo anche «i gravi danni causati al pianeta, nostra casa comune, dall’impiego indiscriminato dei mezzi tecnici», risulta chiaro che le prospettive del futuro siano piuttosto negative.
Il Papa esorta allora a ripristinare quel concetto di «ecologia integrale» descritto e promosso nella Laudato si’: nel mondo odierno, «segnato da una stretta interazione tra diverse culture», occorre portare lo specifico contributo dei credenti alla ricerca di «criteri operativi universalmente condivisibili, che siano punti di riferimento comuni per le scelte di chi ha la grave responsabilità di decisioni da prendere sul piano nazionale e internazionale», afferma.
In quest’ottica, «l’intelligenza artificiale, la robotica e le altre innovazioni tecnologiche» vanno impiegate «al servizio dell’umanità e alla protezione della nostra casa comune invece che per l’esatto opposto, come purtroppo prevedono alcune stime», chiosa il Pontefice. «L’inerente dignità di ogni essere umano va posta tenacemente al centro della nostra riflessione e della nostra azione».”

Un nuovo (D) io

ai

Un articolo di Maria Luisa Prete su La Repubblica. Argomento: l’intelligenza artificiale assurta a nuova divinità.
Un nuovo dio scende sulla terra alla conquista delle nostre anime. E come i suoi predecessori, anzi più degli altri, viene plasmato ad arte dall’uomo. Come gli altri, nasce per essere venerato e per salvarci dalle brutture del mondo. Ma chi è? Nientemeno che l’intelligenza artificiale. Se Elon Musk la teme considerandola la possibile causa della terza guerra mondiale, per Anthony Levandowski, invece è la nuova divinità.
L’ex ingegnere Google, licenziato qualche mese fa con l’accusa di aver rubato segreti commerciali, adesso cerca il riscatto nella fede. La sua associazione religiosa senza scopo di lucro si chiama “Way of the Future”, e appunto si propone di venerare l’AI per migliorare la nostra vita. Come dire, se non riusciamo più ad aver fiducia nel dio tradizionale, un’alternativa, fatta di bit e silicio, potrebbe fare al caso nostro. Così terrena da poter conquistare anche i miscredenti più accaniti, così fascinosa perché potrebbe elevare a paradiso il progresso tecnologico. Basta crederci.
Ma chi è il messia di questo nuovo messaggio di salvezza? Il suo biglietto da visita non è proprio edificante. Pendono su di lui pensanti accuse di spionaggio industriale. In particolare, Levandowski, classe 1980, è al centro di una disputa su brevetti trafugati tra Uber e Waymo, compagnia automobilistica di Google. Licenziato dall’azienda di Mountain View lo scorso maggio, adesso sembra cercare il riscatto e la fama come sacerdote della divinità tecnologica. La sua setta è stata fondata nel settembre 2015, ma è salita solo ora agli onori della cronaca grazie alle rivelazioni di Wired Usa che ha reso noto il progetto presentato all’US Internal Revenue Service (IRS), l’autorità Usa che gestisce e amministra le entrate fiscali pubbliche, alle cui norme devono attenersi anche le organizzazioni senza scopo di lucro. Anche se la setta non ha ancora formalizzato la sua posizione con l’IRS come organizzazione religiosa esente da imposte, i documenti depositati in California dimostrano che Levandowski è amministratore delegato e presidente del Mondo del futuro e che i fini della società “attraverso la comprensione e il culto della divinità” vogliono contribuire al “miglioramento della società”.
Il legame tra tecnologia e religione non è nuovo. In molti, nella Silicon Valley, credono nella “Singolarità”, l’avvento di un’epoca in cui le macchine governeranno il mondo con giustizia ed equità, a vantaggio e meglio degli uomini. Da qui, il passo verso il culto dell’Intelligenza artificiale sembra obbligato. La speranza nelle “magnifiche sorti e progressive” si alimenta con i grandi successi e le costanti innovazioni del settore. Non è un caso, fa riflettere Wired a proposito, che se ancora l’AI divina è lontana, Levandowski abbia contribuito con il suo lavoro a farle assumere un’incarnazione terrena. Le auto a guida autonoma alle quali aveva lavorato per Google stanno già trasportando passeggeri a Phoenix, in Arizona, mentre i camion costruiti dalla sua Otto (poi ceduta) fanno parte del piano di Uber per rendere il trasporto merci più sicuro ed efficiente. Passi concreti per diffondere il verbo di una divinità che sembra compiere i “primi miracoli” e ne promette ogni giorno di nuovi.