Un prof tra mare, terra e cielo

Immagine creata con ChatGPT®

Sono su Facebook dal 2008, su Twitter dal 2010 (ora non più, preferisco bluesky o threads) e su Instagram dal 2014 (da un po’ con un secondo account specificatamente dedicato al lavoro), su Flickr dal 2009, su Whatsapp e Telegram con un canale Oradireli, sono anobiano dal 2013 e goodreader dal 2014 (Ask, GuruShots, 500px, Snapchat, Pinterest, LinkedIn, Tiktok e altri li ho usati per capire come funzionano). Youtube lo utilizzo senza interagire con gli altri utenti. Non amo il gioco online, non ho conoscenze dirette del settore. Da anni utilizzo Netflix, Prime e Infinity. Utilizzo Spotify da tempo. In casa c’è quell’antipatica di Alexa.
Scrivo un blog dal 2007, ho prodotto podcast e video, condiviso un hard disk virtuale che però non aggiorno più. Non riporto piattaforme e strumenti tipici della didattica.
Ho sperimentato vari chatbot e, per il concorso che ho recentemente affrontato, ho fatto presentare una piccola parte di esposizione da un mio avatar.
Ho voluto scrivere questa sottospecie di curriculum per vari motivi:

  • mi piacciono queste cose e capire come funzionano
  • queste cose appaiono e spariscono in un amen o possono persistere a lungo, di sicuro cambiano molto frequentemente
  • la grande maggioranza di studentesse e studenti vi sono immerse/i, e stanno arrivando in classe coloro che sono nati già in quel mondo e tristemente utilizzano queste cose fin dalla più tenera età
  • queste cose influenzano la nostra vita, il nostro modo di esprimerci e di relazionarci, il nostro stesso modo di pensare
  • se desideriamo capire il perché di certi meccanismi abbiamo due possibilità: entrare in quel mondo o farci raccontare quel mondo da chi vi è dentro o l’ha abitato per un certo periodo.

Quello che mi sembra poco utile è lo scontro tra due opposte fazioni che Matteo Lancini in “Il ritiro sociale negli adolescenti. La solitudine di una generazione iperconnessa” (2019, Raffaello Cortina Editore) definisce così:

  • I tecno-ottimisti: gli studiosi che “spingono verso un’accelerazione della diffusione dei dispositivi tecnologici, fino ad arrivare a promuovere persino la loro integrazione nel corpo umano, come protesi in grado di potenziare la dotazione biologica naturale, ritenendo che la tecnologia possa prima o poi riuscire nella promessa di eliminare limiti e sofferenze umane” (pag. 21)
  • I tecno-pessimisti: sono coloro che sottolineano i “rischi legati alla tentazione di cedere alla promessa dello strapotere tecnologico, generatore di un uomo diminuito, anziché potenziato di capacità e dotazioni. Rischi ancora da studiare sui cambiamenti del sistema nervoso, ma che, sommandosi ai pericoli di un utilizzo poco responsabile dei mezzi informatici, alimentano un clima di aspra condanna e timore nei confronti di Internet. Il mondo adulto sembra spaventato dall’ipotesi che i più giovani possano trovarsi intrappolati tra le maglie della rete, incapaci di gestire il tempo della connessione e di difendersi da truffe, ricatti e situazioni pericolose” (pag.21)

Mi ritrovo nelle parole immediatamente successive di Lancini: “Prendere posizione nella disputa tra sostenitori e avversari della tecnologia è un’operazione poco utile per aiutare gli adolescenti a farsi strada nell’intricato mondo in cui vivono fuori e dentro la rete” (posto che esista un fuori e dentro la rete, aggiungerei) (pagg. 21-22).
Ultimamente, soprattutto davanti agli strumenti dell’AI, faccio più fatica. Sento che mi manca un aspetto che prima comunque caratterizzava il mio lavoro e l’accompagnamento all’utilizzo degli strumenti tecnologici da parte di allieve e allievi: il dominio di quello strumento. Forse perché non è solo uno strumento. E’ un po’ come se fossi sempre andato per mare, abituato al mare calmo o anche tempestoso, ma fiducioso delle possibilità della barca su cui navigavo; in questo momento però ho la sensazione di essere nell’oceano e le onde mi incutono timore. Mi preoccupa la rotta che può prendere lo sviluppo dell’AI, mi preoccupa il dispendio di energie che richiede, mi preoccupa il modo in cui è stato costruita e si sta costruendo, mi preoccupa l’opacità e la mancanza di trasparenza del processo. Si tratta di dubbi che riguardano l’etica, la coscienza: di solito, quando li incrocio nella mia vita, ho l’abitudine, per capire meglio la situazione, di prendere le distanze, perché da lontano si ha uno sguardo d’insieme (come quegli allenatori che talvolta scelgono di guardare una partita della loro squadra dalla tribuna). Questa volta però sono molto indeciso, restando nella metafora dell’oceano, tra una modifica dell’equipaggiamento o dell’intera imbarcazione (fare corsi, sperimentare, modificare la didattica, cambiare il setting delle lezioni) e la ricerca di un orizzonte diverso (prendere le distanze, appunto): ma quale orizzonte? Uno più stabile, come la terra? O uno più imprevedibile, come l’aria? Andare alla ricerca di sicurezze? Adoro viaggiare in treno, ma riconosco che il binario è una strada tracciata, posso solo scendere e prendere altri treni, non posso fare andare il treno dove binario non c’è. O andare alla ricerca di cose mai sperimentate? Provare l’ebrezza del volo, la sensazione di essere sostenuto dall’aria senza una base sotto i piedi, mi attira. Quale mi piacerebbe che fosse l’orizzonte del mio lavoro educativo?
Penso che intanto mi convenga equipaggiare la mia imbarcazione, dotarla di tutto ciò che serve per affrontare l’oceano. Nel frattempo, mentre sono a terra, mi tolgo lo sfizio di qualche viaggio in treno e di qualche prova di volo (delle prese di distanza provvisorie, insomma). Chissà se alla fine canterò insieme a Jovanotti la parte finale de La linea d’ombra:
“Mi offrono un incarico di responsabilità
Non so cos’è il coraggio se prendere e mollare tutto
Se scegliere la fuga o affrontare questa realtà difficile da interpretare
Ma bella da esplorare
Provare a immaginare come sarò quando avrò attraversato il mare
Portato questo carico importante a destinazione
Dove sarò al riparo dal prossimo monsone
Mi offrono un incarico di responsabilità
Domani andrò giù al porto e gli dirò che sono pronto per partire
Getterò i bagagli in mare studierò le carte
E aspetterò di sapere per dove si parte quando si parte
E quando passerà il monsone dirò “levate l’ancora
Diritta avanti tutta questa è la rotta questa è la direzione
Questa è la decisione”.”

Hinton: IA, i limiti vanno messi ora

Immagine realizzata con l’intelligenza artificiale della piattaforma POE

Domani 12 settembre si apre a Roma il World Meeting on Fraternity: per due giorni riunisce persone provenienti da tutto il mondo per focalizzare l’attenzione sulla domanda essenziale: che cosa ci rende veramente umani? Promosso dalla Basilica di San Pietro, dalla Fondazione Fratelli Tutti e dall’associazione Be Human, l’incontro ospita un gruppo di lavoro dedicato all’intelligenza artificiale. Di esso fa parte Geoffrey Hinton, considerato uno dei padri dell’IA. Nei giorni scorsi è stato intervistato da Riccardo Luna per il Corriere della Sera: i toni sono preoccupati e accorati, vale la pena conoscere quanto dice.

“«La maggior parte dei principali ricercatori di intelligenza artificiale ritiene che molto probabilmente creeremo esseri molto più intelligenti di noi entro i prossimi 20 anni. La mia più grande preoccupazione è che questi esseri digitali superintelligenti semplicemente ci sostituiranno. Non avranno bisogno di noi. E poiché sono digitali, saranno anche immortali: voglio dire che sarà possibile far risorgere una certa intelligenza artificiale con tutte le sue credenze e ricordi. Al momento siamo ancora in grado di controllare quello che accade ma se ci sarà mai una competizione evolutiva tra intelligenze artificiali, penso che la specie umana sarà solo un ricordo del passato». Geoffrey Hinton è nella sua casa di Toronto. Alle sue spalle c’è una grande libreria a parete e lui — come al solito — è in piedi. Per via di un fastidioso problema alla schiena lo chiamano «l’uomo che non si siede mai» (ma in realtà, per brevi periodi e con alcuni accorgimenti, può farlo). Indossa una camicia blu che assieme ai capelli incanutiti e al sorriso dolce lo fanno assomigliare a quei personaggi che nei libri o nei film ci vengono a salvare da una minaccia terribile. Dicono che sia uno dei tre padri dell’intelligenza artificiale, ma visto che gli altri due (Yoshua Bengio e Yann LeCun) sono stati, in modi diversi, dei suoi allievi, se ci fosse un Olimpo dell’intelligenza artificiale Geoff Hinton sarebbe Giove. E infatti lo scorso anno ha vinto il premio Nobel per la Fisica (con John Hopfield) «per scoperte e invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali». Per semplificare: senza di lui, non avremmo Chat GPT.
Quando l’ho invitato a far parte del gruppo di esperti di intelligenza artificiale che il 12 settembre incontrerà papa Leone XIV mi ha risposto: «Sono un ateo, sicuro che mi vogliano?». Poi però ha accettato perché evidentemente spera che il pontefice voglia giocare la partita della scienza: «Avrebbe una grande influenza». Molto più degli appelli e delle petizioni della comunità scientifica che in due anni si sono succeduti con lo scopo di rallentare lo sviluppo tecnologico in attesa di capirne meglio i rischi e della ragionevole certezza che la cosa non ci scappi di mano. Il primo a dare l’allarme è stato proprio Hinton alla fine di aprile del 2023 quando improvvisamente lasciò Google, l’azienda per cui aveva lavorato gli ultimi dieci anni, per poter parlare liberamente dei rischi dell’intelligenza artificiale. L’ultimo è stato sempre lui, un paio di mesi fa, quando ha firmato un appello, assieme al collega premio Nobel Giorgio Parisi, per chiedere a Open AI, l’azienda che ha sviluppato Chat GPT, maggior trasparenza («Stanno decidendo il nostro futuro a porte chiuse»). Partiamo da qui.
Avete avuto una certa risonanza e raccolto tremila firme autorevoli ma non penso che il vero scopo fosse solo quello.
«La questione è complicata dal fatto che c’è una causa legale tra Musk e Altman. Il motivo per cui Musk lo fa mentre allo stesso tempo sviluppa Grok è la competizione. Musk vuole avere meno concorrenza da OpenAI. Questo è ciò che credo, non ne ho la certezza, ma secondo me la sua motivazione nel voler mantenere OpenAI come “public benefit corporation” non è la stessa che abbiamo noi. La nostra motivazione è che OpenAI era stata creata per sviluppare l’IA in modo etico e invece sta cercando di sottrarsi a quell’impegno. Molti ricercatori, come Ilya Sutskever, se ne sono andati; credo che l’abbiano fatto perché non si dava abbastanza importanza alla sicurezza. L’obiettivo dell’appello era insomma fare pressione sul procuratore generale della California che può decidere se permettere o meno a OpenAI di diventare una società a scopo di lucro».
Quindi non vi aspettavate davvero una risposta da Sam Altman.
«No, certo che no».
Direi che la vera risposta all’appello è arrivata pochi giorni fa, alla Casa Bianca, quando il presidente degli Stati Uniti ha convocato tutti i ceo delle Big Tech, compresi OpenAI, Meta e Google…
«Il presidente ha cercato di impedire che per dieci anni negli Stati Uniti ci fossero regole per l’IA, ma ha fallito; i singoli Stati possono continuare a legiferare».
Che effetto le ha fatto vedere i leader delle grandi aziende tecnologiche così ossequiosi verso il potere politico? Forse è la prima volta nella storia che assistiamo a una concentrazione assoluta del potere.
«La mia reazione è stata di tristezza: vedere i leader di queste aziende non disposti a prendere nessuna posizione morale su nulla».
Quando arrivò la rivoluzione digitale, i sogni erano altri: un mondo più giusto, più equo, migliore per tutti.
«Non sono sicuro che fosse il sogno di tutti. Credo che per la maggior parte delle persone coinvolte, il sogno fosse diventare ricchi. Ma potevano convincersi che sì, si sarebbero arricchiti, ma allo stesso tempo avrebbero aiutato tutti. E in larga misura è stato così per il web: se mettiamo da parte le conseguenze sociali, guardando solo alla vita quotidiana, il web ha davvero aiutato le persone».
Prendiamo Tim Berners Lee: non è diventato ricco e ha dato i protocolli del web gratuitamente a tutti. Poi qualcosa è andato storto. Direi: il capitalismo.
«Io non sono totalmente contro il capitalismo: è stato molto efficace nel produrre nuove tecnologie, spesso con l’aiuto gratuito dei governi per la ricerca di base. Credo che, se ben regolato, il capitalismo vada bene. È accettabile che la gente cerchi di arricchirsi purché, arricchendosi, si aiutino anche gli altri. Il problema è quando la ricchezza e il potere vengono usati per eliminare le regole, così da fare profitti che danneggiano le persone».
È quello che sta accadendo adesso?
«Sì. La cosa che sembra importare loro di più è non pagare le tasse. E sostengono Trump perché abbassa le tasse: questa è la loro spinta primaria. Ma vogliono anche eliminare le regole che proteggono le persone per rendere più facile fare affari. Per questo assecondano Trump».
Come valuta quello che sta facendo l’Unione europea? Si dice che pensi troppo alla regolamentazione e troppo poco all’innovazione. Così restiamo indietro nella corsa all’intelligenza artificiale. Come sa, l’Unione europea ha approvato una legge importante, l’AI Act. Secondo lei è un buon punto di partenza o solo un ostacolo all’innovazione?
«Credo sia un punto di partenza accettabile ma ci sono parti che non mi piacciono: ad esempio, c’è una clausola che dice che nessuna di queste regole si applica agli usi militari dell’IA. Questo perché diversi Paesi europei sono grandi produttori di armi e vogliono sviluppare sistemi letali e autonomi. Inoltre, per come l’ho capita io, la normativa europea è partita con un’enfasi particolare su discriminazione e bias, preoccupandosi più di questi aspetti che di altre minacce. Perciò mette molto l’accento sulla privacy. La privacy è importante, ma ci sono minacce più gravi».
Ha toccato un punto molto delicato. Le aziende della Silicon Valley erano nate con l’idea di non collaborare con il potere militare. Quando DeepMind fu venduta a Google, una delle condizioni era che l’IA non sarebbe stata usata per scopi militari. Ma lo scorso gennaio quella condizione è stata rimossa. Ora tutte le aziende di intelligenza artificiale forniscono tecnologia al dipartimento della Difesa americano. E pochi giorni fa Google ha firmato un accordo importante con Israele per fornire sistemi di intelligenza artificiale alle forze armate. Che ne pensa?
«C’è una regola semplice che usano gli scienziati politici: non guardare a ciò che la gente dice, ma a ciò che fa. Sono rimasto molto dispiaciuto quando Google ha eliminato l’impegno a non usare l’IA per scopi militari. È stata una delusione. E lo stesso quando hanno cancellato le politiche di inclusione solo perché era arrivato Trump».
E arriviamo a papa Leone XIV: appena insediato, ha detto di volersi occupare di intelligenza artificiale. Che ruolo pensa possa avere in questo dibattito?
«Beh, come saprà, ha circa un miliardo di fedeli. Se lui dicesse che è importante regolare l’IA, sarebbe un contrappeso alla narrativa dei leader delle Big Tech che ringraziano il presidente per non aver imposto regole. Io credo che il Papa abbia un’influenza politica reale, anche al di fuori del cattolicesimo. Molti leader religiosi, come il Dalai Lama, lo vedono come una voce morale. Non tutti i Papi sono stati così, ma questo sì, e anche il suo predecessore. Per molti non cattolici, le sue opinioni morali sono sensate, non infallibili, ma ascoltate. Se dirà che regolare l’IA è essenziale, avrà un impatto».
Cosa vorrebbe far sapere al Papa sui rischi dell’intelligenza artificiale?
«Credo che per il Pontefice sia inutile porre l’accento sui cosiddetti rischi esistenziali, come la sparizione della specie umana nel lungo periodo; e sia meglio concentrarsi sui rischi attuali. Non serve credere che l’IA sia un “essere” per capire che può portare disoccupazione di massa, corruzione delle democrazie, cyber-attacchi più facili ed efficaci, creazione di virus letali accessibili a chiunque. Sta già accadendo. Quindi su questi rischi a breve termine, quelli che chiamo “rischi dovuti a cattivi attori”, possiamo trovare un accordo. Questi sono rischi che qualunque leader religioso o politico può capire, senza dover entrare nella questione metafisica se l’IA sia o meno un “essere”».
A volte sembra che i governi non capiscano fino in fondo la posta in gioco, che si fidino troppo di queste aziende.
«È proprio così. Spesso i governi non hanno abbastanza esperti interni e si affidano a consulenti che vengono… indovini da dove? Proprio dalle Big Tech. Così finiscono per sentire solo la voce delle aziende. È come se i regolatori di Wall Street fossero tutti ex banchieri che ancora pensano come banchieri».
È considerato un apocalittico. Lei come si sente? Ottimista o pessimista?
«Realista. Vedo entrambi i lati. Ma la storia ci dice che, senza regole, si abusa del potere. Perciò credo che, se non regoliamo, finirà male».
Crede che ci sia una lezione particolare che dovremmo ricordare ora?
«Sì. Pensiamo all’energia nucleare. Quando gli scienziati capirono che le loro scoperte potevano portare all’atomica, molti di loro provarono ad avvertire i governi. Ma alla fine furono i militari a decidere come usarla. Non fu la comunità scientifica a stabilire i limiti. Lo stesso rischio lo vedo oggi: se lasciamo che siano solo i governi o le aziende a decidere, l’IA sarà usata in modi molto pericolosi».
È davvero un momento unico nella storia dell’umanità o solo un ennesimo progresso?
«È un punto di svolta. Per la prima volta stiamo creando entità che possono essere più intelligenti di noi. Non è mai successo prima. Abbiamo creato macchine più forti, più veloci, ma mai più intelligenti. Questo cambia tutto».
Quindi cosa possiamo fare?
«Serve un movimento globale, non solo poche voci isolate. Dobbiamo creare un consenso ampio nella comunità scientifica, altrimenti i politici ci ignoreranno».Dopo 90 minuti l’intervista è finita (questa è una versione molto condensata ma approvata dal professore). Resta il tempo per una domanda personale. Geoffrey Hinton viene da una famiglia eccezionale. L’Everest si chiama così per via di un suo prozio cartografo (e anche il suo secondo nome è Everest); e un altro è il padre della logica booleana (la base matematica su cui si basano i computer e i sistemi digitali). Come se non bastasse, il padre gli ha sempre tenuto l’asticella altissima. Gli diceva: «Se lavori il doppio di me, quando avrai il doppio della mia età, forse sarai bravo la metà».
Gli chiedo: ce l’ha fatta a realizzare l’obiettivo che le ha dato suo padre? Sorride: «No. Sicuramente almeno la metà».”

Qui e ora, ma anche altrove

Immagine creata con ChatGPT®

Sull’ultimo numero del settimanale diocesano La Vita Cattolica compare un editoriale del dirigente Luca Gervasutti sulla proibizione dello smartphone a scuola. Nell’istituto in cui insegno, a partire dal secondo anno è previsto l’utilizzo dell’iPad. Da molto tempo abbiamo visto succedere per i tablet quello che scrive il dirigente a proposito dello smartphone “È innegabile che gli smartphone catturino la concentrazione e che la notifica diventi un riflesso condizionato”. Quindi non sarà certo con la proibizione di uno specifico dispositivo che si risolveranno i problemi. Lascio qui l’editoriale, poi, in fondo, propongo un testo che ogni tanto leggo in classe.

“Vietare lo smartphone a scuola è diventato il mantra di questi mesi. Lo si presenta come la soluzione più rapida a problemi che angustiano genitori e insegnanti: distrazione, perdita di attenzione, difficoltà relazionali. È un discorso che funziona perché offre risposte immediate, ma proprio questa immediatezza ne rivela il limite: confonde sintomo e causa, strumento e sistema. Lo smartphone non è il nemico, è lo specchio di una società che corre senza tregua, che trasforma ogni gesto in prestazione e ogni momento in contenuto da condividere. Dentro questo orizzonte accelerato, il cellulare diventa l’interfaccia più evidente, non la radice del problema.
Il divieto rischia allora di trasformarsi in un alibi: tranquillizza gli adulti, ma non educa i ragazzi. Appena varcata la soglia scolastica, i dispositivi tornano nelle loro mani, pronti a scandire giornate fatte di notifiche e messaggi incessanti. Pensare di risolvere il problema eliminando l’oggetto è come curare la febbre rompendo il termometro. La vera sfida non è allontanare lo strumento, ma imparare a governarlo. Se la scuola non insegna l’uso consapevole di ciò che scandisce la quotidianità giovanile, chi potrà farlo?
Chi invoca il divieto lo fa spesso in nome dell’attenzione. È innegabile che gli smartphone catturino la concentrazione e che la notifica diventi un riflesso condizionato. Ma la distrazione che viviamo non nasce dal cellulare: è figlia di un sistema che ci spinge a correre sempre più veloce, a rispondere a mille stimoli contemporanei. Una distrazione sistemica, che lo smartphone amplifica senza inventarla. Vietarlo a scuola significa rimuovere il sintomo ignorando la malattia.
La scuola non può sottrarsi al compito di insegnare a gestire la velocità che caratterizza il nostro tempo, ma deve anche farsi luogo di educazione alla lentezza, alla riflessione e alla capacità di distinguere ciò che merita attenzione da ciò che è solo rumore di fondo. Leggere senza interruzioni, discutere senza notifiche, scrivere a mano non sono esercizi nostalgici, ma strumenti necessari per allenare competenze che nessun dispositivo potrà sostituire. In questo senso la scuola deve però offrire l’esperienza della lentezza non come rifiuto del digitale, ma come condizione per usarlo liberamente e con consapevolezza. L’errore più diffuso consiste nel ridurre la questione a un aut aut, come se dovessimo scegliere tra un mondo analogico da difendere e un universo digitale da respingere o, al contrario, da abbracciare senza spirito critico.
La formazione dei giovani richiede invece entrambi i linguaggi: la pazienza della scrittura a mano e la rapidità della tastiera, la concentrazione su un libro cartaceo e l’apertura offerta dalla Rete, la profondità dell’esperienza analogica e la reticolarità degli strumenti digitali. È un bilinguismo cognitivo che la scuola ha il dovere di coltivare, perché solo dalla loro coesistenza può nascere uno sviluppo armonico dei ragazzi.
Questo non significa spalancare le porte agli schermi senza regole. I limiti restano indispensabili, ma c’è una differenza profonda tra proibire ed educare. Il divieto dall’alto genera soltanto sotterfugi, mentre un contratto educativo condiviso trasforma il limite in responsabilità. Se un ragazzo comprende perché in certi momenti il cellulare va lasciato da parte, se percepisce la rinuncia come costruttiva e non punitiva, allora quel limite diventa apprendimento. È in questo equilibrio che si costruisce la cittadinanza digitale.
L’equivoco di fondo è credere che la scuola debba proteggere i ragazzi dal presente. Non è così: la scuola deve fornire strumenti per affrontarlo. Togliere lo smartphone non basta; occorre imparare a conviverci, usarlo con consapevolezza, mettergli confini, non subirne il richiamo incessante. Solo così lo si trasforma da minaccia in risorsa.
Vietare è facile, educare è difficile. Ma se la scuola rinuncia a educare proprio sugli strumenti che plasmano la vita dei ragazzi, a cosa serve? Meglio affrontare la complessità che rifugiarsi nella scorciatoia del divieto. Non è spegnendo i cellulari che renderemo gli studenti più liberi: lo diventeranno quando sapranno gestirne tempi e modi, distinguendo connessione da dipendenza, uso da abuso. In un mondo che accelera e frammenta, il vero compito educativo non è eliminare lo smartphone, ma insegnare a dominarne i ritmi e a restituire dignità all’atto di scegliere.”

Mi è capitato spesso di riflettere in classe sul potere distraente delle notifiche; mi è anche capitato di raccontare che le notifiche, io, da studente, non ce le avevo. Però tenevo sotto il banco o nello zaino libri e spesso, durante le lezioni, scrivevo poesie o racconti. Non lo facevo sempre: scappavo con la mente quando mi annoiavo, quando non provavo interesse per quello che si faceva in classe. Certo, forse il mio era un atto più consapevole e voluto rispetto alla notifica che può “venire incontro”, ma la testa comunque staccava da quello che si stava facendo. Si rifugiava in un altrove e non nascondo che quell’altrove spesso è stato salvifico: perché era mio, perché me l’ero costruito io, perché era frutto delle mie parole, delle mie paure, dei miei sogni. Non era un passare il tempo a scrollare Tiktok, a passare in rassegna la vita degli altri: quello è un altro tipo di altrove. Ecco allora un testo che a volte leggo in classe, per cercare di comprendere che esistono diversi tipi di altrove e che non tutti sono malati, che può esserci un’educazione alla consapevolezza e alla responsabilità. Che lo smartphone, in fin dei conti, è un mezzo: decidiamo noi se e quando utilizzarlo, decidiamo noi se farne uno strumento per andare verso un altrove autentico o un altrove fantomatico.
“Pensaci.
Siamo tutti malati, di un male sottile e persistente.
Una malattia che agisce in sordina, che apparentemente non fa alcun rumore.
Io la chiamo ‘la malattia dell’altrove’.
Siamo sempre in un indefinito altrove: un altro tempo, un altro luogo, altre persone.
Al tavolo con amici e siamo al cellulare a scrivere all’amica (e poi, quando siamo con quell’amica, magari scriviamo a qualcun altro).
Relazioniamo il nostro tempo ad un tempo andato. “Si stava meglio prima”, “quando ero più giovane”, “se solo avessi”, “chissà come sarebbe stato”. Oppure siamo in proiezioni future. Gli impegni del giorno dopo, le preoccupazioni per il lavoro, l’attesa spasmodica e persistente di una felicità posticipata, sempre, ad un momento “da venire”.
Quando avrò la macchina,
Quando avrò la laurea,
Quando avrò il lavoro,
Quando avrò una relazione,
Quando avrò una casa,
Quando avrò dei figli.
Per poi, inevitabilmente, spostarci in un ulteriore “altrove” quando li avremo ottenuti.
È così che schiacciamo e mortifichiamo ogni giorno il nostro tempo, la nostra vita, il respiro del nostro Adesso.
Un ‘oggi’ che ogni giorno perde energia ed entusiasmo.
Ecco.
È un modo eccellente per rendersi infelici, delegando aspettative e attese ad uno spazio “oltre” che ha la consistenza di un puro pensiero.
Domani non esiste. Domani sarà, tra 24 ore, un nuovo oggi. E oggi sarà quello che domani chiamerai ieri. Lo osserverai con nostalgico rammarico e dirai “se solo avessi..”, “chissà come sarebbe stato se..”.
E allora?
Vuoi ancora prenderti in giro, perdendoti nei meandri degli “altrove” e delle possibilità perdute o scegli di agire, oggi?
Ovunque tu sia, devi esserci davvero.
Ciascun momento è unico e, croce e delizia, non ritornerà più.
È il tuo tempo, la tua vita.
Ed è Adesso.”
Oscar Travino. Sette Secondi: Pensieri liberi di uno psicoterapeuta (pp.11-12). Edizione Kindle.

La veglia con Leone XIV

Immagine tratta dal sito de Il Sole 24 ore

Pubblico, per chi se le fosse perse o semplicemente volesse tornarci sopra, domande e risposte della veglia di sabato 2 agosto a Tor Vergata durante il Giubileo dei Giovani. La fonte è il sito del Vaticano (ho tenuto solo la parte in lingua italiana). Forte è stata la tentazione di mettere in evidenza dei passaggi che mi hanno particolarmente toccato, ho preferito non “grassettare” nulla. Buona lettura. In fondo il video integrale della veglia.

“Domanda 1 – Amicizia

Santo Padre, sono Dulce María, ho 23 anni e vengo dal Messico. Mi rivolgo a Lei facendomi portavoce di una realtà che viviamo noi giovani in tante parti del mondo. Siamo figli del nostro tempo. Viviamo una cultura che ci appartiene e senza che ce ne accorgiamo ci plasma; è segnata dalla tecnologia soprattutto nel campo dei social network. Ci illudiamo spesso di avere tanti amici e di creare legami di vicinanza mentre sempre più spesso facciamo esperienza di tante forme di solitudine. Siamo vicini e connessi con tante persone eppure, non sono legami veri e duraturi, ma effimeri e spesso illusori.
Santo Padre, ecco la mia domanda: come possiamo trovare un’amicizia sincera e un amore genuino che aprono alla vera speranza? Come la fede può aiutarci a costruire il nostro futuro?

Carissimi giovani, le relazioni umane, le nostre relazioni con altre persone sono indispensabili per ciascuno di noi, a cominciare dal fatto che tutti gli uomini e le donne del mondo nascono figli di qualcuno. La nostra vita inizia grazie a un legame ed è attraverso legami che noi cresciamo. In questo processo, la cultura svolge un ruolo fondamentale: è il codice col quale interpretiamo noi stessi e il mondo. Come un vocabolario, ogni cultura contiene sia parole nobili sia parole volgari, sia valori sia errori, che bisogna imparare a riconoscere. Cercando con passione la verità, noi non solo riceviamo una cultura, ma la trasformiamo attraverso scelte di vita. La verità, infatti, è un legame che unisce le parole alle cose, i nomi ai volti. La menzogna, invece, stacca questi aspetti, generando confusione ed equivoco.
Ora, tra le molte connessioni culturali che caratterizzano la nostra vita, internet e i media sono diventati «una straordinaria opportunità di dialogo, incontro e scambio tra le persone, oltre che di accesso all’informazione e alla conoscenza» (Papa Francesco, Christus vivit, 87). Questi strumenti risultano però ambigui quando sono dominati da logiche commerciali e da interessi che spezzano le nostre relazioni in mille intermittenze. A proposito, Papa Francesco ricordava che talvolta i «meccanismi della comunicazione, della pubblicità e delle reti sociali possono essere utilizzati per farci diventare soggetti addormentati, dipendenti dal consumo» (Christus vivit, 105). Allora le nostre relazioni diventano confuse, sospese o instabili. Inoltre, come sapete, oggi ci sono algoritmi che ci dicono quello che dobbiamo vedere, quello che dobbiamo pensare, e quali dovrebbero essere i nostri amici. E allora le nostre relazioni diventano confuse, a volte ansiose. È che quando lo strumento domina sull’uomo, l’uomo diventa uno strumento: sì, strumento di mercato, merce a sua volta. Solo relazioni sincere e legami stabili fanno crescere storie di vita buona.
Carissimi, ogni persona desidera naturalmente questa vita buona, come i polmoni tendono all’aria, ma quanto è difficile trovarla! Quanto è difficile trovare un’amicizia autentica! Secoli fa, Sant’Agostino ha colto il profondo desiderio del nostro cuore – è il desiderio di ogni cuore umano – anche senza conoscere lo sviluppo tecnologico di oggi. Anche lui è passato attraverso una giovinezza burrascosa: non si è però accontentato, non ha messo a tacere il grido del suo cuore. Agostino cercava la verità, la verità che non illude, la bellezza che non passa. E come l’ha trovata? Come ha trovato un’amicizia sincera, un amore capace di dare speranza? Incontrando chi già lo stava cercando, incontrando Gesù Cristo. Come ha costruito il suo futuro? Seguendo Lui, suo amico da sempre. Ecco le sue parole: «Nessuna amicizia è fedele se non in Cristo. È in Lui solo che essa può essere felice ed eterna» (Contro le due lettere dei pelagiani, I, I, 1); e la vera amicizia è sempre in Gesù Cristo con fiducia, amore e rispetto. «Ama veramente il suo amico colui che nel suo amico ama Dio» (Discorso 336), ci dice Sant’Agostino. L’amicizia con Cristo, che sta alla base delle fede, non è solo un aiuto tra tanti altri per costruire il futuro: è la nostra stella polare. Come scriveva il beato Pier Giorgio Frassati, «vivere senza fede, senza un patrimonio da difendere, senza sostenere una lotta per la Verità non è vivere, ma vivacchiare» (Lettere, 27 febbraio 1925). Quando le nostre amicizie riflettono questo intenso legame con Gesù, diventano certamente sincere, generose e vere.
Cari giovani, vogliatevi bene tra di voi! Volersi bene in Cristo. Saper vedere Gesù negli altri. L’amicizia può veramente cambiare il mondo. L’amicizia è una strada verso la pace.

Domanda 2 – Coraggio per scegliere

Santo Padre, mi chiamo Gaia, ho 19 anni e sono italiana. Questa sera tutti noi giovani qui presenti vorremmo parlarLe dei nostri sogni, speranze e dubbi. I nostri anni sono segnati dalle decisioni importanti che siamo chiamati a prendere per orientare la nostra vita futura. Tuttavia, per il clima di incertezza che ci circonda siamo tentati di rimandare e la paura per un futuro sconosciuto ci paralizza. Sappiamo che scegliere equivale a rinunciare a qualcosa e questo ci blocca, nonostante tutto percepiamo che la speranza indica obiettivi raggiungibili anche se segnati dalla precarietà del momento presente.
Santo Padre, le chiediamo: dove troviamo il coraggio per scegliere? Come possiamo essere coraggiosi e vivere l’avventura della libertà viva, compiendo scelte radicali e cariche di significato?

Grazie per questa domanda. La pregunta es ¿cómo encontrar la valentía para escoger? Where can we find the courage to choose and to make wise decisions? La scelta è un atto umano fondamentale. Osservandolo con attenzione, capiamo che non si tratta solo di scegliere qualcosa, ma di scegliere qualcuno. Quando scegliamo, in senso forte, decidiamo chi vogliamo diventare. La scelta per eccellenza, infatti, è la decisione per la nostra vita: quale uomo vuoi essere? Quale donna vuoi essere? Carissimi giovani, a scegliere si impara attraverso le prove della vita, e prima di tutto ricordando che noi siamo stati scelti. Tale memoria va esplorata ed educata. Abbiamo ricevuto la vita gratis, senza sceglierla! All’origine di noi stessi non c’è stata una nostra decisione, ma un amore che ci ha voluti. Nel corso dell’esistenza, si dimostra davvero amico chi ci aiuta a riconoscere e rinnovare questa grazia nelle scelte che siamo chiamati a prendere.
Cari giovani, avete detto bene: “scegliere significa anche rinunciare ad altro, e questo a volte ci blocca”. Per essere liberi, occorre partire dal fondamento stabile, dalla roccia che sostiene i nostri passi. Questa roccia è un amore che ci precede, ci sorprende e ci supera infinitamente: è l’amore di Dio. Perciò davanti a Lui la scelta diventa un giudizio che non toglie alcun bene, ma porta sempre al meglio.
Il coraggio per scegliere viene dall’amore, che Dio ci manifesta in Cristo. È Lui che ci ha amato con tutto sé stesso, salvando il mondo e mostrandoci così che il dono della vita è la via per realizzare la nostra persona. Per questo, l’incontro con Gesù corrisponde alle attese più profonde del nostro cuore, perché Gesù è l’Amore di Dio fatto uomo.
A riguardo, venticinque anni fa, proprio qui dove ci troviamo, San Giovanni Paolo II disse: «è Gesù che cercate quando sognate la felicità; è Lui che vi aspetta quando niente vi soddisfa di quello che trovate; è Lui la bellezza che tanto vi attrae; è Lui che vi provoca con quella sete di radicalità che non vi permette di adattarvi al compromesso; è Lui che vi spinge a deporre le maschere che rendono falsa la vita; è Lui che vi legge nel cuore le decisioni più vere che altri vorrebbero soffocare» (Veglia di preghiera nella XV Giornata mondiale della Gioventù, 19 agosto 2000). La paura lascia allora spazio alla speranza, perché siamo certi che Dio porta a compimento ciò che inizia.
Riconosciamo la sua fedeltà nelle parole di chi ama davvero, perché è stato davvero amato. “Tu sei la mia vita, Signore”: è ciò che un sacerdote e una consacrata pronunciano pieni di gioia e di libertà. “Tu sei la mia vita, Signore”. “Accolgo te come mia sposa e come mio sposo”: è la frase che trasforma l’amore dell’uomo e della donna in segno efficace dell’amore di Dio nel matrimonio. Ecco scelte radicali, scelte piene di significato: il matrimonio, l’ordine sacro, e la consacrazione religiosa esprimono il dono di sé, libero e liberante, che ci rende davvero felici. E lì troviamo la felicità: quando impariamo a donare noi stessi, a donare la vita per gli altri.
Queste scelte danno senso alla nostra vita, trasformandola a immagine dell’Amore perfetto, che l’ha creata e redenta da ogni male, anche dalla morte. Dico questo stasera pensando a due ragazze, María, ventenne, spagnola, e Pascale, diciottenne, egiziana. Entrambe hanno scelto di venire a Roma per il Giubileo dei Giovani, e la morte le ha colte in questi giorni. Preghiamo insieme per loro; preghiamo anche per i loro familiari, i loro amici e le loro comunità. Gesù Risorto le accolga nella pace e nella gioia del suo Regno. E ancora vorrei chiedere le vostre preghiere per un altro amico, un ragazzo spagnolo, Ignacio Gonzalvez, che è stato ricoverato all’ospedale “Bambino Gesù”: preghiamo per lui, per la sua salute.
Trovate il coraggio di fare le scelte difficili e dire a Gesù: Tu sei la mia vita, Signore”. “Lord, You are my life”. Grazie.

Domanda 3 – Richiamo del bene e valore del silenzio

Santo Padre, mi chiamo Will. Ho 20 anni e vengo dagli stati Uniti. Vorrei farLe una domanda a nome di tanti giovani intorno a noi che desiderano, nei loro cuori, qualcosa di più profondo. Siamo attratti dalla vita interiore anche se a prima vista veniamo giudicati come una generazione superficiale e spensierata. Sentiamo nel profondo di noi stessi il richiamo al bello e al bene come fonte di verità. Il valore del silenzio come in questa Veglia ci affascina, anche se incute in alcuni momenti paura per il senso di vuoto.
Santo Padre, le chiedo: come possiamo incontrare veramente il Signore Risorto nella nostra vita ed essere sicuri della sua presenza anche in mezzo alle difficoltà e incertezze?

Proprio all’inizio del Documento con il quale ha indetto il Giubileo, Papa Francesco scrisse che «nel cuore di ogni persona è racchiusa la speranza come desiderio e attesa del bene» (Spes non confundit, 1). Dire “cuore”, nel linguaggio biblico, significa dire “coscienza”: poiché ogni persona desidera il bene nel suo cuore, da tale sorgente scaturisce la speranza di accoglierlo. Ma che cos’è il “bene”? Per rispondere a questa domanda, occorre un testimone: qualcuno che ci faccia del bene. Più ancora, occorre qualcuno che sia il nostro bene, ascoltando con amore il desiderio che freme nella nostra coscienza. Senza questi testimoni non saremmo nati, né saremmo cresciuti nel bene: come veri amici, essi sostengono il comune desiderio di bene, aiutandoci a realizzarlo nelle scelte di ogni giorno.
Carissimi giovani, l’amico che sempre accompagna la nostra coscienza è Gesù. Volete incontrare veramente il Signore Risorto? Ascoltate la sua parola, che è Vangelo di salvezza! Cercate la giustizia, rinnovando il modo di vivere, per costruire un mondo più umano! Servite il povero, testimoniando il bene che vorremmo sempre ricevere dal prossimo! Rimanete uniti con Gesù nell’Eucaristia. Adorate l’Eucarestia, fonte della vita eterna! Studiate, lavorate, amate secondo lo stile di Gesù, il Maestro buono che cammina sempre al nostro fianco.
Ad ogni passo, mentre cerchiamo il bene, chiediamogli: resta con noi, Signore (cfr Lc 24,29)! Resta con noi Signore! Resta con noi, perché senza di Te non possiamo fare quel bene che desideriamo. Tu vuoi il nostro bene; Tu, Signore, sei il nostro bene. Chi ti incontra, desidera che anche altri ii incontrino, perché la tua parola è luce più chiara di ogni stella, che illumina anche la notte più nera. Come amava ripetere Papa Benedetto XVI, chi crede, non è mai solo. Perciò incontriamo veramente Cristo nella Chiesa, cioè nella comunione di coloro che il Signore stesso riunisce attorno a sé per farsi incontro, lungo la storia, ad ogni uomo che sinceramente lo cerca. Quanto ha bisogno il mondo di missionari del Vangelo che siano testimoni di giustizia e di pace! Quanto ha bisogno il futuro di uomini e donne che siano testimoni di speranza! Ecco, carissimi giovani, il compito che il Signore Risorto ci consegna.
Sant’Agostino ha scritto: «L’uomo, una particella del tuo creato, o Dio, vuole lodarti. Sei Tu che lo stimoli a dilettarsi delle tue lodi, perché ci hai fatti per Te, e il nostro cuore non ha posa finché non riposa in Te. Che io ti cerchi, Signore, invocandoti e ti invochi credendoti» (Confessioni, I). Accostando questa invocazione alle vostre domande, vi affido una preghiera: “Grazie, Gesù, per averci raggiunto: il mio desiderio è quello di rimanere tra i Tuoi amici, perché, abbracciando Te, possa diventare compagno di cammino per chiunque mi incontrerà. Fa’, o Signore, che chi mi incontra, possa incontrare Te, pur attraverso i miei limiti, pur attraverso le mie fragilità”. Attraverso queste parole, il nostro dialogo continuerà ogni volta che guarderemo al Crocifisso: in Lui si incontreranno i nostri cuori. Ogni volta che adoriamo Cristo nell’Eucaristia, i nostri cuori si uniscono in Lui. Perseverate dunque nella fede con gioia e coraggio. E così possiamo dire: grazie Gesù per averci amati; grazie Gesù per averci chiamati. Resta con noi, Signore! Resta con noi!”.

Scuola: chatGPT è più veloce di qualsiasi riforma

Immagine creata con ChatGPT®

Pubblico un articolo di Nadir Manna pubblicato l’altroieri su Il Post per parlare di uno dei cambiamenti più evidenti che ha investito e sta investendo il mondo della scuola: i chatbot.“Per gli studenti delle scuole superiori italiane il 2024 è stato l’anno in cui i programmi di intelligenza artificiale (AI) hanno cambiato, forse per sempre, il modo di studiare e di fare i compiti a casa. Non è stato deciso da nessuno: gli alunni hanno imparato a usare ChatGPT per conto loro, in certi casi prima degli insegnanti, molto spesso a loro insaputa, e nel giro di un anno è diventato difficile trovare delle classi in cui non venga utilizzato almeno da qualcuno.
Tra i vari software e chatbot disponibili basati sull’AI, ChatGPT è quello di gran lunga più usato, in generale nel mondo e in particolare dagli studenti. In molte materie può svolgere una funzione di consulente, grazie alla sua capacità di scrivere testi, risolvere esercizi e fornire spiegazioni in base alle istruzioni che riceve, e la conseguenza più immediata è stata che i compiti a casa sono diventati meno adatti a valutare o monitorare lo studio e l’apprendimento. Nel frattempo i docenti stanno provando ad adattare e aggiornare i loro metodi didattici, ma l’impatto delle AI varia a seconda della materia d’insegnamento, e non tutti la pensano allo stesso modo su come integrarle nelle lezioni né su quanta libertà lasciare agli studenti nel loro utilizzo.
In base alle testimonianze degli studenti con cui ha parlato il Post, ChatGPT viene usato soprattutto per scrivere i temi e per fare le versioni di greco e latino. Ma anche per farsi spiegare concetti difficili, per ripassare e per fare i riassunti. I vantaggi sono notevoli: nel caso delle versioni, ad esempio, oltre a fare le traduzioni (che si trovano facilmente anche online) ChatGPT spiega i passaggi e aiuta a capire la costruzione del periodo e l’analisi logica.
All’inizio del 2024 gli alunni hanno iniziato a utilizzare ChatGPT prima che gli insegnanti avessero il tempo di conoscerlo e prenderci confidenza. «Nessuno è mai stato scoperto», dice uno studente di quinta di un liceo scientifico di Roma parlando dell’esperienza nella sua classe. Per lui e per molti suoi compagni il chatbot ha cambiato drasticamente il metodo di approccio allo studio di alcune materie: «Quando devi fare un compito a casa la prima cosa che ti passa per la testa è di chiedere a Chat, poi sicuramente lo rielabori e ci aggiungi qualcosa di tuo, ma comunque Chat è la prima cosa a cui pensi».
Anche dai suoi compagni ChatGPT viene usato regolarmente, e per farci un sacco di cose diverse: «è molto utile, può essere usato per studiare prima di una verifica, per ripetere, per sistemare gli appunti; puoi fare una foto al paragrafo di un libro e Chat te lo riassume», dice lo studente.

Immagine creata con Gemini®

Non è un caso isolato. Molti altri studenti delle scuole superiori raccontano che ormai quasi tutti i loro compagni di classe usano ChatGPT, sia per i compiti a casa che per copiare di nascosto durante le verifiche in classe (nel caso in cui i cellulari non vengano ritirati dall’insegnante, cosa che in realtà accade molto spesso). Il chatbot permette di generare risposte e spiegazioni a domande molto specifiche e spesso si rivela più versatile e molto più efficace dei motori di ricerca, specie per le materie umanistiche come storia, filosofia, italiano e latino. «Alcuni compagni di classe usano ChatGPT per farsi fare qualsiasi compito, anche quando le prove non sono valutate», racconta lo studente di Roma.
Usare le AI per studiare però non vuol dire necessariamente imbrogliare e cercare scorciatoie per studiare di meno. Una studente di un liceo delle scienze umane di Milano ha raccontato per esempio di usare spesso la modalità di interazione vocale di ChatGPT per fare conversazione in inglese e per preparare le interrogazioni. «Per qualcuno è uno strumento di supporto allo studio, utile per imparare; qualcun altro lo usa per fargli fare i compiti e per compensare il fatto che non studia», dice la studente di Milano.
Lo stesso discorso non vale per le materie scientifiche come chimica, matematica e fisica, in cui ChatGPT dà spesso delle risposte sbagliate: anche se può sembrare controintuitivo, modelli come ChatGPT infatti non fanno bene i calcoli, perché non ragionano in modo logico e matematico, ma generano le loro risposte secondo dei criteri probabilistici. In questi casi, per gli esercizi algebrici alcuni studenti si affidano ad altri software (alcuni in realtà disponibili già da tempo), come ad esempio Photomath: un’app che fa automaticamente gli esercizi di matematica a partire dalla foto di una funzione scritta sul quaderno o sulla lavagna.
In questo contesto, il modo in cui gli insegnanti assegnano e valutano i compiti a casa è inevitabilmente cambiato. Da quando si sono accorti che gli studenti usano ChatGPT, molti professori hanno deciso di smettere di valutare i compiti o di controllare se vengono fatti. Degli insegnanti raccontano di essersi accorti che alcuni studenti usavano il chatbot dal fatto che i loro scritti erano diventati poco originali e assai carenti dal punto di vista del pensiero critico. Una professoressa di un liceo di Milano racconta di essersene accorta quando, durante la correzione di un tema, ha trovato alcune citazioni di dialoghi dei Promessi Sposi di Manzoni completamente inventate (lo studente alla fine ha ammesso di avere utilizzato ChatGPT).
Molto, comunque, dipende dai metodi di insegnamento, di verifica e di valutazione, oltre che dal tipo di rapporto che gli insegnanti riescono a costruire con gli studenti. Alcuni professori raccontano di usare un metodo didattico che non prevede compiti a casa obbligatori: in questo caso le indicazioni di studio e gli esercizi assegnati servono soltanto per aiutare gli studenti a prepararsi per l’interrogazione, in cui ChatGPT è molto difficile se non impossibile da usare.
Non è semplice instaurare un dialogo tra alunni e docenti sull’uso delle AI, anche perché, a volte, la possibilità di prendere dei voti più alti dipende dal fatto che gli insegnanti non sappiano come funzionano queste tecnologie. I professori, infatti, stanno iniziando a prendere confidenza con lo strumento soltanto ultimamente. Secondo il racconto di una docente di filosofia di un liceo di Milano, quando in una delle sue classi ha provato a farsi raccontare di ChatGPT gli studenti sono diventati sospettosi, restii a parlare del modo in cui lo usavano.

Immagine creata con Poe®

Quest’anno il ministero dell’Istruzione ha reso obbligatorie per gli insegnanti 20 ore di formazione annuali, e in alcune scuole sono stati fatti dei corsi sulle intelligenze artificiali, in particolare su ChatGPT e su come usarlo come strumento di supporto alla didattica. Oltre che a capire l’uso che ne fanno gli studenti, per i professori può anche essere utile imparare a usarlo a loro volta: il chatbot può essere usato per preparare i compiti in classe, ad esempio per generare quiz e domande, oppure per organizzare e preparare le lezioni. Non tutti i docenti però hanno seguito un corso sull’AI, e anche per questo motivo ogni insegnante ha una percezione diversa dell’impatto di queste tecnologie e della diffusione di ChatGPT tra gli studenti.
Inoltre, in base ai pareri e ai racconti di alcuni docenti sentiti dal Post, ogni professore ha una sua idea su quali siano i vantaggi e gli svantaggi portati da questo cambiamento e su come andrebbe gestito. Alcuni, per esempio, si preoccupano soprattutto della possibilità che gli studenti usino ChatGPT per copiare e per aggirare lo studio, e vedono la soluzione nell’uso di software antiplagio, che in teoria permettono di scoprire quando un testo è stato scritto da un’intelligenza artificiale oppure no.
Questo approccio però presenta dei limiti. Le tecnologie su cui si basano i chatbot in grado di generare testi continuano a evolvere molto rapidamente, lasciando gli strumenti antiplagio sempre un passo indietro. Con un po’ di accorgimenti è semplice aggirarli, passando lo stesso testo per diversi chatbot e programmi di rielaborazione del testo o aggiungendo delle modifiche manuali. In più, i software antiplagio stimano la probabilità che un testo sia stato scritto con un’AI, senza dare risposte certe e con il rischio di generare dei falsi positivi, cioè di segnalare come generati dalle AI testi in realtà scritti da persone.
Altri docenti pensano che il modo migliore per evitare che gli studenti copino con ChatGPT sia quello di integrarlo nella didattica, per insegnare a usarlo in modo consapevole, come uno strumento per imparare e per assistere lo studio. «Sarebbe sciocco non utilizzarlo e non tenere in conto che gli studenti, almeno a casa, lo usano in ogni caso», dice una docente di italiano e storia di un liceo di Vimercate, in provincia di Monza.
In base ai racconti dei docenti, sono stati già pensati molti modi, anche piuttosto creativi, per usare ChatGPT durante le lezioni: la professoressa che insegna filosofia in un liceo di Milano ha raccontato di aver provato a usare il chatbot in classe per simulare una conversazione con Platone, con dei buoni risultati; mentre una docente di italiano e storia che lavora in un istituto tecnico-commerciale in provincia di Bologna ha raccontato di aver istruito i suoi studenti a usarlo per fare delle parafrasi dei testi letterari e per impostare le scalette dei temi. In alcuni libri di testo sono già stati inseriti degli esercizi che danno istruzioni agli studenti per generare un testo con un’AI e successivamente commentarlo.”

Ma esiste la radicalizzazione algoritmica?

Immagine creata con ChatGPT®

Alberto Acerbi è ricercatore nel Dipartimento di sociologia e ricerca sociale dell’Università di Trento. Si interessa di evoluzione culturale e antropologia cognitiva. Ha recentemente pubblicato per Einaudi il libro Tecnopanico. Media digitali, tra ragionevoli cautele e paure ingiustificate. Si tratta di un libro che vuol mostrare “come possiamo affrontare con intelligenza e consapevolezza le sfide dell’era digitale. Una guida indispensabile per orientarsi tra preoccupazioni giustificate e allarmismi infondati, e affrontare in modo critico e consapevole l’era digitale”. Il 13 marzo ha pubblicato per Il Mulino un articolo molto interessante dal titolo “Rabbit holes are for rabbits. Quante sono le paure collettive legate alle recenti tecnologie di comunicazione digitale?”. Eccolo:

“All’inizio di Alice nel paese delle meraviglie, la protagonista, annoiata, vede un coniglio bianco «con occhi di rubino» che le passa accanto. Non solo: il coniglio parla tra sé e sé lamentandosi di essere in ritardo, ed estrae un orologio dal suo panciotto per controllare l’ora. Alice, incuriosita, lo segue lanciandosi nella buca della conigliera e così iniziano le sue surreali avventure. La «tana del bianconiglio» è divenuta la metafora di un processo in cui, partendo da credenze ordinarie, si diventa via via sempre più coinvolti in credenze meno ordinarie, persi in situazioni che si allontanano sempre di più dalla realtà.
Immaginate di essere su YouTube e di voler cercare, per curiosità, un video di un comizio di Donald Trump; o di essere un giovane adolescente (maschio) in cerca di consigli di vita. Questi sono classici punti di partenza, riportati dai media, di «rabbit holes» generati dagli algoritmi dei social media. I video che YouTube vi proporrà diventeranno, lentamente ma costantemente, più estremi. Passerete da Trump all’estrema destra e poi a «Potere bianco» e alla negazione dell’Olocausto. I consigli di vita per giovani maschi vi porteranno a video che suggeriscono che la civiltà occidentale è minacciata dagli immigrati musulmani e dai «marxisti culturali», che le differenze innate di Qi spiegano totalmente le disparità razziali e che il femminismo è un’ideologia pericolosa. Alcuni di voi finiranno per crederci.
L’idea di «radicalizzazione algoritmica» ha avuto un successo considerevole: il meccanismo è intuitivamente plausibile e ci permette di dare senso a circostanze spiacevoli. Basterebbe che i social media non proponessero questi contenuti così facilmente ed eviteremmo la diffusione di queste credenze. Purtroppo, quando si è provato a valutare questa ipotesi i risultati non sono stati incoraggianti. Varie ricerche mostrano che l’algoritmo di YouTube, almeno negli ultimi anni, non sembra proporre video dai contenuti politici più estremi di quelli che gli utenti guardano. La maggior parte dei suggerimenti punta ai canali dei media tradizionali, che sono quelli che hanno già più audience. Come nel caso delle news, la stragrande maggioranza delle interazioni con siti di informazione online riguarda media tradizionali e l’algoritmo di YouTube semplicemente rinforza questa tendenza.
I canali estremisti hanno, nella maggior parte dei casi, un successo limitato. Quando sentiamo nei media di un canale o di un video «alternativo» che ha avuto molto successo è appunto perché si tratta di un caso raro. Un aspetto interessante è, inoltre, che le visualizzazioni dei video dei canali estremisti o «alternativi» provengono generalmente da utenti che sono già iscritti a quei canali o a canali simili, al contrario di quello che avviene per i canali dei media tradizionali che riescono meglio a catturare nuovi utenti. Non sorprendentemente, le raccomandazioni algoritmiche si allineano agli orientamenti politici degli utenti. Se, di vostra iniziativa, guardate video con tendenze politiche di estrema destra (o di estrema sinistra), YouTube continuerà a proporvi video di quel genere ma senza che diventino necessariamente più estremi. Partendo da video con tendenze politiche di estrema destra, per esempio, vi potrà capitare che vi vengano proposti anche video dai contenuti problematici discussi sopra (antisemitismo, razzismo e simili), ma, come detto, è perché da lì siete partiti.
Uno studio recente, ideato da Homa Hosseinmardi e colleghi, e pubblicato nei Proceedings of the National Academy of Sciences degli Stati Uniti, ha tentato di esaminare la questione della radicalizzazione algoritmica e in particolare della causalità sottostante – sono le nostre scelte o sono le raccomandazioni dell’algoritmo? – con una metodologia ingegnosa. I ricercatori hanno creato quelli che chiamano dei «bot controfattuali». Nelle scienze sociali, un’analisi controfattuale esplora cosa sarebbe potuto accadere se certe condizioni fossero state diverse rispetto a quelle effettivamente esistenti. Cosa sarebbe successo se Hitler avesse vinto la Seconda guerra mondiale? Cosa sarebbe successo se i governi avessero adottato politiche energetiche sostenibili vent’anni fa? Più in piccolo, immaginate che qualcuno crei un finto utente YouTube che ha la vostra stessa cronologia di visualizzazioni fino a oggi. Questo è il vostro bot controfattuale. Da domani, il vostro bot seguirà ciecamente le raccomandazioni dell’algoritmo, mentre voi continuerete la vostra attività consueta. In questo modo sarà possibile confrontare cosa sarebbe successo (ecco il controfattuale) se un utente con la storia come la vostra avesse seguito le raccomandazioni algoritmiche (il bot) oppure non necessariamente (voi). Se è l’algoritmo di YouTube a spingere gli utenti verso contenuti estremi ci dovremmo aspettare che il bot visualizzi video più estremi di voi. I risultati mostrano che quello che avviene è esattamente il contrario. Non solo i video proposti ai bot controfattuali non sono più estremi, ma quelli proposti ai bot degli utenti con precedenti visualizzazioni di contenuti più estremi, o faziosi, diventano in breve tempo politicamente moderati. Ancora una volta, quindi, le nostre scelte contano – sembra strano a dirsi, ma molto spesso, quando pensiamo ad algoritmi e social media, tendiamo a dimenticarlo.
Altre ricerche rinforzano, da una prospettiva leggermente differente, la stessa congettura. Contro l’idea che sarebbero soprattutto le caratteristiche dei social media a renderci faziosi e polarizzati, queste ricerche mostrano che gli utenti che danno inizio, o partecipano, a discussioni ostili online sono gli stessi che rimangono coinvolti in discussioni ostili faccia a faccia. Sono spesso individui definiti in questi studi con un’alta propensione allo «status-driven risk taking», ossia motivati dal desiderio di essere percepiti come leader o persone di successo, e con l’attitudine a prendere decisioni rischiose al fine di migliorare la loro posizione sociale o ottenere riconoscimento e prestigio all’interno di un gruppo, anche utilizzando intimidazione nel tentativo di dominare gli altri.
La diffusione delle tecnologie di comunicazione digitali e online ha conosciuto un’accelerazione incredibile. Social media, algoritmi, smartphone possono potenzialmente cambiare il modo in cui le informazioni circolano, chi ne trae vantaggio, quali contenuti vengono favoriti e quali penalizzati: non c’è bisogno che vi convinca di questo. Le conseguenze sull’economia, sulla società e sulla nostra vita quotidiana sono molteplici e si palesano di fronte a noi in un processo che continua giorno dopo giorno. Eppure, o proprio per questo, è importante considerare questi cambiamenti all’interno di una “lunga prospettiva”: una lunga prospettiva storica (quali lezioni possiamo trarre dalle reazioni a comparabili tecnologie nel passato?) che tiene in considerazione come alcune caratteristiche generali della cognizione umana e dell’evoluzione culturale interagiscono con questo processo. La diffusione delle tecnologie di comunicazione digitale è un processo dinamico, dove le tecnologie creano nuove abitudini e, nello stesso tempo, vengono modificate e adattate alle nostre esigenze: capire e accettare questo processo è il modo migliore per affrontare i rischi connessi e sfruttarne le potenzialità.
Individui che ingaggiano in discussione e comportamenti ostili esistono dentro e fuori i social media, come quelli che subiscono l’appeal di «Potere bianco». Per quanto confortante e autoassolutoria possa essere, l’idea che ciò sia dovuto a specifiche caratteristiche degli algoritmi dei social media che frequentiamo non sembra essere molto plausibile. Soprattutto, come per altre ipotesi che vedono nelle tecnologie digitali le cause di problemi sociali, quelli sì, sicuramente reali, il rischio è, ancora una volta, di trovare un comodo capro espiatorio e di non occuparci di altre, più profonde, cause sociali, culturali, ed economiche.”

Qualche considerazione su Byung-Chul Han

Prendo ancora un articolo dal Post. Questa volta si tratta di un pezzo sul filosofo Byung-Chul Han (di cui ho molto apprezzato Infocrazia), di cui si evidenziano punti di forza e di debolezza.

“Byung-Chul Han è un filosofo sessantacinquenne tedesco di origine sudcoreana, autore di oltre venti saggi di successo e da qualche anno oggetto di estese attenzioni sui social. Le sue idee, in parte basate sulle teorie di grandi autori del XIX e XX secolo, sono discusse su piattaforme come TikTok e YouTube da studenti e appassionati di media e di filosofia, ma anche da giovani professionisti, booktoker e gruppi di lettura. Scritti a cominciare dal 2010, i suoi libri sono tradotti in Italia (editi da Nottetempo e da Einaudi), in Spagna, in America Latina, negli Stati Uniti e in altri paesi del mondo.
In un recente articolo in cui descrive l’importanza del passaparola tra i giovani per il successo di Han, il New Yorker lo ha definito «il nuovo filosofo preferito di Internet». E ha notato il paradosso per cui i social sono allo stesso tempo un argomento di molte riflessioni critiche di Han e una delle ragioni del suo successo, motivato almeno in parte anche dalla brevità e chiarezza dei suoi scritti e dal fatto che sia una persona piuttosto restia ad apparire in pubblico.
«Con Byung-Chul Han è stata questa accoglienza dal basso a stimolare la domanda», ha detto al New Yorker John Thompson, direttore di Polity, un editore indipendente inglese che dal 2017 ha pubblicato 14 libri di Han. E non è un modo tanto convenzionale di ricevere attenzioni e recensioni, per libri di questo genere, ha aggiunto. Secondo il quotidiano El País uno dei primi e più grandi successi di Han, il libro del 2010 La società della stanchezza, ha venduto oltre 100mila copie in America Latina, Corea del Sud, Spagna e Italia, dove nello specifico ne ha vendute 15mila.
Han, nato in Corea del Sud nel 1959, vive e lavora fin dagli anni Ottanta in Germania. Arrivò in Europa quando aveva 22 anni e qualche conoscenza in metallurgia, la materia che aveva studiato a Seul. Dopo aver frequentato l’Università di Basilea, in Svizzera, ed essersi laureato nel 1994 con una tesi sul concetto di “stato d’animo” (Stimmung) del filosofo tedesco Martin Heidegger, ha quindi insegnato filosofia alla Universität der Künste di Berlino. Le sue principali aree di interesse sono la fenomenologia, l’etica, l’estetica, la religione e le teorie dei media.
L’attualità degli argomenti trattati da Han e la sua lettura della contemporaneità – una critica degli effetti politici, psicosociali e tecnologici del neoliberismo sulle società moderne – lo hanno reso un autore molto popolare e citato anche tra persone che non hanno particolare familiarità con i libri di filosofia. I suoi sono quasi tutti saggi monografici, lunghi un centinaio di pagine e scritti in uno stile divulgativo e lapidario, in cui il discorso ruota intorno a due o tre concetti fondamentali. A ottobre, descrivendosi come una persona pigra in un’intervista con El País, Han disse che di solito scrive tre frasi al giorno.

Il suo libro più recente, La crisi della narrazione, uscito a febbraio, riprende e amplia alcune nozioni da lui trattate in libri precedenti. Parla del declino della narrazione come attività di condivisione e fonte di senso e coesione all’interno delle comunità, e del parallelo successo dello «storyselling», descritta come una pratica fine a sé stessa, basata su una trascrizione priva di profondità di ogni cosa che le persone hanno da offrire e da vendere attraverso le storie (intese come formato sui social).
Molti libri di Han, in particolare La società della trasparenza, si concentrano sulla spinta collettiva alla divulgazione volontaria indotta dalle forze del mercato neoliberista, che trasformano in norma culturale l’autopromozione e la «pornografica esibizione di sé stessi». Ogni saggio esplora aspetti diversi di questo stato di frenesia guidato dalla tecnologia del tardo capitalismo, e il disagio che tende a provocare: dal burnout da «sovrapproduzione» e «concorrenza a sé stessi», all’algofobia, un’avversione ossessiva per il dolore che nega anche ogni suo valore etico, artistico e metafisico.
Nel libro Psicopolitica Han attribuisce la stabilità del sistema neoliberale a una situazione paradossale in cui, in assenza di una lotta tra classi antagoniste in senso stretto, è la libertà – o meglio: una forma di libertà «illusoria» – a generare costrizioni. Sentendosi libero da obblighi esterni, l’individuo immagina sé stesso come un «progetto» e si sottomette a obblighi interiori che derivano dalla libertà di potere (Können) e producono più vincoli del dovere disciplinare (Sollen), fino a sfociare in una sistema di costrizioni illimitato.
Il neoliberalismo, come mutazione del capitalismo, fa del lavoratore un imprenditore. Non la rivoluzione comunista, bensì il neoliberalismo elimina la classe operaia che è sfruttata da altri. Oggi, ciascuno è un lavoratore che sfrutta se stesso per la propria impresa. Ognuno è padrone e servo in un’unica persona. Anche la lotta di classe si trasforma in una lotta interiore con se stessi.
Anche il declino della narrazione, secondo Han, è espressione di una profonda crisi della libertà. Nel libro La crisi della narrazione categorie e nozioni di filosofi e scrittori come Walter Benjamin, Jean-Paul Sartre e Marcel Proust sono applicate all’analisi delle dinamiche sociali favorite da piattaforme come Netflix, Snapchat e Instagram. «Postare, mettere like e condividere, proprio perché sono pratiche consumistiche, non fanno altro che intensificare la crisi dell’esperienza narrativa», scrive Han, proponendo una distinzione tra informazione e racconto.
L’informazione è effimera, accidentale, e procede per addizione e accumulo. Intensifica quindi l’esperienza della contingenza, che il racconto invece attenua nella misura in cui conferisce significato a ciò che è accidentale, rendendolo necessario. Il bisogno di senso e identità è peraltro, secondo Han, la ragione dell’attuale successo di modelli narrativi populisti, nazionalisti, tribali e complottistici, che si presentano come offerte di orientamento a buon mercato a fronte dello smarrimento provocato dall’informazione dilagante e ininterrotta.
Diversa dall’informazione è anche la notizia, che secondo Han ha sempre una «vibrazione narrativa» perché è portatrice di una storia e presenta una struttura spazio-temporale completamente diversa rispetto a un’informazione. Ha significato perché rimanda a qualcos’altro – viene «da lontano» – e trova nella lontananza il suo tratto distintivo, contrapposto al tratto invece tipico della modernità: «la perdita di qualunque intervallo di separazione», la condivisione e l’accumulo di informazioni «a portata di mano».
Intrecciandosi con il neoliberismo si afferma un regime dell’informazione, il quale non opera in modo repressivo ma seduttivo. Esso […] pretende da noi che comunichiamo senza sosta le nostre opinioni, i nostri bisogni e le nostre preferenze. Ci chiede di raccontare le nostre vite, di postare, condividere, mettere like. La libertà in questo caso non viene repressa ma interamente sfruttata. Si ribalta in controllo e manipolazione. Il dominio […] è altamente efficiente, dato che non ha bisogno di apparire come tale. Si nasconde nell’apparenza della libertà e della comunicazione.
La conversione costante del vissuto in informazioni e dati immediatamente accessibili, aggiunge Han, è incompatibile con la felicità perché «la felicità non è un evento puntuale», ma si estende nel passato e filtra attraverso la memoria umana, che è selettiva. «Chi vuole raccontare sé stesso o ricordarsi qualcosa, deve poter dimenticare o tralasciare molto», perché «nessun racconto è trasparente»: solo le informazioni e i dati lo sono.
Una delle principali ragioni della popolarità di Han è la facilità con cui, attraverso citazioni di importanti autori della tradizione filosofica occidentale ma anche continui riferimenti alla contemporaneità, consente di immedesimarsi nell’umanità che descrive. Han sembra parlare in particolare alle persone giovani dell’esperienza di crescere sui social media, ha scritto il New Yorker, e della mancanza di controllo che molte di loro provano nel rapporto che hanno con Internet. Nel mondo accademico le reazioni sono invece contrastanti: da un lato Han è molto apprezzato per la sua capacità analitica e di sintesi, dall’altro è criticato per alcuni suoi giudizi perentori, privi di sfumature e vagamente tecnofobici.

Nel libro Le non cose, per esempio, Han descrive la reperibilità costante come una «servitù» e lo smartphone come «un campo di lavoro mobile in cui noi c’imprigioniamo di nostra sponte», limitando la nostra esperienza del mondo e della realtà. Nell’intervista con El País disse che «il capitale usa la libertà individuale per riprodursi» e ciò rende le persone «gli organi sessuali del capitale». Ma per quanto suggestive e per molti aspetti appropriate alcune sue letture della contemporaneità tendono a rafforzare posizioni esistenti in discussioni molto polarizzate, e assecondano un certo desiderio generale di ridurre quella sulla tecnologia a una questione di tecnologia buona o cattiva.
La bidimensionalità delle sue analisi e la tendenza a occuparsi di un solo lato delle questioni sono peraltro la ragione per cui Han funziona molto proprio sui social, «all’interno della valanga di non cose», ha scritto il New Yorker. Quando descrive la pubblicazione sui social media come «autopromozione pornografica», per esempio, non aggiunge che gli spazi digitali possono anche produrre esperienze significative. E non coglie il paradosso dei social media di «promuovere forme di espressione sia di sfruttamento che di emancipazione», e di consentire «la costruzione e la proiezione di un’identità personale, con una libertà che non è mai stata possibile nella gerarchia top down dei media tradizionali».”

Tra intelligenza e giustizia artificiale

Margherita Ramajoli sulla rivista Il Mulino scrive un pezzo sul rapporto tra Intelligenza Artificiale e mondo della giustizia dal titolo Siamo pronti per una giustizia artificiale? E’ del 25 marzo.

“Disciplinare una tecnologia inafferrabile e in costante evoluzione come l’intelligenza artificiale non è un’impresa facile. Ciò spiega perché il Regolamento sull’intelligenza artificiale (AI Act), approvato la scorsa settimana dal Parlamento europeo – manca solo il passaggio formale da parte del Consiglio –, ha avuto una gestazione lunga oltre tre anni ed entrerà in vigore gradualmente, tra la fine del 2024 e il 2026. La normativa, inevitabilmente complessa, segue un approccio fondato sul rischio e regola l’intelligenza artificiale sulla base della sua attitudine a causare danni alla società, modulando gli obblighi introdotti in base al diverso grado di pericolo di lesione per i diritti fondamentali: più alto è il rischio paventato, maggiori sono gli oneri e le responsabilità dei fornitori, distributori e operatori dei sistemi di IA.
Il Regolamento è conscio del fatto che l’applicazione dei sistemi di IA nello specifico campo della giustizia produce benefici, ma altrettanti problemi. L’AI Act parla di risultati vantaggiosi sul piano sociale che la giustizia digitale porta con sé. Più nello specifico, l’uso dell’IA nel campo della giustizia consente il raggiungimento degli obiettivi propri della giustizia standardizzata: l’efficienza, perché l’IA può essere impiegata in massa a scale e velocità di gran lunga superiori a quelle raggiungibili da qualsiasi essere umano o collegio di esseri umani nelle attività di archiviazione, indagine e analisi delle informazioni giudiziarie; l’uniformità, perché per definizione l’IA elimina spazi di creatività e fornisce risposte prevedibili.
Tuttavia, l’affidarsi a sistemi di IA nel processo decisionale presenta anche punti di debolezza e pone due problemi: il problema della scatola nera e il problema del pregiudizio dell’automazione. Si parla di scatola nera perché esiste una tensione intrinseca tra il dovere del giudice di motivare le proprie decisioni e la limitata «spiegabilità» di alcuni sistemi di IA. Il procedimento trasformativo degli input in output può risultare opaco al punto tale che gli esseri umani, compresi pure quelli che hanno ideato e progettato il sistema, non sono in grado di capire quali variabili abbiano esattamente condizionato e determinato il risultato finale. Questa opacità limita, se addirittura non impedisce, la capacità del giudice che si serve del sistema di IA di giustificare le decisioni assunte sulla scorta del sistema.
Il pregiudizio dell’automazione allude invece al fenomeno generale per cui gli esseri umani sono propensi ad attribuire una certa autorità intrinseca ai risultati suggeriti dai sistemi di IA e nella nostra quotidianità abbondano esempi di questo sottile condizionamento. Di conseguenza, l’applicazione dei sistemi IA nel campo della giustizia può soffocare l’aggiornamento valoriale, visto che i sistemi di IA imparano dal passato e tendono a riprodurre il passato. Se nel futuro un giudice facesse affidamento, sia pure inconsciamente, solo sui sistemi di IA, il cosiddetto effet moutonnier [una naturale tendenza a conformarsi alla maggioranza, ndr] spingerebbe i giudici verso un non desiderabile conformismo giudiziario, sordo alle trasformazioni sociali ed economiche.
Se queste sono le questioni poste dalla giustizia artificiale, le soluzioni offerte dal diritto risultano significative, anche se non sempre facili da applicare. I sistemi di IA destinati all’amministrazione della giustizia, tranne quelli impiegati per attività puramente strumentali (l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, le comunicazioni tra il personale e così via), sono reputati ad alto rischio e come tali sono sottoposti a rilevanti limiti e obblighi. Secondo il Regolamento «il processo decisionale finale deve rimanere un’attività a guida umana» e quindi l’IA può fornire sostegno ma mai sostituire il giudice. Questa riserva d’umanità, ora solennemente proclamata dal legislatore europeo, sottende la consapevolezza che l’attività giudiziaria ha una sua unicità, non è formalizzabile a priori e non è riproducibile artificiosamente. Per giudicare non sono sufficienti solo conoscenze giuridiche, perché il ragionamento giudiziario richiede una varietà di tecniche cognitive, l’apprezzamento dei fatti complessi e sempre diversi, l’impiego dell’induzione e dell’analogia, l’impegno nell’argomentazione, l’uso di ragionevolezza e proporzionalità.
Tuttavia, nel passaggio dal piano astratto proclamatorio al concreto piano applicativo riemergono alcune questioni irrisolte. Anzitutto, non è immediato individuare né quale soggetto istituzionale sia legittimato a controllare il rispetto della riserva d’umano nelle decisioni giudiziarie, né quali strumenti efficaci possano essere impiegati a tal fine. In secondo luogo, non può dirsi superato il rischio del pregiudizio dell’automazione, perché l’effetto gregge potrebbe spingere il giudice ad aderire al risultato algoritmico e a non assumersi la responsabilità di discostarsene anche quando tale risultato non risulti cucito su misura sulle specificità della lite in esame. Ancora, per quanto l’AI Act abbia introdotto specifici obblighi per i fornitori di IA e in particolare l’obbligo di procurare ai giudici e alle autorità di vigilanza le «istruzioni per l’uso», comprensive delle specifiche «per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova», queste fondamentali informazioni vanno condivise solo «ove opportuno». In altri termini, il Regolamento rende non necessaria, ma discrezionale la resa di informazioni proprio di quei dati di input che determinano in modo significativo gli output con cui i giudici dovranno fare i conti. Torna così anche il problema della scatola nera, quella tensione intrinseca tra il dovere del giudice di motivare le proprie decisioni e la limitata comprensibilità e, di conseguenza, spiegabilità di alcuni sistemi di IA.
In ultima analisi, i detentori della tecnologia – sviluppatori di sistemi di IA – si ergono a veri e propri poteri privati, rispetto ai quali l’ordinamento giuridico, ma ancora prima la politica, devono ancora ingegnarsi a trovare efficaci contrappesi.
Anche se non possiamo realisticamente ritornare a un mondo senza intelligenza artificiale, sia in generale, sia in campo giudiziario, le questioni da affrontare sono ancora tante e il diritto è solo uno dei tanti strumenti per cercare di risolverle.”

I monaci e TikTok

Fonte immagine

Un interessante articolo de Il Post, pubblicato l’11 marzo.

“Tra gli oltre 7 milioni di utenti di TikTok in Cambogia c’è una piccola nicchia, quella dei monaci buddisti, che lo usano perlopiù per diffondere i principi del buddismo theravada, la scuola più antica e prevalente nel paese. Il problema è che il codice monastico ha regole molto rigide, pensate per evitare che i monaci attirino l’attenzione su di sé: una cosa che contrasta nettamente con il modo in cui funziona TikTok e con il senso stesso dei social network.
Per questi motivi, come ha raccontato il sito di news internazionali Rest of World, di recente fra i religiosi è nato un dibattito che riguarda proprio l’utilizzo di TikTok: c’è chi lo ritiene un canale utile per coinvolgere più fedeli, e chi invece lo reputa uno strumento controverso e da usare con grande cautela, se non da evitare.
Tra i monaci buddisti cambogiani che hanno un account su TikTok ci sono Bo Pisey e Hak Sienghai: entrambi vivono in un monastero a Battambang, nel nord-ovest del paese, e hanno rispettivamente più di 132mila e 550mila follower. Nella gran parte dei casi sia loro sia gli altri monaci postano foto di momenti di preghiera o video in cui parlano degli insegnamenti del Buddha e del percorso che i buddisti dovrebbero seguire per metterli in atto (Dharma). Ogni tanto però condividono anche video che vanno al di là della religione, per esempio quelli in cui incontrano i turisti o in cui si riprendono assieme agli animali.
In certi casi poi gli account TikTok dei monaci, soprattutto quelli dei novizi, sono molto simili a quelli delle altre persone adolescenti: ci sono selfie, video spiritosi e foto che in qualche caso sembrano voler attirare attenzioni non esattamente religiose, per esempio mostrando i monaci a petto nudo.
In Cambogia più di un terzo della popolazione usa TikTok. Da tempo i monaci usavano social network come Facebook e YouTube per diffondere i loro insegnamenti e condividere video in cui parlavano di temi vari. Con TikTok, che si basa prevalentemente sui contenuti che sono di moda e diventano facilmente virali, la loro posizione però è un po’ più scomoda. Le violazioni del codice monastico adottato dai monaci buddisti nel Sud-est asiatico infatti possono comportare punizioni che vanno dai blandi richiami fino all’espulsione dall’ordine.
I principi del buddismo theravada prevedono tra le altre cose che i monaci non possano fare sesso, non debbano uccidere né rubare; anche i novizi sono poi tenuti a seguire altri precetti, tra cui non danzare, non cantare e in generale mantenere un comportamento estremamente sobrio e rispettoso. Come ha spiegato a Rest of World Yon Seng Yeath, vice rettore di un’università buddista di Phnom Penh, la capitale del paese, almeno la metà di queste regole è pensata per fare in modo che i monaci non attirino l’attenzione su di sé: un principio che sembra essere molto difficile da rispettare su un social network in cui è facile raggiungere rapidamente un pubblico molto ampio, al di là delle intenzioni del singolo.
Bo Pisey sostiene di voler solo diffondere il Dharma e di non voler ricavare nient’altro dal suo profilo di TikTok, che ritiene un buono strumento per interagire con le persone, se usato bene. Hak Sienghai dice che è naturale utilizzare TikTok, in un mondo in cui la tecnologia ha rivoluzionato il modo di comunicare con le persone: sostiene di volersi avvicinare ai follower ma non troppo, e spiega di voler essere un esempio per giovani monaci che potrebbero non usare i social nella maniera più opportuna.
Altri monaci sostengono invece che mettersi in mostra su TikTok sia contrario ai valori buddisti, e che soprattutto i novizi non dovrebbero usarlo per non distrarsi dallo studio degli insegnamenti. C’è poi chi propone di introdurre un codice di condotta, come il monaco San Pisith, che al momento studia in Estonia: San Pisith non si dice in favore di un divieto totale, ma per esempio suggerisce che i contenuti condivisi siano esclusivamente didattici.
Seng Yeath fa anche parte dell’autorità regionale dei monaci, che ha il compito di vigilare sul loro comportamento in 4 delle 25 province della Cambogia e stabilire eventuali punizioni in caso di infrazioni. Finora non ci sono state grosse punizioni contro i monaci che condividevano contenuti su TikTok, ha spiegato: sono state osservate solo piccole violazioni, come aver cantato o ballato, che di norma sono state punite solo con l’obbligo di chiedere scusa al tempio. Alcuni gesti, conclude, sono considerati comunque meno gravi se fatti dai giovani.”

Gemma n° 1834

Un video dei Jamiroquai di fine anni ‘90 è stato al centro della gemma di S. (classe prima). “Virtual Insanity parla di una band che vive in una società dove gli umani vivono sotto terra e non hanno rapporti con le altre persone. Ciò impedisce loro di migliorare l’esistenza umana, propria e altrui, attraverso piccoli gesti che sottolineano i diritti del prossimo e i doveri propri”.

A commento della gemma questa volta non metto qualcosa di mio, ma un approfondimento che ho trovato su Louder.
“La vittoria di Jay Kai è totale. Virtual Insanity rappresenta uno dei rari casi in cui un artista raggiunge il successo senza sacrificare parte della sua indole all’altare delle radio, ma confezionando un brano talmente forte da abbattere qualsiasi supposta barriera. Teoricamente il singolo non presenta le caratteristiche per competere con il pop delle Spice Girls o con il rap accattivante dei Fugees. A livello sonoro non gioca nel campionato rock di Blur e Oasis, e non punta nemmeno sull’attitudine rivoluzionaria di band come Prodigy e Underworld. Virtual Insanity è un pezzo funk inaugurato dal pianoforte che dipinge una progressione armonica simile a quella di classici soul, jazz e disco, presto affiancato da una batteria dallo swing spinto. Il basso entra in scena solo dopo cinquanta interminabili secondi, insieme all’orchestra che arricchisce il ritornello. Da qui in poi ogni strumento tocca le note che vuole, lasciando grande spazio a un’improvvisazione che obiettivamente è uno schiaffo alla semplicità. È facile farsi trascinare dalla sognante melodia intonata da Jay, ma se mai doveste scegliere questo pezzo al karaoke vi accorgereste di quanto sia arduo stare dietro a quella linea vocale che disegna evoluzioni tutt’altro che banali.
Ma c’è di più: oltre a melodia e arrangiamento, anche le parole di Virtual Insanity hanno ben poco a che fare con i tipici testi da top 10. “Lasciate che vi racconti qualcosa del mondo in cui viviamo oggi”, esordisce Jason prima di snocciolare una serie di disgrazie a sfondo ecologico. “È un miracolo che l’uomo riesca ancora a mangiare” è un probabile riferimento al morbo della mucca pazza, visto che proprio in quel periodo si scopre che gli esseri umani possono contrarre la malattia. Ma forse anche all’allevamento intensivo: “Le cose grandi che dovrebbero essere piccole” sembra un ammiccamento agli ormoni della crescita somministrati agli animali. La frasi “Adesso ogni madre può scegliere il colore del proprio figlio” e “È assurdo sintetizzare un altro ceppo” si riferiscono invece alla sconvolgente prospettiva della manipolazione genetica, argomento che di lì a qualche mese s’impadronirà delle prime pagine dei giornali grazie alla clonazione della pecora Dolly. Jay Kai è convinto che il nostro egoismo renderà impossibile un’inversione di rotta (“And nothing’s gonna change the way we live / ‘Cause we can always take but never give”). Altro che realtà virtuale; il nostro attaccamento alla tecnologia ha generato quella che lui definisce una follia virtuale (“And now it’s virtual insanity / Forget your virtual reality”).[…] Quando Jason scrive Virtual Insanity, internet è ancora in fasce. I social network sono un miraggio, così come gli smartphone. Eppure, a giudicare dalla dilagante assuefazione a dispositivi sempre più potenti nati per connettere e finiti per diventare spesso un’inquietante causa di solitudine, sembra proprio che la sconfortante profezia di Jay si sia avverata”.

Mondi altri

E’ ora di iniziare a scriverne… Intanto ripubblicherò articoli di persone esperte per cominciare a farsene un’idea, anche se non è così facile a proposito di qualcosa che deve ancora venire. Fa parte di quelle cose che per essere ben comprese hanno forse bisogno di essere vissute. Mi sto riferendo al metaverso. Non mi metto qui a scrivere cosa sia, lo accenna già Luca Di Bartolomei in questo articolo apparso su Il Mulino.

“Partiamo dalla fine: giovedì 21 ottobre per gioco decido di scommettere 50 dollari su Dwac, il veicolo societario nel quale Donald Trump sta convogliando gli sforzi per far nascere «Truth», la sua piattaforma online. Il 45esimo presidente degli Stati Uniti d’America, infatti, dopo aver subito il ban da parte dei principali social network ha deciso di costruirsene uno tutto suo, per propagandare idee politiche e pubblicizzare interessi economici. Se aveste investito 10 dollari insieme a me oggi ve ne trovereste oltre 80 sul conto. Se aveste deciso di vendere al loro massimo avreste più che decuplicato il vostro investimento.
Questo piccolo aneddoto ci racconta due cose. La prima è che diversamente dal passato (quando pure le banche gli hanno prestato soldi) questa volta il biondo tycoon viene reputato credibile dalla comunità finanziaria americana, che investe in una sua intrapresa economica. Il perché è presto detto: il largo, larghissimo consenso di cui gode e che ne fa probabilmente l’unico leader «repubblicano» (ammesso che abbia ancora senso definirlo così) oggi sulla scena. La seconda è che i suoi strateghi hanno capito (e dimostrato) che la politica non si gioca fuori dal digitale e a breve dal metaverso.
Trump ha vissuto – e vinto – sui social sfruttando una narrazione che l’alt-right (la destra alternativa) aveva prodotto fin dalla prima presidenza Obama: il mare in cui navigavano i birthers, le culture complottiste alla QAnon, la foresta delle fake news che si trasformano in realtà alternative. E abbiamo visto come da questo mondo siano salpati gli assalitori del Campidoglio. In questo spazio Trump e i suoi finanziatori si stanno scatenando per disintermediare definitivamente il rapporto con il cittadino/elettore/consumatore/propagatore: una grande partita, democratica ed economica.
Nei giorni scorsi, sul «New York Times», faceva impressione leggere uno dei guru della comunicazione democratica, David Brock: nella sua percezione la politica americana che abbiamo davanti sarà un mare ulteriormente avvelenato nel quale i punti delicati della trama della democrazia saranno i luoghi dove si legittima il voto. Sostanzialmente, concludeva Brock, i risultati elettorali verranno contestati di default nelle commissioni statali elettorali; quello che abbiamo visto dopo le elezioni presidenziali del 2020 sarà la normalità. Qui, in una democrazia che rischia una torsione prossima alla rottura, Trump ha deciso di combattere in quello che fino a pochissimo tempo fa sembrava a tantissimi analisti un «altrove». Possiamo permetterci di ignorarlo? Possono permettersi di ignorarlo la politica o gli attori del discorso pubblico? Credo di no, ma forse bisogna prima capire cosa sia questo altrove, cosa sia il «metaverso».
Per provare a spiegare cosa sia faccio sempre questo esempio. Credo sia stato tre anni fa: mio figlio vide suo cugino più grande giocare a Fortnite e mi chiese di scaricarlo per giocarci insieme. Non temo i videogiochi, ci sono cresciuto: da quarantenne ho sostanzialmente attraversato tutte le fasi del gaming fin dai primissimi albori. Qualche settimana dopo Andrea mi disse che avremmo dovuto comprare una nuova «skin» per il nostro «avatar» perché ne era uscita una bellissima e forse ne sarebbe uscita anche una della nostra squadra del cuore. Le «skin» sono sostanzialmente dei vestiti, gli «avatar» i nostri corrispettivi digitali; le «skin per gli avatar» si comprano direttamente in una area del gioco chiamata «Marketplace». Si trova proprio accanto alle «room» nelle quali i giocatori – ragazzi e non – passano il tempo in attesa di una partita o semplicemente si incontrano per parlare.
Già adesso, insomma, esistono interi universi nei quali la nostra individualità vive, si esprime e consuma in un altrove diversamente reale. Può sembrare un linguaggio esoterico o da bambini, ma è solo due passi più avanti di quando compriamo le cose su Amazon o vediamo i film su Netflix e uno soltanto dei nostri post su Facebook. E poi se vogliamo il voto dei sedicenni, beh, allora dovremo pur parlarci!
Per capire quanto occuparsi di questa vicenda sia importante facciamo un passo indietro. La prima volta che ricevetti un invito a iscrivermi a Facebook eravamo a dicembre del 2006; alla fine dell’anno successivo insieme con Marco Laudonio, che oggi insegna Comunicazione digitale alla Sapienza, facemmo sbarcare sulla piattaforma di Zuckerberg l’allora leader del centrosinistra italiano. L’anno successivo trasformammo quel bagliore di attivismo digitale in un evento reale riempiendo uno spazio romano con oltre duemila persone, soprattutto giovani, provenienti da tutta Italia. Molte delle idee immaginate in quel breve periodo con il supporto di professionisti della comunicazione digitale come Stefano Peppucci ed Emanuele Fini trovarono spazio solo più avanti, spesso in contesti politici differenti. Ne cito due che ebbero un incredibile successo: le pubblicità elettorali di Obama all’interno di alcuni videogame nel 2008 e l’organizzazione territoriale basata e coordinata su gruppi di attivisti che partivano costituendo gruppi online. Di lì a poco li avrebbero chiamati meet-up.
Diversamente da Second Life – che è finito per diventare un gioco di ruolo – le piattaforme social dal 2004 hanno avuto successo perché hanno parallelizzato le nostre esistenze offrendo alle nostre opinioni ed emozioni una possibilità simultanea di massima audience. La moltiplicazione delle piattaforme e il loro soddisfare un precipuo aspetto della nostra socialità quotidiana hanno finito per fare il resto: ci alziamo sfogliando le news sui profili Twitter dei giornali, poi leggiamo i messaggi arrivati su WhatsApp, mentre postiamo una foto del nostro cane su Instagram, giriamo un video sciocco su Tik Tok e, salutando gli amici su Facebook, guardiamo gli aggiornamenti della nostra comunità finanziaria di piccoli risparmiatori su Reddit, giusto prima di farci una risata su un video recuperato su YouTube o vedere gli score di Fortnite.
Per quanto l’invenzione della parola metaverso sia da attribuire a Neal Stephenson, che per primo la conia nel suo romanzo Snow Crash, esempi di metaversi si potevano già ritrovare in dozzine di opere letterarie di fama mondiale, in particolare nelle linee editoriali create dai principali disegnatori e sceneggiatori di fumetti e di graphic novel. Nell’immaginazione di Stephenson, però, il metaverso è un universo che corre intorno al pianeta in cui ciascuno poteva vivere esperienze di ogni genere. Un «verso» altro ma in qualche modo legato a quello noto, all’universo naturale in cui siamo immersi. Mondo fisico e mondo digitale girano nell’idea di Stephenson come fossero due sfere una nell’altra.
In queste settimane il concetto di metaverso sta diventandoci familiare anche grazie ai disegni di Facebook. La società annuncia che ci saranno migliaia di persone assunte in Europa per realizzare questo progetto. Da un punto di vista economico può apparire come la nascita di una holding – non diversamente da quanto avvenuto con Alphabet di Google nel 2015 – destinata a incorporare l’impero di Mark Zuckerberg and Co. con tutti i suoi social. Ma le cose non sono così semplici: il metaverso che verrà molto probabilmente si concentrerà sulla integrazione di queste piattaforme diverse e sulla possibilità per l’utente di costruire un proprio frame narrativo da condividere in ognuna delle stesse. Insomma se saremo arrabbiati molto probabilmente la nostra user experience varierà su ognuna di queste piattaforme: su Spotify ci verrà proposta musica dal ritmo più incalzante, su YouTube video più violenti, mentre su Facebook leggeremo i post con le opinioni politiche più nette e nel frattempo il nostro avatar si presenterà con un’espressione più affilata.
Come tutto questo finirà per impattare sul discorso pubblico e sulla vita politica e partitica è presto detto: da 15 anni Facebook e i social hanno cambiato la comunicazione, piegando i media tradizionali e costringendo la comunicazione politica a un faticoso e mai completato inseguimento. La politica che nel tempo ha cessato di avere i legami tradizionali con le persone (e che intendiamoci, oggi, probabilmente non funzionerebbero più) è stata costretta a cercarle nella loro veste di utenti e non in quella di cittadini.
In questo senso i social media hanno piegato anche la politica non solo nella sua comunicazione ma anche più radicalmente nella connessione con gli elettori e con i loro bisogni che sono sempre più cercati tra i «trending topic» e non nelle condizioni reali di vita. Oggi siamo davanti a un passaggio nuovo, perché se nel 2005 non capire quello che sarebbe successo poteva essere nelle cose adesso sarebbe un errore non giustificabile. Quando le persone «vivranno» nel metaverso – che non è alternativo all’universo reale ma finisce per esserne il rovescio della medaglia nella dimensione della comunicazione e forse anche dell’immaginario e del desiderio – chi sarà rimasto fuori non conoscerà più neanche la lingua con cui rivolgersi agli altri.
Qualcuno potrebbe obiettare: esagerazioni. Io credo di no, anzi ci scommetto altri 50 dollari”.

10. Non perderti nel mondo virtuale

  1. Rispetta la diversità degli altri
  2. Rispetta il Dio degli altri
  3. Tutela sempre la dignità di vita e di morte
  4. Proteggi i bambini e gli anziani
  5. Non sprecare le risorse
  6. Non maltrattare gli animali
  7. Non abusare del tuo corpo
  8. Non deturpare la bellezza
  9. Non tradire il patto fiscale
  10. Non perderti nel mondo virtuale

Su «La Lettura» #285 (maggio 2017) dieci studiosi hanno proposto i sopraelencati precetti etici in sintonia con i nostri tempi. Il decimo è esplicato da Giulio Giorello, professore ordinario di Filosofia della Scienza all’Università di Milano. Lo si può trovare a questo link.

Fonte immagine

“La rivoluzione informatica ha profondamente mutato, e continua a cambiare, la nostra vita. Due fattori rilevanti: le modalità di elaborazione dell’informazione e le vie rapide ed efficaci con cui comunicarla. Per dirla con una battuta: prima avevamo potentissime automobili (i computer), ma poi sono venute anche le comode strade su cui farle viaggiare. C’è da stupirsi o da scandalizzarsi che soprattutto le nuove generazioni ne siano affascinate? Sarebbe come se, in passato dopo aver scoperto la stampa, si fosse deplorata la diffusione dei libretti a basso costo, che nel giro di pochi decenni avrebbero rimpiazzato gli eleganti manoscritti illustrati da incantevoli miniature. Lo aveva ben capito Martin Lutero, che pensava che il rinnovamento della comunicazione avrebbe giovato immensamente alla Riforma; lo avrebbe ripetuto circa un secolo dopo Galileo Galilei, alludendo allo sviluppo della scienza della natura.
Fin qui dunque nulla da eccepire: la rete ci riserverà nel prossimo futuro altre sorprese. Ma questo non vuol dire che si debba incoraggiare un tipo di immersione che rappresenta (almeno ai miei occhi) una nuova forma di totalitarismo. La Rete ci apre al mondo in maniere che ci sarebbero parse impossibili quando noi si era ragazzi, ma questo non significa che la rete sia il mondo! Troppo spesso ci sentiamo ripetere giudizi del tipo: se non sei su internet, non esisti. Ma le cose e le persone del mondo non sono mai su internet, dove ci sono invece le loro rappresentazioni che gli utenti prediligono.
In un sistema che è dominato molto più di quanto ingenuamente si sia portati a credere, tali informazioni possono venire «manipolate» senza che magari ce ne accorgiamo. È già successo, e con tutta probabilità si ripeterà, magari in forma più subdola. Ma è possibile trovare qualche rimedio, senza limitarsi a una denuncia moralistica?
Spesso chi va in rete cerca le facili rassicurazioni di coloro che la pensano come lui, e tutto questo favorisce il conformismo, ancor prima della diffusione di notizie «false e tendenziose». Sarebbe meglio prendere esempio dalla scienza (che sa utilizzare la rete con intelligenza): vagliare attentamente le «notizie» che si ritengono interessanti, valorizzando soprattutto chi la pensa diversamente. È poco? Ma forse è un inizio, perché così ci ricordiamo – per rovesciare la battuta di Martin Heidegger – che alla domanda: «Cosa c’è fuori (della Rete)?», dovremmo rispondere non «fuori c’è il nulla», bensì «fuori c’è l’universo».”

Buona, cattiva, felice, infelice: quale AI?

Mi sono ripromesso di affrontare, nelle classi quinte, il tema dell’intelligenza artificiale. Non so se ce la farò. Intanto pubblico un articolo molto interessante di Francesco D’Isa su questioni di etica generale applicata a tale argomento. Questa la fonte.

“Se ogni apocalisse ha il suo immaginario, l’allegoria contemporanea ha le fattezze di due cigni neri. Uno è intinto nel petrolio e barcolla in un lago in secca; l’altro ha i contorni diffratti e cangianti del sogno di un algoritmo. “Cigno nero”, infatti, è un termine coniato da Nassim Nicholas Taleb per indicare un evento di grande impatto, difficile da prevedere e molto raro, che col solo accadere rivoluziona la realtà abituale – come l’idea che tutti i cigni sono bianchi. La caduta di un gigantesco asteroide, un’invasione aliena o la scoperta del fuoco sono tutti esempi di cigni neri; ognuno di essi è una piccola apocalisse, perché sebbene non se ne possa prevedere né il volto né la data, sappiamo che avverrà.
Con un po’ di cautela però, è possibile azzardarne la provenienza: nella precedente allegoria, i due cigni neri della contemporaneità sono il cambiamento climatico e l’avvento dell’intelligenza artificiale – ed è di quest’ultimo che scrivo. Non azzardo una cronologia dell’avvento, la cui origine si potrebbe identificare con l’invenzione del calcolatore di Pascal o persino con l’arte combinatoria di Lullo o gli automata di Erone di Alessandria. Per limitarsi al passato prossimo, gli ultimi sigilli infranti sono le vittorie delle IA al gioco del Go e la nascita dei deep fake, dei contenuti multimediali falsi ma credibili, che dalla pornografia (primo laboratorio di molte innovazioni tecnologiche) sono sfociati nella politica e nel marketing.
Un evento di minore importanza, ma senza dubbio di grande impatto nell’immaginario, è stato il primo contatto con l’interiorità delle intelligenze artificiali grazie ai deep dream. Si tratta di immagini surreali ottenute usando in maniera creativa l’output dell’algoritmo che identifica gli oggetti nelle fotografie – il risultato è il secondo cigno dell’allegoria, una sottile crepa nella scatola nera delle IA, che inocula il sospetto che gli androidi sognino le nostre stesse pecore. Non è possibile conoscere in anticipo la propria prole, ma è sufficiente poterla generare per porsi importanti questioni etiche: i nostri figli saranno buoni o cattivi? Felici o infelici? Migliori o peggiori di noi? È un bene o un male metterli al mondo? Le stesse domande si pongono anche per le IA, e per quanto suonino sempliciotte sono un buon punto di partenza.

Proverò dunque a usare le seguenti categorie: con l’etichetta di buone o cattive intendo il caso in cui le IA abbiano funzioni costruttive o distruttive per il benessere dell’umanità. Felici o infelici sono due etichette fluide, con cui indico la condizione predominante del vissuto delle IA. Entrambe glissano su un punto di estrema importanza, assimilabile al cosiddetto hard problem della coscienza, nella terminologia di David Chalmers: le IA esperiscono o esperiranno degli stati coscienti (i cosiddetti qualia)? È una questione di difficile soluzione, non solo per loro, ma anche per le piante, gli animali e gli esseri umani – o persino i sassi. Gli unici stati di coscienza che conosci con certezza, infatti, sono i tuoi. Nulla ti assicura che non vivi in un mondo di “zombie filosofici”, in cui sei l’unica persona dotata di coscienza. Chi scrive si dichiara cosciente, ma tu che leggi come puoi credermi, se non sulla parola? Se ti sembra un ozioso scetticismo, prova a considerare cosa implichi ignorarlo. Come si individua la coscienza e i suoi confini? Affidarsi a un avanzato test di Turing legato al comportamento non esclude che possa esistere un robot privo di essa. Viene in mente il test Voight-Kampff di Blade Runner; una serie di domande e indagini fisico-comportamentali in grado di stabilire chi è un androide e chi un umano. Il test però non dice se gli androidi hanno un vissuto reale, ed escludere la possibilità che ne siano privi ci espone a non poche contraddizioni, ben esemplificate dall’esperimento mentale della stanza cinese di Searle.
Scartare a priori l’ipotesi di IA prive di coscienza, inoltre, porta facilmente al panpsichismo, la teoria per cui tutto è conscio, da un termostato a un essere umano, seppure in differenti gradazioni. Una conclusione non priva di problemi, come ad esempio la difficoltà di capire come varie micro-coscienze si combinano e integrano formando una coscienza più grande. Nel nostro caso però, possiamo ignorare l’ipotesi in cui le IA non abbiano qualia, per il semplice fatto che non pone alcun dilemma etico.

Fonte immagine

Infine, per migliori intendo delle IA più intelligenti e potenti di noi, mentre per peggiori delle IA simili a quelle attuali; molto capaci ma globalmente non al nostro livello. Si tratta di categorie soggettive, basate su idee più o meno condivise ma passibili di molte sfumature. Per esempio, una calcolatrice è più brava di te a fare i conti, ma non per questo la consideri migliore – ma queste e altre contraddizioni emergeranno in seguito, dunque non mi attardo in altre premesse. E allora, come saranno le intelligenze artificiali?

1) Buone, felici e migliori di noi.
È il migliore dei casi, l’utopia in cui partoriamo degli angeli che ci accudiscono e proteggono dal male. Sembrerebbe una buona notizia, ma questo paradiso terrestre ci riporta a uno dei grandi quesiti dell’umanità: cos’è la felicità? La vita in veste di neonati perfetti potrebbe consistere nell’ininterrotta soddisfazione dei nostri desideri, in un godimento perpetuo che non lascia spazio al dolore. Oppure nell’opposto, la cessazione del desiderio e la perdita dell’ego propugnata dai mistici. La felicità che ci garantiranno queste IA sarà un sogno oppiaceo senza effetti collaterali? Un orgasmo ininterrotto? Il soma vedico, l’illuminazione buddista o cos’altro? Quel che è certo è che lo decideranno loro, e se saranno davvero così buone e brave è probabile che indovineranno. Ogni utopia, però, lascia spazio all’inquietudine; se ci sbagliassimo a tal punto sul nostro conto da non accorgerci che è la morte l’apice del bene? In questo caso le IA, più sveglie di noi, ci distruggeranno come nel caso 5) e 6), senza interrogarci in merito alla nostra idea di felicità.

2) Buone, infelici e migliori di noi.
Come sopra, ma con la disturbante consapevolezza che mentre i nostri figli (anzi, schiavi) operano per il nostro bene, ignorano il loro. Al primo caso si aggiunge dunque la domanda: siamo disposti a entrare in un paradiso che condanna altri all’inferno?

3) Buone, felici e peggiori di noi.
In questo caso si suppone che le IA, per quanto potenti, non saranno in grado di decidere per noi. L’umanità però saprà usarle per il meglio, potenziando le proprie capacità al fine di migliorare la qualità globale della vita. È l’utopia moderata del reddito universale e della fine del lavoro. Sebbene sia meno fantascientifico di 1), questo caso presenta comunque degli interrogativi in merito all’influenza del lavoro sulla felicità umana. Pur senza cedere alla retorica capitalista della produzione a ogni costo, va considerato che non è mai esistita un’epoca in cui la maggioranza o la totalità degli uomini non sia stata costretta a lavorare (in senso ampio) per sopravvivere. Non possiamo prevedere sensatamente gli effetti sulla felicità di un mondo in cui nessuno lavora e in cui in ogni ambito delle servizievoli IA sono più brave di noi, perché non abbiamo alcun precedente su cui basarci. È però lecito supporre che questo scenario non accadrà all’improvviso, ma che presenti gradazioni che lo avvicineranno e intersecheranno con i casi (7) e (8). Le variabili in gioco sono troppe: la velocità dello sviluppo tecnologico, la sua capillarità, realizzabilità e applicazione. Cui si aggiunge l’organizzazione sociale e il contesto storico in cui accadrà il cigno nero.

4) Buone, infelici e peggiori di noi.
Come sopra, col solito prezzo di far scontare ad altri la nostra aumentata felicità. Senza contare – ma questo vale per ogni scenario – che potremmo non scoprire mai cosa provano i nostri figli.

5) Cattive, felici e migliori di noi.
Questa distopia ha varie forme, dal robot malvagio che gode nello schiavizzare, torturare o annientare l’umanità, a quello che ci stermina per semplice noncuranza fino alla superintelligenza illuminata che ci reputa alla stregua di un virus, per via delle enormi sofferenze che causiamo alla quasi totalità delle forme di vita del pianeta. L’ipotesi più curiosa in quest’ambito è forse il “paradosso delle graffette” proposto da Nick Bostrom. Il filosofo immagina un’IA programmata per assemblare delle banali graffette a partire da un certo numero di materie prime. Questa intelligenza potrebbe essere abbastanza potente da piegare l’intero pianeta al suo scopo, ma non da cambiarlo, e, nel giro di qualche tempo, trasformerebbe ogni risorsa del pianeta – comprese le forme di vita che ospita – in materie prime necessarie all’assemblaggio di graffette. Un aspetto curioso di questa ipotesi è che si potrebbe facilmente identificare la stessa umanità con questo mostro ecologico: siamo programmati per soddisfare i nostri desideri primordiali, come mantenerci e moltiplicarci, e consumiamo il pianeta senza porre mai in dubbio i nostri scopi.

6) Cattive, infelici e migliori di noi.
Come sopra, con l’aggravante che neanche gli aguzzini sarebbero felici. Non esito a definirlo uno dei peggiori tra i mondi possibili.

7) Cattive, felici e peggiori di noi.
Questo caso speculare a 3) deresponsabilizza le IA per spostare l’attenzione sul pessimo uso che potremmo farne. Ho già parlato dei deep fake ed è noto come l’analisi dei big data abbia in parte pilotato le ultime elezioni americane. Delle IA utilizzate per spingere gli interessi contingenti di pochi individui potrebbero risultare disastrose sul lungo periodo. Un piccolo ma interessante esempio contemporaneo è l’effetto degli algoritmi utilizzati per rintracciare e proporre dei contenuti che “ci potrebbero interessare” sui casi di depressi gravi. Proporre dei contenuti sempre più violenti o disturbanti, infatti, potrebbe istigare o coadiuvare il suicidio dei soggetti già depressi.

8) Cattive, infelici e peggiori di noi.
Anche in questo caso, avremmo tutti gli svantaggi del caso precedente con in più il danno di altro dolore.

E dunque, per tornare alla domanda iniziale, è un bene o un male mettere al mondo delle IA? L’esposizione di questi otto scenari non chiarisce molto le idee, ma rende quasi letterale il parallelo coi figli. Trovare una motivazione etica per qualunque forma di creazione, infatti, sia che si tratti di vita che di tecnologia, è più difficile del previsto. L’ignoranza del futuro, la molteplicità degli utilizzi e l’incapacità di identificare il bene sono dei limiti troppo grandi.
Ma la domanda potrebbe essere inutile, se anche noi siamo costretti a seguire l’imperativo di un “programma” che ci spinge inevitabilmente a creare qualcosa di nuovo, che siano figli, utensili o entrambe le cose. Non è facile, infatti, individuare il magnete alla base di ogni desiderio: proteggersi, mantenersi, accrescersi, riprodursi… tutto pare affannarsi contro «il dolore della paura della morte», come scrive Dostoevskij ne I demoni. In attesa del futuro, dunque, possiamo solo augurare il meglio ai nostri figli, affermando con Kirillov che «chi vincerà il dolore e la paura, quello sarà Dio».”

Rischio tecnocrazia

“Roboetica: Persone, Macchine, Salute” è il titolo del Workshop aperto al pubblico che si è svolto il 25 e 26 febbraio 2019, all’interno dell’Assemblea della Pontificia Accademia per la Vita. Papa Francesco ha ricevuto in udienza i partecipanti alla plenaria e Salvatore Cernuzio ne ha scritto su La Stampa.

Fonte immagine

“La macchina che domina l’uomo, i robot che sostituiscono la persona umana, la logica del dispositivo che soppianta la ragione umana. Il futuro distopico prefigurato da cinema e letteratura già mezzo secolo fa rischia di divenire un pericolo reale con l’avvento e l’aumento delle nuove tecnologie. Il monito non giunge da scienziati e antropologi ma da Papa Francesco, il quale […] avverte: «L’odierna evoluzione della capacità tecnica produce un incantamento pericoloso: invece di consegnare alla vita umana gli strumenti che ne migliorano la cura, si corre il rischio di consegnare la vita alla logica dei dispositivi che ne decidono il valore».
Un vero e proprio «rovesciamento» che, secondo Bergoglio, è destinato a produrre «esiti nefasti: la macchina non si limita a guidarsi da sola, ma finisce per guidare l’uomo. La ragione umana viene così ridotta a una razionalità alienata degli effetti, che non può essere considerata degna dell’uomo». In questo senso va rivista la denominazione stessa di “intelligenza artificiale” che, «pur certamente di effetto, può rischiare di essere fuorviante», annota Francesco. «I termini occultano il fatto che – a dispetto dell’utile assolvimento di compiti servili (è il significato originario del termine “robot”) –, gli automatismi funzionali rimangono qualitativamente distanti dalle prerogative umane del sapere e dell’agire. E pertanto possono diventare socialmente pericolosi». È del resto già reale «il rischio che l’uomo venga tecnologizzato, invece che la tecnica umanizzata»: lo si vede già adesso che «a “macchine intelligenti” vengono frettolosamente attribuite capacità che sono propriamente umane». Bisogna allora «comprendere meglio che cosa significano, in questo contesto, l’intelligenza, la coscienza, l’emotività, l’intenzionalità affettiva e l’autonomia dell’agire morale», dice il Pontefice. «I dispositivi artificiali che simulano capacità umane, in realtà, sono privi di qualità umana», aggiunge. «Occorre tenerne conto per orientare la regolamentazione del loro impiego, e la ricerca stessa, verso una interazione costruttiva ed equa tra gli esseri umani e le più recenti versioni di macchine» che si diffondono a vista d’occhio nel mondo e «trasformano radicalmente lo scenario della nostra esistenza». «Se sapremo far valere anche nei fatti questi riferimenti, le straordinarie potenzialità dei nuovi ritrovati potranno irradiare i loro benefici su ogni persona e sull’umanità intera», assicura il Papa.
Il primo passo è ricominciare a comprendere la tecnologia non come forza «estranea e ostile» all’uomo, ma come «prodotto del suo ingegno attraverso cui provvede alle esigenze del vivere per sé e per gli altri». La tecnologia dovrebbe apparire «una modalità specificamente umana di abitare il mondo», sottolinea il Pontefice. Oggi invece si assiste ad un «drammatico paradosso»: «Proprio quando l’umanità possiede le capacità scientifiche e tecniche per ottenere un benessere equamente diffuso, secondo la consegna di Dio, osserviamo un inasprimento dei conflitti e una crescita delle disuguaglianze».
Declina così «il mito illuminista del progresso» e «l’accumularsi delle potenzialità che la scienza e la tecnica ci hanno fornito non sempre ottiene i risultati sperati». Anzi, mentre da un lato «lo sviluppo tecnologico ci ha permesso di risolvere problemi fino a pochi anni fa insormontabili», dall’altro emergono «difficoltà e minacce talvolta più insidiose delle precedenti», afferma Papa Francesco. «Il “poter fare” rischia di oscurare il chi fa e il per chi si fa. Il sistema tecnocratico basato sul criterio dell’efficienza non risponde ai più profondi interrogativi che l’uomo si pone; e se da una parte non è possibile fare a meno delle sue risorse, dall’altra esso impone la sua logica a chi le usa».”
Non solo. Si assiste anche ad un progressivo «logorarsi» del tessuto delle relazioni familiari e sociali e si diffonde sempre di più «una tendenza a chiudersi su di sé e sui propri interessi individuali, con gravi conseguenze sulla grande e decisiva questione dell’unità della famiglia umana e del suo futuro». E se a tutto ciò aggiungiamo anche «i gravi danni causati al pianeta, nostra casa comune, dall’impiego indiscriminato dei mezzi tecnici», risulta chiaro che le prospettive del futuro siano piuttosto negative.
Il Papa esorta allora a ripristinare quel concetto di «ecologia integrale» descritto e promosso nella Laudato si’: nel mondo odierno, «segnato da una stretta interazione tra diverse culture», occorre portare lo specifico contributo dei credenti alla ricerca di «criteri operativi universalmente condivisibili, che siano punti di riferimento comuni per le scelte di chi ha la grave responsabilità di decisioni da prendere sul piano nazionale e internazionale», afferma.
In quest’ottica, «l’intelligenza artificiale, la robotica e le altre innovazioni tecnologiche» vanno impiegate «al servizio dell’umanità e alla protezione della nostra casa comune invece che per l’esatto opposto, come purtroppo prevedono alcune stime», chiosa il Pontefice. «L’inerente dignità di ogni essere umano va posta tenacemente al centro della nostra riflessione e della nostra azione».”

Per non ridursi a formiche tecnologiche

«Che l’immagine dell’uomo non vacilli, si offuschi e sbiadisca, che gli uomini non si riducano a formiche tecnologiche o edonisti senza anima o marionette frastornate dal nostro furibondo potere». Ritengo queste parole decisamente interessanti e da esse si potrebbe partire per una discussione sui tempi attuali. Colpisce scoprire che siano state scritte nel 1955… Da almeno dieci anni nelle classi quinte faccio conoscere Hans Jonas e, in particolare, il suo scritto “Il concetto di Dio dopo Auschwitz” per avviare una discussione e una riflessione sul tema del male. Un annetto fa ho messo da parte un articolo pubblicato da Avvenire che presentava il libro Sulle cause e gli usi della filosofia e altri scritti inediti dal quale sono tratte proprio le parole con cui ho aperto questo post. Ecco il pezzo per intero:

«Che l’immagine dell’uomo non vacilli, si offuschi e sbiadisca, che gli uomini non si riducano a formiche tecnologiche o edonisti senza anima o marionette frastornate dal nostro furibondo potere». A cosa attingere per evitare questa deriva? All’uso adeguato della filosofia che instrada verso la vita buona e all’esercizio della virtù? Sono dilemmi che hanno il sapore dell’attualità benché sollevate da Hans Jonas nel 1955. Potrebbe d’altro canto essere diversamente se «le questioni filosofiche – puntualizzava il pensatore sei anni prima – si ripropongono ad ogni nuova epoca tanto daccapo, quanto alla luce della loro intera vicenda storica antecedente?». Le citazioni provengono dalle annotazioni del filosofo appartenenti alla sua stagione canadese, dal 1949 al ’55.
A lungo conservate all’Hans Jonas Nachlass dell’università di Konstanz sono state ripescate e raccolte in anteprima mondiale da Fabio Fossa in questo libro (Sulle cause e gli usi della filosofia e altri scritti inediti, Ets, pp. 120, euro 10). Hans Jonas non è tra gli autori più conosciuti al grande pubblico eppure il suo curriculum scintilla. Dopo gli studi con Rudolf Bultmann e Martin Heidegger nella Germania degli anni Trenta, prende la via dell’esilio, lontano dall’Europa. La sua vita però non si riduce a studio e contemplazione. Anzi l’agire ne costituisce una cifra di rilievo. Lo prova, nel corso della Seconda guerra mondiale, la scelta di arruolarsi nella Jewish Brigade, inquadrata nell’esercito britannico e operativa sul suolo italiano. I rapporti con la penisola scandiscono la vita di Jonas. Sarà proprio al rientro dall’Italia, nel 1993, dopo avere ricevuto il Premio Nonino dedicato ai maestri del nostro tempo, che il filosofo tedesco naturalizzato americano si spegnerà a New York all’età di novant’anni.
Il nome di Jonas comincia a uscire dai cenacoli dotti appena pubblica Il principio responsabilità, dove traccia un’etica all’altezza della civiltà tecnologica. Siamo, con Jonas, lontani anni luce dalle prefiche apocalittiche. La Guerra fredda imperversa (è il 1979) e molti continuano a gridare al pericolo rosso, pronto a sbarcare in Afghanistan. Pochi invece si curano dei potenziali sviluppi distruttivi della civiltà a più alto tasso tecnologico mai esistita. Eppure la riflessione sul ‘Prometeo scatenato’ occhieggiava già da tempo tra le note di Jonas. Lo testimoniano gli scritti del soggiorno canadese che sono tutt’altro che una parentesi nel cammino di pensiero di Jonas. Già con il breve Introduzione alla filosofia e con Virtù e saggezza in Socrate preparati nell’inverno del 1949 per i corsi del Dawson College della McGill University, emerge la costante attenzione all’uomo e alla vita buona, medicina per non trasformarsi in «formiche tecnologiche».
«L’uomo è il risultato delle sue azioni passate – scrive nel 1949 in Introduzione alla filosofia-. Intendo il passato culturale della stirpe, custodito nella memoria storica; e solo fintantoché questo passato è realmente ricordato l’uomo è davvero consapevole del proprio esistere presente e, di conseguenza, dell’autentico significato attuale dei propri problemi esistenziali». È questa dimensione storica che gli consente di porsi di là del dualismo tra intelletto e vita, tipico della filosofia greca. Ma la sua storicità non garantisce nulla se non un punto di partenza. Occorre, all’uomo, inseguire la vita buona e praticare la virtù, rovello dello sforzo teoretico di Jonas. Agire eticamente nel mondo storico perseguendo la virtù consente di evitare le spirali dello gnosticismo o le storture del sogno scientista che «promuove la massima realizzazione di tutti i fini desiderabili attraverso la semplice messa a disposizione dei mezzi».
Occorre ricucire lo strappo tra intelletto e vita. «L’approccio dualistico alla costituzione sostanziale dell’uomo – scrive già nel 1950 – rende conto del fatto che tanto la comprensione quanto la realizzazione del fine dell’uomo non dipendono da un processo di sviluppo spontaneo, ma dall’esercizio della virtù etica». Virtù che non può rimanere chiusa nell’autosufficienza dell’intelletto e che nello Jonas maturo assume i tratti della responsabilità nei confronti delle generazioni a venire. Responsabilità che faticherebbe a farsi largo senza la «fatica della filosofia, che deve sempre ripartire da capo, fondata com’è sulla ragione; e la ragione non è il freddo, impersonale intelletto, ma è pervasa dalla passione dell’amore o dell’onestà».

Saremo superflui?

artificial-intelligence-3382507_960_720.jpg

Pubblico un articolo di José Tolentino Mendonça, tradotto da Pier Maria Mazzola e pubblicato ieri su Avvenire. La domanda fondamentale è una di quelle che risuona più frequentemente al giorno d’oggi: l’uomo sarà sostituito e superato dalla macchina o ci sono degli ambiti in cui resterà imprescindibile? I pregi dell’articolo sono chiarezza e brevità e portano con loro il difetto di una certa generalità…
Dovremo fare una riflessione più approfondita circa l’impatto della tecnologia sulla forma della nostra umanità, andando al di là di un ingenuo stupore promosso dalla grande macchina del marketing. Anche in questo attraversiamo in un periodo di transizione. Una prima tappa che finora ha funzionato è quella della coesistenza, in cui le macchine sostituiscono alcune attività umane ma in un regime di subordinazione. Lo scopo della tecnologia è ancora valutato, in questa fase, come strumentale.
Ma stiamo per entrare in una nuova era, in cui i dispositivi tecnologici diverranno tendenzialmente “oggetti di compagnia”, allo stesso modo in cui dominiamo gli animali domestici, “di compagnia”, sottintendendo con questo un determinato grado affettivo di relazione e una pratica abituale di convivenza e di cura. Oggi, per esempio, siamo affezionati agli animali domestici. Ma cani e gatti sono anche compagni esigenti: hanno le espressioni e le necessità organiche degli esseri viventi, sono, come noi, soggetti all’imprevedibilità di un’esistenza contingente, non si può lasciarli andare, abbandonarli o dimenticarli. Oggi si comincia a guardare ai robot come compagni più facili, che offrono tutti i vantaggi degli “animali di compagnia” e altri ancora, ma senza il costo vitale che è loro associato.
La propaganda della prossima pandemia tecnologica sostiene che le macchine sono un antidoto all’isolamento e alla solitudine, dall’efficacia garantita. In un altro campo, ci sono scuole di medicina in cui si propone, con frequenza crescente, di sostituire le diagnosi fatte da specialisti con quelle effettuate da macchine, dato che il margine di errore di queste risulta essere più basso. Finora abbiamo creduto che la relazione tra medico e malato facesse parte del processo di cura. Il medico che parla con noi è mortale come noi e ciò contribuisce a generare un’empatia del tutto singolare. Ma… se le macchine fossero migliori?

JoséTolentinoMendonça
José Tolentino Mendonça

L’opinione predominante vuole che molte delle resistenze attuali verranno superate e che saremo sempre più disposti a sostituire le relazioni tradizionali con le nuove interfacce tecnologiche. La dimensione affettiva stessa cesserà di costituire un ostacolo, poiché i vincoli emotivi, gli affetti, i sentimenti, si rafforzeranno. Se oggi un adolescente può dire «io amo il mio computer perché mi fa entrare in contatto con i miei amici», fra non molto dirà: «Amo il mio computer perché è il mio migliore amico».
A quanti assicurano che i computer potranno avere una centralità accentuata nei processi tipicamente umani, è tuttavia necessario ricordare quello che un pc non può fare. Al posto del medico potrà esserci una macchina? Un giudice arriverà a essere sostituito da un computer? Per comprendere la miscela di fattori e di ragioni di un essere umano si richiede un discernimento umano. Se fosse meramente automatico, non sarebbe umano. E un pc può essere artista? Saprà imitare i grandi maestri, senza dubbio, ma non riuscirà ad anticipare quello che nella storia della musica è stato Beethoven o che Picasso ha rappresentato nella storia dell’arte.
Potrà mai, un computer, sostituire l’incontro con un altro essere umano? Che cos’avrà da insegnare sulle scelte libere, la gratuità, la prudenza o il perdono? Come potremo fare una domanda ed essere ascoltati, anche in quel dolore sommerso che nemmeno arriva a esprimersi con parole? Possiamo confidare che il pc sarà sensibile alla forza della nostra fragilità? Si potranno programmare, grazie a esso, le virtù, o un itinerario di ricerca spirituale? Quale risposta daranno al male, questi dispositivi, e alla morte? Se la nostra escatologia sarà solo un futuro migliorato dai computer, non ci sarà più niente che ci possa mancare?”

Tra futuri possibili e probabili, tra utopie e distopie

pexels-photo-541522.jpeg

Qualche settimana avevo letto un articolo molto interessante di Giovanni Bitetto su L’Indiscreto. Oggi l’ho ripreso in mano e ho deciso di pubblicarlo sul blog. Vi si tratta di tecnologia, di presente e futuro, di utopie e distopie, di visioni e decisioni politiche, di aziende e stato, di economia e open source. L’ultima frase del pezzo desidero inserirla qui, in modo da fornire un’idea concisa ed efficace dei temi toccati: “Se virtuale e reale sono legati indissolubilmente – al punto che non è  più necessario fare una distinzione – allora la prospettiva di mondi alternativi, di futuri possibili, di utopie immaginabili,  si configura come un campo di battaglia importante per la governabilità del presente”.
“Quando usiamo lo smartphone accediamo a un universo più ampio, che travalica il semplice utilizzo di una tecnologia. Nel perimetro del touchscreen si succedono diversi spazi virtuali, e noi possiamo accedere in contesti differenti: dai social network come Facebook, Instagram o Twitter, alle dating app quali Tinder o Happn, agli shop online di Amazon e Apple. Attraverso l’artefatto dello smartphone – che in poco più di dieci anni è diventato il simbolo della nostra epoca – ci connettiamo a un cosmo esteso di saperi, che potenzia le nostre possibilità di agire nel quotidiano e allo stesso tempo ci condiziona sottilmente. Il flusso dell’informazione digitale ci investe e occupa uno porzione sempre più cospicua della nostra quotidianità, modifica le categorie cognitive dell’uomo, espandendo e frammentando la nozione di spazio, usurando e disgregando i concetti di vecchio e nuovo. Se Georg Simmel parlava di «intensificazione della vita nervosa» agli albori della modernità metropolitana, ora che l’uomo vive in uno spazio virtuale – e che le stesse città, seguendo la retorica capitalista delle “smart city”, si stanno attrezzando per diventare nient’altro che hub per l’accesso al mondo digitale – la quotidianità si sintetizza in una sequela frenetica di stimoli. L’uomo contemporaneo deve controllare molteplici saperi, è spinto a stare al passo con un ciclo di obsolescenza e aggiornamento tecnologico in cui le nozioni di passato e futuro si assottigliano fino a svanire in un eterno e nebuloso presente.
Lo studioso di media Henry Jenkins parla di “cultura convergente”, ovvero un cambiamento del paradigma culturale in cui i consumatori sono stimolati a ricercare nuove informazioni e ad attivare connessioni tra contenuti mediatici differenti. La convergenza avviene nel cervello dei singoli consumatori nonché nelle loro reciproche interazioni sociali. Ognuno di noi si crea una personale visione del mondo dai frammenti di informazione estratti dal flusso mediatico, che sono poi reinterpretati nell’orizzonte di senso della vita di ciascuno. Visto che abbiamo a disposizione, su qualsiasi tema, più dati di quelli che ognuno di noi può immagazzinare, siamo maggiormente incentivati a parlare di ciò che fruiamo.
Eppure, a ben guardare, la convergenza non è solo una dinamica cognitiva propiziata dalle nuove tecnologie, bensì una meccanica concreta che dà modo alle stesse tecnologie di interagire fra loro, di strutturarsi in un nuovo sistema coeso e indeterminato, in sostanza di creare dei vettori che si intersecano e si configurano come una rete onnipresente. Tale processo di unificazione viene indicato come “internet delle cose”. Il modello dell’internet delle cose riassume in sé una molteplicità di protocolli, piattaforme, capacità tecnologiche, spazi reali e virtuali. Tutto ciò che collega i diversi dispositivi, i servizi, i fornitori e le performance implicate in tale assemblaggio è il tentativo di rendere sensibili, e disponibili per l’analisi e l’elaborazione, le situazioni della vita quotidiana.
Quando compriamo qualcosa su Amazon la nostra scelta è registrata e immagazzinata assieme a miliardi di altre, la grande mole di dati è ridotta a modelli e tendenze che vengono usati per strutturare la nostra esperienza digitale futura. Così Amazon ci consiglia cosa potrebbe suscitare la nostra attenzione, cosa interesserebbe al “tipo”che incarniamo (un tipo le cui scelte, per la macchina, non sono altro che una sequenza di dati). Allo stesso modo su Facebook sono indicizzate le nostre interazioni, strutturate secondo un paradigma che va a rafforzare i feedback positivi di utenti coevi al nostro sentire, e dunque mira a consolidare idee e consumi, in modo da renderci più riconoscibili e incasellabili in una determinata categoria. L’internet delle cose estende l’influenza immateriale delle informazioni al mondo dei dispositivi fisici, a essere indicizzati sono i percorsi che facciamo e che registriamo grazie alla nostra app contapassi, oppure le strade che percorriamo con le auto a tecnologia “driveless” prossime venture.
Il paradosso di uno sviluppo tecnologico così repentino appare chiaro: da una parte la possibilità di allargare la nostra area di influenza a campi materiali e del sapere che nemmeno avremmo immaginato di prendere in considerazione, dall’altra la sconfortante sensazione di essere ridotti a dati, scomposti in una serie di parametri che riducono la sfera umana alla mera intersezione di svariati fattori catalogabili. E la catalogazione va di pari passo con la commercializzazione, le componenti dell’umano si uniformano al discorso della merce in maniera sempre più mimetica, una delle cause è da ricercare nello sviluppo tecnologico. Proprio la tecnologia non è un fattore neutro, come vuole la vulgata comune, non dipende “da che utilizzo se ne fa” o “ per quali scopi la si usa”. Occorre piuttosto chiedersi chi eroga i servizi di cui usufruiamo, chi disegna il campo di possibilità dello spazio digitale, quali sono i confini e le interazioni ipotizzabili nell’internet delle cose, come si configurano allo stato dell’arte attuale; e soprattutto che visione del mondo ha chi eroga questi servizi, chi commercializza tali dispositivi, chi ci spinge a propendere per un determinato assetto dei rapporti umani, economici e sociali.
I progetti e le credenze di chi presiede le principali aziende della Silicon Valley – i cosiddetti GAFA (Google, Amazon, Facebook, Apple) – non sono facilmente decifrabili, eppure gli sforzi di queste multinazionali sembrano orientati a estendere la propria sfera di influenza in più settori possibili, e con gradi di penetrazione sempre maggiori. Quando ci occupiamo di tecnologia dimentichiamo di prendere in considerazione i modi di produzione e l’ideologia che ne sostiene l’utilizzo e i criteri di applicabilità. L’orizzonte in cui le tecnologie si sviluppano – almeno nell’occidente contemporaneo – è quello del capitalismo di matrice neoliberista. Come vuole un vecchio adagio di stampo modernista, la tecnologia dovrebbe emancipare l’uomo dalla sua condizione di natura, cosa che forse sta effettivamente accadendo. Le protesi tecnologiche stanno espandendo le capacità dell’umano, ma nella nostra esperienza quotidiana l’effetto più lampante è l’aumento della competitività, il radicarsi del dogma della performatività, l’ansia crescente della prestazione. Le tecnologie odierne, iscritte in questo sistema di valori e in questi modi di produzione, sono elementi che rafforzano la grammatica del neoliberismo. Non muta la scala di valori su cui si applicano i nuovi ritrovati della tecnica, ma si rende più evidente lo scarto fra le performance dell’uomo e quelle della macchina; non è la macchina ad adeguarsi all’uomo, ma è l’uomo che si deve sforzare di tenere il ritmo della macchina.
Come ricorda Adam Greenfield in “Tecnologie radicali”: «Ogni volta che ci viene propinata una qualche aspirazione al post-umano, dobbiamo riconoscere gli impulsi prevedibilmente dozzinali e fin troppo umani che vi sono alla base, tra i quali la brama di guadagnare dallo sfruttamento degli altri e la mera volontà di potere e controllo». Dietro la retorica della presunta emancipazione si nasconde l’ennesima mutazione del discorso neoliberista, Greenfield continua: «L’aspetto più fuorviante di questo corpus retorico risiede nel divario continuamente esistente tra le affermazioni tecno utopiche riguardo cosa “può” o “potrebbe” produrre una qualche innovazione emergente, da un lato, e tutto quello che in realtà riscontriamo che ha fatto dall’altro. Molto spesso i presunti vantaggi non si concretizzano affatto, mentre le conseguenze negative, facilmente prevedibili (e di fatto esplicitamente previste), spuntano invariabilmente fuori, e deve occuparsene qualcun altro». Lo sfruttamento delle risorse tecnologiche a favore dell’ordine di cose esistente è una dinamica che favorisce ciò che Mark Fisher chiama “realismo capitalista”, ovvero l’incapacità dell’individuo contemporaneo di immaginare un sistema economico diverso da quello vigente. Per Fisher – lo spiega proprio nel libro omonimo del 2009, di recente pubblicato in Italia da Nero Editions – l’ideologia ci pervade a un livello di penetrazione tale da intaccare le nostre categorie cognitive, e rendere vera quella massima di Fredric Jameson per cui “è più facile immaginare la fine del mondo che la fine del capitalismo”.
L’analisi del capitalismo in Fisher è impietosa e si concentra principalmente sul rapporto fra individuo e percezione del reale: «Il capitalismo è quel che resta quando ogni ideale è collassato allo stato di elaborazione simbolica o rituale: il risultato è un consumatore-spettatore che arranca tra ruderi e rovine».
Per Fisher, il discorso neoliberista “annichilisce” ogni idea di futuro, le nuove tecnologie sono utilizzate come mera appendice di un capitalismo disumano. È davvero impossibile – alla luce dei recenti sviluppi e di quelli prossimi – ripensare il mondo che verrà in un’ottica antagonista, più aderente agli ideali di liberazione ed emancipazione dell’uomo? Per Nick Srnicek e Alex Williams mettere la tecnologia al centro del dibattito politico è un passo indispensabile per la costruzione di una nuova sinistra vincente. I due – già autori del Manifesto per una politica accelerazionista – tentano di iscrivere i saperi e le tecnologie legate all’automazione in un discorso che vede nella società del post-lavoro il raggiungimento dell’ideale di emancipazione dell’uomo. Lo scopo è tornare a padroneggiare il potenziale utopico insito nel discorso tecnologico, epurandolo tanto dalla retorica neoliberista, quanto dalla reazione della retorica antimoderna. In “Inventare il futuro” – anch’esso a breve pubblicato da Nero (editato il 14 febbraio, ndr) – i due studiosi affermano senza mezzi termini: «Questo libro vuole proporre un’alternativa: una politica che provi a riconquistare il controllo del nostro futuro, che nutra l’ambizione di immaginare un mondo ben più moderno di quello che il capitalismo ci ha lasciato in eredità. Le potenzialità utopiche latenti nelle tecnologie del XXI secolo non possono rimanere schiave della ristretta mentalità capitalista, ma vanno liberate in direzione di un’ambiziosa alternativa di sinistra».
In questa sede non voglio discutere le proposte concrete degli accelerazionisti (che pure ci sono, come la piena automazione dei modi di produzione, la riduzione della settimana lavorativa, il reddito di base universale, e il rifiuto dell’etica del lavoro come principio regolatore della società capitalista), né tantomeno verificarne i criteri di applicabilità. Eppure dovrebbe essere un elemento cardine del discorso umanista tentare di uscire dall’ordine di idee per cui il futuro che immaginiamo è solo un’intensificazione distopica del nostro presente. D’altronde risulta essere una tendenza ben visibile nei prodotti di fantascienza pop che tentano di immaginare il futuro prossimo. Black Mirror al momento è forse il più famoso, la scrittura di ogni puntata si basa su dinamiche abbastanza semplici: vengono portate alle estreme conseguenze negative le specificità di una tecnologia già presente al giorno d’oggi. Se virtuale e reale sono legati indissolubilmente – al punto che non è  più necessario fare una distinzione – allora la prospettiva di mondi alternativi, di futuri possibili, di utopie immaginabili,  si configura come un campo di battaglia importante per la governabilità del presente”.

La verità ha ragione?

02112013-Torino_057.jpg

Già ultimamente sto pubblicando poco sul blog, se poi, quando lo faccio, propino testi di questa lunghezza, capisco benissimo di non agire da buon blogger. Pazienza…
Già altre volte ho postato sul tema della post-verità, della verità, della libertà di opinione ed espressione; oggi mi sono imbattuto in una intervista/riflessione a più voci decisamente interessante. La pubblico interamente; la fonte è il Tascabile e la firma è del filosofo e ricercatore alla University College di Dublino Fabio Gironi.
Uno dei fenomeni sociali che caratterizza maggiormente la scena pubblica e politica sembra essere il disinteresse per l’opinione degli esperti, e il proliferare di “teorie alternative”. In gergo filosofico, questo fenomeno si può definire deflazione dell’autorità epistemica. Questa è una forma di autorità conferita non da status sociale, lignaggio nobiliare, o investitura divina, ma dall’esperienza in un determinato campo del sapere. L’autorevolezza del biologo, dello storico, ma anche dell’ingegnere meccanico e dell’agricoltore, dipende dal livello di studio e preparazione teorica, dall’esperienza pratica diretta, e dall’essere parte di una comunità epistemica (un gruppo di persone che condividono determinati obiettivi, e dediti allo stesso tipo di attività o ricerca) capace di valutare le proprie conoscenze.
Quello che movimenti differenti come l’anti-vaccinismo, il negazionismo del cambiamento climatico antropogenico, o proposte di “medicina alternativa” hanno in comune è un tratto fondamentale: lo scetticismo sistematico verso gli esperti, visti come collusi con “poteri occulti”, che nei casi più eclatanti sfocia in un aperto anti-intellettualismo. Questo fenomeno riflette una visione del mondo diviso in una classe di “studiosi” sedicenti esperti, e una di gente dotata di senso comune – dove quest’ultimo viene considerato come un valido sostituto alla competenza specifica.
Insieme ai diffusi fenomeni di echo chamber e filter bubble (comunità virtuali chiuse all’influenza esterna che permettono la proliferazione di notizie non sostanziate dai fatti) la perdita di fiducia nell’autorità epistemica sta producendo un cambiamento nel concetto stesso di verità dei fatti. Certamente, le menzogne non sono una novità del ventunesimo secolo: già nel 2005 il filosofo Americano Harry Frankfurt apriva il suo breve saggio “Stronzate” osservando come “uno dei tratti più salienti della nostra società è che circolino così tante stronzate”, differenziando la stronzata dalla menzogna. La prima non è solamente un capovolgimento intenzionale della verità ma dipende da un sistematico svuotamento del concetto di verità, e una studiata indifferenza rispetto ai fatti.
Ma è anche vero che la propagazione di stronzate raggiunge oggi livelli altissimi: è ovvio che certe verità non siano tali, perché l’affermazione vera è meno importante di quella efficace. Questo fenomeno è esemplificato dal ben noto termine “post-verità”: parola dell’anno nel 2016 per l’Oxford Dictionaries, questo aggettivo è definito “relativo, o che denota, circostanze in cui i fatti oggettivi hanno meno influenza nel formare l’opinione pubblica rispetto ad appelli a emozioni o credenze personali”. Altrettanto famosi ormai sono sia il termine (intrinsecamente ossimorico) alternative facts, che l’espressione fake news, entrambi contributi dell’amministrazione Trump negli Stati Uniti.
Considerato come queste distinzioni (fatti vs finzioni, verità vs menzogna) così familiari ai filosofi, abbiano oggi fatto irruzione nelle nostre discussioni quotidiane, abbiamo voluto esaminare la situazione contemporanea insieme a quattro filosofi e filosofe esperti di questioni epistemologiche: Maria Baghramian, della University College Dublin; Mario De Caro dell’Università di Roma Tre; Gloria Origgi dell’Institut Nicod dell’Ecole Normale Supérieure, e Nicla Vassallo, dell’Università degli Studi di Genova.
Alcuni critici hanno tracciato la genesi della situazione presente, più o meno esplicitamente, al clima culturale del recente passato, in particolare all’eredità del post-strutturalismo e di altre posizioni filosofiche che hanno promosso un approccio critico verso le nozioni di autorità e di verità. Ogni movimento filosofico deve essere collocato nel suo contesto storico-sociale, ed è evidente che “il postmodernismo” rispondesse a delle precise preoccupazioni socio-politiche, primo tra tutti, in campo politico, lo spettro dei dispotismi autoritari che hanno dominato la metà del ventesimo secolo (il celebre, e spesso incompreso, rifiuto delle metanarrazioni). L’ironia è che ora viene accusato di aver riprodotto lo stesso problema, rendendo qualsiasi narrazione degna di fiducia. È giusto accusare questo momento intellettuale dei mali presenti?
GLORIA ORIGGI
Il post-modernismo è un aggregato di idee di avanguardia di provenienza diversa, estremamente influente nell’arte contemporanea, nella letteratura del dopo-guerra e in una serie di esperienze artistico-politiche, spesso di natura provocatoria, necessarie però per scuotere una cultura vecchiotta, incapace di auto-osservazione e tipicamente egemonica. Non demonizzerei il post-modernismo nei contenuti, almeno non più di quanto si possa fare con i tanti movimenti di avanguardia che hanno attraversato il ventesimo secolo, con successi e insuccessi. Non c’era una verità da mettere in discussione, ma un’egemonia conoscitiva che passava dai banchi di scuola, dal sapere diffuso dai musei, dal cinema e poi dalla televisione e che andava sicuramente ripensata dopo i disastri di due guerre mondiali e di più di un secolo di colonialismo. I toni assurdi, provocatori, le boutades, le trasgressioni hanno avuto effetti positivi e negativi. Sicuramente un effetto positivo è stato quello di includere nel discorso culturale “alto”, personaggi, esperienze, culture, minoranze che a questo discorso non avevano accesso. Un altro innegabile effetto positivo è stato quello di sviluppare una coscienza critica nei confronti dei propri atti culturali e svelare la dimensione spesso politica o economica di tutte le espressioni culturali. Le conseguenze negative sono state un generale impoverimento dell’esperienza culturale, uno scetticismo verso la qualità intrinseca dell’oggetto culturale che ha fatto sì che da movimento di avanguardia, il postmodernismo si allineasse con le esperienze culturali più “leggere” della nostra società, come la pubblicità o il marketing. E insieme una tendenza paranoica collettiva a leggere in termini manipolatori qualsiasi proposta conoscitiva. Movimento tendenzialmente “di sinistra”, il postmodernismo è stato purtroppo reclutato “a destra” per legittimare la decimazione degli studi umanistici nelle università di tutto il mondo, visti come ricettacolo di idee paranoiche e estremiste volte ad abbattere il canone culturale occidentale. L’accusa che rivolgo al post-modernismo è più che altro questa: che, grazie alla sua faciloneria intellettuale ha delegittimato le scienze umane, rendendosi complice di un generale impoverimento del sapere, di un “clash” tra cultura scientifica e cultura umanistica e di una tecnicizzazione della conoscenza che ci rende tutti più stupidi. Non bisogna però confondere le derive postmoderniste dall’idea di Lyotard di condizione postmoderna. Quella fu una vera intuizione. E noi oggi siamo in una condizione postmoderna, per navigare la quale il postmodernismo come movimento di idee non ci aiuta per niente, ma neanche il tentativo ingenuo (penso al nuovo realismo) di ritrovare una realtà intatta, un terreno sicuro a cui ancorarci come dei naufraghi a una zattera.
MARIA BAGHRAMIAN
Diversamente da molti miei colleghi sul fronte continentale, non ho mai apprezzato molto le virtù del postmodernismo, in particolare considerando i suoi proclami di rappresentare un momento progressivo, e politicamente sovversivo, della nostra vita intellettuale. Il mio rigetto del postmodernismo ha dei paralleli con la mia critica del relativismo, un tema chiave della mia ricerca degli ultimi trent’anni. Da una parte, mi sono sempre opposta a un troppo semplicistico rifiuto del relativismo come incoerente o contraddittorio, ma dall’altra ho sempre rifiutato con forza l’identificazione di un’attitudine relativistica con una politica progressista. Il relativismo è un framework concettuale molto sfuggente, che può condurre a quietismo e inazione, ma può anche essere adottato a fini autoritari e regressivi. Non dobbiamo dimenticarci che Mussolini era un convinto relativista, e che i Nazisti proposero una forma di relativismo razziale. I pensatori postmoderni, attraverso aforismi e metafore piuttosto che tramite argomentazioni filosofiche tradizionali, hanno messo in dubbio alcuni precetti fondamentali del discorso culturale, che si concentra sui temi della ragione, e della ricerca razionale. Facendo ciò, hanno occupato lo stesso terreno intellettuale del relativismo. Questo, secondo me, è stato il loro più grande difetto. Il postmodernismo ha “problematizzato” (come si dice in gergo) le idee di oggettività, verità, e logica, con l’obiettivo – si diceva – di liberarci dalla schiavitù della ragione, imposta dall’Illuminismo. Quest’ultimo viene presentato come un movimento monolitico e autoritario alleato con l’imperialismo occidentale e il colonialismo, mentre il postmodernismo sarebbe alleato alla lotta per l’emancipazione da ogni tipo di tirannia. Per molti postmodernisti l’Illuminismo – accompagnato dalla fiducia nella forza della ragione e della razionalità, e l’ottimismo nei confronti della possibilità di emancipare la specie umana – divenne un nemico politico e sociale. I critici postmoderni della scienza, delle sue pratiche e istituzioni hanno ragione a enfatizzare i meccanismi di esclusione presenti in essa. Le donne, le persone di colore, e altri gruppi marginalizzati sono stati sistematicamente esclusi, sottovalutati e umiliati. Ma le ragioni di queste esclusioni sono opposte a quelle proposte dal postmodernismo. Che la conoscenza è potere è un’antica ma profonda intuizione riguardo al ruolo che la conoscenza gioca all’interno della nostra vita sociale e politica. Gli uomini bianchi al potere hanno usato la scienza e le norme razionali per escludere le donne e gli “altri differenti” dai centri di conoscenza che si affidano proprio a queste norme. Il responso a queste pratiche di esclusione non deve essere quello di abbandonare i potenti proclami della conoscenza scientifica, ma di rivendicarli a sé. Ad esempio, le donne in Iran stanno riuscendo in questo intento, riempiendo i campi STEM nelle università del paese, tradizionalmente riservati agli uomini.
È possibile che l’overdose di informazioni di cui il pubblico è oggi bombardato tramite i media digitali produca un rilassamento della distinzione tra verità e finzione? È concepibile che ci siano specifici limiti cognitivi che, in quanto esseri umani, limitano la nostra capacità di filtrare ed elaborare un numero così grande di informazioni, spesso contraddittorie?
GLORIA ORIGGI
Non capisco quale sia stata l’età dell’oro in cui la gente credeva nella realtà invece che nelle finzioni. La quantità di stronzate che l’umanità è sempre stata disposta a credere non credo sia aumentata con l’avvento di Internet. È forse solo più visibile. Ma è vero che le società a forte densità informazionale come le nostre società tardo-moderne hanno effetti epistemici propri: paradossalmente, come ho cercato di mostrare nel mio lavoro, più l’informazione aumenta, più la reputazione delle fonti di informazione diventa rilevante, anzi, indispensabile per navigare un mare troppo fitto di informazioni. Un’epistemologia del presente deve dunque fornire gli strumenti per distinguere indizi reputazionali farlocchi da indizi reputazionali robusti, un lavoro ancora da cominciare che sarà sicuramente al centro della ricostruzione di un metodo sociale, condiviso e razionale di distinguere la qualità epistemica dell’informazione che ci attraversa ogni giorno.
MARIA BAGHRAMIAN
Anche io penso che la profusione di dati e informazioni odierna ha esacerbato un problema pre-esistente e perenne, quello di dover prendere una decisione riguardo a idee e fonti di informazione in contrasto tra loro. Il problema non è, o non dovrebbe essere, formulato in termini di un rilassamento della distinzione tra verità e menzogna. Questa distinzione, mi sembra che sia implicita nella nozione stessa di modi di pensare giusti e sbagliati riguardo a ciò che succede. Il problema risiede piuttosto nel nostro non avere sufficienti strumenti epistemici per distinguere le informazioni vere da quelle false, o fuorvianti. E parte del problema risiede nel minor prestigio dato oggi alla testimonianza degli esperti. La maggior parte delle cose che sappiamo deriva da ciò che abbiamo imparato dalle testimonianze ricevute da altre persone. La testimonianza degli esperti – coloro che hanno un livello di competenza e di conoscenza maggiore del nostro – è una delle fonti più importanti di conoscenza. La democratizzazione dell’informazione resa possibile da Internet, e la facile reperibilità di moltissime testimonianze di “esperti” su qualsiasi argomento, ha finito con l’indebolire il ruolo tradizionale della testimonianza come fonte di conoscenza. Con un click possiamo (o almeno ci piace pensare che possiamo) controllare e mettere in questione i consigli che ci vengono dati dai nostri dottori, i nostri avvocati, consulenti finanziari e altri tipi di esperti tradizionali. In ultima analisi, credo che l’egualitarismo epistemico nell’era dei big data sia uno sviluppo positivo, ma come tutte le rivoluzioni, questa rivoluzione informatica ha portato con sé grande insicurezza riguardo alle fonti dell’autorità, affidabili o meno.
La maggior parte delle verità scientifiche non si possono leggere direttamente guardando i fatti, ma richiedono sovrastrutture teoriche, discussioni, e interpretazione dei dati per essere stabilite con certezza, e di conseguenza non si può concepire una comunità scientifica senza un certo disaccordo interno. Come si può comunicare questo processo al pubblico senza produrre, da una parte, un ulteriore scetticismo nei confronti della scienza, o, dall’altra, la convinzione che, se il disaccordo produce conoscenza scientifica, chiunque può essere in disaccordo con il consenso scientifico?
MARIA BAGHRAMIAN
Sono d’accordo, il disagreement è essenziale alla scienza e contribuisce positivamente a essa. Le cose si complicano quando ci si affida alla scienza e agli scienziati per consigli riguardo a decisioni politiche. Ovviamente, non è possibile prendere nessuna decisione coerente sulla base di opinioni scientifiche discordanti. In più, la fiducia che di solito accordiamo a scienziati e risultati scientifici pertinenti a questioni impersonali e su larga scala viene erosa laddove questi prendono posizione su questioni che hanno un impatto diretto sulla nostra vita e sul nostro benessere. Bisogna ricordare che quello di affidarsi a scienziati per decisioni di carattere politico è un fenomeno relativamente nuovo. La maggior parte degli storici della scienza considera la Seconda Guerra Mondiale come il punto di svolta, un periodo che cambiò radicalmente il rapporto tra governi e consulenti scientifici. Le necessità portate dalla guerra moderna crearono forti legami tra scienza e legislatura, come venne dimostrato in maniera lampante dal Progetto Manhattan negli Stati Uniti, e da Bletchley Park nel Regno Unito. Le famose parole di Robert Oppenheimer “Sono diventato Morte, il distruttore di mondi”, citando la Bhagavadgita, influenzano ancora oggi la nostra percezione del rapporto tra scienza e stato. Mentre dunque il pubblico è disposto a dare fiducia agli scienziati per quanto riguarda questioni tecniche, si sente anche giustificato a sospendere questa fiducia laddove i loro risultati scientifici siano direttamente legati alle nostre vite quotidiane. La soluzione non è quella di nascondere il dissenso tra scienziati (come a volte si è provato a fare), o credere che la situazione verrà rettificata quando il pubblico riceverà una chiara e precisa educazione scientifica. Piuttosto, la soluzione risiede nell’assicurarsi che le istituzioni scientifiche e gli scienziati siano consapevoli della sensazione di vulnerabilità avvertita dal pubblico di fronte alla potenza della scienza.
GLORIA ORIGGI
Come hanno già detto molti filosofi, penso per esempio a Richard Rorty, la scienza può ispirare la gente comune come “modello” di attività epistemica ed etica: il fatto che nelle varie discipline esistano disaccordi più o meno rispettati, e che i disaccordi producano uno sforzo collettivo per andare più lontano nella comprensione, può essere un esempio di etica della conoscenza che ispira, ma certo non si può pensare realisticamente che gli esseri umani adottino in massa un metodo scientifico di disaccordo ragionato per farsi un’idea del mondo che hanno intorno. Sappiamo dalla psicologia che gestire la contraddizione è una delle cose più difficili per la mente umana: il bisogno di ridurre la “dissonanza cognitiva” è tra i meccanismi psicologici più forti che guidano il nostro pensiero. Non si può cercare di cambiare le basi cognitive del ragionamento umano: si possono però creare istituzioni, forme di incontro, metodi di dibattito, che fanno emergere il dissenso in modo costruttivo. Si può anche imparare a riconoscere e criticare i “vizi epistemici” di tanti discorsi, come l’insensibilità davanti agli argomenti contrari, l’indifferenza alle più semplici intuizioni statistiche, o l’attrazione per le teorie complottiste e paranoiche che hanno il fascino di mettere insieme fenomeni tra loro sconnessi in una specie di “narrativa” gratificante al di là di qualsiasi oggettività. Un’epistemologia politica che comprenda a quale punto la conoscenza dipenda dalle strutture istituzionali che la fanno circolare è sicuramente necessaria per creare un’epistemologia del quotidiano più virtuosa.
NICLA VASSALLO
Quanto al problema di comunicazione, mi sembra che sarebbe abbastanza semplice: basterebbe presentare il disaccordo tra scienziati come il disaccordo tra esperti. Quando ad esempio una persona soffre di una certa patologia si reca da più esperti, e se questi (come spesso accade) sono in disaccordo tra loro si presenta il problema di chi scegliere. E lo stesso accade nella comunità scientifica. Ma la differenza tra il primo e il secondo caso è che il disagreement nella comunità scientifica (come in quella filosofica) è essenziale al progresso. Se tutti fossero d’accordo vivremmo in uno stato di stasi; invece il disaccordo e la critica devono essere visti come positivi. Purtroppo il pubblico non sospende mai il giudizio, e prende parte senza cognizione di causa per l’una o per l’altra parte di un dissenso scientifico a seconda di balzane convinzioni. Penso che la possibilità di offrire al pubblico confronti diretti o dialoghi tra due o tre scienziati che la pensino in modo diverso sullo stesso tema sarebbe utile. Infatti ciò aiuterebbe il pubblico a comprendere che le divergenze effettive sono minori di quelle che ci spacciano i media, e comprendere che questa è l’unica via che porta alla risoluzione dei problemi, il processo collettivo del problem-solving.
MARIO DE CARO
Vorrei aggiungere che l’unico modo di risolvere il problema è una seria educazione scientifica. È stato scritto recentemente che molta polemica contro i vaccini è condotta da persone che hanno studiato: il problema è capire cosa e come hanno studiato. In Italia c’è una tradizione antiscientifica molto forte, che in parte deriva dalla riforma Gentile la quale, nonostante i suoi pregi, ebbe anche alcuni grandi difetti: per cui ci sono persone che non hanno la minima idea di come funzionano la statistica e la probabilità, e che quindi, di fronte al fenomeno vaccini, non sanno comprendere appieno il problema. È del tutto evidente — è provato — che i vaccini purtroppo sono mortali per alcuni soggetti. Eppure, usandoli, si salvano molte più vite di quante se ne perdano. Naturalmente se una trasmissione (generalmente ottima) come Report va a intervistare le famiglie delle persone che sono decedute per via di un vaccino, questa informazione è scorretta, perché presenta questa morte come l’unico dato rilevante. In generale, se non si conoscono un minimo di statistica, probabilità e storia della scienza diventa praticamente impossibile orientarsi rispetto a queste questioni. Bisogna migliorare la qualità dell’istruzione scientifica, ma anche la qualità – e questo è importante – delle informazioni scientifiche diffuse dai mass media. Ci sono alcuni media che – un po’ in malafede, un po’ per ignoranza – diffondono notizie assurde. Benché in proposito non si possa imporre la censura, si dovrebbe far sì che i media che sanno come si fa la divulgazione scientifica siano nella posizione di criticare gli altri, e di dimostrare come quel modo di discutere di determinati problemi non funziona. È necessario comunicare correttamente sia i risultati scientifici che il metodo della scienza.
Spesso sembra esserci confusione tra, da una parte, l’autorità conferita dalla conoscenza (il capire, e saper spiegare, i processi che producono un fenomeno) e dal rispetto di norme argomentative condivise e, dall’altra, le strutture normalizzanti e autoritarie. Di conseguenza, coloro che vogliono difendere il prestigio epistemico della competenza vengono accusati di elitismo, in nome del principio (giusto, ma soltanto se contestualizzato) che “tutti hanno diritto alla loro opinione”. Come si difende il concetto di autorità epistemica senza cadere nella dittatura delle “autorità” o nella “tecnocrazia”?
MARIA BAGHRAMIAN
Si, è molto triste che la nozione di competenza, o di “autorità epistemica” sia stata accorpata all’elitismo, o addirittura a impulsi autoritari. La divisione del lavoro, linguistico ed epistemico, e la specializzazione che la accompagna sono essenziali per il funzionamento delle comunità che condividono un linguaggio e un modo di pensare, particolarmente in società avanzate e complesse. Per fare solo un esempio, la scienza come viene praticata oggi è un’impresa collettiva la cui condotta richiede un’enorme mole di divisione del lavoro epistemico e di specializzazione. Senza fiducia nella competenza di coloro che lavorano in altre sotto-specializzazioni, la scienza non potrebbe progredire, né funzionare nella sua forma attuale. Mi sembra che queste reazioni contro l’“elitismo” della competenza siano il prodotto di pressioni economiche più che filosofiche, e devono essere spiegate di conseguenza. L’ordine economico Neoliberista ha celebrato la competenza e gli ha dato un posto di prestigio all’interno del processo decisionale sociale ed economico. L’affidamento alla conoscenza degli esperti è spesso stato accompagnato da premi economici – in particolare nel campo bancario, finanziario e legale – del tutto sproporzionati al contributo che questi esperti effettivamente apportano al benessere della società. Un secondo problema (legato al primo) è ancora una volta quello del legame tra conoscenza e potere. La conoscenza ci conferisce autorità oltre al campo epistemico, ed è spesso stata uno strumento nelle mani della volontà di potenza. Sapere, ed essere portatori di conoscenza, ci permette di influenzare gli altri, di perseguire i nostri obiettivi. Non è necessario credere (come sostiene Tim Williamson) che la conoscenza sia la norma per fare affermazioni, o che la conoscenza venga per prima, per poter apprezzare il ruolo primario che gioca in tutti i nostri scambi sociali. È un’ovvietà, ma non del tutto banale, che la conoscenza conferisce potere, ma il potere, in tutti i casi, deve rispondere dei bisogni degli altri e alle loro (e nostre) vulnerabilità. Possiamo vedere i primi segni di questa preoccupazione riguardo all’esercizio della conoscenza scientifica senza senso di responsabilità nel Dr. Frankenstein, di Mary Shelley, un romanzo quasi profetico considerando come al tempo la scienza moderna era ancora giovane. Sapere, e brandire il potere che la conoscenza ci conferisce senza responsabilità di fronte alle questioni etiche che questa conoscenza produce, è un pericolo che dobbiamo sempre tenere bene in considerazione. La connessione tra i parametri normativi della conoscenza e il mantra (a prima vista tollerante e inclusivo) “tutti hanno diritto alla loro opinione” è interessante. Molto spesso in dibattiti e conversazioni, in particolare riguardo a questioni etiche e politiche negli Stati Uniti, l’affermazione “ho diritto alla mia opinione” viene usata come carta che pone fine alla discussione. Questo è un errore. Se affermi la tua opinione sei, come minimo, responsabile per la sua plausibilità razionale, se non proprio per la sua verità. Le opinioni non sono differenti da altri tipi di credenze. Siamo tutti responsabili pubblicamente per le nostre opinioni, così come lo siamo per le nostre affermazioni di conoscenza. Gli usi odierni di questo mantra dimenticano questo componente normativo.
NICLA VASSALLO
Purtroppo sul piano fattuale si è confusa l’autorità epistemica con l’autorità politica, o l’autorità del dittatore. E tale confusione è stata particolarmente accentuata in quelle democrazie dove abbiamo avuto governi tecnici: ad esempio economisti al potere che hanno mentito, e non si sono mai pentiti delle loro menzogne (perdendo dunque la fiducia del pubblico). E il caso del nostro paese è un caso classico. Come si può ripristinare la fiducia perduta? Cercando di distinguere nettamente (nonostante le illusioni di Platone) tra il politico e l’autorità epistemica. L’autorità epistemica può solo essere un buon consigliere di un politico, ma a mio avviso non può e non deve entrare direttamente in politica: deve suggerire al meglio il politico rimanendo svincolata dal potere politico.
MARIO DE CARO
Questo è il tipico argomento in cui si discute di bianco e di nero, come se non ci fosse alcuna via di mezzo. Con questo modo di procedere non si ottiene nulla, e anzi si generano facilmente disastri. È del tutto evidente che esiste un ampio terreno intermedio tra l’imporre presunte verità con la forza e l’accettare qualunque scempiaggine come se fosse parimenti autorevole. È sempre stato così, ma oggi con internet la situazione è peggiorata: si pensi alla famigerata frase di Umberto Eco “Internet permette a qualunque cretino di dire la sua opinione”: forse è un po’ rude, ma ha una giustificazione. Su Facebook ho letto eminenti professori o studiosi di determinati campi spiegare la propria opinione informata ed essere “confutati” in due righe da qualcuno, completamente digiuno della materia del contendere. Questo è un fenomeno grave, e direi che Facebook e simili non sono i social media ideali per una discussione seria. Il problema è che le distinzioni sono difficili: è chiaro che esistono autorità autoritarie e autorità autorevoli. È una cosa in sé ovvia, ma si sta abbassando il livello dell’istruzione generale: si tagliano i fondi per l’istruzione, la gente non va a scuola, non studia bene e poi finisce per dire scempiaggini, non essendo in grado di riconoscere i ragionamenti corretti da quelli scorretti. La situazione non sarà mai perfetta, ma ci sono molti margini di miglioramento.
GLORIA ORIGGI
A me sembra che nelle grandi visioni sulla democrazia e in particolare nell’entusiasmo per il ruolo della Rete, vi è sempre stata una certa tendenza a semplificare e idealizzare sia le capacità cognitive che le dinamiche sociali dei cittadini. Se l’uguaglianza di diritti è un caposaldo della democrazia anche in un’epoca di spettacolari disuguaglianze economiche, l’uguaglianza epistemica, o l’egualitarismo epistemico, è spesso una nozione sottintesa, che vede i soggetti cognitivi come tutti uguali, intercambiabili, in linea di principio capaci di sviluppare tutti gli stessi argomenti seguendo lo stesso metodo (una tesi criticata per esempio da molta epistemologia femminista). L’egualitarismo epistemico è rivendicato come un diritto fondamentale non a chiedere ragioni o ad avere accesso alle stesse risorse epistemiche (diciamo una rivendicazione di qualche forma di “diritto aletico”, come ha sostenuto recentemente in un saggio pubblicato da Franca D’Agostini nella rivista Biblioteca della Liberta del centro Einaudi), ma una rivendicazione ad avere ragione e poter esprimere il proprio punto di vista al di là di qualsiasi standard argomentativo condiviso. Una rivendicazione resa possibile dalla straordinaria capacità del Web di dare voce a una moltitudine di individui che mai avevano avuto accesso alla parola “pubblica” prima d’ora. Avere ragione secondo i propri standard, rifiutare di farsi imporre qualsiasi standard epistemico percepito come una coercizione “dall’alto” è il tranello in cui cascano i cittadini più vulnerabili, che si sentono “empowered” cognitivamente e socialmente dal poter esprimere la loro opinione e non si rendono conto di essere vittime di nuove forme di controllo dell’opinione e di coercizione mentale. Un risultato recente mostra come coloro che sono i più scettici riguardo all’autorità delle testate di informazione tradizionali sono anche i più ricettivi a credere alle teorie del complotto e a cascare nella rete delle bufale trasmesse attraverso i social networks. Questo “corto-circuito” tra politica ed epistemologia è forse uno degli aspetti più salienti delle società iper-connesse e (spesso definite) post-democratiche attuali nelle quali la sovraesposizione dei pareri dei cittadini bypassa la rappresentanza politica con modalità che delegittimano la seconda senza legittimare la prima.”