Social e AI: c’è spazio per un etica pubblica?

Se lo chiede il giornalista Marco Brando sul sito Treccani. Lo spunto gli arriva dal libro “L’etica stanca. Dialoghi sull’etica pubblica” di Rocco D’Ambrosio.

“La maggior parte degli italiani oggi si confronta, su qualsiasi tema, soprattutto online; in particolare attraverso i social network. Succede in Italia come altrove. Assai meno capita di confrontarsi nei vari luoghi fisici destinati prima, in modo prevalente, a questo scopo: dalle conferenze alle cosiddette “chiacchiere da bar”. Tuttavia la mediazione di hardware e software, di algoritmi e intelligenza artificiale generativa (IA) non cambia soltanto il supporto/luogo in cui ci esprimiamo. Modifica pure il modo con cui affrontiamo questioni spesso impegnative e complesse; ciò influenza l’approccio a quei temi anche fuori dal Web. Sono incluse le discussioni dedicate, in modo più o meno approfondito, al sistema di valori e princìpi morali che guidano, o dovrebbero guidare, il comportamento individuale e sociale; alcune accese diatribe virtuali tracimano grossolanamente persino nell’etica, intesa come riflessione sui fondamenti, i princìpi e le implicazioni dei sistemi morali.
Purtroppo sui social anche in campo etico-morale prevale quasi sempre un lessico all’insegna della superficialità e dell’emotività. Ciò è spesso frutto di atteggiamenti mentali e distorsioni cognitive (bias). I bias sono incentivati dagli algoritmi che, per scelta produttiva e commerciale delle big-tech, governano le piazze virtuali. La circostanza favorisce la polarizzazione, fenomeno studiato dalla psicologia sociale anche prima dell’avvento del Web: i membri di un gruppo sono spinti a far proprio il punto di vista più estremo rispetto alla media di quelli adottati nell’àmbito del gruppo stesso. Di certo, il “metabolismo” dei social spinge verso un’accentuazione del fenomeno. Come scrive Maura Coniglione su RizzoliEducation.it: «nei dibattiti online, […] prevale il principio: “O la pensi come me, o sei contro di me, e con te non posso dialogare”. È il motivo per cui, sotto contenuti che trattano temi divisivi, i commenti mostrano opinioni così polarizzate e inconciliabili da impedire una immedesimazione con altri punti di vista, come se l’altro venisse disumanizzato».
Lo psicologo sociale Matthieu Vétois precisa che, «a livello di relazioni tra gruppi, la polarizzazione emerge quando le convinzioni e i comportamenti collettivi si radicalizzano opponendo un gruppo all’altro. Sul piano individuale si traduce in una radicalizzazione delle posizioni […], così come nel rifiuto e nella delegittimazione di idee divergenti da quelle del proprio gruppo di appartenenza».
Con l’aiuto del sociologo William Davies, possiamo sostenere che «dove […] l’emotività assume un ruolo fondamentale, si manifesta l’improvvisa assenza di un punto di vista autorevole sulla realtà. Nell’era digitale, quel vuoto di informazioni attendibili viene colmato da voci, fantasie e congetture, alcune delle quali immediatamente distorte ed esagerate per adattarle al discorso che si vuole veicolare».

Quando questi atteggiamenti riguardano temi etici o politici (spesso i due piani si intersecano), i contraccolpi non si avvertono solo nella sfera della nostra “quotidianità digitale”; incidono pure sui punti di vista e sulle scelte fatte fuori dal Web, sul rapporto con le istituzioni e sull’atteggiamento in occasione di scadenze elettorali o referendarie, quindi sulla propaganda politica. Ciò induce a riflettere a proposito del concetto, anche lessicale, di “etica pubblica”, una volta che questa viene mediata e talvolta adulterata dai social e da Internet; induce poi a valutare l’impatto del fenomeno sulla cultura di massa. Perché il linguaggio espresso online ha un duplice effetto: da un lato – pur non evitando stress, rabbia o delusione – ci risparmia il contatto diretto, che è stato per millenni un elemento cruciale nell’interazione tra le persone; dall’altro lato, la possibilità di scavalcare questa interazione contribuisce a far aumentare la supponenza, l’aggressività, la sentenziosità, l’emotività, il linguaggio d’odio (hate speech).

Come ha riassunto il disegnatore satirico Francesco Tullio Altan in una vignetta, nel contesto dei social network anche il razzista fascistoide si sente al sicuro; mentre è seduto comodamente davanti al computer, afferma: «Un semplice clic e si può fare un po’ di razzismo comodamente da casa». Tantissimi casi di cronaca, anche recentissimi, legati a “giudizi” agghiaccianti espressi online (si pensi a certi sadici commenti antropocentrici sui femminicidi o agli insulti rivolti contro la 94enne senatrice a vita Liliana Segre, superstite e instancabile testimone della Shoah) ci consentono di verificare quanto la digitalizzazione della riflessione immorale o amorale trasformi le persone più insospettabili in odiatori seriali; questi si esprimono più o meno di getto nell’illusione di poterla fare franca. Insomma, l’ambiente digitale favorisce l’aggressività, la polarizzazione e la propaganda. La discussione su temi complessi – inclusi quelli etici – viene ridotta a slogan; le incubatrici di questo atteggiamento sono soprattutto le cosiddette “echo chamber” digitali: quelle “bolle” dove «idee o credenze più o meno veritiere vengono amplificate da una ripetitiva trasmissione e ritrasmissione all’interno di un àmbito omogeneo e chiuso».
È opportuno, dunque, dedicarsi ai riflessi del dibattito social sull’etica pubblica. Questo contesto è esaminato da Rocco D’Ambrosio, presbitero della diocesi di Bari, a Roma professore ordinario di Filosofia politica nella Facoltà di filosofia della Pontificia Università Gregoriana e docente di Etica della pubblica amministrazione. D’Ambrosio se ne occupa, mentre affronta la questione anche su altri fronti, nel recentissimo libro L’etica stanca. Dialoghi sull’etica pubblica (Roma, Studium Edizioni, 2025), dove riporta i contenuti di una riflessione in cui ha coinvolto molti interlocutori provenienti da vari àmbiti (accademico, giuridico, medico, giornalistico, istituzionale ecc). Pur attingendo molto a pensatori classici (come Platone e Aristotele) e moderni (tra gli altri Max Weber, Hannah Arendt, Emmanuel Mounier, e John Rawls), si concentra principalmente sull’analisi dell’etica pubblica nelle società liberal-democratiche, soprattutto quella italiana.La sintesi in quarta di copertina rende l’idea della posta in gioco: Si entra nella sfera pubblica ogni qualvolta usciamo di casa, a piedi, o in auto o con i mezzi pubblici, per raggiungere il luogo di lavoro o di incontro con amici e conoscenti, sedi di istituzioni politiche, amministrative, culturali, di volontariato, comunità di fede religiosa. Entriamo nella sfera pubblica, in maniera del tutto diversa, anche ogni qualvolta usiamo il nostro smartphone o computer per navigare o essere presenti sui social. Tutte queste azioni pubbliche pongono tante questioni e dubbi etici.
Il titolo stesso – L’etica stanca – gioca su una duplice interpretazione: la discussione sull’etica può risultare faticosa per chi l’affronta; oppure l’etica stessa può essere “stanca” di orientare e insegnare in un mondo che sembra ignorarla. L’autore sceglie di mantenere aperta questa ambiguità, sottolineando comunque la perdurante necessità dell’etica, intesa come “il nostro modo di stare al mondo”.
La riflessione ruota intorno ad alcuni cardini concettuali. Per esempio, per quel che riguarda il confronto tra etica pubblica ed etica privata, D’Ambrosio nega che ci sia una netta separazione. Se la prima è definita come il modo di comportarsi nella sfera pubblica (include politica, economia, lavoro, vita associativa e istituzionale), la seconda, che riguarda le scelte cosiddette “private”, ha inevitabilmente ricadute sulla collettività. E viceversa. Il saggio affronta anche la “privatizzazione del pubblico”: entità non statali, specialmente nel settore tecnologico e mediatico, “privatizzano” lo spazio pubblico e influenzano pesantemente le dinamiche sociali e politiche, spesso a scapito del bene comune.
In questo quadro, particolare attenzione è dedicata all’influenza dei social media e dell’intelligenza artificiale generativa. Di fatto, le piattaforme social privilegiano, rispetto alla razionalità, l’emotivismo – con i giudizi etici che diventano espressione di preferenze personali o sentimenti momentanei, facilmente manipolabili – piuttosto che il risultato di una riflessione condivisa: le informazioni con il maggior potenziale di “eccitazione” prevalgono sugli argomenti ponderati, grazie agli algoritmi concepiti dalla big-tech per massimizzare il traffico e il profitto sulle loro piattaforme. Ciò contribuisce a determinare una “crisi delle relazioni”, legata all’individualismo e alla perdita di un linguaggio capace di esprimere profondità.
Secondo D’Ambrosio, alla vera “relazione” umana si contrappone la mera “connessione” digitale. In quest’ottica, il rapporto tra responsabilità individuale e collettiva emerge come il tema cardine, inteso come capacità di rispondere delle conseguenze delle proprie azioni e come impegno attivo contro l’indifferenza («Me ne frego»). In sintesi, secondo l’analisi presentata in L’etica stanca, l’ecosistema digitale attuale rappresenta una seria minaccia alla percezione e alla pratica di un’etica pubblica basata su razionalità, verità, empatia, bene comune e dialogo autentico.
Scrive l’autore: «Un’etica pubblica, come ogni pensiero etico, è possibile solo se siamo capaci di dare ragione dei nostri giudizi, riconoscendo l’influenza delle emozioni senza però permettere che queste governino del tutto i processi cognitivi o si sostituiscano ad essi».
Anche in Italia la digitalizzazione del dibattito pubblico e l’intelligenza artificiale stanno ridefinendo il panorama dell’etica pubblica, presentando sia notevoli opportunità sia sfide complesse. Fattori culturali, come la normalizzazione del “vantaggio personale”, continuano a influenzare la pratica dell’etica pubblica, intrecciata fortemente con quella privata. Bisognerebbe promuovere l’etica dal basso, rafforzando anche il senso della responsabilità civica. Questo processo, lento e complesso, dovrebbe coinvolgere attivamente tutti, forze politiche e sociali e istituzioni incluse (con la scuola in testa), per creare un ambiente in cui le norme etiche democratiche non siano imposte, ma interiorizzate e percepite come intrinsecamente “buone” e “utili” per la collettività. I segnali che vengono, per esempio, dalla disaffezione verso alcuni pilastri della democrazia italiana – come le elezioni e i referendum – non depongono a favore dell’ottimismo. Tuttavia, come suggerisce la lettura del saggio L’etica stanca, sarebbe profondamente immorale, a livello pubblico e individuale, dare per persa questa partita fondamentale.”

Ma esiste la radicalizzazione algoritmica?

Immagine creata con ChatGPT®

Alberto Acerbi è ricercatore nel Dipartimento di sociologia e ricerca sociale dell’Università di Trento. Si interessa di evoluzione culturale e antropologia cognitiva. Ha recentemente pubblicato per Einaudi il libro Tecnopanico. Media digitali, tra ragionevoli cautele e paure ingiustificate. Si tratta di un libro che vuol mostrare “come possiamo affrontare con intelligenza e consapevolezza le sfide dell’era digitale. Una guida indispensabile per orientarsi tra preoccupazioni giustificate e allarmismi infondati, e affrontare in modo critico e consapevole l’era digitale”. Il 13 marzo ha pubblicato per Il Mulino un articolo molto interessante dal titolo “Rabbit holes are for rabbits. Quante sono le paure collettive legate alle recenti tecnologie di comunicazione digitale?”. Eccolo:

“All’inizio di Alice nel paese delle meraviglie, la protagonista, annoiata, vede un coniglio bianco «con occhi di rubino» che le passa accanto. Non solo: il coniglio parla tra sé e sé lamentandosi di essere in ritardo, ed estrae un orologio dal suo panciotto per controllare l’ora. Alice, incuriosita, lo segue lanciandosi nella buca della conigliera e così iniziano le sue surreali avventure. La «tana del bianconiglio» è divenuta la metafora di un processo in cui, partendo da credenze ordinarie, si diventa via via sempre più coinvolti in credenze meno ordinarie, persi in situazioni che si allontanano sempre di più dalla realtà.
Immaginate di essere su YouTube e di voler cercare, per curiosità, un video di un comizio di Donald Trump; o di essere un giovane adolescente (maschio) in cerca di consigli di vita. Questi sono classici punti di partenza, riportati dai media, di «rabbit holes» generati dagli algoritmi dei social media. I video che YouTube vi proporrà diventeranno, lentamente ma costantemente, più estremi. Passerete da Trump all’estrema destra e poi a «Potere bianco» e alla negazione dell’Olocausto. I consigli di vita per giovani maschi vi porteranno a video che suggeriscono che la civiltà occidentale è minacciata dagli immigrati musulmani e dai «marxisti culturali», che le differenze innate di Qi spiegano totalmente le disparità razziali e che il femminismo è un’ideologia pericolosa. Alcuni di voi finiranno per crederci.
L’idea di «radicalizzazione algoritmica» ha avuto un successo considerevole: il meccanismo è intuitivamente plausibile e ci permette di dare senso a circostanze spiacevoli. Basterebbe che i social media non proponessero questi contenuti così facilmente ed eviteremmo la diffusione di queste credenze. Purtroppo, quando si è provato a valutare questa ipotesi i risultati non sono stati incoraggianti. Varie ricerche mostrano che l’algoritmo di YouTube, almeno negli ultimi anni, non sembra proporre video dai contenuti politici più estremi di quelli che gli utenti guardano. La maggior parte dei suggerimenti punta ai canali dei media tradizionali, che sono quelli che hanno già più audience. Come nel caso delle news, la stragrande maggioranza delle interazioni con siti di informazione online riguarda media tradizionali e l’algoritmo di YouTube semplicemente rinforza questa tendenza.
I canali estremisti hanno, nella maggior parte dei casi, un successo limitato. Quando sentiamo nei media di un canale o di un video «alternativo» che ha avuto molto successo è appunto perché si tratta di un caso raro. Un aspetto interessante è, inoltre, che le visualizzazioni dei video dei canali estremisti o «alternativi» provengono generalmente da utenti che sono già iscritti a quei canali o a canali simili, al contrario di quello che avviene per i canali dei media tradizionali che riescono meglio a catturare nuovi utenti. Non sorprendentemente, le raccomandazioni algoritmiche si allineano agli orientamenti politici degli utenti. Se, di vostra iniziativa, guardate video con tendenze politiche di estrema destra (o di estrema sinistra), YouTube continuerà a proporvi video di quel genere ma senza che diventino necessariamente più estremi. Partendo da video con tendenze politiche di estrema destra, per esempio, vi potrà capitare che vi vengano proposti anche video dai contenuti problematici discussi sopra (antisemitismo, razzismo e simili), ma, come detto, è perché da lì siete partiti.
Uno studio recente, ideato da Homa Hosseinmardi e colleghi, e pubblicato nei Proceedings of the National Academy of Sciences degli Stati Uniti, ha tentato di esaminare la questione della radicalizzazione algoritmica e in particolare della causalità sottostante – sono le nostre scelte o sono le raccomandazioni dell’algoritmo? – con una metodologia ingegnosa. I ricercatori hanno creato quelli che chiamano dei «bot controfattuali». Nelle scienze sociali, un’analisi controfattuale esplora cosa sarebbe potuto accadere se certe condizioni fossero state diverse rispetto a quelle effettivamente esistenti. Cosa sarebbe successo se Hitler avesse vinto la Seconda guerra mondiale? Cosa sarebbe successo se i governi avessero adottato politiche energetiche sostenibili vent’anni fa? Più in piccolo, immaginate che qualcuno crei un finto utente YouTube che ha la vostra stessa cronologia di visualizzazioni fino a oggi. Questo è il vostro bot controfattuale. Da domani, il vostro bot seguirà ciecamente le raccomandazioni dell’algoritmo, mentre voi continuerete la vostra attività consueta. In questo modo sarà possibile confrontare cosa sarebbe successo (ecco il controfattuale) se un utente con la storia come la vostra avesse seguito le raccomandazioni algoritmiche (il bot) oppure non necessariamente (voi). Se è l’algoritmo di YouTube a spingere gli utenti verso contenuti estremi ci dovremmo aspettare che il bot visualizzi video più estremi di voi. I risultati mostrano che quello che avviene è esattamente il contrario. Non solo i video proposti ai bot controfattuali non sono più estremi, ma quelli proposti ai bot degli utenti con precedenti visualizzazioni di contenuti più estremi, o faziosi, diventano in breve tempo politicamente moderati. Ancora una volta, quindi, le nostre scelte contano – sembra strano a dirsi, ma molto spesso, quando pensiamo ad algoritmi e social media, tendiamo a dimenticarlo.
Altre ricerche rinforzano, da una prospettiva leggermente differente, la stessa congettura. Contro l’idea che sarebbero soprattutto le caratteristiche dei social media a renderci faziosi e polarizzati, queste ricerche mostrano che gli utenti che danno inizio, o partecipano, a discussioni ostili online sono gli stessi che rimangono coinvolti in discussioni ostili faccia a faccia. Sono spesso individui definiti in questi studi con un’alta propensione allo «status-driven risk taking», ossia motivati dal desiderio di essere percepiti come leader o persone di successo, e con l’attitudine a prendere decisioni rischiose al fine di migliorare la loro posizione sociale o ottenere riconoscimento e prestigio all’interno di un gruppo, anche utilizzando intimidazione nel tentativo di dominare gli altri.
La diffusione delle tecnologie di comunicazione digitali e online ha conosciuto un’accelerazione incredibile. Social media, algoritmi, smartphone possono potenzialmente cambiare il modo in cui le informazioni circolano, chi ne trae vantaggio, quali contenuti vengono favoriti e quali penalizzati: non c’è bisogno che vi convinca di questo. Le conseguenze sull’economia, sulla società e sulla nostra vita quotidiana sono molteplici e si palesano di fronte a noi in un processo che continua giorno dopo giorno. Eppure, o proprio per questo, è importante considerare questi cambiamenti all’interno di una “lunga prospettiva”: una lunga prospettiva storica (quali lezioni possiamo trarre dalle reazioni a comparabili tecnologie nel passato?) che tiene in considerazione come alcune caratteristiche generali della cognizione umana e dell’evoluzione culturale interagiscono con questo processo. La diffusione delle tecnologie di comunicazione digitale è un processo dinamico, dove le tecnologie creano nuove abitudini e, nello stesso tempo, vengono modificate e adattate alle nostre esigenze: capire e accettare questo processo è il modo migliore per affrontare i rischi connessi e sfruttarne le potenzialità.
Individui che ingaggiano in discussione e comportamenti ostili esistono dentro e fuori i social media, come quelli che subiscono l’appeal di «Potere bianco». Per quanto confortante e autoassolutoria possa essere, l’idea che ciò sia dovuto a specifiche caratteristiche degli algoritmi dei social media che frequentiamo non sembra essere molto plausibile. Soprattutto, come per altre ipotesi che vedono nelle tecnologie digitali le cause di problemi sociali, quelli sì, sicuramente reali, il rischio è, ancora una volta, di trovare un comodo capro espiatorio e di non occuparci di altre, più profonde, cause sociali, culturali, ed economiche.”