Ma esiste la radicalizzazione algoritmica?

Immagine creata con ChatGPT®

Alberto Acerbi è ricercatore nel Dipartimento di sociologia e ricerca sociale dell’Università di Trento. Si interessa di evoluzione culturale e antropologia cognitiva. Ha recentemente pubblicato per Einaudi il libro Tecnopanico. Media digitali, tra ragionevoli cautele e paure ingiustificate. Si tratta di un libro che vuol mostrare “come possiamo affrontare con intelligenza e consapevolezza le sfide dell’era digitale. Una guida indispensabile per orientarsi tra preoccupazioni giustificate e allarmismi infondati, e affrontare in modo critico e consapevole l’era digitale”. Il 13 marzo ha pubblicato per Il Mulino un articolo molto interessante dal titolo “Rabbit holes are for rabbits. Quante sono le paure collettive legate alle recenti tecnologie di comunicazione digitale?”. Eccolo:

“All’inizio di Alice nel paese delle meraviglie, la protagonista, annoiata, vede un coniglio bianco «con occhi di rubino» che le passa accanto. Non solo: il coniglio parla tra sé e sé lamentandosi di essere in ritardo, ed estrae un orologio dal suo panciotto per controllare l’ora. Alice, incuriosita, lo segue lanciandosi nella buca della conigliera e così iniziano le sue surreali avventure. La «tana del bianconiglio» è divenuta la metafora di un processo in cui, partendo da credenze ordinarie, si diventa via via sempre più coinvolti in credenze meno ordinarie, persi in situazioni che si allontanano sempre di più dalla realtà.
Immaginate di essere su YouTube e di voler cercare, per curiosità, un video di un comizio di Donald Trump; o di essere un giovane adolescente (maschio) in cerca di consigli di vita. Questi sono classici punti di partenza, riportati dai media, di «rabbit holes» generati dagli algoritmi dei social media. I video che YouTube vi proporrà diventeranno, lentamente ma costantemente, più estremi. Passerete da Trump all’estrema destra e poi a «Potere bianco» e alla negazione dell’Olocausto. I consigli di vita per giovani maschi vi porteranno a video che suggeriscono che la civiltà occidentale è minacciata dagli immigrati musulmani e dai «marxisti culturali», che le differenze innate di Qi spiegano totalmente le disparità razziali e che il femminismo è un’ideologia pericolosa. Alcuni di voi finiranno per crederci.
L’idea di «radicalizzazione algoritmica» ha avuto un successo considerevole: il meccanismo è intuitivamente plausibile e ci permette di dare senso a circostanze spiacevoli. Basterebbe che i social media non proponessero questi contenuti così facilmente ed eviteremmo la diffusione di queste credenze. Purtroppo, quando si è provato a valutare questa ipotesi i risultati non sono stati incoraggianti. Varie ricerche mostrano che l’algoritmo di YouTube, almeno negli ultimi anni, non sembra proporre video dai contenuti politici più estremi di quelli che gli utenti guardano. La maggior parte dei suggerimenti punta ai canali dei media tradizionali, che sono quelli che hanno già più audience. Come nel caso delle news, la stragrande maggioranza delle interazioni con siti di informazione online riguarda media tradizionali e l’algoritmo di YouTube semplicemente rinforza questa tendenza.
I canali estremisti hanno, nella maggior parte dei casi, un successo limitato. Quando sentiamo nei media di un canale o di un video «alternativo» che ha avuto molto successo è appunto perché si tratta di un caso raro. Un aspetto interessante è, inoltre, che le visualizzazioni dei video dei canali estremisti o «alternativi» provengono generalmente da utenti che sono già iscritti a quei canali o a canali simili, al contrario di quello che avviene per i canali dei media tradizionali che riescono meglio a catturare nuovi utenti. Non sorprendentemente, le raccomandazioni algoritmiche si allineano agli orientamenti politici degli utenti. Se, di vostra iniziativa, guardate video con tendenze politiche di estrema destra (o di estrema sinistra), YouTube continuerà a proporvi video di quel genere ma senza che diventino necessariamente più estremi. Partendo da video con tendenze politiche di estrema destra, per esempio, vi potrà capitare che vi vengano proposti anche video dai contenuti problematici discussi sopra (antisemitismo, razzismo e simili), ma, come detto, è perché da lì siete partiti.
Uno studio recente, ideato da Homa Hosseinmardi e colleghi, e pubblicato nei Proceedings of the National Academy of Sciences degli Stati Uniti, ha tentato di esaminare la questione della radicalizzazione algoritmica e in particolare della causalità sottostante – sono le nostre scelte o sono le raccomandazioni dell’algoritmo? – con una metodologia ingegnosa. I ricercatori hanno creato quelli che chiamano dei «bot controfattuali». Nelle scienze sociali, un’analisi controfattuale esplora cosa sarebbe potuto accadere se certe condizioni fossero state diverse rispetto a quelle effettivamente esistenti. Cosa sarebbe successo se Hitler avesse vinto la Seconda guerra mondiale? Cosa sarebbe successo se i governi avessero adottato politiche energetiche sostenibili vent’anni fa? Più in piccolo, immaginate che qualcuno crei un finto utente YouTube che ha la vostra stessa cronologia di visualizzazioni fino a oggi. Questo è il vostro bot controfattuale. Da domani, il vostro bot seguirà ciecamente le raccomandazioni dell’algoritmo, mentre voi continuerete la vostra attività consueta. In questo modo sarà possibile confrontare cosa sarebbe successo (ecco il controfattuale) se un utente con la storia come la vostra avesse seguito le raccomandazioni algoritmiche (il bot) oppure non necessariamente (voi). Se è l’algoritmo di YouTube a spingere gli utenti verso contenuti estremi ci dovremmo aspettare che il bot visualizzi video più estremi di voi. I risultati mostrano che quello che avviene è esattamente il contrario. Non solo i video proposti ai bot controfattuali non sono più estremi, ma quelli proposti ai bot degli utenti con precedenti visualizzazioni di contenuti più estremi, o faziosi, diventano in breve tempo politicamente moderati. Ancora una volta, quindi, le nostre scelte contano – sembra strano a dirsi, ma molto spesso, quando pensiamo ad algoritmi e social media, tendiamo a dimenticarlo.
Altre ricerche rinforzano, da una prospettiva leggermente differente, la stessa congettura. Contro l’idea che sarebbero soprattutto le caratteristiche dei social media a renderci faziosi e polarizzati, queste ricerche mostrano che gli utenti che danno inizio, o partecipano, a discussioni ostili online sono gli stessi che rimangono coinvolti in discussioni ostili faccia a faccia. Sono spesso individui definiti in questi studi con un’alta propensione allo «status-driven risk taking», ossia motivati dal desiderio di essere percepiti come leader o persone di successo, e con l’attitudine a prendere decisioni rischiose al fine di migliorare la loro posizione sociale o ottenere riconoscimento e prestigio all’interno di un gruppo, anche utilizzando intimidazione nel tentativo di dominare gli altri.
La diffusione delle tecnologie di comunicazione digitali e online ha conosciuto un’accelerazione incredibile. Social media, algoritmi, smartphone possono potenzialmente cambiare il modo in cui le informazioni circolano, chi ne trae vantaggio, quali contenuti vengono favoriti e quali penalizzati: non c’è bisogno che vi convinca di questo. Le conseguenze sull’economia, sulla società e sulla nostra vita quotidiana sono molteplici e si palesano di fronte a noi in un processo che continua giorno dopo giorno. Eppure, o proprio per questo, è importante considerare questi cambiamenti all’interno di una “lunga prospettiva”: una lunga prospettiva storica (quali lezioni possiamo trarre dalle reazioni a comparabili tecnologie nel passato?) che tiene in considerazione come alcune caratteristiche generali della cognizione umana e dell’evoluzione culturale interagiscono con questo processo. La diffusione delle tecnologie di comunicazione digitale è un processo dinamico, dove le tecnologie creano nuove abitudini e, nello stesso tempo, vengono modificate e adattate alle nostre esigenze: capire e accettare questo processo è il modo migliore per affrontare i rischi connessi e sfruttarne le potenzialità.
Individui che ingaggiano in discussione e comportamenti ostili esistono dentro e fuori i social media, come quelli che subiscono l’appeal di «Potere bianco». Per quanto confortante e autoassolutoria possa essere, l’idea che ciò sia dovuto a specifiche caratteristiche degli algoritmi dei social media che frequentiamo non sembra essere molto plausibile. Soprattutto, come per altre ipotesi che vedono nelle tecnologie digitali le cause di problemi sociali, quelli sì, sicuramente reali, il rischio è, ancora una volta, di trovare un comodo capro espiatorio e di non occuparci di altre, più profonde, cause sociali, culturali, ed economiche.”

Buona, cattiva, felice, infelice: quale AI?

Mi sono ripromesso di affrontare, nelle classi quinte, il tema dell’intelligenza artificiale. Non so se ce la farò. Intanto pubblico un articolo molto interessante di Francesco D’Isa su questioni di etica generale applicata a tale argomento. Questa la fonte.

“Se ogni apocalisse ha il suo immaginario, l’allegoria contemporanea ha le fattezze di due cigni neri. Uno è intinto nel petrolio e barcolla in un lago in secca; l’altro ha i contorni diffratti e cangianti del sogno di un algoritmo. “Cigno nero”, infatti, è un termine coniato da Nassim Nicholas Taleb per indicare un evento di grande impatto, difficile da prevedere e molto raro, che col solo accadere rivoluziona la realtà abituale – come l’idea che tutti i cigni sono bianchi. La caduta di un gigantesco asteroide, un’invasione aliena o la scoperta del fuoco sono tutti esempi di cigni neri; ognuno di essi è una piccola apocalisse, perché sebbene non se ne possa prevedere né il volto né la data, sappiamo che avverrà.
Con un po’ di cautela però, è possibile azzardarne la provenienza: nella precedente allegoria, i due cigni neri della contemporaneità sono il cambiamento climatico e l’avvento dell’intelligenza artificiale – ed è di quest’ultimo che scrivo. Non azzardo una cronologia dell’avvento, la cui origine si potrebbe identificare con l’invenzione del calcolatore di Pascal o persino con l’arte combinatoria di Lullo o gli automata di Erone di Alessandria. Per limitarsi al passato prossimo, gli ultimi sigilli infranti sono le vittorie delle IA al gioco del Go e la nascita dei deep fake, dei contenuti multimediali falsi ma credibili, che dalla pornografia (primo laboratorio di molte innovazioni tecnologiche) sono sfociati nella politica e nel marketing.
Un evento di minore importanza, ma senza dubbio di grande impatto nell’immaginario, è stato il primo contatto con l’interiorità delle intelligenze artificiali grazie ai deep dream. Si tratta di immagini surreali ottenute usando in maniera creativa l’output dell’algoritmo che identifica gli oggetti nelle fotografie – il risultato è il secondo cigno dell’allegoria, una sottile crepa nella scatola nera delle IA, che inocula il sospetto che gli androidi sognino le nostre stesse pecore. Non è possibile conoscere in anticipo la propria prole, ma è sufficiente poterla generare per porsi importanti questioni etiche: i nostri figli saranno buoni o cattivi? Felici o infelici? Migliori o peggiori di noi? È un bene o un male metterli al mondo? Le stesse domande si pongono anche per le IA, e per quanto suonino sempliciotte sono un buon punto di partenza.

Proverò dunque a usare le seguenti categorie: con l’etichetta di buone o cattive intendo il caso in cui le IA abbiano funzioni costruttive o distruttive per il benessere dell’umanità. Felici o infelici sono due etichette fluide, con cui indico la condizione predominante del vissuto delle IA. Entrambe glissano su un punto di estrema importanza, assimilabile al cosiddetto hard problem della coscienza, nella terminologia di David Chalmers: le IA esperiscono o esperiranno degli stati coscienti (i cosiddetti qualia)? È una questione di difficile soluzione, non solo per loro, ma anche per le piante, gli animali e gli esseri umani – o persino i sassi. Gli unici stati di coscienza che conosci con certezza, infatti, sono i tuoi. Nulla ti assicura che non vivi in un mondo di “zombie filosofici”, in cui sei l’unica persona dotata di coscienza. Chi scrive si dichiara cosciente, ma tu che leggi come puoi credermi, se non sulla parola? Se ti sembra un ozioso scetticismo, prova a considerare cosa implichi ignorarlo. Come si individua la coscienza e i suoi confini? Affidarsi a un avanzato test di Turing legato al comportamento non esclude che possa esistere un robot privo di essa. Viene in mente il test Voight-Kampff di Blade Runner; una serie di domande e indagini fisico-comportamentali in grado di stabilire chi è un androide e chi un umano. Il test però non dice se gli androidi hanno un vissuto reale, ed escludere la possibilità che ne siano privi ci espone a non poche contraddizioni, ben esemplificate dall’esperimento mentale della stanza cinese di Searle.
Scartare a priori l’ipotesi di IA prive di coscienza, inoltre, porta facilmente al panpsichismo, la teoria per cui tutto è conscio, da un termostato a un essere umano, seppure in differenti gradazioni. Una conclusione non priva di problemi, come ad esempio la difficoltà di capire come varie micro-coscienze si combinano e integrano formando una coscienza più grande. Nel nostro caso però, possiamo ignorare l’ipotesi in cui le IA non abbiano qualia, per il semplice fatto che non pone alcun dilemma etico.

Fonte immagine

Infine, per migliori intendo delle IA più intelligenti e potenti di noi, mentre per peggiori delle IA simili a quelle attuali; molto capaci ma globalmente non al nostro livello. Si tratta di categorie soggettive, basate su idee più o meno condivise ma passibili di molte sfumature. Per esempio, una calcolatrice è più brava di te a fare i conti, ma non per questo la consideri migliore – ma queste e altre contraddizioni emergeranno in seguito, dunque non mi attardo in altre premesse. E allora, come saranno le intelligenze artificiali?

1) Buone, felici e migliori di noi.
È il migliore dei casi, l’utopia in cui partoriamo degli angeli che ci accudiscono e proteggono dal male. Sembrerebbe una buona notizia, ma questo paradiso terrestre ci riporta a uno dei grandi quesiti dell’umanità: cos’è la felicità? La vita in veste di neonati perfetti potrebbe consistere nell’ininterrotta soddisfazione dei nostri desideri, in un godimento perpetuo che non lascia spazio al dolore. Oppure nell’opposto, la cessazione del desiderio e la perdita dell’ego propugnata dai mistici. La felicità che ci garantiranno queste IA sarà un sogno oppiaceo senza effetti collaterali? Un orgasmo ininterrotto? Il soma vedico, l’illuminazione buddista o cos’altro? Quel che è certo è che lo decideranno loro, e se saranno davvero così buone e brave è probabile che indovineranno. Ogni utopia, però, lascia spazio all’inquietudine; se ci sbagliassimo a tal punto sul nostro conto da non accorgerci che è la morte l’apice del bene? In questo caso le IA, più sveglie di noi, ci distruggeranno come nel caso 5) e 6), senza interrogarci in merito alla nostra idea di felicità.

2) Buone, infelici e migliori di noi.
Come sopra, ma con la disturbante consapevolezza che mentre i nostri figli (anzi, schiavi) operano per il nostro bene, ignorano il loro. Al primo caso si aggiunge dunque la domanda: siamo disposti a entrare in un paradiso che condanna altri all’inferno?

3) Buone, felici e peggiori di noi.
In questo caso si suppone che le IA, per quanto potenti, non saranno in grado di decidere per noi. L’umanità però saprà usarle per il meglio, potenziando le proprie capacità al fine di migliorare la qualità globale della vita. È l’utopia moderata del reddito universale e della fine del lavoro. Sebbene sia meno fantascientifico di 1), questo caso presenta comunque degli interrogativi in merito all’influenza del lavoro sulla felicità umana. Pur senza cedere alla retorica capitalista della produzione a ogni costo, va considerato che non è mai esistita un’epoca in cui la maggioranza o la totalità degli uomini non sia stata costretta a lavorare (in senso ampio) per sopravvivere. Non possiamo prevedere sensatamente gli effetti sulla felicità di un mondo in cui nessuno lavora e in cui in ogni ambito delle servizievoli IA sono più brave di noi, perché non abbiamo alcun precedente su cui basarci. È però lecito supporre che questo scenario non accadrà all’improvviso, ma che presenti gradazioni che lo avvicineranno e intersecheranno con i casi (7) e (8). Le variabili in gioco sono troppe: la velocità dello sviluppo tecnologico, la sua capillarità, realizzabilità e applicazione. Cui si aggiunge l’organizzazione sociale e il contesto storico in cui accadrà il cigno nero.

4) Buone, infelici e peggiori di noi.
Come sopra, col solito prezzo di far scontare ad altri la nostra aumentata felicità. Senza contare – ma questo vale per ogni scenario – che potremmo non scoprire mai cosa provano i nostri figli.

5) Cattive, felici e migliori di noi.
Questa distopia ha varie forme, dal robot malvagio che gode nello schiavizzare, torturare o annientare l’umanità, a quello che ci stermina per semplice noncuranza fino alla superintelligenza illuminata che ci reputa alla stregua di un virus, per via delle enormi sofferenze che causiamo alla quasi totalità delle forme di vita del pianeta. L’ipotesi più curiosa in quest’ambito è forse il “paradosso delle graffette” proposto da Nick Bostrom. Il filosofo immagina un’IA programmata per assemblare delle banali graffette a partire da un certo numero di materie prime. Questa intelligenza potrebbe essere abbastanza potente da piegare l’intero pianeta al suo scopo, ma non da cambiarlo, e, nel giro di qualche tempo, trasformerebbe ogni risorsa del pianeta – comprese le forme di vita che ospita – in materie prime necessarie all’assemblaggio di graffette. Un aspetto curioso di questa ipotesi è che si potrebbe facilmente identificare la stessa umanità con questo mostro ecologico: siamo programmati per soddisfare i nostri desideri primordiali, come mantenerci e moltiplicarci, e consumiamo il pianeta senza porre mai in dubbio i nostri scopi.

6) Cattive, infelici e migliori di noi.
Come sopra, con l’aggravante che neanche gli aguzzini sarebbero felici. Non esito a definirlo uno dei peggiori tra i mondi possibili.

7) Cattive, felici e peggiori di noi.
Questo caso speculare a 3) deresponsabilizza le IA per spostare l’attenzione sul pessimo uso che potremmo farne. Ho già parlato dei deep fake ed è noto come l’analisi dei big data abbia in parte pilotato le ultime elezioni americane. Delle IA utilizzate per spingere gli interessi contingenti di pochi individui potrebbero risultare disastrose sul lungo periodo. Un piccolo ma interessante esempio contemporaneo è l’effetto degli algoritmi utilizzati per rintracciare e proporre dei contenuti che “ci potrebbero interessare” sui casi di depressi gravi. Proporre dei contenuti sempre più violenti o disturbanti, infatti, potrebbe istigare o coadiuvare il suicidio dei soggetti già depressi.

8) Cattive, infelici e peggiori di noi.
Anche in questo caso, avremmo tutti gli svantaggi del caso precedente con in più il danno di altro dolore.

E dunque, per tornare alla domanda iniziale, è un bene o un male mettere al mondo delle IA? L’esposizione di questi otto scenari non chiarisce molto le idee, ma rende quasi letterale il parallelo coi figli. Trovare una motivazione etica per qualunque forma di creazione, infatti, sia che si tratti di vita che di tecnologia, è più difficile del previsto. L’ignoranza del futuro, la molteplicità degli utilizzi e l’incapacità di identificare il bene sono dei limiti troppo grandi.
Ma la domanda potrebbe essere inutile, se anche noi siamo costretti a seguire l’imperativo di un “programma” che ci spinge inevitabilmente a creare qualcosa di nuovo, che siano figli, utensili o entrambe le cose. Non è facile, infatti, individuare il magnete alla base di ogni desiderio: proteggersi, mantenersi, accrescersi, riprodursi… tutto pare affannarsi contro «il dolore della paura della morte», come scrive Dostoevskij ne I demoni. In attesa del futuro, dunque, possiamo solo augurare il meglio ai nostri figli, affermando con Kirillov che «chi vincerà il dolore e la paura, quello sarà Dio».”