Hinton: IA, i limiti vanno messi ora

Immagine realizzata con l’intelligenza artificiale della piattaforma POE

Domani 12 settembre si apre a Roma il World Meeting on Fraternity: per due giorni riunisce persone provenienti da tutto il mondo per focalizzare l’attenzione sulla domanda essenziale: che cosa ci rende veramente umani? Promosso dalla Basilica di San Pietro, dalla Fondazione Fratelli Tutti e dall’associazione Be Human, l’incontro ospita un gruppo di lavoro dedicato all’intelligenza artificiale. Di esso fa parte Geoffrey Hinton, considerato uno dei padri dell’IA. Nei giorni scorsi è stato intervistato da Riccardo Luna per il Corriere della Sera: i toni sono preoccupati e accorati, vale la pena conoscere quanto dice.

“«La maggior parte dei principali ricercatori di intelligenza artificiale ritiene che molto probabilmente creeremo esseri molto più intelligenti di noi entro i prossimi 20 anni. La mia più grande preoccupazione è che questi esseri digitali superintelligenti semplicemente ci sostituiranno. Non avranno bisogno di noi. E poiché sono digitali, saranno anche immortali: voglio dire che sarà possibile far risorgere una certa intelligenza artificiale con tutte le sue credenze e ricordi. Al momento siamo ancora in grado di controllare quello che accade ma se ci sarà mai una competizione evolutiva tra intelligenze artificiali, penso che la specie umana sarà solo un ricordo del passato». Geoffrey Hinton è nella sua casa di Toronto. Alle sue spalle c’è una grande libreria a parete e lui — come al solito — è in piedi. Per via di un fastidioso problema alla schiena lo chiamano «l’uomo che non si siede mai» (ma in realtà, per brevi periodi e con alcuni accorgimenti, può farlo). Indossa una camicia blu che assieme ai capelli incanutiti e al sorriso dolce lo fanno assomigliare a quei personaggi che nei libri o nei film ci vengono a salvare da una minaccia terribile. Dicono che sia uno dei tre padri dell’intelligenza artificiale, ma visto che gli altri due (Yoshua Bengio e Yann LeCun) sono stati, in modi diversi, dei suoi allievi, se ci fosse un Olimpo dell’intelligenza artificiale Geoff Hinton sarebbe Giove. E infatti lo scorso anno ha vinto il premio Nobel per la Fisica (con John Hopfield) «per scoperte e invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali». Per semplificare: senza di lui, non avremmo Chat GPT.
Quando l’ho invitato a far parte del gruppo di esperti di intelligenza artificiale che il 12 settembre incontrerà papa Leone XIV mi ha risposto: «Sono un ateo, sicuro che mi vogliano?». Poi però ha accettato perché evidentemente spera che il pontefice voglia giocare la partita della scienza: «Avrebbe una grande influenza». Molto più degli appelli e delle petizioni della comunità scientifica che in due anni si sono succeduti con lo scopo di rallentare lo sviluppo tecnologico in attesa di capirne meglio i rischi e della ragionevole certezza che la cosa non ci scappi di mano. Il primo a dare l’allarme è stato proprio Hinton alla fine di aprile del 2023 quando improvvisamente lasciò Google, l’azienda per cui aveva lavorato gli ultimi dieci anni, per poter parlare liberamente dei rischi dell’intelligenza artificiale. L’ultimo è stato sempre lui, un paio di mesi fa, quando ha firmato un appello, assieme al collega premio Nobel Giorgio Parisi, per chiedere a Open AI, l’azienda che ha sviluppato Chat GPT, maggior trasparenza («Stanno decidendo il nostro futuro a porte chiuse»). Partiamo da qui.
Avete avuto una certa risonanza e raccolto tremila firme autorevoli ma non penso che il vero scopo fosse solo quello.
«La questione è complicata dal fatto che c’è una causa legale tra Musk e Altman. Il motivo per cui Musk lo fa mentre allo stesso tempo sviluppa Grok è la competizione. Musk vuole avere meno concorrenza da OpenAI. Questo è ciò che credo, non ne ho la certezza, ma secondo me la sua motivazione nel voler mantenere OpenAI come “public benefit corporation” non è la stessa che abbiamo noi. La nostra motivazione è che OpenAI era stata creata per sviluppare l’IA in modo etico e invece sta cercando di sottrarsi a quell’impegno. Molti ricercatori, come Ilya Sutskever, se ne sono andati; credo che l’abbiano fatto perché non si dava abbastanza importanza alla sicurezza. L’obiettivo dell’appello era insomma fare pressione sul procuratore generale della California che può decidere se permettere o meno a OpenAI di diventare una società a scopo di lucro».
Quindi non vi aspettavate davvero una risposta da Sam Altman.
«No, certo che no».
Direi che la vera risposta all’appello è arrivata pochi giorni fa, alla Casa Bianca, quando il presidente degli Stati Uniti ha convocato tutti i ceo delle Big Tech, compresi OpenAI, Meta e Google…
«Il presidente ha cercato di impedire che per dieci anni negli Stati Uniti ci fossero regole per l’IA, ma ha fallito; i singoli Stati possono continuare a legiferare».
Che effetto le ha fatto vedere i leader delle grandi aziende tecnologiche così ossequiosi verso il potere politico? Forse è la prima volta nella storia che assistiamo a una concentrazione assoluta del potere.
«La mia reazione è stata di tristezza: vedere i leader di queste aziende non disposti a prendere nessuna posizione morale su nulla».
Quando arrivò la rivoluzione digitale, i sogni erano altri: un mondo più giusto, più equo, migliore per tutti.
«Non sono sicuro che fosse il sogno di tutti. Credo che per la maggior parte delle persone coinvolte, il sogno fosse diventare ricchi. Ma potevano convincersi che sì, si sarebbero arricchiti, ma allo stesso tempo avrebbero aiutato tutti. E in larga misura è stato così per il web: se mettiamo da parte le conseguenze sociali, guardando solo alla vita quotidiana, il web ha davvero aiutato le persone».
Prendiamo Tim Berners Lee: non è diventato ricco e ha dato i protocolli del web gratuitamente a tutti. Poi qualcosa è andato storto. Direi: il capitalismo.
«Io non sono totalmente contro il capitalismo: è stato molto efficace nel produrre nuove tecnologie, spesso con l’aiuto gratuito dei governi per la ricerca di base. Credo che, se ben regolato, il capitalismo vada bene. È accettabile che la gente cerchi di arricchirsi purché, arricchendosi, si aiutino anche gli altri. Il problema è quando la ricchezza e il potere vengono usati per eliminare le regole, così da fare profitti che danneggiano le persone».
È quello che sta accadendo adesso?
«Sì. La cosa che sembra importare loro di più è non pagare le tasse. E sostengono Trump perché abbassa le tasse: questa è la loro spinta primaria. Ma vogliono anche eliminare le regole che proteggono le persone per rendere più facile fare affari. Per questo assecondano Trump».
Come valuta quello che sta facendo l’Unione europea? Si dice che pensi troppo alla regolamentazione e troppo poco all’innovazione. Così restiamo indietro nella corsa all’intelligenza artificiale. Come sa, l’Unione europea ha approvato una legge importante, l’AI Act. Secondo lei è un buon punto di partenza o solo un ostacolo all’innovazione?
«Credo sia un punto di partenza accettabile ma ci sono parti che non mi piacciono: ad esempio, c’è una clausola che dice che nessuna di queste regole si applica agli usi militari dell’IA. Questo perché diversi Paesi europei sono grandi produttori di armi e vogliono sviluppare sistemi letali e autonomi. Inoltre, per come l’ho capita io, la normativa europea è partita con un’enfasi particolare su discriminazione e bias, preoccupandosi più di questi aspetti che di altre minacce. Perciò mette molto l’accento sulla privacy. La privacy è importante, ma ci sono minacce più gravi».
Ha toccato un punto molto delicato. Le aziende della Silicon Valley erano nate con l’idea di non collaborare con il potere militare. Quando DeepMind fu venduta a Google, una delle condizioni era che l’IA non sarebbe stata usata per scopi militari. Ma lo scorso gennaio quella condizione è stata rimossa. Ora tutte le aziende di intelligenza artificiale forniscono tecnologia al dipartimento della Difesa americano. E pochi giorni fa Google ha firmato un accordo importante con Israele per fornire sistemi di intelligenza artificiale alle forze armate. Che ne pensa?
«C’è una regola semplice che usano gli scienziati politici: non guardare a ciò che la gente dice, ma a ciò che fa. Sono rimasto molto dispiaciuto quando Google ha eliminato l’impegno a non usare l’IA per scopi militari. È stata una delusione. E lo stesso quando hanno cancellato le politiche di inclusione solo perché era arrivato Trump».
E arriviamo a papa Leone XIV: appena insediato, ha detto di volersi occupare di intelligenza artificiale. Che ruolo pensa possa avere in questo dibattito?
«Beh, come saprà, ha circa un miliardo di fedeli. Se lui dicesse che è importante regolare l’IA, sarebbe un contrappeso alla narrativa dei leader delle Big Tech che ringraziano il presidente per non aver imposto regole. Io credo che il Papa abbia un’influenza politica reale, anche al di fuori del cattolicesimo. Molti leader religiosi, come il Dalai Lama, lo vedono come una voce morale. Non tutti i Papi sono stati così, ma questo sì, e anche il suo predecessore. Per molti non cattolici, le sue opinioni morali sono sensate, non infallibili, ma ascoltate. Se dirà che regolare l’IA è essenziale, avrà un impatto».
Cosa vorrebbe far sapere al Papa sui rischi dell’intelligenza artificiale?
«Credo che per il Pontefice sia inutile porre l’accento sui cosiddetti rischi esistenziali, come la sparizione della specie umana nel lungo periodo; e sia meglio concentrarsi sui rischi attuali. Non serve credere che l’IA sia un “essere” per capire che può portare disoccupazione di massa, corruzione delle democrazie, cyber-attacchi più facili ed efficaci, creazione di virus letali accessibili a chiunque. Sta già accadendo. Quindi su questi rischi a breve termine, quelli che chiamo “rischi dovuti a cattivi attori”, possiamo trovare un accordo. Questi sono rischi che qualunque leader religioso o politico può capire, senza dover entrare nella questione metafisica se l’IA sia o meno un “essere”».
A volte sembra che i governi non capiscano fino in fondo la posta in gioco, che si fidino troppo di queste aziende.
«È proprio così. Spesso i governi non hanno abbastanza esperti interni e si affidano a consulenti che vengono… indovini da dove? Proprio dalle Big Tech. Così finiscono per sentire solo la voce delle aziende. È come se i regolatori di Wall Street fossero tutti ex banchieri che ancora pensano come banchieri».
È considerato un apocalittico. Lei come si sente? Ottimista o pessimista?
«Realista. Vedo entrambi i lati. Ma la storia ci dice che, senza regole, si abusa del potere. Perciò credo che, se non regoliamo, finirà male».
Crede che ci sia una lezione particolare che dovremmo ricordare ora?
«Sì. Pensiamo all’energia nucleare. Quando gli scienziati capirono che le loro scoperte potevano portare all’atomica, molti di loro provarono ad avvertire i governi. Ma alla fine furono i militari a decidere come usarla. Non fu la comunità scientifica a stabilire i limiti. Lo stesso rischio lo vedo oggi: se lasciamo che siano solo i governi o le aziende a decidere, l’IA sarà usata in modi molto pericolosi».
È davvero un momento unico nella storia dell’umanità o solo un ennesimo progresso?
«È un punto di svolta. Per la prima volta stiamo creando entità che possono essere più intelligenti di noi. Non è mai successo prima. Abbiamo creato macchine più forti, più veloci, ma mai più intelligenti. Questo cambia tutto».
Quindi cosa possiamo fare?
«Serve un movimento globale, non solo poche voci isolate. Dobbiamo creare un consenso ampio nella comunità scientifica, altrimenti i politici ci ignoreranno».Dopo 90 minuti l’intervista è finita (questa è una versione molto condensata ma approvata dal professore). Resta il tempo per una domanda personale. Geoffrey Hinton viene da una famiglia eccezionale. L’Everest si chiama così per via di un suo prozio cartografo (e anche il suo secondo nome è Everest); e un altro è il padre della logica booleana (la base matematica su cui si basano i computer e i sistemi digitali). Come se non bastasse, il padre gli ha sempre tenuto l’asticella altissima. Gli diceva: «Se lavori il doppio di me, quando avrai il doppio della mia età, forse sarai bravo la metà».
Gli chiedo: ce l’ha fatta a realizzare l’obiettivo che le ha dato suo padre? Sorride: «No. Sicuramente almeno la metà».”

Le 12 tesi di Spong. 9

Pubblico la nona tesi di John Shelby Spong. Qui la cornice di inquadramento del suo lavoro e qui la fonte.

Non c’è alcun criterio eterno e rivelato, raccolto nella Scrittura o in tavole di pietra, che debba sempre reggere il nostro agire etico.
È Dio che ha redatto i Dieci Comandamenti? Naturalmente no. (…). Un dato interessante della storia biblica è che i Dieci Comandamenti non erano al principio leggi con validità universale. Erano pensati solo per reggere le relazioni tra ebrei. I comandamenti dicono: “Non uccidere”. Tuttavia, nel Primo Libro di Samuele si legge che Dio istruì il profeta perché dicesse a Saul di andare in guerra contro gli amaleciti e di uccidere tutti gli uomini, le donne, i bambini, i neonati, i buoi e gli asini (1 Sam 15,1-4). (…). I Comandamenti dicono “Non dire mosèfalsa testimonianza”. Tuttavia, il libro dell’Esodo presenta Mosè nell’atto di mentire al Faraone sul perché avrebbe dovuto permettere agli israeliti di andare nel deserto a offrire sacrifici a Dio (Es 5,1-3). Il codice morale della Bibbia si conformava sempre alle necessità del popolo. Questa era la sua natura. La pretesa di una paternità divina di questo codice morale era semplicemente una tattica per garantirne l’osservanza.
Ogni regola ha la sua eccezione. (…). È male rubare? Naturalmente (…). Supponiamo tuttavia che l’oppressione dei poveri da parte dell’ordine economico sia così estrema che rubare un po’ di pane sia l’unico modo per evitare che tuo figlio muoia di fame. (…). Potremmo riportare molti altri esempi, fino a prendere atto che non esiste un assoluto etico che non possa essere messo in discussione dinanzi alle relatività della vita. Pertanto, il criterio etico definitivo non può essere trovato semplicemente rispettando le norme. (…). Quello che ci guida non sono tanto le norme quanto le mete che perseguiamo. Se la forma suprema di bontà si esprime nella scoperta della pienezza della vita, allora tutte le decisioni morali, comprese quelle in cui non è chiaro cosa sia giusto e cosa sia sbagliato, devono essere prese non in accordo alle leggi morali, ma secondo il fine che si persegue. La questione che bisogna porsi in ogni azione è: questo fatto fa sì che l’umanità si espanda e si consolidi? (…) Questa azione è contraria alla vita o la rende migliore? Incrementa l’amore o lo riduce? Chiama a un senso più profondo del proprio essere o lo reprime?
Se Dio è un verbo che bisogna vivere più che un nome da definire, allora i codici morali sono strumenti che bisogna apprezzare, ma non regole che devono essere seguite. (…). Non sempre è facile adottare la decisione corretta. Non è facile essere cristiani nel XXI secolo.”

Con la schiena dritta

Da ieri Mauro Berruto non è più il commissario tecnico della nazianale italiana maschile di pallavolo. Sul suo sito ho trovato questo post in cui il coach espone le proprie motivazioni. Lo riporto perché vi si parla di etica, responsabilità, scelte, rispetto, lavoro, valori, regole, comunicazione, new media, social network. In riferimento a quanto scritto nelle prime righe del comunicato ricordo che all’inizio della fase finale della World League, Berruto aveva escluso per motivi disciplinari quattro giocatori: Dragan Travica, Ivan Zaytsev, Giulio Sabbi e Luigi Randazzo.
Oggi ho comunicato al Presidente Carlo Magri la decisione di rimettere il mio mandato di Commissario berruto2Tecnico della Squadra Nazionale di pallavolo nelle mani Sue e del Consiglio Federale.
Il clima generatosi intorno alla squadra, in relazione al provvedimento disciplinare nei confronti di quattro atleti da me deciso in occasione della Final Six di World League a Rio de Janeiro, mi ha reso consapevole di non sentire più quella fiducia completa nel mio operato che sempre ho sentito e che è condizione necessaria per poter svolgere questo straordinario compito.
Il dolore di rinunciare al mio ruolo di CT a un mese dell’obiettivo verso il quale tutto il mio lavoro era stato indirizzato nel quadriennio olimpico, non è negoziabile rispetto alla difesa di valori che ritengo fondamentali quali il rispetto delle regole e della maglia azzurra. Valori che ritengo altresì fondamentali nella mia visione di sport.
La commovente risposta della squadra successiva alla mia decisione (la vittoria contro la Serbia e, ancora di più, la coraggiosa sconfitta contro la Polonia campione del mondo) mi restituisce la certezza che sui valori tutto si fonda.
Tengo tuttavia, amaramente, questa certezza solo per me, ringraziando di cuore i 13 protagonisti di quelle due partite, perché il coro di chi ha letto nella mia decisione incapacità di gestione, inadeguatezza al ruolo, danno economico o addirittura causa scatenante di una brutta immagine per il nostro movimento mi fa pensare che il rispetto delle regole sia diventato merce negoziabile davvero.
Se così è il mio passo indietro è dovuto, perché non è e non può essere questo il mio modo di intendere lo sport e fare il Commissario Tecnico.
Ringrazio tutti coloro che hanno lavorato con me in questi anni, atleti e membri dello staff, perché tutti mi hanno insegnato delle cose. Un pensiero particolare va ai 30 atleti che in questi quattro anni e poco più hanno esordito con la maglia azzurra. E’ un record di cui vado molto fiero perché regalare questa gioia non ha davvero prezzo.
Ringrazio tutti gli staff delle Squadre Nazionali giovanili e in particolare Mario Barbiero, motore inesauribile della nostra pallavolo maschile giovanile. Fin dal primo minuto ho voluto dimostrare come la nazionale Seniores fosse parte di un progetto comune che incomincia a quattordici anni con i Regional Days. Le nostre squadre giovanili stanno da qualche tempo brillando in Europa e nel mondo e considero questo fatto, insieme alla riforma dell’Under 13, un’ulteriore medaglia di cui andare fiero.
Ringrazio il Presidente Magri per aver realizzato, il 17 dicembre del 2010, il mio più gigantesco sogno di bambino. Sono passati da quel giorno anni, medaglie, vittorie, sconfitte. 134 volte ho sentito suonare l’inno di Mameli con il cuore che scoppiava di orgoglio e di rispetto per quella bandiera distesa davanti a me.
Tengo tutti questi ricordi ma ne scelgo uno: la fotografia scattata sul podio olimpico di Londra. L’onore più grande che potesse immaginare un ragazzo che aveva incominciato ad allenare in un oratorio della sua città.
Ho un ultimo desiderio che devo soprattutto ai miei figli Francesco e Beatrice: vorrei spiegare loro che il nuovo modo di comunicare fondato sulle opinioni espresse sulle pubbliche piazze virtuali dei social network, ha fatto sì che siano state di me scritte cose che spero loro non leggeranno mai. Dietro ai ruoli ci sono persone e il principio del rispetto della persona dovrebbe guidare anche questo nuovo modo di comunicare. Mi piacerebbe che Francesco e Beatrice crescessero con l’idea che rispettare le regole e le persone è talmente bello da essere rilassante. Mi piacerebbe che andassero orgogliosi del fatto che il loro papà, partendo dal nulla, abbia avuto l’onore infinito di rappresentare il nostro Paese. Mi piacerebbe fossero orgogliosi del fatto che, al di là di 7 medaglie vinte, il loro papà possa essere ricordato per averlo fatto sempre e comunque con onestà. Con fatica, con onestà e con la schiena dritta.
Mauro Berruto”