La verità ha ragione?

02112013-Torino_057.jpg

Già ultimamente sto pubblicando poco sul blog, se poi, quando lo faccio, propino testi di questa lunghezza, capisco benissimo di non agire da buon blogger. Pazienza…
Già altre volte ho postato sul tema della post-verità, della verità, della libertà di opinione ed espressione; oggi mi sono imbattuto in una intervista/riflessione a più voci decisamente interessante. La pubblico interamente; la fonte è il Tascabile e la firma è del filosofo e ricercatore alla University College di Dublino Fabio Gironi.
Uno dei fenomeni sociali che caratterizza maggiormente la scena pubblica e politica sembra essere il disinteresse per l’opinione degli esperti, e il proliferare di “teorie alternative”. In gergo filosofico, questo fenomeno si può definire deflazione dell’autorità epistemica. Questa è una forma di autorità conferita non da status sociale, lignaggio nobiliare, o investitura divina, ma dall’esperienza in un determinato campo del sapere. L’autorevolezza del biologo, dello storico, ma anche dell’ingegnere meccanico e dell’agricoltore, dipende dal livello di studio e preparazione teorica, dall’esperienza pratica diretta, e dall’essere parte di una comunità epistemica (un gruppo di persone che condividono determinati obiettivi, e dediti allo stesso tipo di attività o ricerca) capace di valutare le proprie conoscenze.
Quello che movimenti differenti come l’anti-vaccinismo, il negazionismo del cambiamento climatico antropogenico, o proposte di “medicina alternativa” hanno in comune è un tratto fondamentale: lo scetticismo sistematico verso gli esperti, visti come collusi con “poteri occulti”, che nei casi più eclatanti sfocia in un aperto anti-intellettualismo. Questo fenomeno riflette una visione del mondo diviso in una classe di “studiosi” sedicenti esperti, e una di gente dotata di senso comune – dove quest’ultimo viene considerato come un valido sostituto alla competenza specifica.
Insieme ai diffusi fenomeni di echo chamber e filter bubble (comunità virtuali chiuse all’influenza esterna che permettono la proliferazione di notizie non sostanziate dai fatti) la perdita di fiducia nell’autorità epistemica sta producendo un cambiamento nel concetto stesso di verità dei fatti. Certamente, le menzogne non sono una novità del ventunesimo secolo: già nel 2005 il filosofo Americano Harry Frankfurt apriva il suo breve saggio “Stronzate” osservando come “uno dei tratti più salienti della nostra società è che circolino così tante stronzate”, differenziando la stronzata dalla menzogna. La prima non è solamente un capovolgimento intenzionale della verità ma dipende da un sistematico svuotamento del concetto di verità, e una studiata indifferenza rispetto ai fatti.
Ma è anche vero che la propagazione di stronzate raggiunge oggi livelli altissimi: è ovvio che certe verità non siano tali, perché l’affermazione vera è meno importante di quella efficace. Questo fenomeno è esemplificato dal ben noto termine “post-verità”: parola dell’anno nel 2016 per l’Oxford Dictionaries, questo aggettivo è definito “relativo, o che denota, circostanze in cui i fatti oggettivi hanno meno influenza nel formare l’opinione pubblica rispetto ad appelli a emozioni o credenze personali”. Altrettanto famosi ormai sono sia il termine (intrinsecamente ossimorico) alternative facts, che l’espressione fake news, entrambi contributi dell’amministrazione Trump negli Stati Uniti.
Considerato come queste distinzioni (fatti vs finzioni, verità vs menzogna) così familiari ai filosofi, abbiano oggi fatto irruzione nelle nostre discussioni quotidiane, abbiamo voluto esaminare la situazione contemporanea insieme a quattro filosofi e filosofe esperti di questioni epistemologiche: Maria Baghramian, della University College Dublin; Mario De Caro dell’Università di Roma Tre; Gloria Origgi dell’Institut Nicod dell’Ecole Normale Supérieure, e Nicla Vassallo, dell’Università degli Studi di Genova.
Alcuni critici hanno tracciato la genesi della situazione presente, più o meno esplicitamente, al clima culturale del recente passato, in particolare all’eredità del post-strutturalismo e di altre posizioni filosofiche che hanno promosso un approccio critico verso le nozioni di autorità e di verità. Ogni movimento filosofico deve essere collocato nel suo contesto storico-sociale, ed è evidente che “il postmodernismo” rispondesse a delle precise preoccupazioni socio-politiche, primo tra tutti, in campo politico, lo spettro dei dispotismi autoritari che hanno dominato la metà del ventesimo secolo (il celebre, e spesso incompreso, rifiuto delle metanarrazioni). L’ironia è che ora viene accusato di aver riprodotto lo stesso problema, rendendo qualsiasi narrazione degna di fiducia. È giusto accusare questo momento intellettuale dei mali presenti?
GLORIA ORIGGI
Il post-modernismo è un aggregato di idee di avanguardia di provenienza diversa, estremamente influente nell’arte contemporanea, nella letteratura del dopo-guerra e in una serie di esperienze artistico-politiche, spesso di natura provocatoria, necessarie però per scuotere una cultura vecchiotta, incapace di auto-osservazione e tipicamente egemonica. Non demonizzerei il post-modernismo nei contenuti, almeno non più di quanto si possa fare con i tanti movimenti di avanguardia che hanno attraversato il ventesimo secolo, con successi e insuccessi. Non c’era una verità da mettere in discussione, ma un’egemonia conoscitiva che passava dai banchi di scuola, dal sapere diffuso dai musei, dal cinema e poi dalla televisione e che andava sicuramente ripensata dopo i disastri di due guerre mondiali e di più di un secolo di colonialismo. I toni assurdi, provocatori, le boutades, le trasgressioni hanno avuto effetti positivi e negativi. Sicuramente un effetto positivo è stato quello di includere nel discorso culturale “alto”, personaggi, esperienze, culture, minoranze che a questo discorso non avevano accesso. Un altro innegabile effetto positivo è stato quello di sviluppare una coscienza critica nei confronti dei propri atti culturali e svelare la dimensione spesso politica o economica di tutte le espressioni culturali. Le conseguenze negative sono state un generale impoverimento dell’esperienza culturale, uno scetticismo verso la qualità intrinseca dell’oggetto culturale che ha fatto sì che da movimento di avanguardia, il postmodernismo si allineasse con le esperienze culturali più “leggere” della nostra società, come la pubblicità o il marketing. E insieme una tendenza paranoica collettiva a leggere in termini manipolatori qualsiasi proposta conoscitiva. Movimento tendenzialmente “di sinistra”, il postmodernismo è stato purtroppo reclutato “a destra” per legittimare la decimazione degli studi umanistici nelle università di tutto il mondo, visti come ricettacolo di idee paranoiche e estremiste volte ad abbattere il canone culturale occidentale. L’accusa che rivolgo al post-modernismo è più che altro questa: che, grazie alla sua faciloneria intellettuale ha delegittimato le scienze umane, rendendosi complice di un generale impoverimento del sapere, di un “clash” tra cultura scientifica e cultura umanistica e di una tecnicizzazione della conoscenza che ci rende tutti più stupidi. Non bisogna però confondere le derive postmoderniste dall’idea di Lyotard di condizione postmoderna. Quella fu una vera intuizione. E noi oggi siamo in una condizione postmoderna, per navigare la quale il postmodernismo come movimento di idee non ci aiuta per niente, ma neanche il tentativo ingenuo (penso al nuovo realismo) di ritrovare una realtà intatta, un terreno sicuro a cui ancorarci come dei naufraghi a una zattera.
MARIA BAGHRAMIAN
Diversamente da molti miei colleghi sul fronte continentale, non ho mai apprezzato molto le virtù del postmodernismo, in particolare considerando i suoi proclami di rappresentare un momento progressivo, e politicamente sovversivo, della nostra vita intellettuale. Il mio rigetto del postmodernismo ha dei paralleli con la mia critica del relativismo, un tema chiave della mia ricerca degli ultimi trent’anni. Da una parte, mi sono sempre opposta a un troppo semplicistico rifiuto del relativismo come incoerente o contraddittorio, ma dall’altra ho sempre rifiutato con forza l’identificazione di un’attitudine relativistica con una politica progressista. Il relativismo è un framework concettuale molto sfuggente, che può condurre a quietismo e inazione, ma può anche essere adottato a fini autoritari e regressivi. Non dobbiamo dimenticarci che Mussolini era un convinto relativista, e che i Nazisti proposero una forma di relativismo razziale. I pensatori postmoderni, attraverso aforismi e metafore piuttosto che tramite argomentazioni filosofiche tradizionali, hanno messo in dubbio alcuni precetti fondamentali del discorso culturale, che si concentra sui temi della ragione, e della ricerca razionale. Facendo ciò, hanno occupato lo stesso terreno intellettuale del relativismo. Questo, secondo me, è stato il loro più grande difetto. Il postmodernismo ha “problematizzato” (come si dice in gergo) le idee di oggettività, verità, e logica, con l’obiettivo – si diceva – di liberarci dalla schiavitù della ragione, imposta dall’Illuminismo. Quest’ultimo viene presentato come un movimento monolitico e autoritario alleato con l’imperialismo occidentale e il colonialismo, mentre il postmodernismo sarebbe alleato alla lotta per l’emancipazione da ogni tipo di tirannia. Per molti postmodernisti l’Illuminismo – accompagnato dalla fiducia nella forza della ragione e della razionalità, e l’ottimismo nei confronti della possibilità di emancipare la specie umana – divenne un nemico politico e sociale. I critici postmoderni della scienza, delle sue pratiche e istituzioni hanno ragione a enfatizzare i meccanismi di esclusione presenti in essa. Le donne, le persone di colore, e altri gruppi marginalizzati sono stati sistematicamente esclusi, sottovalutati e umiliati. Ma le ragioni di queste esclusioni sono opposte a quelle proposte dal postmodernismo. Che la conoscenza è potere è un’antica ma profonda intuizione riguardo al ruolo che la conoscenza gioca all’interno della nostra vita sociale e politica. Gli uomini bianchi al potere hanno usato la scienza e le norme razionali per escludere le donne e gli “altri differenti” dai centri di conoscenza che si affidano proprio a queste norme. Il responso a queste pratiche di esclusione non deve essere quello di abbandonare i potenti proclami della conoscenza scientifica, ma di rivendicarli a sé. Ad esempio, le donne in Iran stanno riuscendo in questo intento, riempiendo i campi STEM nelle università del paese, tradizionalmente riservati agli uomini.
È possibile che l’overdose di informazioni di cui il pubblico è oggi bombardato tramite i media digitali produca un rilassamento della distinzione tra verità e finzione? È concepibile che ci siano specifici limiti cognitivi che, in quanto esseri umani, limitano la nostra capacità di filtrare ed elaborare un numero così grande di informazioni, spesso contraddittorie?
GLORIA ORIGGI
Non capisco quale sia stata l’età dell’oro in cui la gente credeva nella realtà invece che nelle finzioni. La quantità di stronzate che l’umanità è sempre stata disposta a credere non credo sia aumentata con l’avvento di Internet. È forse solo più visibile. Ma è vero che le società a forte densità informazionale come le nostre società tardo-moderne hanno effetti epistemici propri: paradossalmente, come ho cercato di mostrare nel mio lavoro, più l’informazione aumenta, più la reputazione delle fonti di informazione diventa rilevante, anzi, indispensabile per navigare un mare troppo fitto di informazioni. Un’epistemologia del presente deve dunque fornire gli strumenti per distinguere indizi reputazionali farlocchi da indizi reputazionali robusti, un lavoro ancora da cominciare che sarà sicuramente al centro della ricostruzione di un metodo sociale, condiviso e razionale di distinguere la qualità epistemica dell’informazione che ci attraversa ogni giorno.
MARIA BAGHRAMIAN
Anche io penso che la profusione di dati e informazioni odierna ha esacerbato un problema pre-esistente e perenne, quello di dover prendere una decisione riguardo a idee e fonti di informazione in contrasto tra loro. Il problema non è, o non dovrebbe essere, formulato in termini di un rilassamento della distinzione tra verità e menzogna. Questa distinzione, mi sembra che sia implicita nella nozione stessa di modi di pensare giusti e sbagliati riguardo a ciò che succede. Il problema risiede piuttosto nel nostro non avere sufficienti strumenti epistemici per distinguere le informazioni vere da quelle false, o fuorvianti. E parte del problema risiede nel minor prestigio dato oggi alla testimonianza degli esperti. La maggior parte delle cose che sappiamo deriva da ciò che abbiamo imparato dalle testimonianze ricevute da altre persone. La testimonianza degli esperti – coloro che hanno un livello di competenza e di conoscenza maggiore del nostro – è una delle fonti più importanti di conoscenza. La democratizzazione dell’informazione resa possibile da Internet, e la facile reperibilità di moltissime testimonianze di “esperti” su qualsiasi argomento, ha finito con l’indebolire il ruolo tradizionale della testimonianza come fonte di conoscenza. Con un click possiamo (o almeno ci piace pensare che possiamo) controllare e mettere in questione i consigli che ci vengono dati dai nostri dottori, i nostri avvocati, consulenti finanziari e altri tipi di esperti tradizionali. In ultima analisi, credo che l’egualitarismo epistemico nell’era dei big data sia uno sviluppo positivo, ma come tutte le rivoluzioni, questa rivoluzione informatica ha portato con sé grande insicurezza riguardo alle fonti dell’autorità, affidabili o meno.
La maggior parte delle verità scientifiche non si possono leggere direttamente guardando i fatti, ma richiedono sovrastrutture teoriche, discussioni, e interpretazione dei dati per essere stabilite con certezza, e di conseguenza non si può concepire una comunità scientifica senza un certo disaccordo interno. Come si può comunicare questo processo al pubblico senza produrre, da una parte, un ulteriore scetticismo nei confronti della scienza, o, dall’altra, la convinzione che, se il disaccordo produce conoscenza scientifica, chiunque può essere in disaccordo con il consenso scientifico?
MARIA BAGHRAMIAN
Sono d’accordo, il disagreement è essenziale alla scienza e contribuisce positivamente a essa. Le cose si complicano quando ci si affida alla scienza e agli scienziati per consigli riguardo a decisioni politiche. Ovviamente, non è possibile prendere nessuna decisione coerente sulla base di opinioni scientifiche discordanti. In più, la fiducia che di solito accordiamo a scienziati e risultati scientifici pertinenti a questioni impersonali e su larga scala viene erosa laddove questi prendono posizione su questioni che hanno un impatto diretto sulla nostra vita e sul nostro benessere. Bisogna ricordare che quello di affidarsi a scienziati per decisioni di carattere politico è un fenomeno relativamente nuovo. La maggior parte degli storici della scienza considera la Seconda Guerra Mondiale come il punto di svolta, un periodo che cambiò radicalmente il rapporto tra governi e consulenti scientifici. Le necessità portate dalla guerra moderna crearono forti legami tra scienza e legislatura, come venne dimostrato in maniera lampante dal Progetto Manhattan negli Stati Uniti, e da Bletchley Park nel Regno Unito. Le famose parole di Robert Oppenheimer “Sono diventato Morte, il distruttore di mondi”, citando la Bhagavadgita, influenzano ancora oggi la nostra percezione del rapporto tra scienza e stato. Mentre dunque il pubblico è disposto a dare fiducia agli scienziati per quanto riguarda questioni tecniche, si sente anche giustificato a sospendere questa fiducia laddove i loro risultati scientifici siano direttamente legati alle nostre vite quotidiane. La soluzione non è quella di nascondere il dissenso tra scienziati (come a volte si è provato a fare), o credere che la situazione verrà rettificata quando il pubblico riceverà una chiara e precisa educazione scientifica. Piuttosto, la soluzione risiede nell’assicurarsi che le istituzioni scientifiche e gli scienziati siano consapevoli della sensazione di vulnerabilità avvertita dal pubblico di fronte alla potenza della scienza.
GLORIA ORIGGI
Come hanno già detto molti filosofi, penso per esempio a Richard Rorty, la scienza può ispirare la gente comune come “modello” di attività epistemica ed etica: il fatto che nelle varie discipline esistano disaccordi più o meno rispettati, e che i disaccordi producano uno sforzo collettivo per andare più lontano nella comprensione, può essere un esempio di etica della conoscenza che ispira, ma certo non si può pensare realisticamente che gli esseri umani adottino in massa un metodo scientifico di disaccordo ragionato per farsi un’idea del mondo che hanno intorno. Sappiamo dalla psicologia che gestire la contraddizione è una delle cose più difficili per la mente umana: il bisogno di ridurre la “dissonanza cognitiva” è tra i meccanismi psicologici più forti che guidano il nostro pensiero. Non si può cercare di cambiare le basi cognitive del ragionamento umano: si possono però creare istituzioni, forme di incontro, metodi di dibattito, che fanno emergere il dissenso in modo costruttivo. Si può anche imparare a riconoscere e criticare i “vizi epistemici” di tanti discorsi, come l’insensibilità davanti agli argomenti contrari, l’indifferenza alle più semplici intuizioni statistiche, o l’attrazione per le teorie complottiste e paranoiche che hanno il fascino di mettere insieme fenomeni tra loro sconnessi in una specie di “narrativa” gratificante al di là di qualsiasi oggettività. Un’epistemologia politica che comprenda a quale punto la conoscenza dipenda dalle strutture istituzionali che la fanno circolare è sicuramente necessaria per creare un’epistemologia del quotidiano più virtuosa.
NICLA VASSALLO
Quanto al problema di comunicazione, mi sembra che sarebbe abbastanza semplice: basterebbe presentare il disaccordo tra scienziati come il disaccordo tra esperti. Quando ad esempio una persona soffre di una certa patologia si reca da più esperti, e se questi (come spesso accade) sono in disaccordo tra loro si presenta il problema di chi scegliere. E lo stesso accade nella comunità scientifica. Ma la differenza tra il primo e il secondo caso è che il disagreement nella comunità scientifica (come in quella filosofica) è essenziale al progresso. Se tutti fossero d’accordo vivremmo in uno stato di stasi; invece il disaccordo e la critica devono essere visti come positivi. Purtroppo il pubblico non sospende mai il giudizio, e prende parte senza cognizione di causa per l’una o per l’altra parte di un dissenso scientifico a seconda di balzane convinzioni. Penso che la possibilità di offrire al pubblico confronti diretti o dialoghi tra due o tre scienziati che la pensino in modo diverso sullo stesso tema sarebbe utile. Infatti ciò aiuterebbe il pubblico a comprendere che le divergenze effettive sono minori di quelle che ci spacciano i media, e comprendere che questa è l’unica via che porta alla risoluzione dei problemi, il processo collettivo del problem-solving.
MARIO DE CARO
Vorrei aggiungere che l’unico modo di risolvere il problema è una seria educazione scientifica. È stato scritto recentemente che molta polemica contro i vaccini è condotta da persone che hanno studiato: il problema è capire cosa e come hanno studiato. In Italia c’è una tradizione antiscientifica molto forte, che in parte deriva dalla riforma Gentile la quale, nonostante i suoi pregi, ebbe anche alcuni grandi difetti: per cui ci sono persone che non hanno la minima idea di come funzionano la statistica e la probabilità, e che quindi, di fronte al fenomeno vaccini, non sanno comprendere appieno il problema. È del tutto evidente — è provato — che i vaccini purtroppo sono mortali per alcuni soggetti. Eppure, usandoli, si salvano molte più vite di quante se ne perdano. Naturalmente se una trasmissione (generalmente ottima) come Report va a intervistare le famiglie delle persone che sono decedute per via di un vaccino, questa informazione è scorretta, perché presenta questa morte come l’unico dato rilevante. In generale, se non si conoscono un minimo di statistica, probabilità e storia della scienza diventa praticamente impossibile orientarsi rispetto a queste questioni. Bisogna migliorare la qualità dell’istruzione scientifica, ma anche la qualità – e questo è importante – delle informazioni scientifiche diffuse dai mass media. Ci sono alcuni media che – un po’ in malafede, un po’ per ignoranza – diffondono notizie assurde. Benché in proposito non si possa imporre la censura, si dovrebbe far sì che i media che sanno come si fa la divulgazione scientifica siano nella posizione di criticare gli altri, e di dimostrare come quel modo di discutere di determinati problemi non funziona. È necessario comunicare correttamente sia i risultati scientifici che il metodo della scienza.
Spesso sembra esserci confusione tra, da una parte, l’autorità conferita dalla conoscenza (il capire, e saper spiegare, i processi che producono un fenomeno) e dal rispetto di norme argomentative condivise e, dall’altra, le strutture normalizzanti e autoritarie. Di conseguenza, coloro che vogliono difendere il prestigio epistemico della competenza vengono accusati di elitismo, in nome del principio (giusto, ma soltanto se contestualizzato) che “tutti hanno diritto alla loro opinione”. Come si difende il concetto di autorità epistemica senza cadere nella dittatura delle “autorità” o nella “tecnocrazia”?
MARIA BAGHRAMIAN
Si, è molto triste che la nozione di competenza, o di “autorità epistemica” sia stata accorpata all’elitismo, o addirittura a impulsi autoritari. La divisione del lavoro, linguistico ed epistemico, e la specializzazione che la accompagna sono essenziali per il funzionamento delle comunità che condividono un linguaggio e un modo di pensare, particolarmente in società avanzate e complesse. Per fare solo un esempio, la scienza come viene praticata oggi è un’impresa collettiva la cui condotta richiede un’enorme mole di divisione del lavoro epistemico e di specializzazione. Senza fiducia nella competenza di coloro che lavorano in altre sotto-specializzazioni, la scienza non potrebbe progredire, né funzionare nella sua forma attuale. Mi sembra che queste reazioni contro l’“elitismo” della competenza siano il prodotto di pressioni economiche più che filosofiche, e devono essere spiegate di conseguenza. L’ordine economico Neoliberista ha celebrato la competenza e gli ha dato un posto di prestigio all’interno del processo decisionale sociale ed economico. L’affidamento alla conoscenza degli esperti è spesso stato accompagnato da premi economici – in particolare nel campo bancario, finanziario e legale – del tutto sproporzionati al contributo che questi esperti effettivamente apportano al benessere della società. Un secondo problema (legato al primo) è ancora una volta quello del legame tra conoscenza e potere. La conoscenza ci conferisce autorità oltre al campo epistemico, ed è spesso stata uno strumento nelle mani della volontà di potenza. Sapere, ed essere portatori di conoscenza, ci permette di influenzare gli altri, di perseguire i nostri obiettivi. Non è necessario credere (come sostiene Tim Williamson) che la conoscenza sia la norma per fare affermazioni, o che la conoscenza venga per prima, per poter apprezzare il ruolo primario che gioca in tutti i nostri scambi sociali. È un’ovvietà, ma non del tutto banale, che la conoscenza conferisce potere, ma il potere, in tutti i casi, deve rispondere dei bisogni degli altri e alle loro (e nostre) vulnerabilità. Possiamo vedere i primi segni di questa preoccupazione riguardo all’esercizio della conoscenza scientifica senza senso di responsabilità nel Dr. Frankenstein, di Mary Shelley, un romanzo quasi profetico considerando come al tempo la scienza moderna era ancora giovane. Sapere, e brandire il potere che la conoscenza ci conferisce senza responsabilità di fronte alle questioni etiche che questa conoscenza produce, è un pericolo che dobbiamo sempre tenere bene in considerazione. La connessione tra i parametri normativi della conoscenza e il mantra (a prima vista tollerante e inclusivo) “tutti hanno diritto alla loro opinione” è interessante. Molto spesso in dibattiti e conversazioni, in particolare riguardo a questioni etiche e politiche negli Stati Uniti, l’affermazione “ho diritto alla mia opinione” viene usata come carta che pone fine alla discussione. Questo è un errore. Se affermi la tua opinione sei, come minimo, responsabile per la sua plausibilità razionale, se non proprio per la sua verità. Le opinioni non sono differenti da altri tipi di credenze. Siamo tutti responsabili pubblicamente per le nostre opinioni, così come lo siamo per le nostre affermazioni di conoscenza. Gli usi odierni di questo mantra dimenticano questo componente normativo.
NICLA VASSALLO
Purtroppo sul piano fattuale si è confusa l’autorità epistemica con l’autorità politica, o l’autorità del dittatore. E tale confusione è stata particolarmente accentuata in quelle democrazie dove abbiamo avuto governi tecnici: ad esempio economisti al potere che hanno mentito, e non si sono mai pentiti delle loro menzogne (perdendo dunque la fiducia del pubblico). E il caso del nostro paese è un caso classico. Come si può ripristinare la fiducia perduta? Cercando di distinguere nettamente (nonostante le illusioni di Platone) tra il politico e l’autorità epistemica. L’autorità epistemica può solo essere un buon consigliere di un politico, ma a mio avviso non può e non deve entrare direttamente in politica: deve suggerire al meglio il politico rimanendo svincolata dal potere politico.
MARIO DE CARO
Questo è il tipico argomento in cui si discute di bianco e di nero, come se non ci fosse alcuna via di mezzo. Con questo modo di procedere non si ottiene nulla, e anzi si generano facilmente disastri. È del tutto evidente che esiste un ampio terreno intermedio tra l’imporre presunte verità con la forza e l’accettare qualunque scempiaggine come se fosse parimenti autorevole. È sempre stato così, ma oggi con internet la situazione è peggiorata: si pensi alla famigerata frase di Umberto Eco “Internet permette a qualunque cretino di dire la sua opinione”: forse è un po’ rude, ma ha una giustificazione. Su Facebook ho letto eminenti professori o studiosi di determinati campi spiegare la propria opinione informata ed essere “confutati” in due righe da qualcuno, completamente digiuno della materia del contendere. Questo è un fenomeno grave, e direi che Facebook e simili non sono i social media ideali per una discussione seria. Il problema è che le distinzioni sono difficili: è chiaro che esistono autorità autoritarie e autorità autorevoli. È una cosa in sé ovvia, ma si sta abbassando il livello dell’istruzione generale: si tagliano i fondi per l’istruzione, la gente non va a scuola, non studia bene e poi finisce per dire scempiaggini, non essendo in grado di riconoscere i ragionamenti corretti da quelli scorretti. La situazione non sarà mai perfetta, ma ci sono molti margini di miglioramento.
GLORIA ORIGGI
A me sembra che nelle grandi visioni sulla democrazia e in particolare nell’entusiasmo per il ruolo della Rete, vi è sempre stata una certa tendenza a semplificare e idealizzare sia le capacità cognitive che le dinamiche sociali dei cittadini. Se l’uguaglianza di diritti è un caposaldo della democrazia anche in un’epoca di spettacolari disuguaglianze economiche, l’uguaglianza epistemica, o l’egualitarismo epistemico, è spesso una nozione sottintesa, che vede i soggetti cognitivi come tutti uguali, intercambiabili, in linea di principio capaci di sviluppare tutti gli stessi argomenti seguendo lo stesso metodo (una tesi criticata per esempio da molta epistemologia femminista). L’egualitarismo epistemico è rivendicato come un diritto fondamentale non a chiedere ragioni o ad avere accesso alle stesse risorse epistemiche (diciamo una rivendicazione di qualche forma di “diritto aletico”, come ha sostenuto recentemente in un saggio pubblicato da Franca D’Agostini nella rivista Biblioteca della Liberta del centro Einaudi), ma una rivendicazione ad avere ragione e poter esprimere il proprio punto di vista al di là di qualsiasi standard argomentativo condiviso. Una rivendicazione resa possibile dalla straordinaria capacità del Web di dare voce a una moltitudine di individui che mai avevano avuto accesso alla parola “pubblica” prima d’ora. Avere ragione secondo i propri standard, rifiutare di farsi imporre qualsiasi standard epistemico percepito come una coercizione “dall’alto” è il tranello in cui cascano i cittadini più vulnerabili, che si sentono “empowered” cognitivamente e socialmente dal poter esprimere la loro opinione e non si rendono conto di essere vittime di nuove forme di controllo dell’opinione e di coercizione mentale. Un risultato recente mostra come coloro che sono i più scettici riguardo all’autorità delle testate di informazione tradizionali sono anche i più ricettivi a credere alle teorie del complotto e a cascare nella rete delle bufale trasmesse attraverso i social networks. Questo “corto-circuito” tra politica ed epistemologia è forse uno degli aspetti più salienti delle società iper-connesse e (spesso definite) post-democratiche attuali nelle quali la sovraesposizione dei pareri dei cittadini bypassa la rappresentanza politica con modalità che delegittimano la seconda senza legittimare la prima.”

Un nuovo (D) io

ai

Un articolo di Maria Luisa Prete su La Repubblica. Argomento: l’intelligenza artificiale assurta a nuova divinità.
Un nuovo dio scende sulla terra alla conquista delle nostre anime. E come i suoi predecessori, anzi più degli altri, viene plasmato ad arte dall’uomo. Come gli altri, nasce per essere venerato e per salvarci dalle brutture del mondo. Ma chi è? Nientemeno che l’intelligenza artificiale. Se Elon Musk la teme considerandola la possibile causa della terza guerra mondiale, per Anthony Levandowski, invece è la nuova divinità.
L’ex ingegnere Google, licenziato qualche mese fa con l’accusa di aver rubato segreti commerciali, adesso cerca il riscatto nella fede. La sua associazione religiosa senza scopo di lucro si chiama “Way of the Future”, e appunto si propone di venerare l’AI per migliorare la nostra vita. Come dire, se non riusciamo più ad aver fiducia nel dio tradizionale, un’alternativa, fatta di bit e silicio, potrebbe fare al caso nostro. Così terrena da poter conquistare anche i miscredenti più accaniti, così fascinosa perché potrebbe elevare a paradiso il progresso tecnologico. Basta crederci.
Ma chi è il messia di questo nuovo messaggio di salvezza? Il suo biglietto da visita non è proprio edificante. Pendono su di lui pensanti accuse di spionaggio industriale. In particolare, Levandowski, classe 1980, è al centro di una disputa su brevetti trafugati tra Uber e Waymo, compagnia automobilistica di Google. Licenziato dall’azienda di Mountain View lo scorso maggio, adesso sembra cercare il riscatto e la fama come sacerdote della divinità tecnologica. La sua setta è stata fondata nel settembre 2015, ma è salita solo ora agli onori della cronaca grazie alle rivelazioni di Wired Usa che ha reso noto il progetto presentato all’US Internal Revenue Service (IRS), l’autorità Usa che gestisce e amministra le entrate fiscali pubbliche, alle cui norme devono attenersi anche le organizzazioni senza scopo di lucro. Anche se la setta non ha ancora formalizzato la sua posizione con l’IRS come organizzazione religiosa esente da imposte, i documenti depositati in California dimostrano che Levandowski è amministratore delegato e presidente del Mondo del futuro e che i fini della società “attraverso la comprensione e il culto della divinità” vogliono contribuire al “miglioramento della società”.
Il legame tra tecnologia e religione non è nuovo. In molti, nella Silicon Valley, credono nella “Singolarità”, l’avvento di un’epoca in cui le macchine governeranno il mondo con giustizia ed equità, a vantaggio e meglio degli uomini. Da qui, il passo verso il culto dell’Intelligenza artificiale sembra obbligato. La speranza nelle “magnifiche sorti e progressive” si alimenta con i grandi successi e le costanti innovazioni del settore. Non è un caso, fa riflettere Wired a proposito, che se ancora l’AI divina è lontana, Levandowski abbia contribuito con il suo lavoro a farle assumere un’incarnazione terrena. Le auto a guida autonoma alle quali aveva lavorato per Google stanno già trasportando passeggeri a Phoenix, in Arizona, mentre i camion costruiti dalla sua Otto (poi ceduta) fanno parte del piano di Uber per rendere il trasporto merci più sicuro ed efficiente. Passi concreti per diffondere il verbo di una divinità che sembra compiere i “primi miracoli” e ne promette ogni giorno di nuovi.

Scienza e laicità

relvssci

Ieri, su L’indiscreto, ho trovato un articolo molto interessante in cui si tratta di scienza, religione, secolarismo, laicità. Si tratta della traduzione di “Why religion is not going away and science will not destroy it” di Peter Harrison (Laureate Fellow e direttore dell’Institute for Advanced Studies in the Humanities presso la University of Queensland. Il suo libro Narratives of Secularization è in uscita quest’anno). La traduzione è a cura di Francesco D’Isa.

Poco più di cinquant’anni fa, nel 1966, l’illustre antropologo canadese Anthony Wallace aveva fiduciosamente predetto la scomparsa della religione per mano del progresso scientifico: “La credenza nei poteri soprannaturali è destinata a estinguersi in tutto il mondo, a seguito della crescente precisione e diffusione delle conoscenze scientifiche”, – e la visione di Wallace non era un caso isolato. Al contrario, le scienze sociali moderne, che si sono sviluppate nell’Europa Occidentale del XIX secolo, interpretano la recente esperienza storica della secolarizzazione come un modello universale. Le scienze sociali presumevano (e talvolta prevedevano) una convergenza di tutte le culture verso un modello secolare che grosso modo somigliava alla democrazia occidentale liberale. Ma è accaduto quasi l’opposto.
Non solo la laicità non è riuscita a continuare la sua marcia globale, ma molti paesi come Iran, India, Israele, Algeria e Turchia hanno visto dei governi secolari cedere il passo a favore di governi religiosi, o perlomeno l’ascesa di influenti movimenti nazionalisti religiosi. La secolarizzazione, così com’era prevista dalle scienze sociali, ha fallito.
A dire il vero, il fallimento non è incondizionato. Molti paesi occidentali continuano a vivere il declino della fede e delle pratiche religiose. I più recenti dati censuari pubblicati in Australia, per esempio, mostrano che il 30 per cento della popolazione si identifica come “priva di religione”, e che questa percentuale è in aumento. Indagini internazionali confermano dei livelli relativamente bassi di religiosità in Europa occidentale e Australasia. Anche gli Stati Uniti, che sono spesso causa di imbarazzo per la tesi della secolarizzazione, hanno visto un aumento dell’ateismo. La percentuale di atei negli Stati Uniti si trova ora a un livello più alto (se “alto” è la parola giusta) di circa il 3 per cento. Nonostante questo però, il numero di persone che si ritengono religiose a livello globale rimane alto, e le tendenze demografiche suggeriscono che il modello generale dell’immediato futuro sarà di crescita religiosa. Ma questo non è l’unico fallimento della tesi della secolarizzazione.
Scienziati, intellettuali e sociologi pensavano che la diffusione della scienza moderna avrebbe portato alla secolarizzazione – che la scienza, insomma, sarebbe stata una forza secolarizzante. Ma non è stato così. Se guardiamo alle società in cui la religione è ancora vitale, le loro caratteristiche comuni hanno meno a che fare con la scienza e più con il senso di sicurezza esistenziale e di protezione da alcune delle incertezze fondamentali della vita, sotto forma di beni pubblici. Una rete di sicurezza sociale potrebbe essere correlata con i progressi scientifici, ma in modo impreciso, e ancora una volta è istruttivo il caso degli Stati Uniti. Gli USA, infatti, sono senza dubbio la società più scientificamente e tecnologicamente avanzata al mondo, e allo stesso tempo sono la più religiosa delle società occidentali. Come ha scritto il sociologo britannico David Martin ne Il futuro del cristianesimo (2011): “Non c’è alcuna relazione coerente tra il grado di progresso scientifico e la riduzione di influenza, fede e pratica religiosa”.

jawaharlal-nehru-1
Jawaharlal Nehru

La storia della scienza e della secolarizzazione diventa ancora più intrigante se si considerano quelle società che hanno avuto reazioni significative contro l’agenda laica. Il primo ministro indiano Jawaharlal Nehru ha sostenuto ideali laici e scientifici, e ha inserito l’educazione scientifica nel suo progetto di modernizzazione del paese. Nehru era sicuro che il passato vedico indù e i sogni musulmani di una teocrazia islamica avrebbero ceduto entrambi davanti all’inesorabile marcia della secolarizzazione. “La Storia prosegue a senso unico”, ha dichiarato. Ma, come attesta l’aumento di indù e di fondamentalismo islamico, Nehru aveva torto. Inoltre, l’associazione della scienza all’agenda laica ha causato l’effetto collaterale di fare della scienza una vittima collaterale della resistenza alla laicità.
La Turchia è un caso ancor più rivelatore. Come la maggior parte dei nazionalisti pionieristici, Mustafa Kemal Atatürk, il fondatore della Repubblica turca, era un laico. Atatürk credeva che la scienza fosse destinata a soppiantare la religione. Al fine di assicurarsi che la Turchia fosse sul lato giusto della storia, ha conferito alla scienza, in particolare alla biologia evolutiva, un posto centrale nel sistema di istruzione della nascente Repubblica turca. L’evoluzionismo e il secolarismo sono stati associati al programma politico di Atatürk. Di conseguenza i partiti islamici turchi, che cercano di contrastare gli ideali laici dei fondatori della nazione, hanno attaccato anche l’insegnamento delle teorie evolutive. Per loro, l’evoluzione è associata al materialismo secolare. Questo sentimento è culminato nella decisione dello scorso giugno di rimuovere l’insegnamento della teoria evolutiva dalle classi del liceo. Anche in questo caso, la scienza è diventata una vittima per via di un’alleanza sbagliata.
Gli Stati Uniti hanno un contesto culturale diverso, in cui potrebbe sembrare che la questione chiave sia il conflitto tra le letture letterali della Genesi e le caratteristiche fondamentali della storia evolutiva. Ma in realtà gran parte del discorso creazionista è incentrato su valori morali. Anche nel caso degli Stati Uniti, vediamo che l’anti-evoluzionismo è motivato almeno in parte dal presupposto che la teoria dell’evoluzione favorisca il materialismo secolare e la sua visione morale. Come in India e Turchia, di fatto la laicità sta danneggiando la scienza.
In breve, non solo la secolarizzazione globale non è inevitabile ma, quando accade, non è causata dalla scienza. Inoltre, quando si prova a usare la scienza per promuovere il secolarismo, i risultati rischiano di danneggiarla. La tesi che “la scienza causa la secolarizzazione” fallisce il test empirico e arruolare la scienza come strumento di secolarizzazione si rivela una pessima strategia. La scienza e il laicismo sono un’accoppiata così imbarazzante da farci chiedere: perché c’è ancora chi non se ne accorge?
Storicamente, le fonti che hanno avanzato l’idea che la scienza avrebbe soppiantato la religione sono due. In primo luogo, le concezioni progressiste della Storia del XIX secolo, in particolare quelle associate al filosofo francese Auguste Comte, che sostiene che le società passano attraverso tre fasi – religiosa, metafisica e scientifica (o “positiva”). Comte, che ha coniato il termine “sociologia”, voleva diminuire l’influenza sociale della religione e sostituirla con una nuova scienza sociale. L’influenza di Comte si è estesa fino ai “giovani turchi” e Atatürk.
Nel XIX secolo, inoltre, si è assistito alla nascita di un “modello conflittuale” tra scienza e religione. È la visione che la storia possa essere compresa nei termini di un “conflitto tra due epoche nell’evoluzione del pensiero umano – quella teologica e quella scientifica”. Questa descrizione viene dall’influente testo di Andrew DicksonWhite A History of the Warfare of Science with Theology in Christendom” (1896), il cui titolo incorpora alla perfezione la teoria dell’autore. Il lavoro di White, così come il precedente “History of the Conflict Between Religion and Science” (1874) di John William Draper, fonda la tesi del conflitto come metodo standard per interpretare le relazioni storiche tra scienza e religione. Entrambe le opere sono state tradotte in più lingue. La Storia di Draper ha visto più di 50 edizioni nei soli Stati Uniti, ed è stata tradotta in 20 lingue. In particolare, è diventata un bestseller nel tardo impero ottomano, influenzando il pensiero di Atatürk che il progresso consista nella sostituzione della religione da parte della scienza.
Oggi, le persone sono meno fiduciose che la storia si muova attraverso una serie di tappe indirizzate a una destinazione comune. La maggior parte degli storici della scienza inoltre, nonostante la sua persistenza nel pensiero comune, rifiuta l’idea di un conflitto duraturo tra scienza e religione. Celebri scontri come il caso di Galileo, nascevano anche dalla politica e dalle personalità in campo, non solo dalla scienza e la religione. Darwin aveva significativi sostenitori religiosi e detrattori scientifici, e viceversa. Molti altri casi di presunto conflitto scienza-religione sono ora considerati invenzioni. La norma, infatti, è più spesso quella del sostegno reciproco. Nei suoi anni di formazione nel XVII secolo, la scienza moderna era basata sulla legittimazione religiosa. Nel corso del XVIII e XIX secolo, la teologia naturale ha contribuito a divulgare la scienza.
science_religion-e1487601998562.pngIl modello conflittuale tra scienza e religione ha offerto una visione sbagliata del passato, che, in combinazione con le aspettative della secolarizzazione, ha portato a una visione sbagliata del futuro. La teoria della secolarizzazione è fallita sia dal punto di vista descrittivo che predittivo. La vera domanda è perché esistono ancora sostenitori di questo conflitto. Molti di loro sono eminenti scienziati. Sarebbe superfluo ribadire le riflessioni di Richard Dawkins sull’argomento, ma non si tratta di una voce solitaria. Stephen Hawking ritiene che “la scienza vincerà perché funziona”; Sam Harris ha dichiarato che “la scienza deve distruggere la religione”; Stephen Weinberg pensa che la scienza abbia indebolito la fede religiosa; Colin Blakemore prevede che la scienza finirà per rendere inutile la religione. Le testimonianze storiche non supportano tali visione. Anzi, suggeriscono che siano fuorvianti.
Allora perché persistono? Le risposte sono politiche. Lasciando da parte qualsiasi predilezione per le pittoresche visioni della storia del XIX secolo, dobbiamo guardare alla paura del fondamentalismo islamico, l’esasperazione del creazionismo, l’avversione per le alleanze tra i religiosi di destra e i negazionisti del cambiamento climatico, le preoccupazioni circa l’erodersi dell’autorità scientifica. Anche se potremmo concordare con queste preoccupazioni, non c’è nulla di male nello smascherare il fatto che queste nascono da un’intrusione gratuita di impegni normativi nel dibattito. La speranza che la scienza sconfiggerà la religione non è un valido sostituto di una valutazione delle realtà presenti. Continuando con questa linea difensiva si rischia di ottenere un effetto opposto a quello voluto.
La religione non scomparirà presto, e la scienza non la distruggerà. Semmai, è la scienza che è soggetta a crescenti minacce alla sua autorità e alla sua legittimità sociale, motivo per cui ha bisogno di tutti gli alleati possibili. I suoi sostenitori farebbero bene a smettere di vedere un nemico nella religione, o insistere sul fatto che l’unica strada per il futuro si trovi in un connubio di scienza e laicità.

Totalitarismo contabile?

9788862225571

Un suggerimento per una futura lettura (anche se in lista d’attesa c’è già moltissima roba…). Lo spunto arriva da Elisa Bonzoni.
“È possibile misurare il successo lavorativo? Un’idea? Un’emozione? «Vivere significa nuotare in aperti oceani dove la logica e la matematica non possono arrivare». E quando hanno la pretesa di farcela arrivare, a emergere è una realtà che è più vicina a un’ossimorica realtà distorta.
Non era facile scrivere un libro così, su questo tema e in questo modo. Stefano Diana c’è riuscito mettendo una dietro l’altra quasi 300 pagine (Noi siamo incalcolabili. La matematica e l’ultimo illusionismo del potere, Stampa Alternativa) sul tema senza mai essere ridondante.
Diana descrive il percorso involutivo dell’umanità, un percorso che sta rapidamente portando alla catastrofe ambientale, all’inquietante preponderanza delle tecnologie virtuali, al restyling penoso della parola, all’incomprensione della realtà e dei suoi processi, all’incomunicabilità e alla mancanza di relazioni tra esseri umani. Un percorso che non ci permette di controllare e capire i processi avviati, che rende il mondo meno democratico e egalitario, e più ingiusto. Processi che ci portano rapidamente verso il baratro e ci allontanano da noi, dall’essenza dell’uomo e dalla risposta che è dentro di noi, ed è proprio quella giusta!
La tendenza è misurare tutto quello che non ha misura. Un «totalitarismo contabile» e una «tossicodipendenza da numero» secondo i quali ogni cosa è stimabile con criteri razionali che risultano essere tutto tranne che razionali. Dai trend finanziari al rendimento scolastico dei figli, dagli stipendi ai criteri di valutazione o di soddisfazione di qualsiasi ordine e grado. Dio e Cesare si fondono e si confondono e a rimanere sul campo è una visione contorta e distorta della realtà che ci rende tutti più ignoranti e incapaci di capire, interpretare, conoscere, sentire. Cosa? Tutto! Per eterogenesi dei fini più cerchiamo di codificare la realtà più ci allontaniamo dal suo significato, entropicamente. Leggiamo Dio con Cesare deformandolo; e discutiamo teoremi, che nulla hanno di razionale e di reale anche perché partono da assiomi falsi. Davanti non abbiamo più né Dio né Cesare.
E in questo caso Dio, in un contesto di dichiarato ateismo, diventa l’essere umano nel suo valore intrinseco, le emozioni, e la neurobiologia stessa. Questo è il percorso di santità che a dirla tutta, somiglia alla visione della santità cattolica. E la salvezza universale (che Diana vede chiaramente in ottica laica) passa da qui. Passa dal santo che è in ognuno di noi che è il valore intrinseco, che sono le neuroscienze, che è l’uomo. E la salvezza è l’empatia e la compassione, il superamento dell’egoismo per arrivare all’altro e a noi con l’altro.”

Partire dalle persone

digit.jpg

Nel mese di luglio avevo letto un articolo di Alberto Maestri e me l’ero appuntato. Mi aveva colpito una frase: “Sapere riconoscere le opportunità digitali significa prima di tutto partire dalle persone”. Alberto Maestri è diplomato in Marketing e Strategia all’Università di Modena e Reggio Emilia e in Digital Marketing all’Institute of Direct and Digital Marketing (IDM) di Londra. Responsabile della sezione Tech di Ninja Marketing, lavora come Senior Consultant in OpenKnowledge dedicandosi a progetti nazionali e internazionali legati a marketing digitale e pratiche di open innovation.
L’articolo è tratto da Ninjamarketing e porta il titolo “La Trasformazione Digitale riguarda anche te”.

Lo ammetto, ho sbagliato. Quando mi trovo a scrivere qualcosa, raccomando sempre a me stesso di non dire “tutto subito”, ma di lasciare piuttosto la curiosità al lettore almeno fino a metà pezzo. Invece, questa volta, ho anticipato il finale già dal titolo.
Il dato di fatto è semplice: viviamo nel pieno dell’era digitale. Un’era mediata (gli studi del sociologo italiano Giovanni Boccia Artieri sono illuminati e illuminanti in tal senso), filtrata (“The Filter Bubble” è un’opera di qualche anno fa ma sempre interessante, la conosci?), fluida (Zygmunt Bauman docet). Proprio la parola “digitale” fa spesso rima con termini come “innovazione” e porta conseguentemente con sé una percezione, comune alla maggior parte delle persone – indipendentemente dal livello di alfabetizzazione digitale (e, da una prospettiva complementare, di digital divide) – e trasversale ai settori industriali: ovvero, che l’innovazione (quindi, la trasformazione) digitale sia prima di tutto un fattore tecnologico.
Paradigmi come la Virtual Reality, l’Augmented Reality, l’Internet delle Cose, la Blockchain, soluzioni come Oculus e i Bitcoin, modelli di business nativi digitali e fondati sull’ottimizzazione dei big data come Uber, AirBnB e TripAdvisor portano spesso a pensare che la trasformazione digitale di organizzazioni, territori, aziende, amministrazioni pubbliche sia primariamente una questione di innovazione tech.
Basta un poco di zucchero e la pillola, va giù. Ricordi la celebre cantilena di Mary Poppins? Oggi, potrebbe essere riletta con efficacia per delineare tale prospettiva. La tecnologia sarebbe la reale variabile determinante di un presente e – soprattutto – di un futuro sempre più digitale.
La potenza è nulla, senza controllo
Il rischio di tale approccio è multi-layer – ovvero, composto da diversi pericoli posizionati e collegati a puzzle. Ti elenco due esempi di layer a cui fare attenzione.
1. Il primo è ben riassunto nel termine mediumism, indice della tendenza pericolosa ad essere continuamente alla cerca frenetica dell’adozione dell’ennesima piattaforma digitale senza prima essersi chiesti e avere attentamente valutato se è davvero ciò che l’audience vuole, e/o di cui ha bisogno.
2. Un secondo pericolo sta nella mancata correlazione stretta e diretta tra tecnologia, cultura e competenze: ovvero, il fatto di avere anche la migliore innovazione tecnologica non garantisce proprio nulla. Gli utenti destinati a utilizzarla e a “calarla a terra” potrebbero infatti non avere le giuste competenze, né tantomeno e soprattutto la cultura – un fattore più sottile e strategico ma che permette di indirizzare al meglio le azioni – per farlo.
Accelerare con le persone
Un secondo approccio alla trasformazione digitale è invece people-centric: ovvero, vede nelle persone i principali elementi abilitatori del cambiamento. E per “cambiamento” intendo qualcosa di profondo, ampio, di ampio respiro, non relegato solo a temi di dialettica politica o politiche aziendali. Personalmente aderisco in toto a questa seconda visione neutrale al fattore tecnologico, e porto anche qui due temi a supporto.
1. Il primo è quello del Digital Darwinism, concetto suggerito dalle ricerche di Brian Solis a partire dal 2010 circa. Il futurologo e analista americano intende con tale termine la capacità e rapidità evolutiva delle persone, di gran lunga maggiore della stessa capacità di cambiamento e innovazione di aziende, organizzazioni e sistemi. In effetti, questi ultimi sono organismi complessi, strutturati, dove le decisioni vengono prese attraverso percorsi non banali né rapidi. Al contrario le persone, in quanto esseri sociali e atomi singoli, sono sempre più interessate e disposte a mettersi in gioco (rischiare!) per il gusto di testare le innovazioni tecnologiche. Volendo rileggere la tradizionale curva di Rogers utilizzata in economia per spiegare il modo in cui le innovazioni di prodotto si diffondono nel tempo, potremmo sostenere che il digitale amplia la percentuale di innovatori ed early adopters, limitando allo stesso tempo la “pancia” maggioritaria e la “coda” ritardataria.

curva
2. Il secondo tema sta nel concetto di mobile mind shift, introdotto da alcune analisi della società di consulenza internazionale Forrester Research. Con questo termine si intende il cambiamento psicologico – o meglio il circolo vizioso – abilitato dal digitale. Siamo sempre meno disposti ad aspettare, a dovere fermare lo svolgimento di ciò che stiamo facendo per potere fruire di una informazione, ad “accontentarci” di ricevere comunicazioni irrilevanti per il nostro vissuto. Al contrario, attraverso i media digitali mobile: “La mobile mind shift è la consapevolezza di potere essere connessi in qualunque momento e la conseguente aspettativa di ottenere quanto necessario subito e in modo contestualizzato, senza necessità di ulteriori spostamenti fisici o “mentali”.”
Social technology: una lente per leggere il futuro che ci attende
A mio avviso, dunque, la trasformazione digitale non è una semplice questione tecnologica, ma è un “affare” people-first. Come sarà il futuro? Difficile, impossibile saperlo.
Più semplice diventa estrarre una lente, un modus operandi per leggere ciò che ci aspetta. Ovvero, partire dalle persone in quanto esseri sociali. Non è un caso che piattaforme tecnologiche come YouTube, Facebook e altri social network abbiano avuto il successo che tutti conosciamo: si tratta di innovazioni che sono state capaci nel tempo di rispondere in pieno alle esigenze sociali degli individui di parlare, connettersi, interagire. In esse, la tecnologia ha avuto un semplice ruolo di adattatore e abilitatore delle necessità sociali delle persone.
Tale approccio, che definisco di social technology, è fondamentale non solo per comprendere ciò che accadrà, ma anche per anticipare il successo (o l’insuccesso) delle nuove trasformazioni digitali.
Siamo pronti a prevedere il futuro?

iGen, generazione in rovina?

IMG_20170821_080534_208 (2)

Gli smartphone con i loro social stanno rovinando o hanno rovinato una generazione? Questa domanda e le relative risposte sono al centro di questo articolo pubblicato oggi su Il Post.
“Jwan M. Twenge, docente di psicologia all’Università di San Diego, ha scritto per l’Atlantic un articolo molto complesso e discusso che analizza l’uso e le conseguenze degli smartphone e dei social media da parte degli e delle adolescenti. Il pezzo riprende i contenuti un recente libro di Twenge, è documentato, cita diverse ricerche e, sebbene con una certa cautela, arriva a conclusioni piuttosto preoccupanti: non è un’esagerazione, dice la studiosa, descrivere gli adolescenti di oggi come sull’orlo della peggiore crisi di salute mentale degli ultimi decenni, e non è un’esagerazione ipotizzare che gran parte di questa situazione possa essere ricondotta ai loro telefonini. L’articolo, sia per i contenuti che per la parzialità del metodo, è stato però anche molto contestato e criticato.
Twenge precisa che lo scopo dei suoi studi non è cedere alla nostalgia per un mondo in cui le cose erano differenti, ma capire come sono le cose ora: alcuni cambiamenti sono positivi, alcuni sono negativi, e molti sono entrambe le cose insieme. Twenge racconta di aver studiato e lavorato molto sulle differenze tra generazioni e che, tipicamente, le caratteristiche che definiscono un gruppo di persone nate in un determinato periodo appaiono per gradi e lungo un continuum. I cosiddetti “Millennials”, di cui fa parte chi è nato tra la metà degli anni Ottanta e i primi anni del Duemila, sono considerati per esempio una generazione individualista: ma questa caratteristica era cominciata a comparire già all’epoca dei “Baby Boomers”, i nati dopo la Seconda guerra mondiale, e della “Generazione X” degli anni Sessanta e Ottanta. I grafici delle ricerche di Twenge sulle tendenze delle diverse generazioni avevano dunque curve ascendenti e discendenti morbide e graduali. Almeno finora.
Quando Twenge ha iniziato a studiare la generazione di Athena, una 13enne che vive a Houston, Texas, e che le ha spiegato di aver trascorso la maggior parte della propria estate da sola in camera in chat con i propri amici, la studiosa ha notato degli spostamenti bruschi e dei picchi nelle tendenze dei propri grafici: molte delle caratteristiche distintive della generazione dei Millenials stavano scomparendo. Twenge dice di non aver mai visto niente di simile e che i cambiamenti non erano solo di grado, ma anche di natura. La differenza più grande tra i Millennials e i loro predecessori era nel modo di considerare il mondo; gli adolescenti di oggi si differenziano dai Millennials non solo per i nuovi punti di vista ma anche per come trascorrono il tempo: le esperienze che hanno nella loro quotidianità sono radicalmente diverse rispetto a quelle della generazione che li ha preceduti.
Twenge si occupa degli adolescenti americani, ma riscontra tendenze e abitudini che – in misure diverse, ovviamente – esistono in molti contesti e città occidentali, e in cui probabilmente molti genitori di adolescenti europei riconosceranno almeno in parte i propri figli. L’anno in cui sono avvenuti questi cambiamenti così significativi, secondo Twenge, è il 2012: c’entra probabilmente la grande recessione, dice, cioè la crisi economica mondiale iniziata nel 2007 e terminata circa due anni dopo, ma il 2012 è stato soprattutto l’anno in cui la percentuale di statunitensi che avevano uno smartphone ha superato il 50 per cento. A chi è nato tra il 1995 e il 2012 Twenge ha dato quindi un nome: iGen. Sono gli adolescenti che sono cresciuti possedendo uno smartphone, che avevano un account Instagram prima di iniziare la scuola superiore e che non si ricorda un tempo prima di Internet. I Millennials si sono formati con una grande familiarità con la tecnologia digitale che, però, non è mai stata presente nelle loro vite a un livello così elevato, cioè in ogni momento, giorno e notte.
Secondo Twenge le conseguenze della cosiddetta “età degli schermi” vengono spesso sottovalutate. Ci si concentra molto su specifici aspetti, per esempio la riduzione dell’attenzione, ma la diffusione degli smartphone ha invece cambiato radicalmente ogni aspetto delle vite degli adolescenti, dalla natura delle loro relazioni sociali alla loro salute mentale. E questi cambiamenti, dice la studiosa, riguardano tutti i giovani americani, a prescindere da dove vivano, in ogni tipo di famiglia: coinvolgono le persone benestanti e quelle non benestanti, quelle di ogni etnia, che vivono nelle città oppure nelle periferie. Anche quando in passato un evento significativo ha svolto un ruolo fondamentale ed estremo nella formazione e nella crescita di un gruppo di giovani, per esempio una guerra, non è mai accaduto prima che un singolo fattore definisse un’intera generazione e che avesse conseguenze così pervasive: «Ci sono prove convincenti che i dispositivi che abbiamo messo nelle mani dei giovani stiano avendo profondi effetti sulla loro vita e li rendano gravemente infelici».
Gli iGen, scrive Twenge, si sentono più a loro agio in camera loro che in una macchina o a una festa, nonostante siano più sicuri e informati rispetto al passato: hanno meno probabilità di fare un incidente automobilistico rispetto ai loro omologhi del passato, per esempio, e sono più a conoscenza dei rischi dell’alcol. Da un punto di vista psicologico, però, sono più vulnerabili rispetto ai Millennials. La prima caratteristica degli iGen è che la ricerca dell’indipendenza, così potente nelle generazioni precedenti, è meno forte. La patente di guida, simbolo di libertà inscritto nella cultura popolare americana, ha perso il proprio appeal: quasi tutti i Baby Boomers avevano la patente di guida pochi mesi dopo il compimento dell’età necessaria; oggi in America più di un adolescente su quattro non ha la patente alla fine della scuola superiore. Sono madri e padri ad accompagnare i figli a scuola o altrove, e dalle ricerche emerge che la patente viene descritta dagli adolescenti come qualcosa che importa soprattutto ai loro genitori, un concetto «impensabile per le generazioni precedenti», commenta Twenge.
È diminuita anche la percentuale di chi ha una frequentazione sentimentale: parte del corteggiamento avviene attraverso le chat e non è detto che poi si arrivi a un incontro reale. Nel 2015 solo il 56 per cento di chi frequenta l’ultimo anno delle scuole superiori ha avuto degli appuntamenti, mentre tra i Baby Boomers e i membri della Generazione X la percentuale era pari a circa l’85 per cento. Questo ha ovviamente delle conseguenze sulla vita sessuale degli iGen: secondo i dati citati da Twenge, i quindicenni che hanno una vita sessualmente attiva sono diminuiti del 40 per cento rispetto al 1991 e l’adolescente medio di oggi ha fatto sesso per la prima volta circa un anno dopo rispetto alla media di chi appartiene alla Generazione X.
Nelle generazioni precedenti, poi, gli adolescenti lavoravano di più in estate o nel tempo libero, desiderosi di finanziare la loro libertà: in questo erano stimolati anche dalle famiglie, che volevano insegnare loro il valore del denaro e la sua gestione. Gli adolescenti iGen invece non lavorano: alla fine degli anni Settanta, il 77 per cento dei ragazzi dell’ultimo anno delle scuole superiori aveva una qualche occupazione, entro la metà del 2010 la percentuale si è abbassata al 55 per cento e ora il numero è diminuito ancora. La tendenza a ritardare l’entrata nell’età adulta era già in atto anche nelle generazioni precedenti, dice Twenge, ma ciò che caratterizza gli iGen è in particolare il ritardo dell’inizio dell’adolescenza: i ragazzi che oggi hanno 18 anni agiscono come dei quindicenni e quelli di quindici anni sono più simili a dei ragazzini di tredici anni. L’infanzia si è cioè estesa. Perché, si chiede la studiosa, gli adolescenti di oggi aspettano più a lungo ad assumersi sia le responsabilità che i piaceri dell’età adulta?
I cambiamenti culturali, l’economia e il rapporto con la famiglia hanno certamente un ruolo: l’istruzione superiore è considerata più importante di trovarsi presto un lavoro, i genitori sono inclini a incoraggiare i loro figli a rimanere a casa e a studiare piuttosto che a cercarsi un’occupazione part-time e gli adolescenti, a loro volta, sembrano soddisfatti di questo accordo, «non perché siano particolarmente studiosi ma perché la loro vita sociale è vissuta sul telefono. Non hanno bisogno di lasciare la casa per trascorrere del tempo con i loro amici». I dati dicono che gli adolescenti iGen hanno più tempo libero rispetto agli adolescenti della generazione precedente. «E che cosa fanno con tutto quel tempo?» si chiede Twenge: «Sono al telefono, nella loro stanza». Si potrebbe allora pensare che gli adolescenti passino così tanto tempo in questi nuovi spazi virtuali perché questo li rende felici, ma la maggior parte dei dati suggerisce che non è così.
Nel suo articolo Twenge cita diverse ricerche. Una ha che fare con il tempo del sonno e dice che dal 2012 le ore dedicate dagli adolescenti al dormire sono diminuite: usare il telefonino per diverse ore e anche subito prima di andare a letto ha conseguenze sulla quantità ma anche sulla qualità del riposo, e dormire poco e male ha a sua volta conseguenze sia fisiche che psicologiche. Da un’altra ricerca citata risulta che tutte le attività svolte davanti a uno schermo siano legate a una minore felicità e che tutte le attività alternative siano associate invece a una maggiore felicità. Le indagini riportate da Twenge dicono poi che più i ragazzi passano il tempo guardando uno schermo, più probabilità hanno di segnalare sintomi di depressione e di presentare maggiori fattori di rischio di suicidio (dal 2007 il tasso di omicidio tra adolescenti è diminuito, ma è aumentato quello dei suicidi: gli adolescenti hanno cioè iniziato a trascorrere meno tempo insieme ed è dunque diminuita la probabilità che si uccidano tra loro, spiega, ma è aumentata la probabilità che si facciano del male da soli): «Nel 2011, per la prima volta in 24 anni, il tasso di suicidio tra adolescenti era superiore al tasso di omicidio sempre fra persone della stessa età».
Naturalmente, precisa Twenge, queste analisi non dimostrano inequivocabilmente che il tempo passato davanti a uno schermo causi infelicità: è possibile infatti che gli adolescenti infelici spendano più tempo in rete e la studiosa, nel proprio articolo, ribadisce che è difficile comprendere con esattezza cosa venga prima e cosa dopo, cioè tracciare con precisione i nessi di causalità. Gli smartphone potrebbero causare la mancanza di sonno che porta alla depressione, o i cellulari potrebbero causare la depressione che porta alla mancanza di sonno. Ma cita un altro esperimento a cui sono stati sottoposti degli studenti del college con un account Facebook che sembra confermare la prima ipotesi, e cioè la sua tesi: per due settimane agli studenti sono stati inviati dei link cinque volte al giorno e loro dovevano rendere conto dello stato d’animo al momento della ricezione e di quanto avessero usato Facebook a partire da quei link. Più avevano usato Facebook, più segnalavano il loro stato d’animo come infelice. Il contrario però non valeva: il sentimento di infelicità non determinava cioè un maggior uso di Facebook.
Twenge scrive che «la depressione e il suicidio hanno molte cause» e che «troppa tecnologia non è chiaramente l’unica». Introduce però un concetto: poiché nell’età degli schermi è tutto documentato, lo è anche ogni occasione di ritrovo o aggregazione. Di conseguenza è aumentato il numero degli adolescenti che si sentono esclusi da quei momenti. Al sentimento di esclusione si unisce poi un’altra preoccupazione: la ricerca costante e ossessiva dell’approvazione tramite commenti, like e cuoricini vari. L’aspettativa dell’approvazione è diventata quotidiana e puntuale e questo genera ansia e un nuovo peso a cui l’adolescente è costantemente sottoposto. Questo vale soprattutto per le ragazze. I sintomi depressivi dei maschi sono aumentati del 21 per cento dal 2012 al 2015, mentre tra le giovani donne sono aumentati del 50 per cento, più del doppio. Twenge parla di una possibile spiegazione che ha a che fare con le modalità con cui i maschi e le femmine esprimono la loro aggressività o le loro reazioni di dissenso: i ragazzi tendono a scontrarsi fisicamente, mentre le ragazze hanno maggiori probabilità di farlo influenzando lo status sociale o le relazioni della persona con cui sono in contrasto in quel momento. I social media offrono quindi alle ragazze uno strumento perfetto su cui mettere in pratica lo stile di aggressione e di dissenso che favoriscono, potendo denigrare ed escludere altre ragazze 24 ore su 24.
Alla fine del suo articolo Twenge dice di rendersi conto che la limitazione della tecnologia potrebbe essere una richiesta irrealistica da imporre a una generazione di bambini e di ragazzini abituati ad essere sempre online, ma raccomanda anche che il semplice invito a un uso più responsabile e moderato della tecnologia potrebbe essere molto più necessario e importante di quanto non si possa pensare.
L’articolo di Twenge ha ricevuto diverse critiche. Su Psychology Today, mensile di psicologia pubblicato negli Stati Uniti, si dice innanzitutto che la studiosa ha scelto di citare solamente le ricerche che supportano la sua tesi e che ha tralasciato invece le indagini che hanno portato a risultati differenti: e che dicono, per esempio, che stare davanti a uno schermo non sia direttamente associato a depressione e solitudine, o che suggeriscono che l’uso attivo dei social media sia legato a risultati positivi come la resilienza. Ci sono poi studi che mostrano come la tecnologia possa sviluppare l’intelligenza, la produttività e la “coscienza ambientale”, e che mostrano come per un adolescente sia fondamentale connettersi con i suoi simili in tutto il mondo per condividere interessi, facendolo sentire incluso in una rete sociale piena di significato. Gli studi ripresi da Twenge si basano poi su metodi correlazionali che indagano cioè la misura in cui due determinati eventi o variabili sono in relazione tra loro. Questi metodi si occupano dunque dell’associazione tra i fenomeni senza stabilire se uno sia la causa dell’altro: lo precisa la stessa Twenge che però, ed è questa la critica, arriva in alcuni punti del suo pezzo a trarre da queste stesse ricerche delle conseguenze definitive.
Gli studi ripresi da Twenge sono poi troppo generali, dice chi la critica: ignorano in gran parte i contesti sociali e le differenze tra quelle stesse persone che stanno cercando di analizzare. L’uso dello schermo e la sua associazione con il benessere psicologico cambia invece in base a una moltitudine di variabili sia di contesto che personali e di questo non viene dato conto. Infine: il bias, cioè le deviazioni dai valori medi che fanno parte delle ricerche citate da Twenge sono scartate o riportate di passaggio come parte irrilevante della tesi che lei intende sostenere. Eppure si dice nel suo stesso pezzo che questa generazione ha il tasso di abuso di alcol, di gravidanze in giovane età, di sesso non protetto, di fumo e di incidenti automobilistici più basso rispetto a quello delle generazioni precedenti. Secondo Psychology Today questa non sembra esattamente la descrizione di una generazione distrutta.
In altri articoli di commento al pezzo dell’Atlantic si dice che è eccessivamente allarmistico e si citano dei dati (per esempio quelli che hanno a che fare con l’indice di felicità degli adolescenti) che o non mostrano una situazione di urgenza o che sono anzi in contrasto con quelli considerati da Twenge. La studiosa pone delle questioni fondamentali, si dice, ed è vero: ma è proprio per questo che è necessario essere molto attenti a trarre le giuste conclusioni. Inoltre, secondo i critici, Twenge non affronta alcune questioni importanti: non cita per esempio il fatto che la diffusione degli smartphone e dei social network ha riguardato negli anni Duemila sì gli adolescenti ma anche le persone più adulte, compresi i genitori di quegli stessi adolescenti.
Si suggerisce dunque di non “incolpare la tecnologia”, ma di cominciare a considerare un’altra spiegazione possibile per la condizione degli adolescenti di oggi: il disimpegno e la distrazione dei genitori stessi o, come è stata definita in alcuni studi di psicologia, la cosiddetta “genitorialità minima”. Questo offrirebbe una spiegazione alla crisi di indipendenza degli adolescenti di cui scrive Twenge. Promuovere l’indipendenza comporta infatti tempo e fatica da parte dei genitori e il lavoro di incoraggiamento a un comportamento positivo è altrettanto importante di quello che ha a che fare con la punizione di un comportamento negativo. Alcuni esperimenti di psicologia mostrano però che quando i genitori sono distratti è proprio l’incoraggiamento a risentirne, più che il controllo.
Su Slate, Lisa Guernsey – che si occupa di politiche educative e nuove tecnologie per il think tank New America – spiega che la strada suggerita da Twenge (togliere gli smartphone ai propri figli e suggerire loro di tornare nel 1985) sembra impossibile da praticare e che, d’altra parte, nemmeno l’atteggiamento del “lasciar fare” sembra essere promettente. Trovare una terza soluzione sembra fondamentale e può significare, tra le altre cose, ampliare le ricerche per avere una maggiore conoscenza dei dati e dei fenomeni e, soprattutto, «parlare con i nostri ragazzi».”

Scrolling on the river

Fonte della foto 

Emanuela Zaccone è Digital Entrepreneur, Co-founder e Social Media Strategist di TOK.tv. Ha oltre 7 anni di esperienza come consulente e docente in ambito Social Media Analysis e Strategy per grandi aziende, startup e università. Nel 2011 ha completato un Dottorato di Ricerca tra le università di Bologna e Nottingham con una tesi su Social Media Marketing e SocialTV. Oggi ho letto un suo articolo su Digitalic; l’ho trovato semplice e ricco di spunti, originale nel titolo oliverstoniano Natural born mobile.

Natural born mobile: tutta la nostra esperienza mobile passa dai device mobili, che contribuiscono per il 90% al traffico verso i social media. Controlliamo i nostri smartphone per tutto il giorno, per 220 minuti al giorno ad essere esatti. Ma la responsabilità di come i social influiscono sulle nostre vite è solo nostra.
Il 50% delle persone controlla il proprio smartphone subito dopo essersi svegliata, prima ancora di scendere dal letto e uno su tre utenti controlla il telefono anche durante la notte.
Lo scrolling è diventato una delle azioni più frequenti che compiamo in maniera ormai quasi inconsapevole, mentre proporzionalmente all’aumentare di tanti stimoli diminuisce la nostra capacità di attenzione. Se già nel 2000 riuscivamo a mantenere il focus per appena 12 secondi, nel 2015 siamo scesi a 8, un secondo meno della concentrazione di cui è capace un pesce rosso. Gli psicologi hanno addirittura coniato un termine – ringxiety – per la sensazione, riscontrata in un numero statisticamente significativo di persone, di sentire suonare il proprio smartphone anche quando questo di fatto è spento.
È un riflesso incondizionato, in parte dovuto al Fomo – Fear of Missing Out, cioè il timore di perdersi qualcosa e quindi l’esigenza costante di controllare email, social media e piattaforme su cui siamo presenti.
Torna prepotente un tema chiave della riflessione tecnologica di oggi: questi strumenti ci rendono peggiori o comunque peggiorano la nostra esperienza quotidiana? È una domanda errata: gli strumenti si limitano ad essere tali, è l’uso che ne facciamo a decretarne la loro influenza all’interno delle nostre vite. Tutto il resto è solo alibi, un tentativo di deresponsabilzzarci come utenti, ma anche e soprattutto come persone.
Facebook Live, la piattaforma di streaming che consente a chiunque di mostrare cosa sta succedendo intorno a sé in diretta, è una delle feature più usate ed apprezzate del social network. Eppure ha fatto parlare di sé più volte per motivi non positivi, come il fermo di polizia che lo scorso luglio è sfociato in omicidio ed è stato trasmesso live, prima volta nella storia del social media di Zuckerberg. Ad aprile 2017 Facebook Live è stato usato per minacciare e quindi compiere, mostrandolo, un omicidio a Cleveland. Facebook per contro ha reagito annunciando che aumenterà il numero di persone delegate a monitorare l’integrità dei contenuti. Probabilmente non si sarebbe potuto evitare, ma sarebbe stato possibile fare rimuovere il video in tempi più brevi se solo fosse stato segnalato immediatamente.
Ancora una volta entra dunque in gioco il vero fattore chiave della nostra riflessione: quello umano. Perché non c’è stato un numero di segnalazioni alto – quantomeno proporzionale all’indignazione poi letta sul social network – non appena il video è andato live? Abbiamo un potere elevatissimo nel palmo delle nostre mani: possiamo prenotare vacanze, pagare praticamente qualunque bene e servizio, mostrare in diretta la realtà che ci circonda, guardare film e serie TV, comunicare con il mondo, giocare e molto altro. Ogni nuova azione a cui siamo abilitati implica una maggiore responsabilizzazione: è facile delegare ai social media, ai creatori delle app che usiamo e in generale a chi crea le piattaforme che utilizziamo la totale responsabilità di come queste vengono adoperate, ma è compito di ciascuno di noi creare un ambiente positivo nella consapevolezza che interconnessione significa anche rispetto reciproco. Non solo, ma anche rispetto per se stessi: dominare il volume di eventuale disturbo che riceviamo dai nostri telefoni è compito di ognuno. Semplicemente definire quante e quali notifiche ricevere, quando spegnere gli smartphone, quando e cosa raccontare sui nostri stream social sono decisioni personali che devono essere prese nel rispetto delle abitudini di ciascuno. Un’esperienza tracciabile e che lascia tracce: siamo produttori di dati, una miniera d’oro non solo per chi ci profila in base alle nostre azioni, ma anche per l’influenza che i nostri comportamenti – e la loro osservazione – hanno nel disegno futuro delle piattaforme con cui interagiamo. I nostri schermi sono porte. Verso le nostre abitudini, interessi, scelte, connessioni. Viaggiamo attraverso esperienze quotidiane di (inter)connessione, senza sosta. Perché siamo naturalmente nati per il mobile.”

Riorganizzare la speranza

neet

Ho letto su La Stampa l’articolo di Niccolò Zancan su Ernesto Grasso, ventunenne torinese la cui esperienza viene brevemente raccontata come emblema dei Neet, acronimo inglese inventato nel 1999 che sta per Not in employement, education or training. Fa parte di quei “giovani fra i 15 e i 24 anni che non studiano, non lavorano e non stanno facendo percorsi di formazione”: in Italia sono il 19%. Alcune delle sue parole mi hanno colpito “I pomeriggi sono la cosa più difficile. Gioco alla PlayStation. Vado a camminare. Ma non passano mai” […] “Mi sono iscritto a sette centri per l’impiego. Fino a qualche mese fa, ogni giorno andavo al centro commerciale a vedere se mettevano degli annunci. Ho provato all’Ikea, a Leroy Merlin. L’ultimo tentativo è stato per un posto da commesso in un negozio di videogiochi. Non servo. Mi scartano sempre. Dopo un po’, ti chiudi. Ci rinunci. Vivi dentro la tua stanza, aspetti che passi il pomeriggio”…

Nei mesi di maggio e giugno ho letto vari libri di psicologi, psichiatri, antropologi su adolescenti e giovani e ho partecipato a convegni e incontri. In Abbiamo bisogno di genitori autorevoli lo psicoterapeuta Matteo Lancini scrive: “Sostenere la speranza di un futuro possibile è il compito fondamentale di ogni genitore e di qualsiasi figura adulta significativa, impegnata in un ruolo affettivo o professionale con gli adolescenti. Il futuro rappresenta infatti lo spazio e il tempo della realizzazione di sé dell’adolescente, l’ambito dove potranno affermarsi il suo talento e la sua originalità. Se manca questa prospettiva, se l’adolescente si rappresenta senza futuro, in assenza di avvenire, c’è la crisi adolescenziale. Il disagio dell’adolescente dipende soprattutto da questo.” E ancora “gli adolescenti necessitano di un adulto non troppo angosciato, sufficientemente preoccupato e autorevole da restituire loro uno sguardo di ritorno pieno di fiducia e capace di avvicinare le risorse necessarie alla realizzazione di sé in una società davvero complessa. Tutto ciò richiede agli adulti più creatività di quanto ne fosse necessaria in un passato neanche troppo lontano”.

L’articolo citato in apertura di questo post portava questo sottotitolo: “Un giorno con un Neet: gioco alla playstation perché ho smesso di guardare al futuro”. Penso che per dare concretezza al futuro di Ernesto, o di un qualsiasi adolescente la cui visione sul domani sbatte contro un muro, sia necessario lavorare sul presente, sull’oggi (che poi è la stessa cosa che scrive Lancini). E’ proprio la preoccupazione per un domani impossibile da immaginare che impedisce di vivere, apprezzare e abbracciare il presente che diventa quindi a sua volta tempo di frustrazione.
Mi vengono in mente le preoccupazioni e le angosce dei discepoli di Gesù, sempre in ansia. Vedono Gesù placare la tempesta e camminare sull’acqua, ne fanno diretta esperienza (Pietro), vengono sfamati quando pare loro impossibile… Si stupiscono di tutto questo, eppure le preoccupazioni restano. I discepoli temono, Pietro inizia ad affondare, dopo la moltiplicazione e la mangiata a sazietà sono preoccupati per non aver preso i pani… E l’accusa che muove loro Gesù è sempre la stessa: “uomini di poca fede”. La paura blocca la fede, quella che nasce dall’esperienza di un Dio vicino, buono e amorevole, che sa le necessità dell’uomo prima ancora che queste vengano esplicitate (Mt 6,7-8: Pregando poi, non sprecate parole come i pagani, i quali credono di venire ascoltati a forza di parole. Non siate dunque come loro, perché il Padre vostro sa di quali cose avete bisogno ancor prima che gliele chiediate). Ancora Lancini: “Se si vuole aiutare l’adolescente in crisi bisogna essere in grado di «raggiungere» il ragazzo o la ragazza là dove sono. La clinica dell’adolescente richiede di arrivare alla mente del paziente là dove è, là dove si trova adesso, con un profondo rispetto per come il soggetto prova a gestire l’insopportabile crisi evolutiva, il fatto di vivere in una quotidianità senza prospettive visibili dal suo punto di vista. Su queste basi è possibile costruire un’alleanza con l’adolescente che consenta a noi, e ai suoi adulti di riferimento, di avvicinargli le risorse utili alla ripresa evolutiva, alla scoperta del proprio vero Sé, del proprio talento, come unica possibilità per riorganizzare la speranza e investire in un futuro possibile”.

Tra passo indietro e passo avanti: la creatura

William_Blake,_The_Temptation_and_Fall_of_Eve.JPG
La tentazione e la caduta di Eva, William Blake

Ho da poco partecipato ad un corso d’aggiornamento per insegnanti di religione nella mia diocesi dal titolo “Riscoprire l’umano: scienza e cultura in dialogo per comprendere l’uomo di oggi”.
Il primo giorno il neurologo Franco Fabbro ha tenuto una conferenza dal titolo “Le neuroscienze svelano la mente umana”: un viaggio a partire dalla medicina e dalla fisiologia per arrivare a spunti di riflessione filosofici.
Il secondo giorno è stata la volta del prof. Filippo Ceretti su “Umanità mediale. Età digitale e sfide educative”: da un’educazione con, a, ne e attraverso i media, è possibile educare i media?
Infine, ieri, il teologo Riccardo Battocchio ha trattato il tema “La teologia interpreta l’uomo moderno: sfide e prospettive”: fra la spinta di fare un passo indietro e quella di fare un passo avanti, riscoprendo l’origine e la chiamata dell’uomo, fra postumanesimo e transumanesimo, c’è spazio per la creatura?
Mentre mi ronzano per la testa numerose domande, tentativi di risposta e riflessioni, leggo proprio oggi su L’Indiscreto questo articolo di Andrea Daniele Signorelli. Lo pubblico anche come appunto per idee per il prossimo anno scolastico…

“Per la prima volta nella storia si muore più per colpa degli eccessi alimentari che per la mancanza di cibo; la morte ci coglie più spesso in tarda età, per vecchiaia, che in gioventù, per malattie infettive; si cessa di vivere più facilmente per mano propria, con il suicidio, che a causa dei rischi connessi alla presenza di soldati, terroristi e criminali messi insieme”. L’umanità è giunta a un momento di svolta – sostiene Yuval Noah Harari in “Homo Deus, breve storia del futuro” (Bompiani) – a un bivio tra incredibili opportunità e tremendi pericoli.
Ora che siamo riusciti a limitare drasticamente l’impatto dei tre nemici storici dell’umanità (carestia, malattia e guerra), l’homo sapiens può infatti concentrarsi sulle conquiste da portare a compimento nel terzo millennio: la perenne felicità (per via chimica) e l’immortalità (per via medica o tecnologica). Non solo: grazie all’editing genetico, o magari alla fusione con macchine super-intelligenti, l’uomo diventerà sempre più simile un dio, trasformandosi in quell’Homo Deus che dà il titolo al saggio.
“L’ingegnerizzazione degli uomini al rango divino può avvenire seguendo indifferentemente tre strade: le biotecnologie, l’ingegneria biomedica e l’ingegnerizzazione di esseri non organici. L’ingegnerizzazione biologica permessa dalle biotecnologie parte dal presupposto che siamo molto lontani dal dispiegare l’intero potenziale dei corpi organici. Per quattro miliardi di anni la selezione naturale ha aggiustato e ricomposto questi corpi, con il risultato che siamo passati dall’ameba ai rettili, ai mammiferi e agli uomini Sapiens. Tuttavia non c’è motivo per pensare che i Sapiens siano l’ultima stazione. Alcune mutazioni, relativamente piccole, nei geni, negli ormoni e a livello neuronale sono state sufficienti per trasformare Homo erectus – che non era in grado di produrre nulla di più impressionante di coltelli di selce – in Homo Sapiens, che costruisce navette spaziali e computer. Chissà dove ci potrebbe condurre un drappello di cambiamenti nel nostro DNA, nel sistema ormonale o nella struttura cerebrale?
Potrebbe sembrare una prospettiva allettante, se non fosse che solo una piccola élite di miliardari illuminati potrà approfittare delle fantascientifiche opportunità offerte dalla scienza e dalla tecnologia, mentre tutto il resto dell’umanità dovrà accontentarsi di giocare con la realtà virtuale e i social network, limitandosi a fornire i dati necessari all’avanzamento di algoritmi in grado di trasformare la medicina, la politica, l’amore e tutta la nostra società; algoritmi talmente potenti da dare vita a una nuova religione: il datismo.
Se Google sa che cosa vogliamo, Facebook sa invece alla perfezione chi siamo. Una volta ulteriormente perfezionati i meccanismi, l’uomo (nella visione di Harari) arriverà inevitabilmente a cedere tutto il suo potere decisionale, lasciando che siano algoritmi che ci conoscono molto meglio di noi stessi a decidere il da farsi.
“Che senso ha indire elezioni democratiche quando gli algoritmi sanno non solo come ogni persona voterà, ma anche le sottostanti ragioni neurologiche secondo cui una persona vota per i democratici mentre un’altra vota per i repubblicani? Laddove l’umanesimo ordinava: “Ascoltate i vostri sentimenti!” ora il datismo ordina: “Ascoltate gli algoritmi!”.
Fin qui, niente di particolarmente nuovo: una visione del futuro – contemporaneamente utopistica e distopica – che viene analiticamente e gelidamente tratteggiata da Harari con un fare speculativo che, in qualche occasione, ricorda più un TED Talk che un libro di divulgazione scientifica e che, nonostante questo, ha la pretesa di costruire una sorta di “teoria del tutto” dell’umanità, in grado di riunire sotto un unico tetto religione, scienza e politica.
Sono però il percorso e le dinamiche storiche inquadrate dall’accademico israeliano a rendere le sue conclusioni (spesso imposte al lettore come fossero verità assodate nonostante un elevato grado di azzardo) affascinanti e non di rado illuminanti. Un percorso che attraversa millenni di religione, politica e società per mostrare come l’uomo sia sempre stato vittima di illusioni elaborate ai piani alti (sia detto senza scadere nel complottismo) affinché i network sociali – che rappresentano la vera forza che ha consentito all’homo sapiens di conquistare il mondo ed ergersi sulle altre creature terrestri – restassero in piedi e prosperassero (da questo punto di vista, è incisivo il parallelismo tra divinità e brand o tra faraoni e popstar).
Per la maggior parte del tempo, queste illusioni sono state rappresentate dalla religione e dalle divinità. Quando però la scienza, almeno in alcune aree del mondo, ha relegato la religione nelle retrovie, il vuoto lasciato è stato colmato da una nuova forma spirituale: l’umanesimo, in cui lo spirito santo viene sostituito dalla coscienza e la ricerca di una verità esterna all’uomo si trasforma nella centralità dell’uomo, vero deus ex machina di se stesso.
“Qual è, allora, il senso della vita? Il liberalismo sostiene che non dovremmo aspettarci che un’entità esterna di qualche tipo ci fornisca una risposta preconfezionata. Piuttosto, ciascun individuo, elettore, consumatore e spettatore dovrebbe fare uso del suo libero arbitrio per dare un senso non solo alla propria vita ma all’intero universo. Le scienze biologiche, però, destabilizzano le fondamenta del liberalismo, perché sostengono che l’individuo libero è soltanto una favola generata da un insieme di algoritmi biochimici. In ogni istante, i processi biochimici del cervello creano un lampo di esperienza che spariscono un attimo dopo. (…) Il sé narrante cerca di imporre un ordine a questo caos intessendo una storia infinita nella quale ogni esperienza trova il suo posto, e dunque un senso duraturo. Tuttavia, per quanto possa essere convincente e affascinante, questa storia è pura finzione. I crociati medievali erano convinti che Dio e il paradiso riempissero la loro vita di senso; i liberali moderni sono convinti che le libere scelte dell’individuo riempiano la vita di senso. Tutti quanti si illudono alla stessa maniera”.
Come affrontare, allora, la recente scoperta (che Harari considera definitiva nonostante sia ancora ampiamente dibattuta) che non esiste il libero arbitrio? Una scoperta che, una volta diffusasi nella società, avrà come logica conseguenza il crollo delle liberal-democrazie riemerse già una volta, quasi per miracolo, dalle tempeste geopolitiche del ventesimo secolo. A colmare il vuoto, ma non senza rovesci della medaglia, ci penserà il già citato datismo, che costringerà l’uomo ad accettare la sua obsolescenza o ad abbracciare un futuro di “umanità aumentata”, che permetterà alla specie (o almeno ad alcuni suoi rappresentanti) di progredire verso la prossima evoluzione.

13

13-reasons-why-twitter

Due settimane fa, al Convegno Supereroi Fragili, organizzato dalla Erickson a Rimini, in molti interventi si è fatto riferimento alla serie 13, disponibile su Netflix. La sto guardando in questi giorni e proprio oggi è uscito su La Stampa un articolo di Alessandro D’Avenia con un notevole numero di spunti di riflessione, soprattutto per genitori, insegnanti e tutti gli adulti che incrociano le proprie strade con quelle degli adolescenti di oggi.

“Stavamo dialogando attorno al canto dell’Inferno dantesco dedicato al conte Ugolino, ed evidenziavo il fatto che Dante presenta un padre incapace di dare pane e parole ai suoi figli, condannati a morire da innocenti.
In un verso Dante descrive la tragedia della paternità sovvertita, quando Ugolino, guardando i volti dei quattro innocenti imprigionati con lui, dice di aver visto se stesso: sia perché vede in loro lo stesso dramma dell’inedia che li condanna a morte, sia perché vede in loro il frutto delle sue colpe. Moriranno a causa sua, e lui non se ne era reso conto, se non in quel momento, quando ormai è troppo tardi. Partendo da qui siamo13 arrivati a parlare di Thirteen reasons why: titolo di un fortunato libro negli Usa (Tredici in Italia), nonché di una ancora più fortunata serie televisiva che spopola tra i ragazzi e che, sollecitato da loro e interessato a capire dove cercano le parole e le immagini per raccontarsi, ho guardato nelle ultime settimane.
Una ragazza si suicida, ha 17 anni, ma prima di mettere in atto il suo gesto estremo, incide 13 audiocassette, dedicate ciascuna alle tredici ragioni che l’hanno portata a togliersi di mezzo, ogni ragione corrisponde all’amico o amica, a cui è dedicato quel nastro. Così a poco a poco emerge la verità di una storia di violenza verbale e fisica, ampliata anche da chi si riteneva innocente. Sorprende scoprire che solo l’ultima cassetta è dedicata a un adulto, lo psicologo della scuola, che aveva parlato con la ragazza il giorno stesso del suo suicidio e non era stato capace di andare oltre quanto richiesto dal codice del suo lavoro.
Il ritornello che caratterizza tutta la serie è che la verità non è sempre quella che ci costruiamo per giustificare le nostre azioni e che il male che commettiamo o il bene che tralasciamo di fare hanno lo stesso peso.
Tutto ciò avviene ad una ragazza a cui non manca niente per essere felice, ma una somma di gesti malvagi o di gesti omessi da chi le vuole bene fa crollare una identità in formazione e quindi fragile. Questo il fascino esercitato sul pubblico di adolescenti: la percezione della distanza tra come ci si sente e come è la realtà, due dati che nella vita di un ragazzo sono spesso molto distanti e che portano gli adulti a non capire, liquidando le loro sofferenze ora come «paturnie dell’età», ora come «cose che un giorno capirai», ora come «la vita è fatta così, impara a starci».
Nella serie infatti l’assordante assenza è quella degli adulti, distantissimi anche se vicini, a volte incapaci di ascolto o di capire come ascoltare (la famiglia del protagonista deve formulare il proposito di fare almeno un pasto insieme dopo tre settimane…), a volte incapaci loro stessi di essere adulti.
È il protagonista della serie, un diciassettenne, a dover dire in modo chiaro allo psicologo: «Dovremmo imparare a volerci bene, in modo migliore». Ha capito che non basta il rispetto, non bastano le regole, che il consumismo relazionale è un veleno e che per volersi bene bisogna conoscere gli altri, conoscere il bene per gli altri, perché una relazione è vera solo quando si impegna a realizzare il bene dell’altro e ad accogliere l’altro come bene, non basta vivere sotto lo stesso tetto (familiare, scolastico…). È l’adolescente protagonista che impara che il bene dell’altro va fatto, a ogni costo, ed è lui a dover educare gli adulti sul tema.
Sono gli effetti di una società individualista, in cui i ragazzi non si sentono più parte di una storia, ma si riducono ad atomi incapaci di comprendere la realtà, perché nessuno gliene offre le parole adatte, ci si limita a insegnare delle regole per la vita e non cosa ci sia di buono da fare nella vita e a cosa servano quelle regole. Lo spaesamento narrato in questa serie solleva sin dal primo minuto la ferita aperta della società di oggi, quella americana sicuramente più avanti della nostra, ma neanche tanto: in un tessuto sociale disgregato e utilitarista, l’individuo è solo e non vale nulla se non si procura da solo il suo valore. La vita inserita in un sistema di performance in cui si è tanto quanto si ha, fa, appare, non c’è il tempo per costruire sull’essere, cosa che potrebbe avvenire in famiglia, unico luogo in cui essere accettati per quello che si è e non per quelle altre tre cose. Ma la famiglia non ha tempo per fare questo, oppressa anche lei da un meccanismo soffocante. Non c’è tempo per le relazioni buone, il tempo che permette di far emergere le ferite e le gioie, che va a costruire quel nucleo forte di amore da cui un bambino ed un adolescente imparano a guardare ed affrontare il mondo.
Il tempo delle relazione è spesso riempito da oggetti, silenzi, altre performance… che non lasciano lo spazio e i minuti necessari ad abbassare le difese e ad aprirsi. Persino l’assurda moda della Blue Whale – un gioco perverso che si conclude con il suicidio del partecipante – può riempire il vuoto di senso della propria esistenza, tanto da trasformarla in una performance sino alla autodistruzione: ci sarebbe da chiedersi come mai neanche la scuola sia più in grado di offrire un orizzonte di senso a questi ragazzi che vi passano per tredici anni tre quarti delle mattine. Continuiamo a produrre «educazioni a» affollando la loro testa di altre regole, impossibili da vivere perché non c’è una vita interiore, personale, unica e irripetibile, una storia in cui inserirle. Gli individui non hanno storie, le storie le hanno i ragazzi quando sono figli, nipoti, alunni… La passione per questa serie da parte dei ragazzi la tradurrei così: «Insegnateci a voler bene davvero, ridateci relazioni significative e non consumistiche, trovate il tempo da impegnare per noi come la cosa più importante che vi è capitata nella vita, guardateci, andate oltre le apparenze, consegnatemi il testimone della vita perché io cominci la mia corsa e sappia perché sto correndo».
La ragazza che si suicida dopo aver parlato con lo psicologo si ferma fuori dalla porta a vetri di lui e rimane ferma sperando che lui la insegua, andando oltre lo stretto necessario della chiacchierata appena affrontata. Lei afferma nella sua registrazione che se lui fosse uscito non si sarebbe uccisa, ma lui risponde al cellulare che aveva squillato già più volte durante il colloquio, interrompendo l’attenzione totale dovuta ad una ragazza in crisi, e dimentica quello che lei gli ha appena confidato: la mia vita non vale niente. Sceglie ciò che sembra più urgente, invece di quello che è importante (quanto tempo rubato alle relazioni dalla nostra iper-connessione). Tredici sono le ragioni per cui una ragazza si toglie la vita: e sono persone, cioè relazioni. Una è la ragione che le unifica tutte: la mancanza d’amore. L’amore è dare valore alle persone, e il valore sì dà solo quando si dona il proprio tempo a curare la relazione con l’altro, costi quel che costi. Dare tempo quando si è in tempo, altrimenti come Ugolino vedremo sul volto dei ragazzi ciò che noi stessi, senza rendercene conto, abbiamo provocato. Ma sarà troppo tardi.”

Appunto

_DSC8514.jpg

“La nostra speranza è che il nuovo assomigli a ciò che già conosciamo almeno quel tanto da poterlo comprendere. E questo sempre succede… Al contrario. Più scendiamo nell’infinitamente piccolo, meno comprendiamo. Ci sono dei fisici che hanno spinto la loro sottile analisi delle cose tanto in là da perdersi in un mondo in cui la stessa, vecchia Casualità non li seguiva più… Che fare, in un ordine di grandezza dove non si pone più il problema delle immagini?… Se le cose hanno un fondo, questo fondo non assomiglia a nulla… La similitudine sparisce… La profondità è insignificante. Ma quanto è curioso questo ricercare, nell’estrema divisione, la chiave dei problemi del nostro ordine!…”

Paul Valéry, L’idea fissa

Far west, far web

post truth
Immagine tratta da The Norwich Radical

Un interessante articolo di Damiano Greco sulla necessità di una nuova educazione all’informazione. La fonte è Eastwest.
Esattamente come avviene nella società offline, anche all’interno della collettività online non possiamo e non dobbiamo esimerci dalle nostre responsabilità e doveri inderogabili, sia di natura etico-morale che di tipo costituzionale. Questi vincoli nell’attuale contesto digitale devono essere tradotti in condivisioni, commenti e cinguettii virtuosi, norme che devono essere garantite nella dimensione virtuale come lo sono già in quella reale.
Come sosteneva Bauman – compianto sociologo e filosofo della “società liquida” – solo la convivenza tra questi due mondi potrà garantire all’individuo e alla società una condizione di vita sana e sostenibile. Il nuovo ecosistema comunicativo diviene “Onlife”, attraverso una connessione costante, fusione tra questi due mondi, prendendo le redini di assetti consolidati dunque, facendo assumere ai nuovi attori della sfera pubblica – i cittadini-utenti – il ruolo di protagonisti indiscussi, mentre la nuova moneta di scambio viene rappresentata dalla visibilità, bramata e inseguita da quest’ultimi. Gli attori sociali si ritrovano dunque costretti a prendere parte ad una tragicomica competizione per la notorietà e lo status, cercando, proprio come le merci in vendita negli scaffali, di rendersi particolarmente attraenti agli occhi degli altri utenti se intendono sentirsi parte della società in cui vivono, tenendo costantemente aggiornata la propria identità digitale attraverso i diversi social network, divenendo pertanto un vero e proprio obbligo sociale. Riformulando in salsa 2.0 la consapevolezza di “sé stesso” attraverso la celebre citazione e intuizione di Cartesio: “Condivido, dunque sono”.
Viviamo d’altra parte nell’epoca della post-verità, basata sull’emotività e convincimenti personali a discapito di dati oggettivi, il superamento dell’attendibilità raggiunge il punto di non ritorno nel momento della perdita di consapevolezza dell’importanza obiettiva dell’autenticità dei fatti. L’ascesa della Post-Truth, entrata con forza nella nostra quotidianità non deve essere sottovalutata, i pericoli rappresentati dall’illusione della conoscenza rischiano seriamente di depotenziare la qualità già fragile dell’attuale arena mediatica, in tale contesto le notizie che dovrebbero seguire rigidi parametri tecnico-scientifici, vengono lasciate in balia di bugie facili e rassicuranti, all’interno di questa cornice troviamo come sempre il complesso rapporto tra lo Stato ed il cittadino, tra la collettività e l’individuo, in una sorta di cinica interdipendenza dominata dal caos. Una valanga di notizie travolge la Rete e con essa i cittadini-utenti, incapaci di effettuare una scelta autonoma si affidano al trend del momento, vulnerabili e fragili divengono il ventre molle del web, trovandosi portatori inconsapevoli di ideologie fasulle che paradossalmente si scontrano con convinta presunzione contro il mondo della competenza e istruzione. Annamaria Tesla su Internazionale scrive che oggi il 44% della popolazione si “informa” tramite Facebook, il social network più famoso al mondo attraverso dei complessi algoritmi tenderebbe inoltre a creare delle “camere dell’eco” in grado di far rimbalzare ripetutamente la “balla” all’interno del web, questa senza trovare alcuna opposizione diverrebbe in fine reale.
Ma com’è potuto accadere? Quando i lettori-utenti hanno iniziato a credere al populismo spicciolo e alle menzogne dei politici perdendo la fiducia nei vari professionisti, giornalisti, editori? In realtà come afferma Riccardo Luna in “Bufale, Post-Verità e il Futuro del Giornalismo”, tutto ciò non rappresenta una novità: “…E’ sempre accaduto che le persone si facessero una idea “sui titoli dei giornali”. Senza leggere gli articoli. E quindi per decenni l’opinione pubblica si è formata più sui titoloni che sulla realtà. Scandalizzarsi ora vuol dire non avere memoria. Ma adesso questa cosa ha dentro il motore potentissimo della rete”. In tal senso, nella lotta contro la diffusione delle “fake news” si stanno iniziando a muovere i primi timidi passi, ad esempio in Germania è stata annunciata una proposta di legge finalizzata a multare le piattaforme social nel momento in cui non provvedano a rimuovere contenuti hate speech in grado di incitare all’odio.
Cosa fare al riguardo? Come è noto il flusso informativo per poter funzionare correttamente richiede cittadini “illuminati”, porre l’accento sull’istruzione e la promozione delle scienze risulta essere ancora oggi molto importante, ma la vera priorità dei nostri tempi è insegnare a comprendere la realtà del mondo iperconnesso di oggi con i suoi elevatissimi collegamenti, il forte impatto tecnologico e la velocità innovativa degli attuali canali comunicativi, a cui sono inesorabilmente legate le nuove generazioni, rischia seriamente di impedire a quest’ultime di poter raggiungere e comprendere l’attuale contesto sociale, ma di arrivarci con grande affanno e confusione, favorendo sempre più la divisione a serio discapito del progresso socio-culturale. La conoscenza dunque, deve rappresentare ancora una risorsa, ma deve essere accompagnata dalla consapevolezza degli effetti che può avere ad esempio, una condivisione estrapolata all’interno della nostra filter bubble – bolla di informazioni creata appositamente da Facebook finalizzata a compiacere le nostre esigenze – e postata con troppa superficialità, senza prima aver appurato le fonti della notizia attraverso una ricerca metodica e ponderata, il post rischia di divenire virale innescando una escalation pericolosa e difficilmente inquadrabile.
I canali divulgativi, una volta saldamente in mano alle istituzioni, vengono oggi veicolati e orientati dagli influencer, in grado con il loro peso mediatico, di indirizzare opinioni e atteggiamenti ed infine per consolidare o meno il consenso ad un candidato in vista di un confronto politico. Nella definizione di Mazzoleni (1998) la comunicazione politica veniva descritta come “il prodotto dello scambio fra i tre attori dello spazio pubblico, ossia tra sistema politico, sistema dei media e cittadini-elettori…”, se in passato dunque individuavamo un netto sbilanciamento a favore dell’interazione tra i primi due attori – il sistema politico e i media – ponendo di fatto il terzo attore ad uno ruolo di mero spettatore all’interno della comunicazione politica, oggi la centralità dei New Media impone una visione differente, dove troviamo il cittadino-utente assumere un peso sempre più rilevante, in grado di comunicare attraverso un nuovo linguaggio eterogeneo e complesso, ridisegnando di fatto l’arena del confronto politico. Appare chiaro che i Governi non sono più in grado di gestire adeguatamente le attuali problematiche, l’unica strada percorribile prima di scatenare scontri civili senza una via di ritorno, viene rappresentata dalla necessità di far assumere ai cittadini-utenti una maggiore coscienza, ponendoli in condizione di organizzarsi e di poter gestire i propri processi e le proprie risorse, riunendoli sotto un’unica tenda, quella che riporta in alto la scritta “Empowerment”. La società civile digitale non solo dovrebbe incentivare questi principi ma addirittura prendersene carico nella loro totalità. Si necessita una nuova educazione all’informazione, un luogo di incontro e confronto di processi individuali e collettivi coordinati da una forma di divulgazione responsabile. Il mondo ha bisogno di giornalisti scrupolosi e di lettori vigili e attenti. Con la speranza che un giorno si potrà guardare indietro negli anni ripensando a questo periodo caotico definendolo goliardicamente come il “Vecchio Far Web”.”

Ridefiniamo le libertà

freedom-of-the-press-2048561_1920.jpgE’ un articolo piuttosto lungo: parla della Serbia, ma gli spunti di riflessione che offre in merito all’utilizzo politico e sociale di internet sono validi per qualsiasi realtà. L’intervista è di Rossella Vignola per l’Osservatorio Balcani Caucaso e Transeuropa.
Il 12 marzo scorso, nel giorno in cui si celebrava il 28° compleanno di internet, Tim Berners-Lee, co-inventore del web, ha pubblicato sul sito della World Wide Web Foundation una lettera aperta su come internet stia evolvendo e ha espresso le sue preoccupazioni su alcune tendenze che, secondo l’autore, stanno tradendo la promessa originaria di internet come di uno spazio aperto, plurale e democratico dove tutti possono condividere informazioni e collaborare senza frontiere. Nella sua lettera ha citato tre sfide principali: in primo luogo, il modello di business dominante fondato sull’offerta di contenuti gratuiti in cambio di dati personali, gestiti in modo proprietario e opaco da pochi giganti del web (Facebook, Google, etc.); secondo, la diffusione della disinformazione spinta da algoritmi che attingono dai nostri dati personali; terzo, la crescente complessità del marketing politico che rende possibile campagne elettorali in grado di raggiungere milioni di elettori con messaggi personalizzati.
Se, soprattutto dopo le ultime elezioni americane, l’impatto di queste tecnologie sui risultati elettorali è oggetto di dibattito, ciò che è certo è che esse stanno contribuendo a cambiare il concetto stesso di sfera pubblica e le modalità di costruzione del consenso. Ne abbiamo parlato con Vladan Joler, direttore di SHARE Foundation , organizzazione di Novi Sad che monitora le tendenze del web e le violazioni dei diritti digitali nello spazio virtuale serbo.
La Share Foundation è stata fondata nel 2012 con l’obiettivo di proteggere i diritti digitali, la privacy, la libertà di espressione, la trasparenza, i diritti umani e contrastare la sorveglianza nella sfera digitale…
Abbiamo iniziato organizzando il più grande raduno di attivisti internet della regione, ma ci siamo subito resi conto che con un singolo evento e senza una base solida di competenze forti e variegate, dalla ricerca, all’advocacy al policy making, non eravamo in grado di affrontare una serie crescente di questioni che erano molto importanti per noi. Abbiamo così concepito il passaggio dall’essere un gruppo di attivisti ad un gruppo di esperti. Attualmente il nostro team è composto da avvocati, giornalisti, tecnologi ed esperti di informatica forense e analisi dei dati.
Gli attacchi online ai media digitali, ai giornalisti, agli attivisti sono sempre più frequenti nella sfera digitale in Serbia. Ci può spiegare come si è evoluto il fenomeno negli ultimi anni?
In Serbia, con poche eccezioni, da tempo i media mainstream sono utilizzati come strumenti per fare politica. Questo ha fatto di internet uno dei pochi canali dove il giornalismo indipendente poteva trovare espressione. Insieme alla crescita della popolarità e della rilevanza dei media digitali e dei siti di giornalismo partecipativo, negli ultimi anni sono aumentati anche gli attacchi contro di essi. Questi attacchi vanno dalla pressione alle minacce a veri e propri attacchi informatici.
Questi ultimi sono diventati visibili come fenomeno sociale nel 2014 e sono presenti ancora oggi. Nel giro di tre anni si sono evoluti passando da comuni attacchi DDos [Distributed Denial of Service, NdT] a più sofisticati meccanismi per hackerare e intercettare le comunicazioni digitali. Oggi, gli attacchi cibernetici non sono così frequenti come lo erano due o tre anni fa, ma riaffiorano in modo mirato quando serve. Ad esempio durante le campagne elettorali, quando ci sono proteste, o altri fenomeni sociali di massa.
Quali sono stati i casi più rilevanti e che hanno sollevato più dibattito in Serbia?
I casi più rilevanti degli ultimi anni sono stati casi di attacchi informatici. Per esempio il popolare portale di notizie pescanik.net ha subito numerosi attacchi, in particolare nell’estate del 2014 dopo che un gruppo di giovani ricercatori aveva pubblicato un articolo che spiegava come il ministro degli Interni avesse plagiato la loro tesi di dottorato. In quella circostanza il sito rimase sotto attacco restando a lungo inaccessibile, per poi essere colpito ancora una volta dopo che gli stessi autori avevano pubblicato un nuovo articolo sul supervisore che aveva seguito la ricerca di dottorato del ministro. Dall’inchiesta emerse che questa persona, all’epoca direttore di un’università privata, non aveva un titolo di dottorato valido. Il portale subì nuovi attacchi e il direttore in questione si presentò in televisione per leggere alcune parti di uno scambio di e-mail che gli autori dell’inchiesta avevano avuto tra loro privatamente. Nessuno di questi casi è ancora stato chiarito dalle autorità competenti.
Il bersaglio di un altro importante attacco internet, accaduto nell’aprile 2015, è stato il sito Teleprompter, portale di notizie che di solito pubblica contenuti discutibili dal punto di vista etico, ma che all’epoca aveva adottato una linea critica nei confronti del governo. Si trattò di un attacco “totale”, dal momento che colpì sito, social network e gli indirizzi e-mail usati dai dipendenti per l’attività amministrativa. L’editore dovette ricorrere ad avanzate soluzioni per la sicurezza informatica per poter riguadagnare l’accesso al portale e agli indirizzi mail hackerati.
Come documentato nella vostra recente ricerca “Mapping and quantifying political information warfare “, nel corso del 2013 sono emersi i primi segnali che mostravano connessioni tra le attività illegali svolte nel “web sommerso” e l’agenda politica del partito al governo…
Nella maggior parte dei casi che abbiamo analizzato negli ultimi tre anni, i target degli attacchi informatici non erano parte della struttura di potere, ma piccoli media online indipendenti, blog e siti che criticavano il governo e pubblicavano articoli sulla corruzione, sull’inefficienza del governo o dei membri del partito al governo. È paradigmatico che questi attacchi siano avvenuti di solito dopo la pubblicazione di articoli che criticavano le strutture di potere. Per questa ragione, più che di casi di disobbedienza civile elettronica [operata da gruppi e attivisti per i diritti umani contro le strutture di potere, NdT] si è trattato di forme deliberate di censura.
Le principali conseguenze di questi attacchi sono insicurezza e paura crescenti, che producono un effetto inibitorio e paralizzante per la libera espressione sul web. Il punto è che pubblicare contenuti che criticano le strutture di potere (governo, gruppi criminali, o qualsiasi altro attore influente) può portare alla distruzione, al blocco o alla sparizione temporanea di contenuti da un sito, eventi a cui seguono inevitabilmente, oltre allo stress psicologico, tante ore di lavoro per ripristinare il sistema. Tutto questo può avere un grande impatto sulla volontà e sulla libertà delle persone di esprimersi liberamente.
Sono tre i software che sono stati presumibilmente usati dal partito al governo per fare “astroturfing“, ovvero per creare opinioni false e consenso a tavolino inondando di commenti le sezioni dedicate degli articoli pubblicati online. Questi software sono stati usati ripetutamente, e in modo sempre più sofisticato. Al momento non sappiamo se siano ancora in uso, anche se l’azione di troll e bot è ancora evidente e riconoscibile nelle sezioni dei commenti.
Avete sviluppato una metodologia specifica per ottenere e analizzare i dati che usate per le vostre inchieste?
Avendo chiaramente in mente che i temi di nostro interesse sono ogni volta diversi in termini di segmenti della società e di internet esplorati, ci approcciamo ad ogni nuova inchiesta con un lavoro di analisi a sé. In primo luogo, facciamo brainstorming sui possibili esiti, stabiliamo delle ipotesi, e poi pensiamo al modo migliore per ottenere i risultati che cerchiamo. Tentiamo sempre di minimizzare il fattore umano nel processo di raccolta e lavorazione dei dati. Usiamo diversi strumenti, nella maggior parte dei casi open source, oppure software proprietari concessi in uso gratuito o con licenze che consentono la distribuzione libera per scopi accademici e di ricerca.
Per quanto riguarda il monitoraggio delle violazioni dei diritti digitali, abbiamo sviluppato una metodologia per organizzare i casi per categorie, come ad esempio, gli attacchi tecnici all’integrità dei contenuti online, i casi di sorveglianza delle comunicazioni elettroniche, i casi di abuso della libertà di parola e così via, fino ad avere delle sotto-categorie più dettagliate. I casi raccolti sono conservati in un database online aperto. Questi dati vengono utilizzati per realizzare analisi e monitoraggi periodici sullo stato dei diritti e delle libertà digitali in Serbia.
Come viene percepito il vostro lavoro dalla società e dai media serbi? Le istituzioni reagiscono alle vostre denunce?
C’è una parte della società serba che segue il nostro lavoro regolarmente attraverso il nostro sito, i social network e partecipando agli eventi in cui divulghiamo le nostre ricerche. Tuttavia, non posso spingermi a sostenere che il nostro lavoro sia diventato mainstream. Le ragioni di questo sono varie, e ci vorrebbe tanto tempo per spiegare cosa è mainstream in Serbia.
La situazione con le istituzioni pubbliche è simile. Ce ne sono alcune che ci riconoscono come un attore rilevante, come l’ufficio del Commissario per le informazioni pubbliche e la protezione dei dati personali.
Come hanno mostrato le recenti elezioni negli Stati Uniti e il referendum per la Brexit , la propaganda computazionale su internet e l’uso di bot per manipolare l’opinione pubblica sono in crescita. In vista delle prossime elezioni presidenziali, cosa sta accadendo nella sfera digitale in Serbia?
Usando Facebook e Google, per fare un esempio, i cittadini sono automaticamente manipolati ed esposti alla propaganda computazionale o all’”economia della sorveglianza”, come preferiamo chiamarla. Il fatto che questi metodi siano ora usati per manipolare l’opinione pubblica da diversi attori e su larga scala nei casi di elezioni o campagne referendarie non è una novità ed è qualcosa che potevamo aspettarci. L’origine del problema sta nell’aver accettato il fatto di pagare per i servizi internet con i nostri dati personali, trasformando noi stessi in oggetti potenziali di manipolazione e in prodotto da vendere. La battaglia fondamentale da combattere nella società è la battaglia per la conquista delle menti delle persone; questo oggi è possibile con tecniche come la profilazione psicografica, l’analisi dei big data e la costante tracciatura del nostro comportamento online. Così le porte delle nostre menti sono sempre un po’ più aperte ad ogni potenziale acquirente interessato.
Nel caso della Serbia, durante le passate tornate elettorali abbiamo osservato chiaramente la volontà degli attori politici di controllare e dominare tutti gli spazi della comunicazione politica online, dai contenuti, ai commenti, ai voti online. Come abbiamo già spiegato, ci sono stati dei segnali che indicavano che il partito di governo ha usato dei software per disseminare commenti sul web. La questione qui è più sociale (e politica) che tecnologica, e riguarda le motivazioni che hanno portato a questo tipo di attivismo da parte degli attori politici. C’è una leggenda metropolitana secondo cui le persone coinvolte in queste attività ottengono in cambio dei sandwich, ma ci sono elementi che portano a pensare che questi attivisti, o bots, come sono chiamati in Serbia, abbiano ricevuto come compenso per queste attività impieghi e posizioni in aziende statali e istituzioni pubbliche.
In un articolo del 2012 , Philip Howard, esperto dell’Oxford Internet Institute, lanciò un appello per la creazione di “bot democratici”, per fare in modo che questi strumenti possano lavorare al servizio della democrazia e dei diritti umani. Crede che sia possibile per gli attivisti e per i difensori dei diritti umani trarre beneficio da queste tecnologie?
L’idea stessa di “bot democratici” è divertente. Si tratta, secondo la mia opinione, di un’idea estratta dal cappello a cilindro dei “tecno-ottimisti”. Francamente, non credo che aggiungendo altro rumore nello spazio di discussione online si aiutino le opinioni vere ad essere ascoltate. Anche se questo può sembrare troppo umanocentrico e contro i potenziali futuri “bot per i diritti”, io credo che la democrazia abbia a che fare, tra le altre cose, con la libera espressione di opinioni differenti rappresentate in una qualche forma di dialogo, e non con la competizione tra strumenti tecnologici o gare tra stringhe di codice. Questa idea appartiene alla stessa narrazione di chi sostiene la colonizzazione della sfera pubblica, secondo cui lo spazio della discussione pubblica dovrebbe essere conquistato attraverso soluzioni tecniche. Che questi strumenti siano a favore o contro la democrazia non cambia la sostanza: ovvero il fatto che si tratta di metodi profondamente sbagliati.
Si può lavorare ad accrescere la consapevolezza e l’educazione ai media e al mondo digitale dei cittadini per prevenire gli abusi delle tecnologie e dei social network nella manipolazione e nel controllo della sfera pubblica?
In una società, come quella serba, dove i media tradizionali, come la televisione e i giornali, sono largamente influenzati dalle strutture di potere, le piattaforme online sono i canali attraverso cui i cittadini possono essere pienamente informati su quello che accade. Oggi in Serbia il giornalismo investigativo è presente quasi esclusivamente sul web. Di conseguenza, è importante spiegare agli utenti di internet le tattiche e gli strumenti di manipolazione affinché possano riconoscere e distinguere la propaganda dai contenuti di qualità. Occorre un dibattito aperto su queste questioni che sono di interesse pubblico e noi siamo sempre disponibili a condividere i risultati delle nostre ricerche. L’educazione nel campo dei media e del digitale è sempre più importante man mano che il targeting e la propaganda online diventano più sofisticati. E questo è particolarmente importante per i nativi digitali, le giovani generazioni che non hanno mai fatto l’esperienza di essere off-line e che hanno quasi tutta la loro vita catturata in formato digitale, grazie ai social network e alle piattaforme di condivisione di contenuti online.
Questa pubblicazione è stata prodotta nell’ambito del progetto European Centre for Press and Media Freedom, cofinanziato dalla Commissione europea. La responsabilità sui contenuti di questa pubblicazione è di Osservatorio Balcani e Caucaso e non riflette in alcun modo l’opinione dell’Unione Europea. Vai alla pagina del progetto
Quest’articolo fa parte di una serie di approfondimenti che OBC Transeuropa – nel contesto del progetto ECPMF – dedica a quelle realtà che operano per un giornalismo di qualità capace di portare a maggiore democrazia e diritti nelle società europee

Contemplare

15072016-_DSC7591

Scrive Jacopo Fo su Il fatto quotidiano (questa la mia fonte):
“È ormai scientificamente dimostrato che esiste una zona cerebrale adibita specificamente alla produzione di sensazioni estatiche e al senso di appartenenza, a qualche cosa che ci pervade e ci innalza dandoci la sensazione di far parte di un tutto dominato dall’amore e dalla pietà e dotato di una progettualità rigogliosa, fantasiosa, stupefacente. Cioè il senso del sacro è fisiologico: a fianco delle pulsioni primarie (identificare, attaccare, fuggire, nascondersi) ne esiste una quinta: contemplare.
[…]
Io non credo all’esistenza di un Dio, né con la barba né senza.
Ma vedo che la realtà è profondamente magica, nel senso laico del termine, cioè è stupefacente al di là di ogni previsione, è smisurata, sorprendente in modo paradossale… Il creato è una fiera pazza di grandiosità.
[…]
E più ne sappiamo dell’universo più ci lascia sbalorditi. Sembra quasi che sia stato inventato per ingenerare la vertigine che proviamo se ci perdiamo negli incendi del tramonto. Questa assoluta assenza di limite è inebriante. Impossibile da contenere nella limitatezza dei miei circuiti neurali. Per secoli siamo stati convinti che in cielo ci fossero alcune migliaia di stelle. Poi abbiamo scoperto che ce ne sono miliardi nella nostra galassia, ognuna circondata da un numero fantasmagorico di pianeti, satelliti, asteroidi. Poi si è capito che esistono miliardi di galassie, talmente tante che non abbiamo ancora finito di contarle.
[…]
Non possiamo ridurre vita e morte a semplici accadimenti biologici. Sarebbe troppo triste! Troppo!
[…]
Non vedere il sacro, il superpotere, il miracolo, il privilegio, l’improbabilità schiacciante insita nel fatto di vivere e poter parlare e pensare e agire in modo preordinato è un’amputazione emotiva che ci danneggia e limita la nostra capacità di cogliere appieno il regalo della vita”.

Sul suo profilo facebook il teologo Vito Mancuso ha ripreso la notizia e ha scritto:
L’articolo di Jacopo Fo da me ripreso in questa pagina iniziava dicendo che è “scientificamente dimostrato che esiste una zona cerebrale adibita specificamente alla produzione di sensazioni estatiche e al senso di appartenenza”.
Non faceva nessun riferimento e giustamente qualcuno ha obiettato che, se si cita la scienza, occorre poi procedere scientificamente. Giusto. Siccome ho citato l’articolo di Fo con un certo plauso, mi sento in dovere di dare un contributo al riguardo.
Cito quindi dal volume di Franco Fabbro, “Le neuroscienze: dalla fisiologia alla clinica”, Carocci 2016 (n. 175 della collana Manuali universitari):
“Recentemente, attraverso una meta-analisi dei lavori di visualizzazione cerebrale riguardanti la meditazione, è stato evidenziato che le pratiche che si ispirano alla tradizione induista attivano prevalentemente le strutture dei lobi temporale e parietale (aree associate all’affettività e alla rappresentazione dello spazio e del corpo), mentre le pratiche che si ispirano alla tradizione buddhista attivano prevalentemente le strutture del lobo frontale (aree associate alle funzioni esecutive e all’attenzione volontaria) (Tomasino et al., 2012; Tomasino, Chiesa, Fabbro, 2014; Raz, Fan, Posner 2006)” – pp. 434-435.
Franco Fabbro, già docente di Fisiologia umana, è professore ordinario di Neuropsichiatria infantile all’Università di Udine, e ha all’attivo numerose pubblicazioni in italiano e in inglese.
Quindi?
Con questo non si dimostra né la verità della religione né l’esistenza di Dio né nulla di esterno all’uomo; si dimostra solo che la dimensione religiosa è fisiologicamente coerente con il fenomeno umano. Del resto c’è tutta la storia dell’umanità a dimostrarlo. Ovviamente con tutta la sua ambiguità, perché è noto che la religione, esattamente come l’umanità (scienza compresa), produce bene e anche male, e nessuno sa con certezza, se ci fosse una bilancia e si potesse pesare, se risulterebbe più pesante il bene oppure il male.
Tutto qui. Ovvero, summa summarum: chi ancora oggi medita e coltiva una dimensione spirituale non tradisce la sua umanità, ma la vive in pienezza a modo suo.”

Un’occasione per riflettere.

Il dono di Arrival

Al cinema ho apprezzato molto il film “Arrival” e ora ho trovato un’interessante riflessione di Mario Domina sul blog filosofico La botte di Diogene.

Come già mi era successo con Interstellar di Nolan, anche con Arrival di Villeneuve ho provato la sensazione fortissima di venire integralmente assorbito in una visione altra (aliena in senso lato) del mondo, e di trovarmi poi a fluttuare a lungo con la mente (e persino con il corpo) entro questa dimensione sospesa e rarefatta, come se il pianeta mi stesse stretto e fosse ormai così asfittico da dovermi apprestare a lasciarlo. Per poter proseguire così il viaggio della visione in un più articolato viaggio cosmico ed esistenziale.
La potenza visionaria di questo genere di film e di storie – che sfidano addirittura i massimi sistemi fisici, filosofici, etici, estetici e semiotici, e che alzano sempre più il livello insieme emotivo ed intellettuale – non si limita più a scaraventarci addosso domande da far tremare i polsi (che cos’è il tempo? che cos’è l’alterità? che cos’è umano? siamo liberi o predeterminati? siamo tutt’uno col cosmo? esistono limiti nella nostra capacità percettiva? e via ontologizzando), ma va oltre: ci scava la terra sotto i piedi, ci pone in una situazione straniante-perturbante, perché non sono più la mente o la coscienza ad esserne avvinte o affascinate, ma la radice stessa della nostra esistenza, quel tutt’uno passionale e razionale (ed altro ancora) che noi siamo, o che crediamo di essere, o che ci raccontiamo di essere.
Vi è uno sradicamento minore ed uno maggiore in tutto ciò: non siamo per nulla soddisfatti del quotidiano (precarietà, infelicità, paura e angoscia diffusa, fragilità, incertezza – nonostante gli indubbi progressi tecnologici e quantitativi, che sono tra l’altro le medesime radici che generano fantascienza, tecnoincubi e distopie, al momento il genere letterario più diffuso, dopo il ciclo fantasy); ma non lo siamo nemmeno sul fronte della storia, che non sappiamo più come modificare o far virare al meglio, essendo sempre più capillarmente convinti che nulla possiamo di fronte a processi ineluttabili che ci sovrastano: Marx è morto nella nostra mentalità, più ancora che nell’arena storica.
E allora perché non gettarci anima e corpo in potenti evasioni immaginifiche? – il cui ruolo pare peraltro essere quel che un tempo ricoprivano i sogni (ad occhi aperti) e le utopie (in campo politico).
La fantascienza esistenziale risponde a tali bisogni sia in termini di forma che di sostanza: corrisponde ad un bisogno estetico (il terrore sublime dell’ignoto), ma anche ad un bisogno etico-politico, che però non sembra avere più esiti pratici convincenti. Prendiamo Arrival: il tema della comunicazione con altre forme di vita (e con l’alterità) è la questione delle questioni, senza la cui risoluzione la specie umana non andrà da nessuna parte. Di più: la scelta di far nascere qualcuno in un mondo che immaginiamo in disfacimento – senza così cospirare contro la razza umana, contribuendo alla sua estinzione (come auspica il pessimismo à la Ligotti) – è un atto insieme libero e folle. Perché Hannah dovrà nascere se è destinata alla malattia e alla morte? La risposta sta in un salto ontologico, in grado di generare una mentalità totalmente aliena alla nostra: perché la morte (e il tempo) non esistono, sono pure illusioni prodotte da un irriducibile narcisismo individuale destinato ad accelerare la nostra estinzione. Ma questo sì che richiederebbe un cambio radicale di paradigma: occorrerebbe lasciare questo pianeta – questa valle di lacrime – attraversare il meraviglioso cerchio della conoscenza aliena ed affidarci alla saggezza di un altro pianeta, quello abitato dagli eptopodi, per i quali ogni nostro atto è pura immanenza, processo e necessità.
Un dono (non un’arma) che non abbiamo nessuna intenzione di accettare, se non in qualcuno dei nostri più reconditi sogni.”

Riflettendo 2.0

2-0

Insegno dal 1998. Fin da subito mi sono portato dietro, oltre alla borsa con libri, quaderni, fogli e penne, uno stereo portatile con musicassette e cd. Più di dieci anni fa ho iniziato a girare per la scuola con uno zaino sulle spalle. All’interno: pc portatile, proiettore, prolunghe, casse musicali. Il cavo di rete l’ho aggiunto qualche anno dopo. Poi è arrivato il wi-fi, sono giunti i tablets e gli smartphones. Oggi sono iscritto a molti gruppi di insegnanti che sui social e sulle piattaforme virtuali si scambiano idee, riflessioni, consigli sulla didattica 2.0 e sull’introduzione e gestione del digitale nella scuola. Vedo spesso scornarsi molti colleghi su quale sia lo strumento migliore da adottare, la app più funzionale ad un determinato lavoro, l’ambiente più congeniale ad un certo indirizzo di studi o ad una certa età. Penso che fin tanto che non si comprenderà che si tratta di una metodologia didattica saranno ancora molti i passi da compiere. E vorrei porre l’accento certo sulla parola metodologia, ma anche sull’articolo UNA. UNA, fra le tante che un insegnante può decidere di mettere in campo, non l’unica. Ultimamente sembra che tutte le altre possibilità siano vetuste, fuori moda, inutili, inefficaci (sigh). Pare che gli insegnanti debbano trasformarsi da un lato in intrattenitori di studenti annoiati dediti solo al divertimento, dall’altro in esperti tecnico-informatici in grado di gestire reti wi-fi per centinaia di persone. Penso pure io che gli studenti debbano sviluppare anche delle competenze digitali e maturare una sana e adulta cittadinanza digitale, ma non può essere questa la principale e talora unica missione di una scuola. Ricordo ancora con emozione e piacere le lezioni del prof. Bianco sul nichilismo in Nietzsche e Leopardi all’Università di Trieste: sarei stato ad ascoltarlo per ore, senza multimedialità, senza alcuno strumento tecnologico. Certo merito del docente, ma anche dell’allenamento fatto negli anni di liceo, della palestra dell’ascolto: che è una competenza che va coltivata e sviluppata. Accanto alle altre.
Ritorno al punto di partenza di questa breve riflessione: non sono contro le tecnologie. Sono parte integrante della mia didattica, non vi rinuncerei. Ma fanno parte della parte metodologica di essa. Pertanto non mi sento di “sposare finché morte non ci separi” alcun partner specifico, veicolo di tale metodologia. Legarmi mani e piedi ad unico device, ad una sola piattaforma, mi dà la sensazione di perdere di vista l’obiettivo.

Conoscere per scegliere

dna-163466_1280

Carlo Alberto Redi è “professore ordinario di Zoologia presso l’università di Pavia e professore a contratto presso l’Istituto Universitario di Studi Superiori. Accademico dei Lincei e socio onorario della società genetica del Cile” (fonte wikipedia). In un breve articolo comparso su La Lettura del 22 gennaio si interroga sul rapporto tra biologia ed etica. Inizia così: “Il Dna è divenuto l’icona della nostra era: dopo il secolo della chimica (Ottocento) e della fisica (Novecento), siamo ora nel millennio delle scienze della vita…”. Molte sono le discipline coinvolte dai cambiamenti e dalla scoperte in ambito biologico, argomenta: “dalla filosofia all’antropologia, dall’economia alla giurisprudenza”. Inizio e fine vita, brevetti sul vivente, esperimenti sulle cellule… sono tutte questioni biopolitiche e “gli avanzamenti del sapere lasciano intravedere applicazioni in grado di trasformare la stessa percezione di che cosa sia oggi «umano». Paure e aspettative si mischiano in continuazione, tra desiderio di progresso e timore di cosa esso ci possa riservare.
La via suggerita da Redi è quella della conoscenza. Scrive ancora: “Informarsi sui progressi della biologia diviene parte integrante della nostra cultura”. Certo non è semplice e neppure immediato, ma è necessario se si vuole essere “cittadini capaci di scegliere, in autonomia, che cosa si ritiene lecito applicare delle tante innovazioni prodotte dalla ricerca biologica”. Questa, secondo lo studioso lombardo, la via per giungere ad un “armonioso vivere sociale” in cui sono combattute le ingiustizie e si promuove “la fioritura di nuovi diritti civili”, nella direzione di una “cittadinanza scientifica”, ancora lontana da venire. Certo ci sarà qualcuno che si interrogherà se la ricerca non vada regolata ex ante piuttosto che ex post, soprattutto da parte di chi ha il potere di farlo; ed è proprio qui che si focalizza la giustificata preoccupazione di Redi: “vi è una generale ignoranza del sapere biologico da parte della classe dirigente (decisori politici, magistrati, operatori dei media)”.
Che ruolo possono avere in tutto questo studiosi e accademici? Ecco la conclusione del professore: “Ai biologi il compito di partecipare con il proprio sapere alla necessaria comune riflessione con i filosofi per indirizzare l’elaborazione delle norme da parte degli uomini del diritto”.

La musica del bosone

Guido Emilio Tonelli è professore ordinario di Fisica Generale presso il Dipartimento di Ingegneria dell’Informazione dell’Università di Pisa. Domenica 22 gennaio ha scritto su LaLettura del Corriere della Sera questo interessante articolo che ho trovato qui.
Quella specie di cinguettio l’hanno sentito tutti: qualcuno ha avuto l’idea di trasformare in suono il segnale registrato dai due interferometri di Ligo e l’impatto mediatico è stato enorme. Il 14 settembre 2015 la grande infrastruttura di ricerca statunitense ha rivelato una minuscola, ma inequivocabile, variazione di distanza nel sistema di specchi illuminati da fasci laser di potenza. Era il segnale che i ricercatori sognavano di vedere da vent’anni: un fremito sottile dello spazio-tempo, una leggerissima perturbazione dovuta al passaggio di un’onda gravitazionale. Einstein l’aveva ipotizzato nel 1916 ma c’era voluto quasi un secolo di sviluppo della tecnologia per verificare le sue previsioni.
Il segnale ha avuto una durata di 0,2 secondi e la forma caratteristica di un’oscillazione che aumenta di frequenza e di ampiezza in circa otto cicli. Si passa dai 35Hz dei primi cicli ai 250Hz degli ultimi. È la sequenza tipica di onde gravitazionali emesse da un sistema binario: i due corpi ruotano su orbite sempre più piccole e veloci fino al collasso in un unico corpo celeste. Le frequenze del segnale si trovavano nella banda dell’udibile ed è stato naturale trasformarle in suono. Ne è uscito qualcosa che assomiglia al cinguettio di un uccellino, un trillo che diventa sempre più acuto.
Quella sequenza di suoni così delicati racconta in realtà un’immane catastrofe cosmica: uno sconquasso di 1,4 miliardi di anni fa, quando, in una lontanissima galassia, due enormi buchi neri sono entrati in collisione. I due corpi, ciascuno pesante più di trenta Soli, hanno dapprima spiraleggiato, vorticosamente, e alla fine della folle danza, si sono fusi viaggiando l’uno nella braccia dell’altro, alla velocità spaventosa di 180.000 km/s. Nella pazzesca accelerazione degli ultimi istanti il sistema ha irraggiato un’immane quantità di energia, l’equivalente di tre masse solari, sotto forma di onde gravitazionali che hanno perturbato il cosmo intero per giungere fino a noi.
Il cinguettio dello spazio-tempo percosso dalla fusione di due buchi neri è l’ultimo esempio, in ordine di tempo, della trasformazione in suono di fenomeni fisici o di dati di vario tipo. Una pratica che si va estendendo nei campi più variegati della ricerca. È basata sulla cosiddetta sonificazione, cioè l’utilizzo di algoritmi che associano dati numerici a note e strumenti musicali appropriati. Il primo esempio di sonificazione di successo si deve forse al professor Hans Geiger e al suo studente Walther Müller, inventori del più popolare rivelatore di particelle ionizzanti che da loro prese il nome. L’interazione di una particella col contatore, segnalata dal caratteristico clic, rendeva lo strumento di immediata comprensione anche per i non specialisti e giocò un ruolo importante nel determinarne la diffusione.
La trasformazione in suoni di fenomeni fisici o di dati ad esso correlati non è un semplice divertimento, o un pretesto per costruire lavori musicali piacevoli e intriganti. In realtà l’orecchio umano ha potenzialità discriminatorie enormi. Ci bastano poche parole al cellulare per riconoscere la voce di un amico e distinguerla da altre col timbro quasi identico. Tutti noi siamo in grado di trovare regolarità e strutture nei suoni o di percepire anomalie semplici. Chi ha orecchio educato, come i direttori d’orchestra, è in grado di percepire distintamente la più piccola delle incertezze su centinaia di suoni che evolvono in tempi, ampiezze e frequenze diverse.
Ecco che la trasformazione in suoni di dati scientifici potrebbe aprire la strada non solo a una fruibilità più diretta degli stessi, ma anche alla scoperta di ulteriori informazioni, talvolta imprevedibili o inaspettate. È questo il lavoro che sta a cuore a giovani ricercatori come Domenico Vicinanza, musicista e compositore italiano, con dottorato in fisica delle particelle, che lavora in Inghilterra al Geant, una rete europea dedicata alla ricerca e alla formazione. I primi contatti con Domenico risalgono a cinque anni fa, quando mi contattò, al tempo in cui ero responsabile dell’esperimento Cms al Cern e tutti i nostri sforzi erano concentrati nella caccia al bosone di Higgs. Domenico proponeva di sonificare la scoperta del bosone di Higgs mentre noi eravamo lì, nell’incertezza più totale, con la paura che anche il nostro sarebbe stato l’ennesimo tentativo infruttuoso. Ma l’idea piaceva e quindi si cominciò a collaborare. Il risultato si chiama LHC Open Symphony ed è un brano leggero e allegro per piano, marimba, xilofono, flauto, doppio basso e percussioni. Quando lo riascolto il cuore mi si riempie di gioia, come quando abbiamo visto per la prima volta la particella che inseguivamo da decenni”.

Dopo il fine vita il fine morte?

mortemessico5.jpg
Nicolàs de Jesùs

Articolo molto stimolante di Enrico Pitzianti (cagliaritano, laureato in semiotica, ha fondato il progetto artistico online GuardieShow ed è consulente per SpaceDoctorsLtd) pubblicato il 3 ottobre su L’Indiscreto. Magari con le classi quarte…
La ricerca scientifica, per via della velocità con cui progredisce, sta drasticamente mettendo fuori gioco il discorso etico-politico rendendolo costantemente inattuale, superato ancor prima che questo possa bodei-limitearticolarsi per far fronte all’esponenziale progressione della tecnica. Questa sembra essere l’idea di fondo che si scorge leggendo l’ultimo saggio di Remo Bodei: Limite, (Il Mulino, 2016) in cui salta agli occhi il tentativo di mettere in luce un edificio teorico che possa scardinare l’idea di ineluttabilità della morte e del destino.
La premessa è forte: i limiti, quelli fisici e tecnici, sono somparsi (o stanno scomparendo) in massa e questi, generalmente intesi, esistono in quanto barriere poste a impedirci la possibilità di infinito. Ci si riferisce all’infinito dell’immaginazione e non a quello dello spazio.
Il limite dell’intelligenza umana sarà superato dall’IA, la stessa creatività – caratteristica considerata tipicamente umana – è oggi riprodotta da algoritmi che ci obbligano a fare i conti con la distopia del nostro tempo. Gli stessi limiti biologici sono messi in gioco quando è ragionevole sostenere che l’uomo più veloce del mondo sarà in futuro più simile a Oscar Pistorius che a Usain Bolt – oggi detentore del record. Così, con un effetto a valanga, vengono a cadere anche i limiti che separano l’uomo dalla macchina, il naturale dall’artificiale e tutta una serie di separazioni che ci ostiniamo a considerare come pertinenti e non, più realisticamente, come mere semplificazioni di un mondo complesso.
Ciò che rimane tra le rovine di queste barriere sembra essere un certo presunto dovere di autoregolare lo strapotere datoci dalla tecnica. Gestirlo da saggi, limitarci, pena la catastrofe. Ne sapremo (sarebbe meglio usare il tempo presente) fare buon uso? Il giudizio si sospende anche se oggi, a prendere come esempio il riscaldamento globale, trarremo una conclusione poco ottimista.
Le biotecnologie, in particolare in campo genetico, stanno abbattendo il primo – forse l’unico – vero dogma rimasto in buona salute nell’era moderna: la morte. L’invecchiamento secondo studi recenti non è innato, ma programmato geneticamente – e quindi riprogrammabile. Con lo studio dei telomeri (le estremità del cromosoma di un organismo eucariote) si è scoperto che la loro estensione diminuisce a ogni riproduzione della cellula. La morte definitiva delle cellule, e quindi la nostra, dipende da questa sorta di timer che l’evoluzione ha costruito per arrivare alla morte programmata. Ed ecco che si scopre un enzima, detto telomerasi, capace di rallentare la progressiva riduzione dei telomeri e questo, insieme alla possibilità di utilizzo delle cellule staminali, apre le porte alla prospettiva di un allungamento della vita umana molto consistente; tanto che secondo Aubrey Grey, dell’Università di Cambridge, nei prossimi decenni si potrebbe riuscire a vivere duecento e più anni.
Se la ricerca scientifica prospetta la possibile “fine della morte” il trend dell’abbattimento dei limiti per sopravvenuta inidoneità a una soddisfacente rappresentazione di ciò che ci circonda sembra essere molto più generale. Ai progressi della tecnica corrisponde infatti un progressivo confutare convinzioni e saperi radicati e dati per scontati, un abolire idee, tradizioni e usi oramai fondati su “idee di destino” irragionevoli alla luce del sapere odierno. Non c’è più l’inscrutabile volontà divina, non c’è più sapere dei saggi che possa stupirci e manca finanche la possibilità stessa di certezze etiche – inscrivibili quasi tutte, oggi, alla categoria dell’ideologia.
Bodei sottolinea come nessuno fin’ora aveva mai dubitato del fatto che gli esseri umani potessero venire al mondo in un modo diverso dal rapporto sessuale, modalità che include rischi di infermità e deformazioni congenite. Merita un’attenzione particolare il fatto che Bodei riassuma le ultime due decadi di storia nel termine “ora”. lo, ad esempio, non ho la stessa percezione di immediatezza di tali cambiamenti dato che avevo solo sette anni quando Dolly – la pecora oggi imbalsamata in qualche museo scozzese – fu clonata. Bodei, che invece di anni all’epoca ne aveva qualcuno di più, vede da una prospettiva privilegiata l’aumento esponenziale della velocità con cui la morte ha cominciato a vedere scalfito il suo potere e il suo fascino, una parabola lunga milioni di anni che in meno di una ventina si è trasformata in quella che oramai sembrerebbe essere un’uscita di scena annunciata – per alcuni già vicina all’improrogabilità.
L’elidersi dei limiti ontologici tra specie diverse di esseri viventi (incroci e selezioni genetiche) vede il parallelo affievolirsi di altri limiti: quelli tra esseri viventi ed esser non viventi – Bodei cita le gambe di Oscar Pistorius e il pacemaker ma è ovvio che la mescolanza sia oramai capillare e abbia radici lontanissime visto che a ricercarne la genesi bisogna arrivare alla capacità umana di maneggiare oggetti passando quindi per ossidiane sbeccate, papiri e occhiali da vista.
Ciò che sfugge a Bodei è che il limite tra vivente e non vivente è in crisi a prescindere dall’odierno predominio della tecnica. Se il vivente e il non vivente stanno diventando indistinguibili non è per via del robot capace di calciare un pallone o scrivere un articolo di giornale.
Su the Scientific American Ferris Jabr descrive bene il perché “la vita non esiste”. Dato che una definizione concisa di “vita” è decisamente troppo complessa da dare, si ricorre solitamente a un elenco di caratteristiche che sarebbero le proprietà fisico-chimiche che differenziano l’essere vivente dal non vivente. L’elenco prevede: l’ordine (molti organismi sono costituiti da una singola cellula con diversi scomparti e organelli); la crescita e lo sviluppo (il cambiare dimensione e forma in modo prevedibile); l’omeostasi (cioè il mantenere un ambiente interno diverso da quello esterno); il metabolismo (lo spendere energia per crescere), la reazione a stimoli; la riproduzione (clonazione o accoppiamento per la produzione di nuovi organismi e trasferimento di informazioni genetiche da una generazione alla successiva), e l’evoluzione (la composizione genetica di una popolazione cambia nel tempo).
Peccato che l’elenco sia inconsistente, scrive Jabr: “Nessuno è mai riuscito a compilare una lista di proprietà fisiche che comprenda tutte le cose viventi ed escluda tutto ciò che etichettiamo inanimato. Quasi nessuno considera vivi i cristalli, per esempio, eppure sono altamente organizzati e crescono. Anche il fuoco consuma energia e diventa più grande, ma non è vivo. Al contrario, i batteri, i tardigradi e anche alcuni crostacei possono passare lunghi periodi di inattività durante i quali non crescono, non metabolizzano, non si modificano in alcun modo, ma non sono tecnicamente morti”.
E ancora: qualsiasi parte di organismo vivente se recisa fa crollare ulteriormente le possibilità di classificazione netta. Una coda di lucertola (Jabr fa l’esempio di una foglia) è da considerare vivente se staccata dal resto dell’animale? Le cellule che la compongono si comportano come si comportavano prima del distacco – non cessano immediatamente le loro attività. Quindi la coda muore al momento del distacco (che ne determinerà il deperimento) o invece quando ogni singola cellula che la compone sarà morta? E se rianimassimo la coda in laboratorio (come il celebre esperimento di Luigi Galvani sulle rane) potremmo considerarla viva dopo la morte?
Insomma, Bodei dice il vero quando parla di limiti valicati e ormai costituiti da termini e definizioni colabrodo, ma la sensazione è che l’aspetto caotico dell’intreccio che comprende l’esistente sia ancora più profondo di come viene descritto nel saggio – e il motivo è in quanto già descritto con le parole dello scrittore statunitense.
Alla possibile fine della morte per proclamata possibilità del suo superamento tecnico (e al suo corrispettivo culturale di “fine della morte in quanto cessazione del suo fascino”) si affianca la sconfitta della morte per assenza di differenze con ciò che dovrebbe contrapporvisi, la vita. Una coppia – quella dell’antropotecnica insieme all’impossibilità di formulare una definizione soddisfacente di vita – che rende conto di un panorama se possibile più distopico di quello che si intravede nelle parole di Bodei.
Rimane la sfida etica, quella di essere consci di questo strapotere e decidere consapevolmente di non abusarne, dei supereroi con tanto di kit di ricambio organi”.