Pubblicato in: Bibbia e Spiritualità, Diritti umani, Etica, Filosofia e teologia, opinioni, Pensatoio, Scienze e tecnologia, Società

Saremo superflui?

artificial-intelligence-3382507_960_720.jpg

Pubblico un articolo di José Tolentino Mendonça, tradotto da Pier Maria Mazzola e pubblicato ieri su Avvenire. La domanda fondamentale è una di quelle che risuona più frequentemente al giorno d’oggi: l’uomo sarà sostituito e superato dalla macchina o ci sono degli ambiti in cui resterà imprescindibile? I pregi dell’articolo sono chiarezza e brevità e portano con loro il difetto di una certa generalità…
Dovremo fare una riflessione più approfondita circa l’impatto della tecnologia sulla forma della nostra umanità, andando al di là di un ingenuo stupore promosso dalla grande macchina del marketing. Anche in questo attraversiamo in un periodo di transizione. Una prima tappa che finora ha funzionato è quella della coesistenza, in cui le macchine sostituiscono alcune attività umane ma in un regime di subordinazione. Lo scopo della tecnologia è ancora valutato, in questa fase, come strumentale.
Ma stiamo per entrare in una nuova era, in cui i dispositivi tecnologici diverranno tendenzialmente “oggetti di compagnia”, allo stesso modo in cui dominiamo gli animali domestici, “di compagnia”, sottintendendo con questo un determinato grado affettivo di relazione e una pratica abituale di convivenza e di cura. Oggi, per esempio, siamo affezionati agli animali domestici. Ma cani e gatti sono anche compagni esigenti: hanno le espressioni e le necessità organiche degli esseri viventi, sono, come noi, soggetti all’imprevedibilità di un’esistenza contingente, non si può lasciarli andare, abbandonarli o dimenticarli. Oggi si comincia a guardare ai robot come compagni più facili, che offrono tutti i vantaggi degli “animali di compagnia” e altri ancora, ma senza il costo vitale che è loro associato.
La propaganda della prossima pandemia tecnologica sostiene che le macchine sono un antidoto all’isolamento e alla solitudine, dall’efficacia garantita. In un altro campo, ci sono scuole di medicina in cui si propone, con frequenza crescente, di sostituire le diagnosi fatte da specialisti con quelle effettuate da macchine, dato che il margine di errore di queste risulta essere più basso. Finora abbiamo creduto che la relazione tra medico e malato facesse parte del processo di cura. Il medico che parla con noi è mortale come noi e ciò contribuisce a generare un’empatia del tutto singolare. Ma… se le macchine fossero migliori?

JoséTolentinoMendonça
José Tolentino Mendonça

L’opinione predominante vuole che molte delle resistenze attuali verranno superate e che saremo sempre più disposti a sostituire le relazioni tradizionali con le nuove interfacce tecnologiche. La dimensione affettiva stessa cesserà di costituire un ostacolo, poiché i vincoli emotivi, gli affetti, i sentimenti, si rafforzeranno. Se oggi un adolescente può dire «io amo il mio computer perché mi fa entrare in contatto con i miei amici», fra non molto dirà: «Amo il mio computer perché è il mio migliore amico».
A quanti assicurano che i computer potranno avere una centralità accentuata nei processi tipicamente umani, è tuttavia necessario ricordare quello che un pc non può fare. Al posto del medico potrà esserci una macchina? Un giudice arriverà a essere sostituito da un computer? Per comprendere la miscela di fattori e di ragioni di un essere umano si richiede un discernimento umano. Se fosse meramente automatico, non sarebbe umano. E un pc può essere artista? Saprà imitare i grandi maestri, senza dubbio, ma non riuscirà ad anticipare quello che nella storia della musica è stato Beethoven o che Picasso ha rappresentato nella storia dell’arte.
Potrà mai, un computer, sostituire l’incontro con un altro essere umano? Che cos’avrà da insegnare sulle scelte libere, la gratuità, la prudenza o il perdono? Come potremo fare una domanda ed essere ascoltati, anche in quel dolore sommerso che nemmeno arriva a esprimersi con parole? Possiamo confidare che il pc sarà sensibile alla forza della nostra fragilità? Si potranno programmare, grazie a esso, le virtù, o un itinerario di ricerca spirituale? Quale risposta daranno al male, questi dispositivi, e alla morte? Se la nostra escatologia sarà solo un futuro migliorato dai computer, non ci sarà più niente che ci possa mancare?”

Pubblicato in: Diritti umani, Etica, Filosofia e teologia, libri e fumetti, opinioni, Pensatoio, Scienze e tecnologia, Società

Tra futuri possibili e probabili, tra utopie e distopie

pexels-photo-541522.jpeg

Qualche settimana avevo letto un articolo molto interessante di Giovanni Bitetto su L’Indiscreto. Oggi l’ho ripreso in mano e ho deciso di pubblicarlo sul blog. Vi si tratta di tecnologia, di presente e futuro, di utopie e distopie, di visioni e decisioni politiche, di aziende e stato, di economia e open source. L’ultima frase del pezzo desidero inserirla qui, in modo da fornire un’idea concisa ed efficace dei temi toccati: “Se virtuale e reale sono legati indissolubilmente – al punto che non è  più necessario fare una distinzione – allora la prospettiva di mondi alternativi, di futuri possibili, di utopie immaginabili,  si configura come un campo di battaglia importante per la governabilità del presente”.
“Quando usiamo lo smartphone accediamo a un universo più ampio, che travalica il semplice utilizzo di una tecnologia. Nel perimetro del touchscreen si succedono diversi spazi virtuali, e noi possiamo accedere in contesti differenti: dai social network come Facebook, Instagram o Twitter, alle dating app quali Tinder o Happn, agli shop online di Amazon e Apple. Attraverso l’artefatto dello smartphone – che in poco più di dieci anni è diventato il simbolo della nostra epoca – ci connettiamo a un cosmo esteso di saperi, che potenzia le nostre possibilità di agire nel quotidiano e allo stesso tempo ci condiziona sottilmente. Il flusso dell’informazione digitale ci investe e occupa uno porzione sempre più cospicua della nostra quotidianità, modifica le categorie cognitive dell’uomo, espandendo e frammentando la nozione di spazio, usurando e disgregando i concetti di vecchio e nuovo. Se Georg Simmel parlava di «intensificazione della vita nervosa» agli albori della modernità metropolitana, ora che l’uomo vive in uno spazio virtuale – e che le stesse città, seguendo la retorica capitalista delle “smart city”, si stanno attrezzando per diventare nient’altro che hub per l’accesso al mondo digitale – la quotidianità si sintetizza in una sequela frenetica di stimoli. L’uomo contemporaneo deve controllare molteplici saperi, è spinto a stare al passo con un ciclo di obsolescenza e aggiornamento tecnologico in cui le nozioni di passato e futuro si assottigliano fino a svanire in un eterno e nebuloso presente.
Lo studioso di media Henry Jenkins parla di “cultura convergente”, ovvero un cambiamento del paradigma culturale in cui i consumatori sono stimolati a ricercare nuove informazioni e ad attivare connessioni tra contenuti mediatici differenti. La convergenza avviene nel cervello dei singoli consumatori nonché nelle loro reciproche interazioni sociali. Ognuno di noi si crea una personale visione del mondo dai frammenti di informazione estratti dal flusso mediatico, che sono poi reinterpretati nell’orizzonte di senso della vita di ciascuno. Visto che abbiamo a disposizione, su qualsiasi tema, più dati di quelli che ognuno di noi può immagazzinare, siamo maggiormente incentivati a parlare di ciò che fruiamo.
Eppure, a ben guardare, la convergenza non è solo una dinamica cognitiva propiziata dalle nuove tecnologie, bensì una meccanica concreta che dà modo alle stesse tecnologie di interagire fra loro, di strutturarsi in un nuovo sistema coeso e indeterminato, in sostanza di creare dei vettori che si intersecano e si configurano come una rete onnipresente. Tale processo di unificazione viene indicato come “internet delle cose”. Il modello dell’internet delle cose riassume in sé una molteplicità di protocolli, piattaforme, capacità tecnologiche, spazi reali e virtuali. Tutto ciò che collega i diversi dispositivi, i servizi, i fornitori e le performance implicate in tale assemblaggio è il tentativo di rendere sensibili, e disponibili per l’analisi e l’elaborazione, le situazioni della vita quotidiana.
Quando compriamo qualcosa su Amazon la nostra scelta è registrata e immagazzinata assieme a miliardi di altre, la grande mole di dati è ridotta a modelli e tendenze che vengono usati per strutturare la nostra esperienza digitale futura. Così Amazon ci consiglia cosa potrebbe suscitare la nostra attenzione, cosa interesserebbe al “tipo”che incarniamo (un tipo le cui scelte, per la macchina, non sono altro che una sequenza di dati). Allo stesso modo su Facebook sono indicizzate le nostre interazioni, strutturate secondo un paradigma che va a rafforzare i feedback positivi di utenti coevi al nostro sentire, e dunque mira a consolidare idee e consumi, in modo da renderci più riconoscibili e incasellabili in una determinata categoria. L’internet delle cose estende l’influenza immateriale delle informazioni al mondo dei dispositivi fisici, a essere indicizzati sono i percorsi che facciamo e che registriamo grazie alla nostra app contapassi, oppure le strade che percorriamo con le auto a tecnologia “driveless” prossime venture.
Il paradosso di uno sviluppo tecnologico così repentino appare chiaro: da una parte la possibilità di allargare la nostra area di influenza a campi materiali e del sapere che nemmeno avremmo immaginato di prendere in considerazione, dall’altra la sconfortante sensazione di essere ridotti a dati, scomposti in una serie di parametri che riducono la sfera umana alla mera intersezione di svariati fattori catalogabili. E la catalogazione va di pari passo con la commercializzazione, le componenti dell’umano si uniformano al discorso della merce in maniera sempre più mimetica, una delle cause è da ricercare nello sviluppo tecnologico. Proprio la tecnologia non è un fattore neutro, come vuole la vulgata comune, non dipende “da che utilizzo se ne fa” o “ per quali scopi la si usa”. Occorre piuttosto chiedersi chi eroga i servizi di cui usufruiamo, chi disegna il campo di possibilità dello spazio digitale, quali sono i confini e le interazioni ipotizzabili nell’internet delle cose, come si configurano allo stato dell’arte attuale; e soprattutto che visione del mondo ha chi eroga questi servizi, chi commercializza tali dispositivi, chi ci spinge a propendere per un determinato assetto dei rapporti umani, economici e sociali.
I progetti e le credenze di chi presiede le principali aziende della Silicon Valley – i cosiddetti GAFA (Google, Amazon, Facebook, Apple) – non sono facilmente decifrabili, eppure gli sforzi di queste multinazionali sembrano orientati a estendere la propria sfera di influenza in più settori possibili, e con gradi di penetrazione sempre maggiori. Quando ci occupiamo di tecnologia dimentichiamo di prendere in considerazione i modi di produzione e l’ideologia che ne sostiene l’utilizzo e i criteri di applicabilità. L’orizzonte in cui le tecnologie si sviluppano – almeno nell’occidente contemporaneo – è quello del capitalismo di matrice neoliberista. Come vuole un vecchio adagio di stampo modernista, la tecnologia dovrebbe emancipare l’uomo dalla sua condizione di natura, cosa che forse sta effettivamente accadendo. Le protesi tecnologiche stanno espandendo le capacità dell’umano, ma nella nostra esperienza quotidiana l’effetto più lampante è l’aumento della competitività, il radicarsi del dogma della performatività, l’ansia crescente della prestazione. Le tecnologie odierne, iscritte in questo sistema di valori e in questi modi di produzione, sono elementi che rafforzano la grammatica del neoliberismo. Non muta la scala di valori su cui si applicano i nuovi ritrovati della tecnica, ma si rende più evidente lo scarto fra le performance dell’uomo e quelle della macchina; non è la macchina ad adeguarsi all’uomo, ma è l’uomo che si deve sforzare di tenere il ritmo della macchina.
Come ricorda Adam Greenfield in “Tecnologie radicali”: «Ogni volta che ci viene propinata una qualche aspirazione al post-umano, dobbiamo riconoscere gli impulsi prevedibilmente dozzinali e fin troppo umani che vi sono alla base, tra i quali la brama di guadagnare dallo sfruttamento degli altri e la mera volontà di potere e controllo». Dietro la retorica della presunta emancipazione si nasconde l’ennesima mutazione del discorso neoliberista, Greenfield continua: «L’aspetto più fuorviante di questo corpus retorico risiede nel divario continuamente esistente tra le affermazioni tecno utopiche riguardo cosa “può” o “potrebbe” produrre una qualche innovazione emergente, da un lato, e tutto quello che in realtà riscontriamo che ha fatto dall’altro. Molto spesso i presunti vantaggi non si concretizzano affatto, mentre le conseguenze negative, facilmente prevedibili (e di fatto esplicitamente previste), spuntano invariabilmente fuori, e deve occuparsene qualcun altro». Lo sfruttamento delle risorse tecnologiche a favore dell’ordine di cose esistente è una dinamica che favorisce ciò che Mark Fisher chiama “realismo capitalista”, ovvero l’incapacità dell’individuo contemporaneo di immaginare un sistema economico diverso da quello vigente. Per Fisher – lo spiega proprio nel libro omonimo del 2009, di recente pubblicato in Italia da Nero Editions – l’ideologia ci pervade a un livello di penetrazione tale da intaccare le nostre categorie cognitive, e rendere vera quella massima di Fredric Jameson per cui “è più facile immaginare la fine del mondo che la fine del capitalismo”.
L’analisi del capitalismo in Fisher è impietosa e si concentra principalmente sul rapporto fra individuo e percezione del reale: «Il capitalismo è quel che resta quando ogni ideale è collassato allo stato di elaborazione simbolica o rituale: il risultato è un consumatore-spettatore che arranca tra ruderi e rovine».
Per Fisher, il discorso neoliberista “annichilisce” ogni idea di futuro, le nuove tecnologie sono utilizzate come mera appendice di un capitalismo disumano. È davvero impossibile – alla luce dei recenti sviluppi e di quelli prossimi – ripensare il mondo che verrà in un’ottica antagonista, più aderente agli ideali di liberazione ed emancipazione dell’uomo? Per Nick Srnicek e Alex Williams mettere la tecnologia al centro del dibattito politico è un passo indispensabile per la costruzione di una nuova sinistra vincente. I due – già autori del Manifesto per una politica accelerazionista – tentano di iscrivere i saperi e le tecnologie legate all’automazione in un discorso che vede nella società del post-lavoro il raggiungimento dell’ideale di emancipazione dell’uomo. Lo scopo è tornare a padroneggiare il potenziale utopico insito nel discorso tecnologico, epurandolo tanto dalla retorica neoliberista, quanto dalla reazione della retorica antimoderna. In “Inventare il futuro” – anch’esso a breve pubblicato da Nero (editato il 14 febbraio, ndr) – i due studiosi affermano senza mezzi termini: «Questo libro vuole proporre un’alternativa: una politica che provi a riconquistare il controllo del nostro futuro, che nutra l’ambizione di immaginare un mondo ben più moderno di quello che il capitalismo ci ha lasciato in eredità. Le potenzialità utopiche latenti nelle tecnologie del XXI secolo non possono rimanere schiave della ristretta mentalità capitalista, ma vanno liberate in direzione di un’ambiziosa alternativa di sinistra».
In questa sede non voglio discutere le proposte concrete degli accelerazionisti (che pure ci sono, come la piena automazione dei modi di produzione, la riduzione della settimana lavorativa, il reddito di base universale, e il rifiuto dell’etica del lavoro come principio regolatore della società capitalista), né tantomeno verificarne i criteri di applicabilità. Eppure dovrebbe essere un elemento cardine del discorso umanista tentare di uscire dall’ordine di idee per cui il futuro che immaginiamo è solo un’intensificazione distopica del nostro presente. D’altronde risulta essere una tendenza ben visibile nei prodotti di fantascienza pop che tentano di immaginare il futuro prossimo. Black Mirror al momento è forse il più famoso, la scrittura di ogni puntata si basa su dinamiche abbastanza semplici: vengono portate alle estreme conseguenze negative le specificità di una tecnologia già presente al giorno d’oggi. Se virtuale e reale sono legati indissolubilmente – al punto che non è  più necessario fare una distinzione – allora la prospettiva di mondi alternativi, di futuri possibili, di utopie immaginabili,  si configura come un campo di battaglia importante per la governabilità del presente”.

Pubblicato in: Filosofia e teologia, opinioni, Pensatoio, Scienze e tecnologia, Società

La verità ha ragione?

02112013-Torino_057.jpg

Già ultimamente sto pubblicando poco sul blog, se poi, quando lo faccio, propino testi di questa lunghezza, capisco benissimo di non agire da buon blogger. Pazienza…
Già altre volte ho postato sul tema della post-verità, della verità, della libertà di opinione ed espressione; oggi mi sono imbattuto in una intervista/riflessione a più voci decisamente interessante. La pubblico interamente; la fonte è il Tascabile e la firma è del filosofo e ricercatore alla University College di Dublino Fabio Gironi.
Uno dei fenomeni sociali che caratterizza maggiormente la scena pubblica e politica sembra essere il disinteresse per l’opinione degli esperti, e il proliferare di “teorie alternative”. In gergo filosofico, questo fenomeno si può definire deflazione dell’autorità epistemica. Questa è una forma di autorità conferita non da status sociale, lignaggio nobiliare, o investitura divina, ma dall’esperienza in un determinato campo del sapere. L’autorevolezza del biologo, dello storico, ma anche dell’ingegnere meccanico e dell’agricoltore, dipende dal livello di studio e preparazione teorica, dall’esperienza pratica diretta, e dall’essere parte di una comunità epistemica (un gruppo di persone che condividono determinati obiettivi, e dediti allo stesso tipo di attività o ricerca) capace di valutare le proprie conoscenze.
Quello che movimenti differenti come l’anti-vaccinismo, il negazionismo del cambiamento climatico antropogenico, o proposte di “medicina alternativa” hanno in comune è un tratto fondamentale: lo scetticismo sistematico verso gli esperti, visti come collusi con “poteri occulti”, che nei casi più eclatanti sfocia in un aperto anti-intellettualismo. Questo fenomeno riflette una visione del mondo diviso in una classe di “studiosi” sedicenti esperti, e una di gente dotata di senso comune – dove quest’ultimo viene considerato come un valido sostituto alla competenza specifica.
Insieme ai diffusi fenomeni di echo chamber e filter bubble (comunità virtuali chiuse all’influenza esterna che permettono la proliferazione di notizie non sostanziate dai fatti) la perdita di fiducia nell’autorità epistemica sta producendo un cambiamento nel concetto stesso di verità dei fatti. Certamente, le menzogne non sono una novità del ventunesimo secolo: già nel 2005 il filosofo Americano Harry Frankfurt apriva il suo breve saggio “Stronzate” osservando come “uno dei tratti più salienti della nostra società è che circolino così tante stronzate”, differenziando la stronzata dalla menzogna. La prima non è solamente un capovolgimento intenzionale della verità ma dipende da un sistematico svuotamento del concetto di verità, e una studiata indifferenza rispetto ai fatti.
Ma è anche vero che la propagazione di stronzate raggiunge oggi livelli altissimi: è ovvio che certe verità non siano tali, perché l’affermazione vera è meno importante di quella efficace. Questo fenomeno è esemplificato dal ben noto termine “post-verità”: parola dell’anno nel 2016 per l’Oxford Dictionaries, questo aggettivo è definito “relativo, o che denota, circostanze in cui i fatti oggettivi hanno meno influenza nel formare l’opinione pubblica rispetto ad appelli a emozioni o credenze personali”. Altrettanto famosi ormai sono sia il termine (intrinsecamente ossimorico) alternative facts, che l’espressione fake news, entrambi contributi dell’amministrazione Trump negli Stati Uniti.
Considerato come queste distinzioni (fatti vs finzioni, verità vs menzogna) così familiari ai filosofi, abbiano oggi fatto irruzione nelle nostre discussioni quotidiane, abbiamo voluto esaminare la situazione contemporanea insieme a quattro filosofi e filosofe esperti di questioni epistemologiche: Maria Baghramian, della University College Dublin; Mario De Caro dell’Università di Roma Tre; Gloria Origgi dell’Institut Nicod dell’Ecole Normale Supérieure, e Nicla Vassallo, dell’Università degli Studi di Genova.
Alcuni critici hanno tracciato la genesi della situazione presente, più o meno esplicitamente, al clima culturale del recente passato, in particolare all’eredità del post-strutturalismo e di altre posizioni filosofiche che hanno promosso un approccio critico verso le nozioni di autorità e di verità. Ogni movimento filosofico deve essere collocato nel suo contesto storico-sociale, ed è evidente che “il postmodernismo” rispondesse a delle precise preoccupazioni socio-politiche, primo tra tutti, in campo politico, lo spettro dei dispotismi autoritari che hanno dominato la metà del ventesimo secolo (il celebre, e spesso incompreso, rifiuto delle metanarrazioni). L’ironia è che ora viene accusato di aver riprodotto lo stesso problema, rendendo qualsiasi narrazione degna di fiducia. È giusto accusare questo momento intellettuale dei mali presenti?
GLORIA ORIGGI
Il post-modernismo è un aggregato di idee di avanguardia di provenienza diversa, estremamente influente nell’arte contemporanea, nella letteratura del dopo-guerra e in una serie di esperienze artistico-politiche, spesso di natura provocatoria, necessarie però per scuotere una cultura vecchiotta, incapace di auto-osservazione e tipicamente egemonica. Non demonizzerei il post-modernismo nei contenuti, almeno non più di quanto si possa fare con i tanti movimenti di avanguardia che hanno attraversato il ventesimo secolo, con successi e insuccessi. Non c’era una verità da mettere in discussione, ma un’egemonia conoscitiva che passava dai banchi di scuola, dal sapere diffuso dai musei, dal cinema e poi dalla televisione e che andava sicuramente ripensata dopo i disastri di due guerre mondiali e di più di un secolo di colonialismo. I toni assurdi, provocatori, le boutades, le trasgressioni hanno avuto effetti positivi e negativi. Sicuramente un effetto positivo è stato quello di includere nel discorso culturale “alto”, personaggi, esperienze, culture, minoranze che a questo discorso non avevano accesso. Un altro innegabile effetto positivo è stato quello di sviluppare una coscienza critica nei confronti dei propri atti culturali e svelare la dimensione spesso politica o economica di tutte le espressioni culturali. Le conseguenze negative sono state un generale impoverimento dell’esperienza culturale, uno scetticismo verso la qualità intrinseca dell’oggetto culturale che ha fatto sì che da movimento di avanguardia, il postmodernismo si allineasse con le esperienze culturali più “leggere” della nostra società, come la pubblicità o il marketing. E insieme una tendenza paranoica collettiva a leggere in termini manipolatori qualsiasi proposta conoscitiva. Movimento tendenzialmente “di sinistra”, il postmodernismo è stato purtroppo reclutato “a destra” per legittimare la decimazione degli studi umanistici nelle università di tutto il mondo, visti come ricettacolo di idee paranoiche e estremiste volte ad abbattere il canone culturale occidentale. L’accusa che rivolgo al post-modernismo è più che altro questa: che, grazie alla sua faciloneria intellettuale ha delegittimato le scienze umane, rendendosi complice di un generale impoverimento del sapere, di un “clash” tra cultura scientifica e cultura umanistica e di una tecnicizzazione della conoscenza che ci rende tutti più stupidi. Non bisogna però confondere le derive postmoderniste dall’idea di Lyotard di condizione postmoderna. Quella fu una vera intuizione. E noi oggi siamo in una condizione postmoderna, per navigare la quale il postmodernismo come movimento di idee non ci aiuta per niente, ma neanche il tentativo ingenuo (penso al nuovo realismo) di ritrovare una realtà intatta, un terreno sicuro a cui ancorarci come dei naufraghi a una zattera.
MARIA BAGHRAMIAN
Diversamente da molti miei colleghi sul fronte continentale, non ho mai apprezzato molto le virtù del postmodernismo, in particolare considerando i suoi proclami di rappresentare un momento progressivo, e politicamente sovversivo, della nostra vita intellettuale. Il mio rigetto del postmodernismo ha dei paralleli con la mia critica del relativismo, un tema chiave della mia ricerca degli ultimi trent’anni. Da una parte, mi sono sempre opposta a un troppo semplicistico rifiuto del relativismo come incoerente o contraddittorio, ma dall’altra ho sempre rifiutato con forza l’identificazione di un’attitudine relativistica con una politica progressista. Il relativismo è un framework concettuale molto sfuggente, che può condurre a quietismo e inazione, ma può anche essere adottato a fini autoritari e regressivi. Non dobbiamo dimenticarci che Mussolini era un convinto relativista, e che i Nazisti proposero una forma di relativismo razziale. I pensatori postmoderni, attraverso aforismi e metafore piuttosto che tramite argomentazioni filosofiche tradizionali, hanno messo in dubbio alcuni precetti fondamentali del discorso culturale, che si concentra sui temi della ragione, e della ricerca razionale. Facendo ciò, hanno occupato lo stesso terreno intellettuale del relativismo. Questo, secondo me, è stato il loro più grande difetto. Il postmodernismo ha “problematizzato” (come si dice in gergo) le idee di oggettività, verità, e logica, con l’obiettivo – si diceva – di liberarci dalla schiavitù della ragione, imposta dall’Illuminismo. Quest’ultimo viene presentato come un movimento monolitico e autoritario alleato con l’imperialismo occidentale e il colonialismo, mentre il postmodernismo sarebbe alleato alla lotta per l’emancipazione da ogni tipo di tirannia. Per molti postmodernisti l’Illuminismo – accompagnato dalla fiducia nella forza della ragione e della razionalità, e l’ottimismo nei confronti della possibilità di emancipare la specie umana – divenne un nemico politico e sociale. I critici postmoderni della scienza, delle sue pratiche e istituzioni hanno ragione a enfatizzare i meccanismi di esclusione presenti in essa. Le donne, le persone di colore, e altri gruppi marginalizzati sono stati sistematicamente esclusi, sottovalutati e umiliati. Ma le ragioni di queste esclusioni sono opposte a quelle proposte dal postmodernismo. Che la conoscenza è potere è un’antica ma profonda intuizione riguardo al ruolo che la conoscenza gioca all’interno della nostra vita sociale e politica. Gli uomini bianchi al potere hanno usato la scienza e le norme razionali per escludere le donne e gli “altri differenti” dai centri di conoscenza che si affidano proprio a queste norme. Il responso a queste pratiche di esclusione non deve essere quello di abbandonare i potenti proclami della conoscenza scientifica, ma di rivendicarli a sé. Ad esempio, le donne in Iran stanno riuscendo in questo intento, riempiendo i campi STEM nelle università del paese, tradizionalmente riservati agli uomini.
È possibile che l’overdose di informazioni di cui il pubblico è oggi bombardato tramite i media digitali produca un rilassamento della distinzione tra verità e finzione? È concepibile che ci siano specifici limiti cognitivi che, in quanto esseri umani, limitano la nostra capacità di filtrare ed elaborare un numero così grande di informazioni, spesso contraddittorie?
GLORIA ORIGGI
Non capisco quale sia stata l’età dell’oro in cui la gente credeva nella realtà invece che nelle finzioni. La quantità di stronzate che l’umanità è sempre stata disposta a credere non credo sia aumentata con l’avvento di Internet. È forse solo più visibile. Ma è vero che le società a forte densità informazionale come le nostre società tardo-moderne hanno effetti epistemici propri: paradossalmente, come ho cercato di mostrare nel mio lavoro, più l’informazione aumenta, più la reputazione delle fonti di informazione diventa rilevante, anzi, indispensabile per navigare un mare troppo fitto di informazioni. Un’epistemologia del presente deve dunque fornire gli strumenti per distinguere indizi reputazionali farlocchi da indizi reputazionali robusti, un lavoro ancora da cominciare che sarà sicuramente al centro della ricostruzione di un metodo sociale, condiviso e razionale di distinguere la qualità epistemica dell’informazione che ci attraversa ogni giorno.
MARIA BAGHRAMIAN
Anche io penso che la profusione di dati e informazioni odierna ha esacerbato un problema pre-esistente e perenne, quello di dover prendere una decisione riguardo a idee e fonti di informazione in contrasto tra loro. Il problema non è, o non dovrebbe essere, formulato in termini di un rilassamento della distinzione tra verità e menzogna. Questa distinzione, mi sembra che sia implicita nella nozione stessa di modi di pensare giusti e sbagliati riguardo a ciò che succede. Il problema risiede piuttosto nel nostro non avere sufficienti strumenti epistemici per distinguere le informazioni vere da quelle false, o fuorvianti. E parte del problema risiede nel minor prestigio dato oggi alla testimonianza degli esperti. La maggior parte delle cose che sappiamo deriva da ciò che abbiamo imparato dalle testimonianze ricevute da altre persone. La testimonianza degli esperti – coloro che hanno un livello di competenza e di conoscenza maggiore del nostro – è una delle fonti più importanti di conoscenza. La democratizzazione dell’informazione resa possibile da Internet, e la facile reperibilità di moltissime testimonianze di “esperti” su qualsiasi argomento, ha finito con l’indebolire il ruolo tradizionale della testimonianza come fonte di conoscenza. Con un click possiamo (o almeno ci piace pensare che possiamo) controllare e mettere in questione i consigli che ci vengono dati dai nostri dottori, i nostri avvocati, consulenti finanziari e altri tipi di esperti tradizionali. In ultima analisi, credo che l’egualitarismo epistemico nell’era dei big data sia uno sviluppo positivo, ma come tutte le rivoluzioni, questa rivoluzione informatica ha portato con sé grande insicurezza riguardo alle fonti dell’autorità, affidabili o meno.
La maggior parte delle verità scientifiche non si possono leggere direttamente guardando i fatti, ma richiedono sovrastrutture teoriche, discussioni, e interpretazione dei dati per essere stabilite con certezza, e di conseguenza non si può concepire una comunità scientifica senza un certo disaccordo interno. Come si può comunicare questo processo al pubblico senza produrre, da una parte, un ulteriore scetticismo nei confronti della scienza, o, dall’altra, la convinzione che, se il disaccordo produce conoscenza scientifica, chiunque può essere in disaccordo con il consenso scientifico?
MARIA BAGHRAMIAN
Sono d’accordo, il disagreement è essenziale alla scienza e contribuisce positivamente a essa. Le cose si complicano quando ci si affida alla scienza e agli scienziati per consigli riguardo a decisioni politiche. Ovviamente, non è possibile prendere nessuna decisione coerente sulla base di opinioni scientifiche discordanti. In più, la fiducia che di solito accordiamo a scienziati e risultati scientifici pertinenti a questioni impersonali e su larga scala viene erosa laddove questi prendono posizione su questioni che hanno un impatto diretto sulla nostra vita e sul nostro benessere. Bisogna ricordare che quello di affidarsi a scienziati per decisioni di carattere politico è un fenomeno relativamente nuovo. La maggior parte degli storici della scienza considera la Seconda Guerra Mondiale come il punto di svolta, un periodo che cambiò radicalmente il rapporto tra governi e consulenti scientifici. Le necessità portate dalla guerra moderna crearono forti legami tra scienza e legislatura, come venne dimostrato in maniera lampante dal Progetto Manhattan negli Stati Uniti, e da Bletchley Park nel Regno Unito. Le famose parole di Robert Oppenheimer “Sono diventato Morte, il distruttore di mondi”, citando la Bhagavadgita, influenzano ancora oggi la nostra percezione del rapporto tra scienza e stato. Mentre dunque il pubblico è disposto a dare fiducia agli scienziati per quanto riguarda questioni tecniche, si sente anche giustificato a sospendere questa fiducia laddove i loro risultati scientifici siano direttamente legati alle nostre vite quotidiane. La soluzione non è quella di nascondere il dissenso tra scienziati (come a volte si è provato a fare), o credere che la situazione verrà rettificata quando il pubblico riceverà una chiara e precisa educazione scientifica. Piuttosto, la soluzione risiede nell’assicurarsi che le istituzioni scientifiche e gli scienziati siano consapevoli della sensazione di vulnerabilità avvertita dal pubblico di fronte alla potenza della scienza.
GLORIA ORIGGI
Come hanno già detto molti filosofi, penso per esempio a Richard Rorty, la scienza può ispirare la gente comune come “modello” di attività epistemica ed etica: il fatto che nelle varie discipline esistano disaccordi più o meno rispettati, e che i disaccordi producano uno sforzo collettivo per andare più lontano nella comprensione, può essere un esempio di etica della conoscenza che ispira, ma certo non si può pensare realisticamente che gli esseri umani adottino in massa un metodo scientifico di disaccordo ragionato per farsi un’idea del mondo che hanno intorno. Sappiamo dalla psicologia che gestire la contraddizione è una delle cose più difficili per la mente umana: il bisogno di ridurre la “dissonanza cognitiva” è tra i meccanismi psicologici più forti che guidano il nostro pensiero. Non si può cercare di cambiare le basi cognitive del ragionamento umano: si possono però creare istituzioni, forme di incontro, metodi di dibattito, che fanno emergere il dissenso in modo costruttivo. Si può anche imparare a riconoscere e criticare i “vizi epistemici” di tanti discorsi, come l’insensibilità davanti agli argomenti contrari, l’indifferenza alle più semplici intuizioni statistiche, o l’attrazione per le teorie complottiste e paranoiche che hanno il fascino di mettere insieme fenomeni tra loro sconnessi in una specie di “narrativa” gratificante al di là di qualsiasi oggettività. Un’epistemologia politica che comprenda a quale punto la conoscenza dipenda dalle strutture istituzionali che la fanno circolare è sicuramente necessaria per creare un’epistemologia del quotidiano più virtuosa.
NICLA VASSALLO
Quanto al problema di comunicazione, mi sembra che sarebbe abbastanza semplice: basterebbe presentare il disaccordo tra scienziati come il disaccordo tra esperti. Quando ad esempio una persona soffre di una certa patologia si reca da più esperti, e se questi (come spesso accade) sono in disaccordo tra loro si presenta il problema di chi scegliere. E lo stesso accade nella comunità scientifica. Ma la differenza tra il primo e il secondo caso è che il disagreement nella comunità scientifica (come in quella filosofica) è essenziale al progresso. Se tutti fossero d’accordo vivremmo in uno stato di stasi; invece il disaccordo e la critica devono essere visti come positivi. Purtroppo il pubblico non sospende mai il giudizio, e prende parte senza cognizione di causa per l’una o per l’altra parte di un dissenso scientifico a seconda di balzane convinzioni. Penso che la possibilità di offrire al pubblico confronti diretti o dialoghi tra due o tre scienziati che la pensino in modo diverso sullo stesso tema sarebbe utile. Infatti ciò aiuterebbe il pubblico a comprendere che le divergenze effettive sono minori di quelle che ci spacciano i media, e comprendere che questa è l’unica via che porta alla risoluzione dei problemi, il processo collettivo del problem-solving.
MARIO DE CARO
Vorrei aggiungere che l’unico modo di risolvere il problema è una seria educazione scientifica. È stato scritto recentemente che molta polemica contro i vaccini è condotta da persone che hanno studiato: il problema è capire cosa e come hanno studiato. In Italia c’è una tradizione antiscientifica molto forte, che in parte deriva dalla riforma Gentile la quale, nonostante i suoi pregi, ebbe anche alcuni grandi difetti: per cui ci sono persone che non hanno la minima idea di come funzionano la statistica e la probabilità, e che quindi, di fronte al fenomeno vaccini, non sanno comprendere appieno il problema. È del tutto evidente — è provato — che i vaccini purtroppo sono mortali per alcuni soggetti. Eppure, usandoli, si salvano molte più vite di quante se ne perdano. Naturalmente se una trasmissione (generalmente ottima) come Report va a intervistare le famiglie delle persone che sono decedute per via di un vaccino, questa informazione è scorretta, perché presenta questa morte come l’unico dato rilevante. In generale, se non si conoscono un minimo di statistica, probabilità e storia della scienza diventa praticamente impossibile orientarsi rispetto a queste questioni. Bisogna migliorare la qualità dell’istruzione scientifica, ma anche la qualità – e questo è importante – delle informazioni scientifiche diffuse dai mass media. Ci sono alcuni media che – un po’ in malafede, un po’ per ignoranza – diffondono notizie assurde. Benché in proposito non si possa imporre la censura, si dovrebbe far sì che i media che sanno come si fa la divulgazione scientifica siano nella posizione di criticare gli altri, e di dimostrare come quel modo di discutere di determinati problemi non funziona. È necessario comunicare correttamente sia i risultati scientifici che il metodo della scienza.
Spesso sembra esserci confusione tra, da una parte, l’autorità conferita dalla conoscenza (il capire, e saper spiegare, i processi che producono un fenomeno) e dal rispetto di norme argomentative condivise e, dall’altra, le strutture normalizzanti e autoritarie. Di conseguenza, coloro che vogliono difendere il prestigio epistemico della competenza vengono accusati di elitismo, in nome del principio (giusto, ma soltanto se contestualizzato) che “tutti hanno diritto alla loro opinione”. Come si difende il concetto di autorità epistemica senza cadere nella dittatura delle “autorità” o nella “tecnocrazia”?
MARIA BAGHRAMIAN
Si, è molto triste che la nozione di competenza, o di “autorità epistemica” sia stata accorpata all’elitismo, o addirittura a impulsi autoritari. La divisione del lavoro, linguistico ed epistemico, e la specializzazione che la accompagna sono essenziali per il funzionamento delle comunità che condividono un linguaggio e un modo di pensare, particolarmente in società avanzate e complesse. Per fare solo un esempio, la scienza come viene praticata oggi è un’impresa collettiva la cui condotta richiede un’enorme mole di divisione del lavoro epistemico e di specializzazione. Senza fiducia nella competenza di coloro che lavorano in altre sotto-specializzazioni, la scienza non potrebbe progredire, né funzionare nella sua forma attuale. Mi sembra che queste reazioni contro l’“elitismo” della competenza siano il prodotto di pressioni economiche più che filosofiche, e devono essere spiegate di conseguenza. L’ordine economico Neoliberista ha celebrato la competenza e gli ha dato un posto di prestigio all’interno del processo decisionale sociale ed economico. L’affidamento alla conoscenza degli esperti è spesso stato accompagnato da premi economici – in particolare nel campo bancario, finanziario e legale – del tutto sproporzionati al contributo che questi esperti effettivamente apportano al benessere della società. Un secondo problema (legato al primo) è ancora una volta quello del legame tra conoscenza e potere. La conoscenza ci conferisce autorità oltre al campo epistemico, ed è spesso stata uno strumento nelle mani della volontà di potenza. Sapere, ed essere portatori di conoscenza, ci permette di influenzare gli altri, di perseguire i nostri obiettivi. Non è necessario credere (come sostiene Tim Williamson) che la conoscenza sia la norma per fare affermazioni, o che la conoscenza venga per prima, per poter apprezzare il ruolo primario che gioca in tutti i nostri scambi sociali. È un’ovvietà, ma non del tutto banale, che la conoscenza conferisce potere, ma il potere, in tutti i casi, deve rispondere dei bisogni degli altri e alle loro (e nostre) vulnerabilità. Possiamo vedere i primi segni di questa preoccupazione riguardo all’esercizio della conoscenza scientifica senza senso di responsabilità nel Dr. Frankenstein, di Mary Shelley, un romanzo quasi profetico considerando come al tempo la scienza moderna era ancora giovane. Sapere, e brandire il potere che la conoscenza ci conferisce senza responsabilità di fronte alle questioni etiche che questa conoscenza produce, è un pericolo che dobbiamo sempre tenere bene in considerazione. La connessione tra i parametri normativi della conoscenza e il mantra (a prima vista tollerante e inclusivo) “tutti hanno diritto alla loro opinione” è interessante. Molto spesso in dibattiti e conversazioni, in particolare riguardo a questioni etiche e politiche negli Stati Uniti, l’affermazione “ho diritto alla mia opinione” viene usata come carta che pone fine alla discussione. Questo è un errore. Se affermi la tua opinione sei, come minimo, responsabile per la sua plausibilità razionale, se non proprio per la sua verità. Le opinioni non sono differenti da altri tipi di credenze. Siamo tutti responsabili pubblicamente per le nostre opinioni, così come lo siamo per le nostre affermazioni di conoscenza. Gli usi odierni di questo mantra dimenticano questo componente normativo.
NICLA VASSALLO
Purtroppo sul piano fattuale si è confusa l’autorità epistemica con l’autorità politica, o l’autorità del dittatore. E tale confusione è stata particolarmente accentuata in quelle democrazie dove abbiamo avuto governi tecnici: ad esempio economisti al potere che hanno mentito, e non si sono mai pentiti delle loro menzogne (perdendo dunque la fiducia del pubblico). E il caso del nostro paese è un caso classico. Come si può ripristinare la fiducia perduta? Cercando di distinguere nettamente (nonostante le illusioni di Platone) tra il politico e l’autorità epistemica. L’autorità epistemica può solo essere un buon consigliere di un politico, ma a mio avviso non può e non deve entrare direttamente in politica: deve suggerire al meglio il politico rimanendo svincolata dal potere politico.
MARIO DE CARO
Questo è il tipico argomento in cui si discute di bianco e di nero, come se non ci fosse alcuna via di mezzo. Con questo modo di procedere non si ottiene nulla, e anzi si generano facilmente disastri. È del tutto evidente che esiste un ampio terreno intermedio tra l’imporre presunte verità con la forza e l’accettare qualunque scempiaggine come se fosse parimenti autorevole. È sempre stato così, ma oggi con internet la situazione è peggiorata: si pensi alla famigerata frase di Umberto Eco “Internet permette a qualunque cretino di dire la sua opinione”: forse è un po’ rude, ma ha una giustificazione. Su Facebook ho letto eminenti professori o studiosi di determinati campi spiegare la propria opinione informata ed essere “confutati” in due righe da qualcuno, completamente digiuno della materia del contendere. Questo è un fenomeno grave, e direi che Facebook e simili non sono i social media ideali per una discussione seria. Il problema è che le distinzioni sono difficili: è chiaro che esistono autorità autoritarie e autorità autorevoli. È una cosa in sé ovvia, ma si sta abbassando il livello dell’istruzione generale: si tagliano i fondi per l’istruzione, la gente non va a scuola, non studia bene e poi finisce per dire scempiaggini, non essendo in grado di riconoscere i ragionamenti corretti da quelli scorretti. La situazione non sarà mai perfetta, ma ci sono molti margini di miglioramento.
GLORIA ORIGGI
A me sembra che nelle grandi visioni sulla democrazia e in particolare nell’entusiasmo per il ruolo della Rete, vi è sempre stata una certa tendenza a semplificare e idealizzare sia le capacità cognitive che le dinamiche sociali dei cittadini. Se l’uguaglianza di diritti è un caposaldo della democrazia anche in un’epoca di spettacolari disuguaglianze economiche, l’uguaglianza epistemica, o l’egualitarismo epistemico, è spesso una nozione sottintesa, che vede i soggetti cognitivi come tutti uguali, intercambiabili, in linea di principio capaci di sviluppare tutti gli stessi argomenti seguendo lo stesso metodo (una tesi criticata per esempio da molta epistemologia femminista). L’egualitarismo epistemico è rivendicato come un diritto fondamentale non a chiedere ragioni o ad avere accesso alle stesse risorse epistemiche (diciamo una rivendicazione di qualche forma di “diritto aletico”, come ha sostenuto recentemente in un saggio pubblicato da Franca D’Agostini nella rivista Biblioteca della Liberta del centro Einaudi), ma una rivendicazione ad avere ragione e poter esprimere il proprio punto di vista al di là di qualsiasi standard argomentativo condiviso. Una rivendicazione resa possibile dalla straordinaria capacità del Web di dare voce a una moltitudine di individui che mai avevano avuto accesso alla parola “pubblica” prima d’ora. Avere ragione secondo i propri standard, rifiutare di farsi imporre qualsiasi standard epistemico percepito come una coercizione “dall’alto” è il tranello in cui cascano i cittadini più vulnerabili, che si sentono “empowered” cognitivamente e socialmente dal poter esprimere la loro opinione e non si rendono conto di essere vittime di nuove forme di controllo dell’opinione e di coercizione mentale. Un risultato recente mostra come coloro che sono i più scettici riguardo all’autorità delle testate di informazione tradizionali sono anche i più ricettivi a credere alle teorie del complotto e a cascare nella rete delle bufale trasmesse attraverso i social networks. Questo “corto-circuito” tra politica ed epistemologia è forse uno degli aspetti più salienti delle società iper-connesse e (spesso definite) post-democratiche attuali nelle quali la sovraesposizione dei pareri dei cittadini bypassa la rappresentanza politica con modalità che delegittimano la seconda senza legittimare la prima.”

Pubblicato in: Etica, Filosofia e teologia, opinioni, Scienze e tecnologia, Senza categoria, Società

Un nuovo (D) io

ai

Un articolo di Maria Luisa Prete su La Repubblica. Argomento: l’intelligenza artificiale assurta a nuova divinità.
Un nuovo dio scende sulla terra alla conquista delle nostre anime. E come i suoi predecessori, anzi più degli altri, viene plasmato ad arte dall’uomo. Come gli altri, nasce per essere venerato e per salvarci dalle brutture del mondo. Ma chi è? Nientemeno che l’intelligenza artificiale. Se Elon Musk la teme considerandola la possibile causa della terza guerra mondiale, per Anthony Levandowski, invece è la nuova divinità.
L’ex ingegnere Google, licenziato qualche mese fa con l’accusa di aver rubato segreti commerciali, adesso cerca il riscatto nella fede. La sua associazione religiosa senza scopo di lucro si chiama “Way of the Future”, e appunto si propone di venerare l’AI per migliorare la nostra vita. Come dire, se non riusciamo più ad aver fiducia nel dio tradizionale, un’alternativa, fatta di bit e silicio, potrebbe fare al caso nostro. Così terrena da poter conquistare anche i miscredenti più accaniti, così fascinosa perché potrebbe elevare a paradiso il progresso tecnologico. Basta crederci.
Ma chi è il messia di questo nuovo messaggio di salvezza? Il suo biglietto da visita non è proprio edificante. Pendono su di lui pensanti accuse di spionaggio industriale. In particolare, Levandowski, classe 1980, è al centro di una disputa su brevetti trafugati tra Uber e Waymo, compagnia automobilistica di Google. Licenziato dall’azienda di Mountain View lo scorso maggio, adesso sembra cercare il riscatto e la fama come sacerdote della divinità tecnologica. La sua setta è stata fondata nel settembre 2015, ma è salita solo ora agli onori della cronaca grazie alle rivelazioni di Wired Usa che ha reso noto il progetto presentato all’US Internal Revenue Service (IRS), l’autorità Usa che gestisce e amministra le entrate fiscali pubbliche, alle cui norme devono attenersi anche le organizzazioni senza scopo di lucro. Anche se la setta non ha ancora formalizzato la sua posizione con l’IRS come organizzazione religiosa esente da imposte, i documenti depositati in California dimostrano che Levandowski è amministratore delegato e presidente del Mondo del futuro e che i fini della società “attraverso la comprensione e il culto della divinità” vogliono contribuire al “miglioramento della società”.
Il legame tra tecnologia e religione non è nuovo. In molti, nella Silicon Valley, credono nella “Singolarità”, l’avvento di un’epoca in cui le macchine governeranno il mondo con giustizia ed equità, a vantaggio e meglio degli uomini. Da qui, il passo verso il culto dell’Intelligenza artificiale sembra obbligato. La speranza nelle “magnifiche sorti e progressive” si alimenta con i grandi successi e le costanti innovazioni del settore. Non è un caso, fa riflettere Wired a proposito, che se ancora l’AI divina è lontana, Levandowski abbia contribuito con il suo lavoro a farle assumere un’incarnazione terrena. Le auto a guida autonoma alle quali aveva lavorato per Google stanno già trasportando passeggeri a Phoenix, in Arizona, mentre i camion costruiti dalla sua Otto (poi ceduta) fanno parte del piano di Uber per rendere il trasporto merci più sicuro ed efficiente. Passi concreti per diffondere il verbo di una divinità che sembra compiere i “primi miracoli” e ne promette ogni giorno di nuovi.

Pubblicato in: Etica, opinioni, Pensatoio, Scienze e tecnologia, Scuola, Società

Partire dalle persone

digit.jpg

Nel mese di luglio avevo letto un articolo di Alberto Maestri e me l’ero appuntato. Mi aveva colpito una frase: “Sapere riconoscere le opportunità digitali significa prima di tutto partire dalle persone”. Alberto Maestri è diplomato in Marketing e Strategia all’Università di Modena e Reggio Emilia e in Digital Marketing all’Institute of Direct and Digital Marketing (IDM) di Londra. Responsabile della sezione Tech di Ninja Marketing, lavora come Senior Consultant in OpenKnowledge dedicandosi a progetti nazionali e internazionali legati a marketing digitale e pratiche di open innovation.
L’articolo è tratto da Ninjamarketing e porta il titolo “La Trasformazione Digitale riguarda anche te”.

Lo ammetto, ho sbagliato. Quando mi trovo a scrivere qualcosa, raccomando sempre a me stesso di non dire “tutto subito”, ma di lasciare piuttosto la curiosità al lettore almeno fino a metà pezzo. Invece, questa volta, ho anticipato il finale già dal titolo.
Il dato di fatto è semplice: viviamo nel pieno dell’era digitale. Un’era mediata (gli studi del sociologo italiano Giovanni Boccia Artieri sono illuminati e illuminanti in tal senso), filtrata (“The Filter Bubble” è un’opera di qualche anno fa ma sempre interessante, la conosci?), fluida (Zygmunt Bauman docet). Proprio la parola “digitale” fa spesso rima con termini come “innovazione” e porta conseguentemente con sé una percezione, comune alla maggior parte delle persone – indipendentemente dal livello di alfabetizzazione digitale (e, da una prospettiva complementare, di digital divide) – e trasversale ai settori industriali: ovvero, che l’innovazione (quindi, la trasformazione) digitale sia prima di tutto un fattore tecnologico.
Paradigmi come la Virtual Reality, l’Augmented Reality, l’Internet delle Cose, la Blockchain, soluzioni come Oculus e i Bitcoin, modelli di business nativi digitali e fondati sull’ottimizzazione dei big data come Uber, AirBnB e TripAdvisor portano spesso a pensare che la trasformazione digitale di organizzazioni, territori, aziende, amministrazioni pubbliche sia primariamente una questione di innovazione tech.
Basta un poco di zucchero e la pillola, va giù. Ricordi la celebre cantilena di Mary Poppins? Oggi, potrebbe essere riletta con efficacia per delineare tale prospettiva. La tecnologia sarebbe la reale variabile determinante di un presente e – soprattutto – di un futuro sempre più digitale.
La potenza è nulla, senza controllo
Il rischio di tale approccio è multi-layer – ovvero, composto da diversi pericoli posizionati e collegati a puzzle. Ti elenco due esempi di layer a cui fare attenzione.
1. Il primo è ben riassunto nel termine mediumism, indice della tendenza pericolosa ad essere continuamente alla cerca frenetica dell’adozione dell’ennesima piattaforma digitale senza prima essersi chiesti e avere attentamente valutato se è davvero ciò che l’audience vuole, e/o di cui ha bisogno.
2. Un secondo pericolo sta nella mancata correlazione stretta e diretta tra tecnologia, cultura e competenze: ovvero, il fatto di avere anche la migliore innovazione tecnologica non garantisce proprio nulla. Gli utenti destinati a utilizzarla e a “calarla a terra” potrebbero infatti non avere le giuste competenze, né tantomeno e soprattutto la cultura – un fattore più sottile e strategico ma che permette di indirizzare al meglio le azioni – per farlo.
Accelerare con le persone
Un secondo approccio alla trasformazione digitale è invece people-centric: ovvero, vede nelle persone i principali elementi abilitatori del cambiamento. E per “cambiamento” intendo qualcosa di profondo, ampio, di ampio respiro, non relegato solo a temi di dialettica politica o politiche aziendali. Personalmente aderisco in toto a questa seconda visione neutrale al fattore tecnologico, e porto anche qui due temi a supporto.
1. Il primo è quello del Digital Darwinism, concetto suggerito dalle ricerche di Brian Solis a partire dal 2010 circa. Il futurologo e analista americano intende con tale termine la capacità e rapidità evolutiva delle persone, di gran lunga maggiore della stessa capacità di cambiamento e innovazione di aziende, organizzazioni e sistemi. In effetti, questi ultimi sono organismi complessi, strutturati, dove le decisioni vengono prese attraverso percorsi non banali né rapidi. Al contrario le persone, in quanto esseri sociali e atomi singoli, sono sempre più interessate e disposte a mettersi in gioco (rischiare!) per il gusto di testare le innovazioni tecnologiche. Volendo rileggere la tradizionale curva di Rogers utilizzata in economia per spiegare il modo in cui le innovazioni di prodotto si diffondono nel tempo, potremmo sostenere che il digitale amplia la percentuale di innovatori ed early adopters, limitando allo stesso tempo la “pancia” maggioritaria e la “coda” ritardataria.

curva
2. Il secondo tema sta nel concetto di mobile mind shift, introdotto da alcune analisi della società di consulenza internazionale Forrester Research. Con questo termine si intende il cambiamento psicologico – o meglio il circolo vizioso – abilitato dal digitale. Siamo sempre meno disposti ad aspettare, a dovere fermare lo svolgimento di ciò che stiamo facendo per potere fruire di una informazione, ad “accontentarci” di ricevere comunicazioni irrilevanti per il nostro vissuto. Al contrario, attraverso i media digitali mobile: “La mobile mind shift è la consapevolezza di potere essere connessi in qualunque momento e la conseguente aspettativa di ottenere quanto necessario subito e in modo contestualizzato, senza necessità di ulteriori spostamenti fisici o “mentali”.”
Social technology: una lente per leggere il futuro che ci attende
A mio avviso, dunque, la trasformazione digitale non è una semplice questione tecnologica, ma è un “affare” people-first. Come sarà il futuro? Difficile, impossibile saperlo.
Più semplice diventa estrarre una lente, un modus operandi per leggere ciò che ci aspetta. Ovvero, partire dalle persone in quanto esseri sociali. Non è un caso che piattaforme tecnologiche come YouTube, Facebook e altri social network abbiano avuto il successo che tutti conosciamo: si tratta di innovazioni che sono state capaci nel tempo di rispondere in pieno alle esigenze sociali degli individui di parlare, connettersi, interagire. In esse, la tecnologia ha avuto un semplice ruolo di adattatore e abilitatore delle necessità sociali delle persone.
Tale approccio, che definisco di social technology, è fondamentale non solo per comprendere ciò che accadrà, ma anche per anticipare il successo (o l’insuccesso) delle nuove trasformazioni digitali.
Siamo pronti a prevedere il futuro?

Pubblicato in: Etica, Filosofia e teologia, opinioni, Pensatoio, Scuola, sfoghi, Società, Storia, Testimoni

Il ritorno di Socrate

socrate

Lo scrittore spagnolo Marcos Chicot immagina, in un pezzo pubblicato domenica 3 settembre su La Lettura, il ritorno di Socrate ai giorni d’oggi. Un brano divertente e ricco di spunti di riflessione.
Nei suoi primi giorni nel XXI secolo, probabilmente Socrate si incamminerebbe a piedi scalzi verso una biblioteca, in cui si rinchiuderebbe per un po’ in modo da aggiornarsi su quanto avvenuto dopo la sua morte nel 399 a.C. Vestito con la sua abituale tunica austera, forse sorriderebbe soddisfatto nello scoprire che oggi consideriamo l’Epoca Classica (499-323 a.C.) il periodo più straordinario nella storia dell’umanità.
In effetti ha dell’incredibile che in così pochi anni, quasi avessero ricevuto un’illuminazione improvvisa, i Greci abbiano creato tanti elementi che oggi sono la base della nostra civiltà. Riassumendo: 1) la medicina giunse al rango di scienza per mano di Ippocrate; 2) in architettura furono eretti alcuni capolavori universali dell’ingegneria come il Partenone; 3) apparvero il teatro e i grandi drammaturghi; 4) Mirone e Fidia reinventarono in modo definitivo il modo di fare scultura; 5) infine, in fatto di politica, i Greci sorpresero il mondo sviluppando una forma di governo fino ad allora ignota: la democrazia.
Ora, in quella biblioteca Socrate si acciglierebbe nel leggere che denominiamo «presocratici» i filosofi che lo hanno preceduto, facendo di lui una pietra miliare, il confine che segna un prima e un dopo nella storia del pensiero e, pertanto, dell’umanità. Secondo Platone, l’oracolo di Delfi affermò che Socrate era il più saggio tra gli uomini. La reazione di questi anziché gonfiarsi d’orgoglio come avrebbe fatto qualsiasi mortale consistette nel rifiutare con umiltà il significato letterale di quelle parole, domandandosi come avrebbe potuto essere il più saggio se sapeva solo… di non sapere.
L’ammissione della propria ignoranza, al pari della ricerca incessante della conoscenza, lo trasformarono nel paradigma del filosofo. E, come se non bastasse, la sua dialettica rigorosa lo innalzò al ruolo di padre del Razionalismo. Inoltre, aver scelto come elementi principali di riflessione il bene e il male, la virtù e la felicità, ce lo fa considerare il padre della filosofia etica. Infine, essere stato il primo a porre l’uomo al centro dell’attenzione lo rende il padre dell’Umanesimo. Sopraffatto da tanti riconoscimenti, Socrate chiuderebbe i libri e abbandonerebbe la biblioteca per interessarsi alla nostra società. Ci guarderebbe in prospettiva, accarezzandosi irrequieto la barba folta, sorpreso che molte delle conquiste della sua epoca siano scomparse per tanti anni e siano state riscoperte solo di recente, facendo somigliare il nostro mondo al suo: la democrazia, perduta per due millenni fino alla Rivoluzione francese; lo sviluppo di arti e scienze dell’antichità classica, il cui recupero dà il nome al Rinascimento; o lo stesso Umanesimo socratico, riportato alla luce da grandi maestri come Petrarca e Leonardo. «Saranno consapevoli gli abitanti del mondo di oggi che tutto potrebbe andare perduto di nuovo?», si domanderebbe.
Aggiornatosi sul passato e sul presente, Socrate si porrebbe gli stessi obiettivi della sua prima vita: dialogare con i concittadini sulle nozioni di base – il bene, la virtù o la giustizia come concetti universali, al di sopra degli interessi particolari. E tornerebbe a impegnarsi nella formazione dei futuri dirigenti, sognando di risvegliare in loro l’idea di giustizia e di fare in modo che non perdano la strada proprio una volta raggiunto il potere. Il filosofo non frequenterebbe più l’agorà come una volta, ma si adatterebbe ai tempi e condurrebbe un programma tv in prima serata (e chi non metterebbe sotto contratto un personaggio così famoso?). In base alle sue linee guida, la trasmissione avrebbe un carattere divulgativo, cui si unirebbe una sezione di interviste tanto a cittadini comuni quanto a personaggi di rilievo della società. Le puntate di maggior successo sarebbero di certo i dibattiti con i politici. Tuttavia Socrate non tarderebbe a scoprire che l’uomo di governo più importante della sua epoca, l’ateniese Pericle, sarebbe un’eccezione oggi come lo era tra i politici dell’Epoca Classica. Non solo perché, nei tre decenni in cui fu alla testa dell’Assemblea della sua polis, l’impero di Atene raggiunse l’apogeo, ma anche perché – allora come oggi – la norma erano i demagoghi, intenti solo a istigare le masse per ottenere un appoggio che soddisfacesse le loro ambizioni di potere, spesso con conseguenze disastrose.
«Pericle era l’unico politico che convinceva il popolo con la verità», ricorderebbe nostalgico il filosofo. «E l’unico il cui patrimonio non sia aumentato di una dracma in tutti i suoi anni di governo», aggiungerebbe rattristato, leggendo le ultime notizie sulla corruzione. Lascerebbe cadere i giornali e rifletterebbe sulla somiglianza tra la democrazia ateniese e quelle attuali. La divisione del popolo incoraggiata dai politici, i problemi economici, le famiglie rovinate… dietro tutto ciò vedrebbe l’eterno problema di questo sistema di governo: l’incapacità o il disinteresse della classe dirigente. Ricorderebbe ciò che disse il suo amico Euripide quando lasciò Atene disgustato: «La democrazia è la dittatura dei demagoghi».
In ogni caso, Socrate si rallegrerebbe di essere tornato a una società democratica con libertà di espressione e facilità di accesso all’istruzione. Da questo punto di vista, molti Paesi gli sembrerebbero forse al livello della sua vecchia patria ateniese o persino superiori. Lo deluderebbe tuttavia constatare che l’informazione non implica la conoscenza. Resterebbe affascinato dai progressi nella medicina, dal dominio sulla natura, l’energia, la genetica… eppure le domande che porrebbe nel suo programma sulle diverse questioni etiche o sulle conseguenze a lungo termine metterebbero spesso in imbarazzo gli interlocutori. Potrebbe colpirlo l’intreccio fra la tecnologia e la vita quotidiana, ma se si presentasse con il suo abbigliamento sobrio nel reparto delle novità elettroniche di un qualsiasi centro commerciale, allargherebbe le braccia e proclamerebbe allegro, come faceva nel mezzo del mercato di Atene: «Quante cose di cui non ho bisogno!».
Dopodiché inviterebbe nella sua trasmissione imprenditori, rettori di università e ministri dell’Istruzione, e dialogando con loro metterebbe il dito nella piaga del sistema: il fatto che gli uomini siano concepiti sempre più come unità di produzione e consumo. Sottolineerebbe preoccupato che la riflessione e il dubbio sono minacciati ogni giorno di più, tanto che ne viene rimosso l’insegnamento dai piani di studio. Come uomo di cultura, potrebbe mettere a disagio i suoi interlocutori usando le parole azzeccate di Francisco de Quevedo: «Un popolo idiota è la sicurezza del tiranno». E, con lo sguardo rivolto ai telespettatori, ci direbbe che la società non ha soltanto un bisogno disperato della filosofia, ma anche di cittadini che difendano e promuovano il pensiero critico.
Nessun politico vorrebbe essere ospite della trasmissione, ma il magnetismo del conduttore ne farebbe il programma con l’audience più alta e finirebbero tutti seduti accanto a lui davanti alla telecamera. Politici in vista sarebbero dissezionati e smascherati dalla sua ironia acuta e agile e dalle sue domande in apparenza ingenue. Socrate dimostrerebbe di volta in volta che un idolo è solo una persona comune rivestita dell’ammirazione altrui. Ammirazione di cui rimuoverebbe gli strati, lasciando agli interlocutori un senso di vulnerabilità e risentimento. Le sue interviste risulterebbero esemplari, dimostrando con grande chiarezza che al potere non arriva chi ne sa fare l’uso migliore, bensì chi è più abile nel conquistarlo. E, al tempo stesso, nei suoi dialoghi televisivi proverebbe che per raggiungere il potere si richiedono capacità opposte a quelle necessarie per un suo buon esercizio: in sostanza, ambizione e mancanza di scrupoli.
Ma il filosofo non si limiterebbe a parlare con i suoi interlocutori nel programma. Ci guarderebbe attraverso la telecamera («Oh, popolo greco-romano…») e ci rammenterebbe che una delle forme più insidiose di sottomissione è il silenzio, questo grande complice. Socrate non agì mai mosso da interessi propri e non lo farebbe nemmeno ora. Il suo unico obiettivo è stato e sarebbe la ricerca della conoscenza e del comportamento giusto. Per toglierlo di mezzo si indagherebbe sul suo passato a caccia di panni sporchi, ma si troverebbero soltanto un marito fedele alla giovane moglie, padre di tre figli, e un soldato che difese con grande valore la propria patria nella lunga guerra che mise a confronto Atene e Sparta.
Tutto ciò vorrebbe dire che Socrate stavolta vincerebbe la sua battaglia contro i sofisti e i demagoghi? Il suo ritorno porterebbe alla sognata rigenerazione della democrazia? Temo che, come in passato, la somma di scomodità, incomprensione e risentimento che si creerebbero intorno al filosofo porterebbero alle stesse conseguenze. Anche stavolta, Socrate sarebbe assassinato.”

Pubblicato in: opinioni, Scienze e tecnologia, Scuola, sfoghi, Società

iGen, generazione in rovina?

IMG_20170821_080534_208 (2)

Gli smartphone con i loro social stanno rovinando o hanno rovinato una generazione? Questa domanda e le relative risposte sono al centro di questo articolo pubblicato oggi su Il Post.
“Jwan M. Twenge, docente di psicologia all’Università di San Diego, ha scritto per l’Atlantic un articolo molto complesso e discusso che analizza l’uso e le conseguenze degli smartphone e dei social media da parte degli e delle adolescenti. Il pezzo riprende i contenuti un recente libro di Twenge, è documentato, cita diverse ricerche e, sebbene con una certa cautela, arriva a conclusioni piuttosto preoccupanti: non è un’esagerazione, dice la studiosa, descrivere gli adolescenti di oggi come sull’orlo della peggiore crisi di salute mentale degli ultimi decenni, e non è un’esagerazione ipotizzare che gran parte di questa situazione possa essere ricondotta ai loro telefonini. L’articolo, sia per i contenuti che per la parzialità del metodo, è stato però anche molto contestato e criticato.
Twenge precisa che lo scopo dei suoi studi non è cedere alla nostalgia per un mondo in cui le cose erano differenti, ma capire come sono le cose ora: alcuni cambiamenti sono positivi, alcuni sono negativi, e molti sono entrambe le cose insieme. Twenge racconta di aver studiato e lavorato molto sulle differenze tra generazioni e che, tipicamente, le caratteristiche che definiscono un gruppo di persone nate in un determinato periodo appaiono per gradi e lungo un continuum. I cosiddetti “Millennials”, di cui fa parte chi è nato tra la metà degli anni Ottanta e i primi anni del Duemila, sono considerati per esempio una generazione individualista: ma questa caratteristica era cominciata a comparire già all’epoca dei “Baby Boomers”, i nati dopo la Seconda guerra mondiale, e della “Generazione X” degli anni Sessanta e Ottanta. I grafici delle ricerche di Twenge sulle tendenze delle diverse generazioni avevano dunque curve ascendenti e discendenti morbide e graduali. Almeno finora.
Quando Twenge ha iniziato a studiare la generazione di Athena, una 13enne che vive a Houston, Texas, e che le ha spiegato di aver trascorso la maggior parte della propria estate da sola in camera in chat con i propri amici, la studiosa ha notato degli spostamenti bruschi e dei picchi nelle tendenze dei propri grafici: molte delle caratteristiche distintive della generazione dei Millenials stavano scomparendo. Twenge dice di non aver mai visto niente di simile e che i cambiamenti non erano solo di grado, ma anche di natura. La differenza più grande tra i Millennials e i loro predecessori era nel modo di considerare il mondo; gli adolescenti di oggi si differenziano dai Millennials non solo per i nuovi punti di vista ma anche per come trascorrono il tempo: le esperienze che hanno nella loro quotidianità sono radicalmente diverse rispetto a quelle della generazione che li ha preceduti.
Twenge si occupa degli adolescenti americani, ma riscontra tendenze e abitudini che – in misure diverse, ovviamente – esistono in molti contesti e città occidentali, e in cui probabilmente molti genitori di adolescenti europei riconosceranno almeno in parte i propri figli. L’anno in cui sono avvenuti questi cambiamenti così significativi, secondo Twenge, è il 2012: c’entra probabilmente la grande recessione, dice, cioè la crisi economica mondiale iniziata nel 2007 e terminata circa due anni dopo, ma il 2012 è stato soprattutto l’anno in cui la percentuale di statunitensi che avevano uno smartphone ha superato il 50 per cento. A chi è nato tra il 1995 e il 2012 Twenge ha dato quindi un nome: iGen. Sono gli adolescenti che sono cresciuti possedendo uno smartphone, che avevano un account Instagram prima di iniziare la scuola superiore e che non si ricorda un tempo prima di Internet. I Millennials si sono formati con una grande familiarità con la tecnologia digitale che, però, non è mai stata presente nelle loro vite a un livello così elevato, cioè in ogni momento, giorno e notte.
Secondo Twenge le conseguenze della cosiddetta “età degli schermi” vengono spesso sottovalutate. Ci si concentra molto su specifici aspetti, per esempio la riduzione dell’attenzione, ma la diffusione degli smartphone ha invece cambiato radicalmente ogni aspetto delle vite degli adolescenti, dalla natura delle loro relazioni sociali alla loro salute mentale. E questi cambiamenti, dice la studiosa, riguardano tutti i giovani americani, a prescindere da dove vivano, in ogni tipo di famiglia: coinvolgono le persone benestanti e quelle non benestanti, quelle di ogni etnia, che vivono nelle città oppure nelle periferie. Anche quando in passato un evento significativo ha svolto un ruolo fondamentale ed estremo nella formazione e nella crescita di un gruppo di giovani, per esempio una guerra, non è mai accaduto prima che un singolo fattore definisse un’intera generazione e che avesse conseguenze così pervasive: «Ci sono prove convincenti che i dispositivi che abbiamo messo nelle mani dei giovani stiano avendo profondi effetti sulla loro vita e li rendano gravemente infelici».
Gli iGen, scrive Twenge, si sentono più a loro agio in camera loro che in una macchina o a una festa, nonostante siano più sicuri e informati rispetto al passato: hanno meno probabilità di fare un incidente automobilistico rispetto ai loro omologhi del passato, per esempio, e sono più a conoscenza dei rischi dell’alcol. Da un punto di vista psicologico, però, sono più vulnerabili rispetto ai Millennials. La prima caratteristica degli iGen è che la ricerca dell’indipendenza, così potente nelle generazioni precedenti, è meno forte. La patente di guida, simbolo di libertà inscritto nella cultura popolare americana, ha perso il proprio appeal: quasi tutti i Baby Boomers avevano la patente di guida pochi mesi dopo il compimento dell’età necessaria; oggi in America più di un adolescente su quattro non ha la patente alla fine della scuola superiore. Sono madri e padri ad accompagnare i figli a scuola o altrove, e dalle ricerche emerge che la patente viene descritta dagli adolescenti come qualcosa che importa soprattutto ai loro genitori, un concetto «impensabile per le generazioni precedenti», commenta Twenge.
È diminuita anche la percentuale di chi ha una frequentazione sentimentale: parte del corteggiamento avviene attraverso le chat e non è detto che poi si arrivi a un incontro reale. Nel 2015 solo il 56 per cento di chi frequenta l’ultimo anno delle scuole superiori ha avuto degli appuntamenti, mentre tra i Baby Boomers e i membri della Generazione X la percentuale era pari a circa l’85 per cento. Questo ha ovviamente delle conseguenze sulla vita sessuale degli iGen: secondo i dati citati da Twenge, i quindicenni che hanno una vita sessualmente attiva sono diminuiti del 40 per cento rispetto al 1991 e l’adolescente medio di oggi ha fatto sesso per la prima volta circa un anno dopo rispetto alla media di chi appartiene alla Generazione X.
Nelle generazioni precedenti, poi, gli adolescenti lavoravano di più in estate o nel tempo libero, desiderosi di finanziare la loro libertà: in questo erano stimolati anche dalle famiglie, che volevano insegnare loro il valore del denaro e la sua gestione. Gli adolescenti iGen invece non lavorano: alla fine degli anni Settanta, il 77 per cento dei ragazzi dell’ultimo anno delle scuole superiori aveva una qualche occupazione, entro la metà del 2010 la percentuale si è abbassata al 55 per cento e ora il numero è diminuito ancora. La tendenza a ritardare l’entrata nell’età adulta era già in atto anche nelle generazioni precedenti, dice Twenge, ma ciò che caratterizza gli iGen è in particolare il ritardo dell’inizio dell’adolescenza: i ragazzi che oggi hanno 18 anni agiscono come dei quindicenni e quelli di quindici anni sono più simili a dei ragazzini di tredici anni. L’infanzia si è cioè estesa. Perché, si chiede la studiosa, gli adolescenti di oggi aspettano più a lungo ad assumersi sia le responsabilità che i piaceri dell’età adulta?
I cambiamenti culturali, l’economia e il rapporto con la famiglia hanno certamente un ruolo: l’istruzione superiore è considerata più importante di trovarsi presto un lavoro, i genitori sono inclini a incoraggiare i loro figli a rimanere a casa e a studiare piuttosto che a cercarsi un’occupazione part-time e gli adolescenti, a loro volta, sembrano soddisfatti di questo accordo, «non perché siano particolarmente studiosi ma perché la loro vita sociale è vissuta sul telefono. Non hanno bisogno di lasciare la casa per trascorrere del tempo con i loro amici». I dati dicono che gli adolescenti iGen hanno più tempo libero rispetto agli adolescenti della generazione precedente. «E che cosa fanno con tutto quel tempo?» si chiede Twenge: «Sono al telefono, nella loro stanza». Si potrebbe allora pensare che gli adolescenti passino così tanto tempo in questi nuovi spazi virtuali perché questo li rende felici, ma la maggior parte dei dati suggerisce che non è così.
Nel suo articolo Twenge cita diverse ricerche. Una ha che fare con il tempo del sonno e dice che dal 2012 le ore dedicate dagli adolescenti al dormire sono diminuite: usare il telefonino per diverse ore e anche subito prima di andare a letto ha conseguenze sulla quantità ma anche sulla qualità del riposo, e dormire poco e male ha a sua volta conseguenze sia fisiche che psicologiche. Da un’altra ricerca citata risulta che tutte le attività svolte davanti a uno schermo siano legate a una minore felicità e che tutte le attività alternative siano associate invece a una maggiore felicità. Le indagini riportate da Twenge dicono poi che più i ragazzi passano il tempo guardando uno schermo, più probabilità hanno di segnalare sintomi di depressione e di presentare maggiori fattori di rischio di suicidio (dal 2007 il tasso di omicidio tra adolescenti è diminuito, ma è aumentato quello dei suicidi: gli adolescenti hanno cioè iniziato a trascorrere meno tempo insieme ed è dunque diminuita la probabilità che si uccidano tra loro, spiega, ma è aumentata la probabilità che si facciano del male da soli): «Nel 2011, per la prima volta in 24 anni, il tasso di suicidio tra adolescenti era superiore al tasso di omicidio sempre fra persone della stessa età».
Naturalmente, precisa Twenge, queste analisi non dimostrano inequivocabilmente che il tempo passato davanti a uno schermo causi infelicità: è possibile infatti che gli adolescenti infelici spendano più tempo in rete e la studiosa, nel proprio articolo, ribadisce che è difficile comprendere con esattezza cosa venga prima e cosa dopo, cioè tracciare con precisione i nessi di causalità. Gli smartphone potrebbero causare la mancanza di sonno che porta alla depressione, o i cellulari potrebbero causare la depressione che porta alla mancanza di sonno. Ma cita un altro esperimento a cui sono stati sottoposti degli studenti del college con un account Facebook che sembra confermare la prima ipotesi, e cioè la sua tesi: per due settimane agli studenti sono stati inviati dei link cinque volte al giorno e loro dovevano rendere conto dello stato d’animo al momento della ricezione e di quanto avessero usato Facebook a partire da quei link. Più avevano usato Facebook, più segnalavano il loro stato d’animo come infelice. Il contrario però non valeva: il sentimento di infelicità non determinava cioè un maggior uso di Facebook.
Twenge scrive che «la depressione e il suicidio hanno molte cause» e che «troppa tecnologia non è chiaramente l’unica». Introduce però un concetto: poiché nell’età degli schermi è tutto documentato, lo è anche ogni occasione di ritrovo o aggregazione. Di conseguenza è aumentato il numero degli adolescenti che si sentono esclusi da quei momenti. Al sentimento di esclusione si unisce poi un’altra preoccupazione: la ricerca costante e ossessiva dell’approvazione tramite commenti, like e cuoricini vari. L’aspettativa dell’approvazione è diventata quotidiana e puntuale e questo genera ansia e un nuovo peso a cui l’adolescente è costantemente sottoposto. Questo vale soprattutto per le ragazze. I sintomi depressivi dei maschi sono aumentati del 21 per cento dal 2012 al 2015, mentre tra le giovani donne sono aumentati del 50 per cento, più del doppio. Twenge parla di una possibile spiegazione che ha a che fare con le modalità con cui i maschi e le femmine esprimono la loro aggressività o le loro reazioni di dissenso: i ragazzi tendono a scontrarsi fisicamente, mentre le ragazze hanno maggiori probabilità di farlo influenzando lo status sociale o le relazioni della persona con cui sono in contrasto in quel momento. I social media offrono quindi alle ragazze uno strumento perfetto su cui mettere in pratica lo stile di aggressione e di dissenso che favoriscono, potendo denigrare ed escludere altre ragazze 24 ore su 24.
Alla fine del suo articolo Twenge dice di rendersi conto che la limitazione della tecnologia potrebbe essere una richiesta irrealistica da imporre a una generazione di bambini e di ragazzini abituati ad essere sempre online, ma raccomanda anche che il semplice invito a un uso più responsabile e moderato della tecnologia potrebbe essere molto più necessario e importante di quanto non si possa pensare.
L’articolo di Twenge ha ricevuto diverse critiche. Su Psychology Today, mensile di psicologia pubblicato negli Stati Uniti, si dice innanzitutto che la studiosa ha scelto di citare solamente le ricerche che supportano la sua tesi e che ha tralasciato invece le indagini che hanno portato a risultati differenti: e che dicono, per esempio, che stare davanti a uno schermo non sia direttamente associato a depressione e solitudine, o che suggeriscono che l’uso attivo dei social media sia legato a risultati positivi come la resilienza. Ci sono poi studi che mostrano come la tecnologia possa sviluppare l’intelligenza, la produttività e la “coscienza ambientale”, e che mostrano come per un adolescente sia fondamentale connettersi con i suoi simili in tutto il mondo per condividere interessi, facendolo sentire incluso in una rete sociale piena di significato. Gli studi ripresi da Twenge si basano poi su metodi correlazionali che indagano cioè la misura in cui due determinati eventi o variabili sono in relazione tra loro. Questi metodi si occupano dunque dell’associazione tra i fenomeni senza stabilire se uno sia la causa dell’altro: lo precisa la stessa Twenge che però, ed è questa la critica, arriva in alcuni punti del suo pezzo a trarre da queste stesse ricerche delle conseguenze definitive.
Gli studi ripresi da Twenge sono poi troppo generali, dice chi la critica: ignorano in gran parte i contesti sociali e le differenze tra quelle stesse persone che stanno cercando di analizzare. L’uso dello schermo e la sua associazione con il benessere psicologico cambia invece in base a una moltitudine di variabili sia di contesto che personali e di questo non viene dato conto. Infine: il bias, cioè le deviazioni dai valori medi che fanno parte delle ricerche citate da Twenge sono scartate o riportate di passaggio come parte irrilevante della tesi che lei intende sostenere. Eppure si dice nel suo stesso pezzo che questa generazione ha il tasso di abuso di alcol, di gravidanze in giovane età, di sesso non protetto, di fumo e di incidenti automobilistici più basso rispetto a quello delle generazioni precedenti. Secondo Psychology Today questa non sembra esattamente la descrizione di una generazione distrutta.
In altri articoli di commento al pezzo dell’Atlantic si dice che è eccessivamente allarmistico e si citano dei dati (per esempio quelli che hanno a che fare con l’indice di felicità degli adolescenti) che o non mostrano una situazione di urgenza o che sono anzi in contrasto con quelli considerati da Twenge. La studiosa pone delle questioni fondamentali, si dice, ed è vero: ma è proprio per questo che è necessario essere molto attenti a trarre le giuste conclusioni. Inoltre, secondo i critici, Twenge non affronta alcune questioni importanti: non cita per esempio il fatto che la diffusione degli smartphone e dei social network ha riguardato negli anni Duemila sì gli adolescenti ma anche le persone più adulte, compresi i genitori di quegli stessi adolescenti.
Si suggerisce dunque di non “incolpare la tecnologia”, ma di cominciare a considerare un’altra spiegazione possibile per la condizione degli adolescenti di oggi: il disimpegno e la distrazione dei genitori stessi o, come è stata definita in alcuni studi di psicologia, la cosiddetta “genitorialità minima”. Questo offrirebbe una spiegazione alla crisi di indipendenza degli adolescenti di cui scrive Twenge. Promuovere l’indipendenza comporta infatti tempo e fatica da parte dei genitori e il lavoro di incoraggiamento a un comportamento positivo è altrettanto importante di quello che ha a che fare con la punizione di un comportamento negativo. Alcuni esperimenti di psicologia mostrano però che quando i genitori sono distratti è proprio l’incoraggiamento a risentirne, più che il controllo.
Su Slate, Lisa Guernsey – che si occupa di politiche educative e nuove tecnologie per il think tank New America – spiega che la strada suggerita da Twenge (togliere gli smartphone ai propri figli e suggerire loro di tornare nel 1985) sembra impossibile da praticare e che, d’altra parte, nemmeno l’atteggiamento del “lasciar fare” sembra essere promettente. Trovare una terza soluzione sembra fondamentale e può significare, tra le altre cose, ampliare le ricerche per avere una maggiore conoscenza dei dati e dei fenomeni e, soprattutto, «parlare con i nostri ragazzi».”

Pubblicato in: Etica, opinioni, Scienze e tecnologia, Società

Scrolling on the river

Fonte della foto 

Emanuela Zaccone è Digital Entrepreneur, Co-founder e Social Media Strategist di TOK.tv. Ha oltre 7 anni di esperienza come consulente e docente in ambito Social Media Analysis e Strategy per grandi aziende, startup e università. Nel 2011 ha completato un Dottorato di Ricerca tra le università di Bologna e Nottingham con una tesi su Social Media Marketing e SocialTV. Oggi ho letto un suo articolo su Digitalic; l’ho trovato semplice e ricco di spunti, originale nel titolo oliverstoniano Natural born mobile.

Natural born mobile: tutta la nostra esperienza mobile passa dai device mobili, che contribuiscono per il 90% al traffico verso i social media. Controlliamo i nostri smartphone per tutto il giorno, per 220 minuti al giorno ad essere esatti. Ma la responsabilità di come i social influiscono sulle nostre vite è solo nostra.
Il 50% delle persone controlla il proprio smartphone subito dopo essersi svegliata, prima ancora di scendere dal letto e uno su tre utenti controlla il telefono anche durante la notte.
Lo scrolling è diventato una delle azioni più frequenti che compiamo in maniera ormai quasi inconsapevole, mentre proporzionalmente all’aumentare di tanti stimoli diminuisce la nostra capacità di attenzione. Se già nel 2000 riuscivamo a mantenere il focus per appena 12 secondi, nel 2015 siamo scesi a 8, un secondo meno della concentrazione di cui è capace un pesce rosso. Gli psicologi hanno addirittura coniato un termine – ringxiety – per la sensazione, riscontrata in un numero statisticamente significativo di persone, di sentire suonare il proprio smartphone anche quando questo di fatto è spento.
È un riflesso incondizionato, in parte dovuto al Fomo – Fear of Missing Out, cioè il timore di perdersi qualcosa e quindi l’esigenza costante di controllare email, social media e piattaforme su cui siamo presenti.
Torna prepotente un tema chiave della riflessione tecnologica di oggi: questi strumenti ci rendono peggiori o comunque peggiorano la nostra esperienza quotidiana? È una domanda errata: gli strumenti si limitano ad essere tali, è l’uso che ne facciamo a decretarne la loro influenza all’interno delle nostre vite. Tutto il resto è solo alibi, un tentativo di deresponsabilzzarci come utenti, ma anche e soprattutto come persone.
Facebook Live, la piattaforma di streaming che consente a chiunque di mostrare cosa sta succedendo intorno a sé in diretta, è una delle feature più usate ed apprezzate del social network. Eppure ha fatto parlare di sé più volte per motivi non positivi, come il fermo di polizia che lo scorso luglio è sfociato in omicidio ed è stato trasmesso live, prima volta nella storia del social media di Zuckerberg. Ad aprile 2017 Facebook Live è stato usato per minacciare e quindi compiere, mostrandolo, un omicidio a Cleveland. Facebook per contro ha reagito annunciando che aumenterà il numero di persone delegate a monitorare l’integrità dei contenuti. Probabilmente non si sarebbe potuto evitare, ma sarebbe stato possibile fare rimuovere il video in tempi più brevi se solo fosse stato segnalato immediatamente.
Ancora una volta entra dunque in gioco il vero fattore chiave della nostra riflessione: quello umano. Perché non c’è stato un numero di segnalazioni alto – quantomeno proporzionale all’indignazione poi letta sul social network – non appena il video è andato live? Abbiamo un potere elevatissimo nel palmo delle nostre mani: possiamo prenotare vacanze, pagare praticamente qualunque bene e servizio, mostrare in diretta la realtà che ci circonda, guardare film e serie TV, comunicare con il mondo, giocare e molto altro. Ogni nuova azione a cui siamo abilitati implica una maggiore responsabilizzazione: è facile delegare ai social media, ai creatori delle app che usiamo e in generale a chi crea le piattaforme che utilizziamo la totale responsabilità di come queste vengono adoperate, ma è compito di ciascuno di noi creare un ambiente positivo nella consapevolezza che interconnessione significa anche rispetto reciproco. Non solo, ma anche rispetto per se stessi: dominare il volume di eventuale disturbo che riceviamo dai nostri telefoni è compito di ognuno. Semplicemente definire quante e quali notifiche ricevere, quando spegnere gli smartphone, quando e cosa raccontare sui nostri stream social sono decisioni personali che devono essere prese nel rispetto delle abitudini di ciascuno. Un’esperienza tracciabile e che lascia tracce: siamo produttori di dati, una miniera d’oro non solo per chi ci profila in base alle nostre azioni, ma anche per l’influenza che i nostri comportamenti – e la loro osservazione – hanno nel disegno futuro delle piattaforme con cui interagiamo. I nostri schermi sono porte. Verso le nostre abitudini, interessi, scelte, connessioni. Viaggiamo attraverso esperienze quotidiane di (inter)connessione, senza sosta. Perché siamo naturalmente nati per il mobile.”

Pubblicato in: Bibbia e Spiritualità, Etica, Filosofia e teologia, libri e fumetti, opinioni, Pensatoio, Religioni, Scienze e tecnologia, Società

Tra passo indietro e passo avanti: la creatura

William_Blake,_The_Temptation_and_Fall_of_Eve.JPG
La tentazione e la caduta di Eva, William Blake

Ho da poco partecipato ad un corso d’aggiornamento per insegnanti di religione nella mia diocesi dal titolo “Riscoprire l’umano: scienza e cultura in dialogo per comprendere l’uomo di oggi”.
Il primo giorno il neurologo Franco Fabbro ha tenuto una conferenza dal titolo “Le neuroscienze svelano la mente umana”: un viaggio a partire dalla medicina e dalla fisiologia per arrivare a spunti di riflessione filosofici.
Il secondo giorno è stata la volta del prof. Filippo Ceretti su “Umanità mediale. Età digitale e sfide educative”: da un’educazione con, a, ne e attraverso i media, è possibile educare i media?
Infine, ieri, il teologo Riccardo Battocchio ha trattato il tema “La teologia interpreta l’uomo moderno: sfide e prospettive”: fra la spinta di fare un passo indietro e quella di fare un passo avanti, riscoprendo l’origine e la chiamata dell’uomo, fra postumanesimo e transumanesimo, c’è spazio per la creatura?
Mentre mi ronzano per la testa numerose domande, tentativi di risposta e riflessioni, leggo proprio oggi su L’Indiscreto questo articolo di Andrea Daniele Signorelli. Lo pubblico anche come appunto per idee per il prossimo anno scolastico…

“Per la prima volta nella storia si muore più per colpa degli eccessi alimentari che per la mancanza di cibo; la morte ci coglie più spesso in tarda età, per vecchiaia, che in gioventù, per malattie infettive; si cessa di vivere più facilmente per mano propria, con il suicidio, che a causa dei rischi connessi alla presenza di soldati, terroristi e criminali messi insieme”. L’umanità è giunta a un momento di svolta – sostiene Yuval Noah Harari in “Homo Deus, breve storia del futuro” (Bompiani) – a un bivio tra incredibili opportunità e tremendi pericoli.
Ora che siamo riusciti a limitare drasticamente l’impatto dei tre nemici storici dell’umanità (carestia, malattia e guerra), l’homo sapiens può infatti concentrarsi sulle conquiste da portare a compimento nel terzo millennio: la perenne felicità (per via chimica) e l’immortalità (per via medica o tecnologica). Non solo: grazie all’editing genetico, o magari alla fusione con macchine super-intelligenti, l’uomo diventerà sempre più simile un dio, trasformandosi in quell’Homo Deus che dà il titolo al saggio.
“L’ingegnerizzazione degli uomini al rango divino può avvenire seguendo indifferentemente tre strade: le biotecnologie, l’ingegneria biomedica e l’ingegnerizzazione di esseri non organici. L’ingegnerizzazione biologica permessa dalle biotecnologie parte dal presupposto che siamo molto lontani dal dispiegare l’intero potenziale dei corpi organici. Per quattro miliardi di anni la selezione naturale ha aggiustato e ricomposto questi corpi, con il risultato che siamo passati dall’ameba ai rettili, ai mammiferi e agli uomini Sapiens. Tuttavia non c’è motivo per pensare che i Sapiens siano l’ultima stazione. Alcune mutazioni, relativamente piccole, nei geni, negli ormoni e a livello neuronale sono state sufficienti per trasformare Homo erectus – che non era in grado di produrre nulla di più impressionante di coltelli di selce – in Homo Sapiens, che costruisce navette spaziali e computer. Chissà dove ci potrebbe condurre un drappello di cambiamenti nel nostro DNA, nel sistema ormonale o nella struttura cerebrale?
Potrebbe sembrare una prospettiva allettante, se non fosse che solo una piccola élite di miliardari illuminati potrà approfittare delle fantascientifiche opportunità offerte dalla scienza e dalla tecnologia, mentre tutto il resto dell’umanità dovrà accontentarsi di giocare con la realtà virtuale e i social network, limitandosi a fornire i dati necessari all’avanzamento di algoritmi in grado di trasformare la medicina, la politica, l’amore e tutta la nostra società; algoritmi talmente potenti da dare vita a una nuova religione: il datismo.
Se Google sa che cosa vogliamo, Facebook sa invece alla perfezione chi siamo. Una volta ulteriormente perfezionati i meccanismi, l’uomo (nella visione di Harari) arriverà inevitabilmente a cedere tutto il suo potere decisionale, lasciando che siano algoritmi che ci conoscono molto meglio di noi stessi a decidere il da farsi.
“Che senso ha indire elezioni democratiche quando gli algoritmi sanno non solo come ogni persona voterà, ma anche le sottostanti ragioni neurologiche secondo cui una persona vota per i democratici mentre un’altra vota per i repubblicani? Laddove l’umanesimo ordinava: “Ascoltate i vostri sentimenti!” ora il datismo ordina: “Ascoltate gli algoritmi!”.
Fin qui, niente di particolarmente nuovo: una visione del futuro – contemporaneamente utopistica e distopica – che viene analiticamente e gelidamente tratteggiata da Harari con un fare speculativo che, in qualche occasione, ricorda più un TED Talk che un libro di divulgazione scientifica e che, nonostante questo, ha la pretesa di costruire una sorta di “teoria del tutto” dell’umanità, in grado di riunire sotto un unico tetto religione, scienza e politica.
Sono però il percorso e le dinamiche storiche inquadrate dall’accademico israeliano a rendere le sue conclusioni (spesso imposte al lettore come fossero verità assodate nonostante un elevato grado di azzardo) affascinanti e non di rado illuminanti. Un percorso che attraversa millenni di religione, politica e società per mostrare come l’uomo sia sempre stato vittima di illusioni elaborate ai piani alti (sia detto senza scadere nel complottismo) affinché i network sociali – che rappresentano la vera forza che ha consentito all’homo sapiens di conquistare il mondo ed ergersi sulle altre creature terrestri – restassero in piedi e prosperassero (da questo punto di vista, è incisivo il parallelismo tra divinità e brand o tra faraoni e popstar).
Per la maggior parte del tempo, queste illusioni sono state rappresentate dalla religione e dalle divinità. Quando però la scienza, almeno in alcune aree del mondo, ha relegato la religione nelle retrovie, il vuoto lasciato è stato colmato da una nuova forma spirituale: l’umanesimo, in cui lo spirito santo viene sostituito dalla coscienza e la ricerca di una verità esterna all’uomo si trasforma nella centralità dell’uomo, vero deus ex machina di se stesso.
“Qual è, allora, il senso della vita? Il liberalismo sostiene che non dovremmo aspettarci che un’entità esterna di qualche tipo ci fornisca una risposta preconfezionata. Piuttosto, ciascun individuo, elettore, consumatore e spettatore dovrebbe fare uso del suo libero arbitrio per dare un senso non solo alla propria vita ma all’intero universo. Le scienze biologiche, però, destabilizzano le fondamenta del liberalismo, perché sostengono che l’individuo libero è soltanto una favola generata da un insieme di algoritmi biochimici. In ogni istante, i processi biochimici del cervello creano un lampo di esperienza che spariscono un attimo dopo. (…) Il sé narrante cerca di imporre un ordine a questo caos intessendo una storia infinita nella quale ogni esperienza trova il suo posto, e dunque un senso duraturo. Tuttavia, per quanto possa essere convincente e affascinante, questa storia è pura finzione. I crociati medievali erano convinti che Dio e il paradiso riempissero la loro vita di senso; i liberali moderni sono convinti che le libere scelte dell’individuo riempiano la vita di senso. Tutti quanti si illudono alla stessa maniera”.
Come affrontare, allora, la recente scoperta (che Harari considera definitiva nonostante sia ancora ampiamente dibattuta) che non esiste il libero arbitrio? Una scoperta che, una volta diffusasi nella società, avrà come logica conseguenza il crollo delle liberal-democrazie riemerse già una volta, quasi per miracolo, dalle tempeste geopolitiche del ventesimo secolo. A colmare il vuoto, ma non senza rovesci della medaglia, ci penserà il già citato datismo, che costringerà l’uomo ad accettare la sua obsolescenza o ad abbracciare un futuro di “umanità aumentata”, che permetterà alla specie (o almeno ad alcuni suoi rappresentanti) di progredire verso la prossima evoluzione.

Pubblicato in: Bibbia e Spiritualità, Etica, Filosofia e teologia, musica, Religioni, Società

Moby disconnesso

Prima mi sono imbattuto nel video, poi ho trovato questa recentissima intervista di Filippo Brunamonti a Moby, pubblicata ieri su La Repubblica. Vi si parla di musica, globalizzazione, ecologia, spiritualità, linguaggio…
LOS ANGELES – Il cancello muschiato, le radici degli alberi color vino bianco, un sole vittorioso a forma di freccia. L’appuntamento con Moby, vero nome: Richard Melville Hall, 51 anni lo scorso 11 settembre, è all’una del pomeriggio nella sua casa al confine di Hollywood, sulle colline di Los Feliz. L’acqua della piscina è percorsa da luci stroboscopiche, come quelle a cui ci ha abituato il cantante e DJ di Harlem negli anni Novanta. Venti milioni di dischi in tutto il mondo, un talismano di breakbeat, suoni dance e techno, dai successi di Play e 18 passando per le fabbriche di Michael Jackson, David Bowie e Brian Eno. Per loro ha prodotto, co-scritto e remixato brani inediti e allucinazioni di rottura. Nel memoir Porcelain, pubblicato da Mondadori nella collana Strade blu, ha svelato il suo passato nei club, attaccato alla tavoletta di porcellana dei cessi di New York; l’abuso di alcol e droga, “gli spacciatori di crack che si prendevano regolarmente a pistolettate” in un gospel urbano fatto di Public Enemy, EPMD e Rob Base and DJ E-Z Rock.
Sono cresciuto a Stratford, Connecticut” racconta Moby in terrazza, polo nera, occhiali rotondi. “Vedevo il mio futuro dal vetro di una lavanderia a gettoni, in blue jeans e con una giacca presa a cinque dollari dall’Esercito della Salvezza. Mia madre piegava i miei vestiti su un banco di linoleum screpolato, per arrotondare lavava anche quelli dei vicini”. Dalla vita, dice, ha avuto tutto: “Quando ti puoi permettere una villa con sei stanze da letto, subito dopo ne desideri una che ne abbia dodici. L’ego, l’edonismo, il successo e i soldi sono un veleno che non mi tocca più”. Da qui la conversione al cristianesimo (lui preferisce “taoista-cristiano-agnostico-meccanico quantistico”), la battaglie per i diritti degli animali, la beneficenza e la dieta vegana.
È appena uscito il nuovo disco, These Systems Are Failing, sotto il nome di Moby & The Void Pacific Choir. Lo hanno definito un ritorno politico e furioso. Concorda?
moby_vpc_tsaf_front_03-copy“Credo che l’album sollevi una questione su tutte: perché un cinquantunenne che non va in tour si ostina a sfornare dischi? Al giorno d’oggi le band fanno musica per diventare ricchi e andare in giro per il mondo. Io suono semplicemente perché amo la musica e, attraverso la mia arte, parlo di problematiche che mi stanno a cuore. So già che non farò un soldo buttando fuori un album nel 2016, perché nessuno compra musica se non vai in concerto. Ci sono ragioni personali che mi hanno portato a comporre These Systems Are Failing, altrimenti me ne sarei stato sul divano a guardare Il Trono di Spade. Se penso che questo sia un album politico? Tutto quello che gli sto cucendo attorno – il manifesto, il suono post-punk e new wave, il video cartoon di Are You Lost In The World Like Me realizzato da Steve Cutts e ispirato alle illustrazioni di Max Fleischer, l’animatore di Betty Boop, Popeye e Superman – tutto questo, direi, è iperpolitico. La musica è un’altra cosa: non sono bravo a scrivere testi civili, sono più intrigato dall’antropologia, dall’evoluzionismo e dal comportamento umano. Mi interessano le scelte della gente, in particolar modo le scelte sbagliate. La politica è importante da un punto di vista pratico ma la cognizione umana ha delle regole proprie, ingovernabili. E’ la nostra cognizione a dettare la linea e non la politica”.
Credo che per la maggior parte di noi, la risposta alla domanda del singolo Are You Lost In The World Like Me, sia “sì”.
“A me capita spesso di sentirmi perso proprio mentre sono ultraconnesso con questo mondo. Più mi connetto, più mi disoriento. Qui dove ci troviamo, a Los Feliz, guardo gli alberi, ascolto gli uccelli, faccio trekking, mi tuffo in piscina, esco con i miei amici vegani… Sono protetto. Poi mi sintonizzo su un rally di Donald Trump, vado a fare la spesa in uno shopping mall di Los Angeles, e all’improvviso mi sento disconnesso dall’umanità, dalla mia cultura, dal mio paese”.
Quali sono le sue isole felici negli Stati Uniti?
“In genere sono le città universitarie e i parchi nazionali. Abbiamo 58 Parchi Nazionali, tutti amministrati dal National Park Service. Aree protette. Dalle acque cristalline nello Yosemite park all’Antelope Canyon, dal Virgin River al fiume Tuolumne. A Los Angeles esistono due milioni di acri di bellezze mozzafiato. Angeles National Forest è un esempio straordinario: nel pieno della città sorge una foresta con alberi, orsi e leoni. Entrare in contatto con un ambiente che non ha nulla a che vedere con le persone, mi fortifica. Ovunque tu vada – Milano, Sydney, Londra, New York – ogni parte della città è costruita a misura d’uomo. Dal momento in cui ti svegli all’ora di andare a dormire, vedi soltanto dei “dischi umani” accartocciati su strade, rotaie, semafori, marciapiedi. L.A. integra l’elemento naturale a quello umano. Hai mai provato a perderti in montagna o nel deserto? Ogni preoccupazione sulle relazioni affettive, quanti Like hai guadagnato su Facebook… Tutto questo viene spazzato via”.
È ottimista o pessimista sui social media?
“Tutti e due. Se solo usassimo Facebook, Twitter, Instagram per fronteggiare questioni più serie e urgenti, sarei più positivo. Se qualcuno finalmente riconoscesse i rischi del cambiamento climatico, del riscaldamento globale e dei livelli record di anidride carbonica, tirerei un sospiro di sollievo. Ora che, a New York, i 193 Stati membri delle Nazioni Unite firmeranno un documento congiunto sulle linee guida per la lotta alla resistenza antimicrobica, penso di essere meno solo. Credo che i super batteri che non rispondono più alle cure con antibiotici siano davvero la più grande minaccia alla medicina moderna. Ma questo genere di informazione circola sui social? E’ presa sul serio? Come musicista, persino come “strambo personaggio pubblico”, non posso più essere egoista. Non è giusto chiedere soldi alla gente perché devo comprarmi una macchina nuova. La mia missione, qualsiasi talento io abbia, è risvegliare coscienze e mettere in stato di allerta chi mi segue”.
E un risveglio c’è stato?
“C’è e non c’è. Non posso generalizzare, non conosco personalmente i 7,450 miliardi di persone su questa Terra, immagino siano impegnati a fare altro… Amo questa frase di Martin Luther King Jr.: “The arc of the moral universe is long, but it bends towards justice”, “L’arco dell’universo morale è lungo, ma tende verso la giustizia” (secondo il Washington Post a pronunciarla non è stato il premio Nobel ma Theodore Parker, ndr.). Oltre alla giustizia, credo che tenda verso un cambiamento della ragione. Nel corso della storia umana, ho visto e vedo parecchi progressi: diritti per gay, neri, donne, animali… Lentamente diventiamo tutti più acuti. Ci sono sempre meno persone attorno a me con una sigaretta in bocca, per dire; meno genitori che picchiano i loro bambini, e così via. Siamo svegli ma i nostri cervelli si sono evoluti in un ambiente del tutto differente da quello in cui si trovano adesso. Occorre tempo”.

mobyMa da dove arriva il nostro cervello?
“Chi viene prima di noi ha sperimentato il freddo, la fame, la paura. I nostri antenati, milioni e milioni di anni fa, erano dei baby-scoiattoli. Il loro unico modo di sopravvivere era usare la ferocia e l’aggressività per superare la paura. Abbiamo ereditato questi geni ed è per questo che, costantemente, ci sembra che il mondo vada a rotoli. La sola differenza è che oggi controlliamo il mondo, lo teniamo in pugno, pur avendo nel DNA gli istinti dei magnifici avi. Il nostro cervello non è ancora tagliato per questo mondo. Siamo davanti ad una incomprensione naturale”.
Mi dica qualcosa di incomprensibile nel mondo.
“L’obesità è una delle disfunzioni più visibili: gli americani, e non solo, mangiano come se stessero morendo di fame. Mi domando: come riusciremo a portare la nostra specie al livello di evoluzione tecnologica moderna? L’architettura del nostro cervello è un grande mistero: abbiamo la corteccia cerebrale, uno strato laminare continuo, in comune con parecchie creature; poi il sistema limbico, una porzione del diencefalo che possiedono i mammiferi, le scimmie, i cavalli, gli orsi e noi umani. Quello che ci distingue dalle altre specie è la corteccia frontale, anche se non sappiamo farne buon uso. Per esempio, se un tizio mi attraverso la strada mentre sono imbottigliato nel traffico, lo vorrei uccidere. Punto. Non credo sia una reazione razionale, è l’istinto che guida. Se metti alcune persone davanti a McDonald’s vogliono abbuffarsi come se non esistesse un domani. Anche qui: non è una risposta razionale, è un disordine. Idem per i tossici: riempili di crystal meth e non ne potranno più fare a meno”.
Nella sua autobiografia parla del momento di perdizione a New York, dal Palladium al Limelight, l’epoca underground della comunità afro e latina, lo sfogo dell’AIDS. Che fine ha fatto quel Moby animalesco?
“E’ diventato vegano e astemio, per cominciare. C’era un tempo in cui mi dicevo: “Se ora strappo un accordo a quell’etichetta musicale, se ho la ragazza, se ho abbastanza alcol, droga, fama, tour… sarò felice”. Invece non ero mai felice. Volevo di più, di più, di più. Lo noto ogni giorno a Hollywood. Molti artisti vivono male, si sentono miserabili pur avendo tutto quello che desiderano. Io ero uno di loro, pur avendo conosciuto la povertà da ragazzo. Quando ho studiato la filosofia del monkey mind e mi sono avvicinato al Buddismo, ho capito che quello che desideravo finivo poi per prenderlo a cazzotti, e rigettarlo”.
È in contatto con qualche sciamano?
“Ora sono sobrio e non pratico l’Ayahuasca; mai provata, anzi. Ma conoscono molte persone che lo fanno e le rispetto”.
Sobrio da quanto?
“Otto anni. Comunque non reputo l’Ayahuasca una droga potente come la cocaina. Il mondo degli sciamani, invece, mi rappresenta molto. Sono un appassionato di spiritualità e religioni del mondo, da sempre; le ho studiate all’università assieme alla filosofia. Se dovessi elencare gli insegnanti della mia vita, a questo punto, direi la natura e lo spirito”.
Crede in Dio?
“Per diverso tempo credevo che il modo migliore per conoscere Dio fosse quello di leggere libri che parlassero di Dio. Ho letto Bibbia, Corano, Tripitaka, Dhammapada, Dao de jin, Guru Granth Sahib… Cercavo di trovare Dio attraverso narrazioni di altri testimoni. Poi un giorno mi son detto: “Perché al posto di cercare Dio nei testi sacri non guardi che cosa Dio fa mentre il suo popolo non presta attenzione?”. Per “Dio” intendo una forza di vita. Allora mi sono accorto che attorno a me ci sono arbusti, papaveri, api. Gli sciamani li sento alleati nella mia ricerca, diffido però da qualunque guru spirituale affamato di denaro e da chi chieda in cambio la mia adesione a un culto. Mi spaventa. La risposta divina non la puoi intascare con una banconota da cento. Non credo che Dio lavori come commercialista per una squadra di football”.
Lei ha dichiarato che c’è qualcosa di molto familiare e confortevole nel fallimento e nell’oscurità. Che cosa intendeva?
“Attenzione, il fallimento può diventare un autosgambetto. Nessuno vuole fallire, dico bene? Al tempo stesso, se guardiamo alle nostre esistenze, il fallimento è il nostro più grande maestro. Il successo ci rende solo arroganti e compiacenti. Sto cercando di scrivere un romanzo sulle cadute storiche del genere umano, sui fallimenti che ci trasciniamo o dai quali impariamo una lezione”.
Chi è il fallito a cui guarda con maggior rispetto?
“Indubbiamente Bill Clinton. Da giovane la sua corsa a governatore dell’Arkansas riuscì a vincerla. Nella rielezione perse di venti punti. Che brutta botta! A soli trent’anni, disoccupato, sognatore, qualcosa lo aveva spinto a diventare un politico migliore. George W. Bush, invece, è diventato presidente degli Stati Uniti grazie ai 537 voti in più rispetto ad Al Gore, ottenuti in Florida nelle elezioni del 2000, eppure Al Gore ha fatto di quel fallimento un vantaggio: è stato insignito del Premio Nobel per la pace nel 2007 e il suo documentario, Una scomoda verità, ha ricevuto l’Oscar. Solo perché ha fallito, oggi è un asso nell’industria dei computer, membro del Consiglio di Amministrazione di Apple e consulente presso Google. Un paradosso? Non possiamo evitare il fallimento. Sarebbe un errore. Fallire è bellissimo: ci accadono cose terribili ma restiamo “ok”, in piedi, più coraggiosi. Il solo concerto che farò per promuovere These Systems Are Failing sarà al Circle V, il festival di musica e cibo vegano, al Fonda Theater; la mia ex, ora miglior amica, continua a chiedermi se sono nervoso. Io le dico: “No, al peggio suonerò da schifo”. Chi se ne frega. La possibilità di fallire non è la fine del mondo, dovremmo vederla come un comfort”.
Torniamo all’album. Questi sistemi stanno fallendo: perché questo titolo?
“Se sei un attivista, se ti interessa il benessere di questo pianeta, devi tramutarti in un lottatore di arti marziali o in uno stratega militare. Quando ti butti nel mondo devi capire quale sia l’arma migliore per combattere. Anni fa ho pubblicato un libro, Gristle, una guida al modo più efficace di consumare cibo. Aveva un look piuttosto accademico ma parlava delle conseguenze dell’agricoltura animale ed io ci tenevo”.
Best-seller?
“Fiasco totale”.
Quanto ha venduto?
“Circa 5.000 copie, la maggior parte finita negli armadietti delle scuole. Insomma, è evidente che quella non è la maniera vincente di far passare un messaggio. L’adorabile cartoon del video di Are You Lost In The World Like Me ha totalizzato 5 milioni di visualizzazioni nelle prime 24 ore. Voglio creare buona arte ed essere responsabile, per questo ho fatto un cyber-stalking a Steve Cutts chiedendogli per email di girare un video per me. Ogni fotogramma di Are You Lost In The World Like Me è fenomenale. Adoro quei personaggi semplici ma iperesagerati, come delle Betty Boop alienate dalla tecnologia”.
E Betty Boop è una filosofa?
“Ogni forma di animazione anni Trenta, prodotta dai Fleischer Studios, è filosofica. Betty Boop è per di più una flapper, una ragazza emancipata della Jazz Age”.
Era solito inserire dei brevi saggi all’interno dei suoi dischi. Sarà così anche per questo?
“No, oggi non sarebbe un modo intelligente di fare attivismo, infilare un saggio nel cd. Chi compra più un cd fisico? Chi compra saggi? Preferisco un manifesto e un cartone animato”.
Che ricordo ha di David Bowie?
“Diventare amico del mio più grande eroe di tutti i tempi è stato un regalo del cielo. Tutti amano Bowie, la sua musica, lo stile. Finire per fare barbecue insieme a lui e girare il mondo in tour al suo fianco… Indescrivibile. Ricordo la sua tristezza interiore miscelata ad un entusiasmo extraterrestre”.
E Michael Jackson?
“Non posso dire di averlo conosciuto bene. Ci siamo incontrati una volta sola e non era presente a se stesso. Mi sembrava di essere al cospetto di una conchiglia, di un guscio. Farfugliava, mormorava, non era più “umano”. Uscii dal nostro incontro sconcertato”.
Che cosa significa “umano”? La musica è ancora umana per lei?
“Ho letto qualche libro del neurologo Oliver Sacks e in particolare Musicophilia che parla dell’effetto della musica nel nostro cervello. Ho visitato anche l’istituto di Sacks a New York, l’Institute for Music and Neurologic Function. La musica guarisce le emozioni, cura il nostro corpo. Credo sempre di più nella musicoterapia. Certo, se sei nato in Indonesia e ti faccio ascoltare Bach, non mi aspetto reazioni. Ma se metto il Gamelan tutto cambia. Musica è istinto. Musica è ritorno all’infanzia”.
Lei è cresciuto con quale riferimento?
“Da Neil Young ai Sex Pistols fino a WC. E ancora: Donna Summer, i New Order, George Gershwin…”
Quanto è grande il suo ego?
“Taglia media. C’è ancora, da qualche parte nel mio corpicino, ma lo tengo a bada. Come canto in Almost Loved, i milioni che ho fatto con il mio ultimo disco non mi fanno sentire diverso, non rendono la mia pelle migliore, non cambiano la luce del sole, non rendono il frullato mattutino di un sapore diverso o le mie amicizie più sane. E’ la libertà che riempie la vita”.
Firma il suo nuovo progetto come Moby & The Void Pacific Choir. Da dove arriva quel Void Pacific Choir?
“Da una frase del poeta e drammaturgo inglese D. H. Lawrence: “People in LA are content to do nothing and stare at the void pacific”, “La gente a Los Angeles è contenta di non fare nulla e guardare il vuoto del Pacifico”. E’ un concetto che ha a che fare con il nostro design biologico. Siamo programmati per trovare comfort in presenza di altre persone. Quando la gente si isola, si ammala. Per me funziona l’opposto (ride). Io mi sento vivo solo quando sto per conto mio, quando medito, compongo, faccio trekking. Non mi isolo a priori. Se qualcuno o qualcosa non mi convince, osservo la mia reazione, da fuori. Cerco di capire da dove arriva la reazione; proviene quasi sempre da traumi passati. Spesso non ha nulla a che vedere con quel preciso momento”.
Come è cambiato il linguaggio nella sua vita ordinaria?
“La funzione del linguaggio appartiene alla musica. E come dice Ludwig Wittgenstein nel Tractatus logico-philosophicus il linguaggio può essere “non specifico”. Non è matematico. C’è una forte correlazione tra il linguaggio e la realtà: parla al nostro cervello. “Il linguaggio traveste il pensiero”. Il linguaggio, per me, è pratico quanto lo è assemblare un tavolo con tutti i pezzi o come guardare le distanze da un posto all’altro su Google Maps. Il linguaggio è divertente e completamente inesatto. Noi crediamo che sia accurato, non lo è. L’albero di casa mia, ad esempio, non è un albero. E’ un insieme di trilione di anni di energia, materia e vita. Ho paura che il linguaggio ci renda stupidi”.
Per questo ha scelto la musica?
“Non ho scelto di fare il musicista per vivere in eterno, lo metto subito in chiaro. Non ho idea di cosa ci sia dopo di me. Non rincorro l’immortalità e rido quando mi dicono che generare figli è un modo per non morire, per continuare a scorrere da qualche parte. Durante un mio viaggio in Europa, a un certo punto qualcuno indica Notre-Dame e dice: “Guarda! E’ immortale”. E io: “No, quella cattedrale è stata completata nel 1345, è vecchia di qualche centinaia di anni ma non è preistorica come quella roccia accanto a Notre-Dame. Quella roccia avrà sì e no 7 milioni di anni e nemmeno lei è immortale”. Quando vado nello Utah, e osservo l’acqua dalla cima della montagna, ho un forte senso di vastità di fronte a me, eppure neanche quello mi dà l’idea di toccare la Genesi. Se a dieci anni dalla mia morte qualcuno non ascolterà più le mie canzoni, pace. Le canzoni sono “carine”; se durano, durano. Tengo, piuttosto, all’eredità del mio messaggio: la conversazione che abbiamo appena avuto, qualche parola, qua e là, forse avrà toccato il cuore dei lettori e portato qualcuno ad un livello superiore di coscienza”.
E se non ci fossimo riusciti?
“Ne sono comunque grato”.”

Pubblicato in: Etica, Filosofia e teologia, libri e fumetti, opinioni, Pensatoio, Scienze e tecnologia, Società

Dopo il fine vita il fine morte?

mortemessico5.jpg
Nicolàs de Jesùs

Articolo molto stimolante di Enrico Pitzianti (cagliaritano, laureato in semiotica, ha fondato il progetto artistico online GuardieShow ed è consulente per SpaceDoctorsLtd) pubblicato il 3 ottobre su L’Indiscreto. Magari con le classi quarte…
La ricerca scientifica, per via della velocità con cui progredisce, sta drasticamente mettendo fuori gioco il discorso etico-politico rendendolo costantemente inattuale, superato ancor prima che questo possa bodei-limitearticolarsi per far fronte all’esponenziale progressione della tecnica. Questa sembra essere l’idea di fondo che si scorge leggendo l’ultimo saggio di Remo Bodei: Limite, (Il Mulino, 2016) in cui salta agli occhi il tentativo di mettere in luce un edificio teorico che possa scardinare l’idea di ineluttabilità della morte e del destino.
La premessa è forte: i limiti, quelli fisici e tecnici, sono somparsi (o stanno scomparendo) in massa e questi, generalmente intesi, esistono in quanto barriere poste a impedirci la possibilità di infinito. Ci si riferisce all’infinito dell’immaginazione e non a quello dello spazio.
Il limite dell’intelligenza umana sarà superato dall’IA, la stessa creatività – caratteristica considerata tipicamente umana – è oggi riprodotta da algoritmi che ci obbligano a fare i conti con la distopia del nostro tempo. Gli stessi limiti biologici sono messi in gioco quando è ragionevole sostenere che l’uomo più veloce del mondo sarà in futuro più simile a Oscar Pistorius che a Usain Bolt – oggi detentore del record. Così, con un effetto a valanga, vengono a cadere anche i limiti che separano l’uomo dalla macchina, il naturale dall’artificiale e tutta una serie di separazioni che ci ostiniamo a considerare come pertinenti e non, più realisticamente, come mere semplificazioni di un mondo complesso.
Ciò che rimane tra le rovine di queste barriere sembra essere un certo presunto dovere di autoregolare lo strapotere datoci dalla tecnica. Gestirlo da saggi, limitarci, pena la catastrofe. Ne sapremo (sarebbe meglio usare il tempo presente) fare buon uso? Il giudizio si sospende anche se oggi, a prendere come esempio il riscaldamento globale, trarremo una conclusione poco ottimista.
Le biotecnologie, in particolare in campo genetico, stanno abbattendo il primo – forse l’unico – vero dogma rimasto in buona salute nell’era moderna: la morte. L’invecchiamento secondo studi recenti non è innato, ma programmato geneticamente – e quindi riprogrammabile. Con lo studio dei telomeri (le estremità del cromosoma di un organismo eucariote) si è scoperto che la loro estensione diminuisce a ogni riproduzione della cellula. La morte definitiva delle cellule, e quindi la nostra, dipende da questa sorta di timer che l’evoluzione ha costruito per arrivare alla morte programmata. Ed ecco che si scopre un enzima, detto telomerasi, capace di rallentare la progressiva riduzione dei telomeri e questo, insieme alla possibilità di utilizzo delle cellule staminali, apre le porte alla prospettiva di un allungamento della vita umana molto consistente; tanto che secondo Aubrey Grey, dell’Università di Cambridge, nei prossimi decenni si potrebbe riuscire a vivere duecento e più anni.
Se la ricerca scientifica prospetta la possibile “fine della morte” il trend dell’abbattimento dei limiti per sopravvenuta inidoneità a una soddisfacente rappresentazione di ciò che ci circonda sembra essere molto più generale. Ai progressi della tecnica corrisponde infatti un progressivo confutare convinzioni e saperi radicati e dati per scontati, un abolire idee, tradizioni e usi oramai fondati su “idee di destino” irragionevoli alla luce del sapere odierno. Non c’è più l’inscrutabile volontà divina, non c’è più sapere dei saggi che possa stupirci e manca finanche la possibilità stessa di certezze etiche – inscrivibili quasi tutte, oggi, alla categoria dell’ideologia.
Bodei sottolinea come nessuno fin’ora aveva mai dubitato del fatto che gli esseri umani potessero venire al mondo in un modo diverso dal rapporto sessuale, modalità che include rischi di infermità e deformazioni congenite. Merita un’attenzione particolare il fatto che Bodei riassuma le ultime due decadi di storia nel termine “ora”. lo, ad esempio, non ho la stessa percezione di immediatezza di tali cambiamenti dato che avevo solo sette anni quando Dolly – la pecora oggi imbalsamata in qualche museo scozzese – fu clonata. Bodei, che invece di anni all’epoca ne aveva qualcuno di più, vede da una prospettiva privilegiata l’aumento esponenziale della velocità con cui la morte ha cominciato a vedere scalfito il suo potere e il suo fascino, una parabola lunga milioni di anni che in meno di una ventina si è trasformata in quella che oramai sembrerebbe essere un’uscita di scena annunciata – per alcuni già vicina all’improrogabilità.
L’elidersi dei limiti ontologici tra specie diverse di esseri viventi (incroci e selezioni genetiche) vede il parallelo affievolirsi di altri limiti: quelli tra esseri viventi ed esser non viventi – Bodei cita le gambe di Oscar Pistorius e il pacemaker ma è ovvio che la mescolanza sia oramai capillare e abbia radici lontanissime visto che a ricercarne la genesi bisogna arrivare alla capacità umana di maneggiare oggetti passando quindi per ossidiane sbeccate, papiri e occhiali da vista.
Ciò che sfugge a Bodei è che il limite tra vivente e non vivente è in crisi a prescindere dall’odierno predominio della tecnica. Se il vivente e il non vivente stanno diventando indistinguibili non è per via del robot capace di calciare un pallone o scrivere un articolo di giornale.
Su the Scientific American Ferris Jabr descrive bene il perché “la vita non esiste”. Dato che una definizione concisa di “vita” è decisamente troppo complessa da dare, si ricorre solitamente a un elenco di caratteristiche che sarebbero le proprietà fisico-chimiche che differenziano l’essere vivente dal non vivente. L’elenco prevede: l’ordine (molti organismi sono costituiti da una singola cellula con diversi scomparti e organelli); la crescita e lo sviluppo (il cambiare dimensione e forma in modo prevedibile); l’omeostasi (cioè il mantenere un ambiente interno diverso da quello esterno); il metabolismo (lo spendere energia per crescere), la reazione a stimoli; la riproduzione (clonazione o accoppiamento per la produzione di nuovi organismi e trasferimento di informazioni genetiche da una generazione alla successiva), e l’evoluzione (la composizione genetica di una popolazione cambia nel tempo).
Peccato che l’elenco sia inconsistente, scrive Jabr: “Nessuno è mai riuscito a compilare una lista di proprietà fisiche che comprenda tutte le cose viventi ed escluda tutto ciò che etichettiamo inanimato. Quasi nessuno considera vivi i cristalli, per esempio, eppure sono altamente organizzati e crescono. Anche il fuoco consuma energia e diventa più grande, ma non è vivo. Al contrario, i batteri, i tardigradi e anche alcuni crostacei possono passare lunghi periodi di inattività durante i quali non crescono, non metabolizzano, non si modificano in alcun modo, ma non sono tecnicamente morti”.
E ancora: qualsiasi parte di organismo vivente se recisa fa crollare ulteriormente le possibilità di classificazione netta. Una coda di lucertola (Jabr fa l’esempio di una foglia) è da considerare vivente se staccata dal resto dell’animale? Le cellule che la compongono si comportano come si comportavano prima del distacco – non cessano immediatamente le loro attività. Quindi la coda muore al momento del distacco (che ne determinerà il deperimento) o invece quando ogni singola cellula che la compone sarà morta? E se rianimassimo la coda in laboratorio (come il celebre esperimento di Luigi Galvani sulle rane) potremmo considerarla viva dopo la morte?
Insomma, Bodei dice il vero quando parla di limiti valicati e ormai costituiti da termini e definizioni colabrodo, ma la sensazione è che l’aspetto caotico dell’intreccio che comprende l’esistente sia ancora più profondo di come viene descritto nel saggio – e il motivo è in quanto già descritto con le parole dello scrittore statunitense.
Alla possibile fine della morte per proclamata possibilità del suo superamento tecnico (e al suo corrispettivo culturale di “fine della morte in quanto cessazione del suo fascino”) si affianca la sconfitta della morte per assenza di differenze con ciò che dovrebbe contrapporvisi, la vita. Una coppia – quella dell’antropotecnica insieme all’impossibilità di formulare una definizione soddisfacente di vita – che rende conto di un panorama se possibile più distopico di quello che si intravede nelle parole di Bodei.
Rimane la sfida etica, quella di essere consci di questo strapotere e decidere consapevolmente di non abusarne, dei supereroi con tanto di kit di ricambio organi”.

Pubblicato in: Etica, opinioni, Scienze e tecnologia, Senza categoria, Società

De obsolescentia (il post non è in latino!)

obsolescenza_peanuts

Un articolo di un mesetto fa pubblicato su Wired, a firma di Stefano Dalla Casa, sull’obsolescenza programmata.
Nonni e genitori hanno cercato di convincerci dell’esistenza di un passato mitologico in cui le cose che usiamo ogni giorno erano costruite, per esempio, in un materiale fantascientifico chiamato metallo e dove era possibile riparare gli oggetti invece di comprarne di nuovi. Noi siamo scettici di fronte a questi racconti, pensiamo che si tratti del fisiologico gap generazionale, eppure vecchi televisori in bianco e nero, perfettamente funzionanti, sono ancora in qualche cantina dopo decenni di onorato servizio, e in qualche casa i frigoriferi comprati negli anni ’70 fanno ancora il loro dovere. Possibile che esista un fondo di verità in queste leggende?
Scherzi a parte, esiste effettivamente un motivo per cui non riusciamo a tenerci uno smartphone per più di quattro anni: molti prodotti sono ideati per una vita minima inferiore a quella tecnicamente possibile. Uno dei primi esempi documentati dell’obsolescenza programmata è quello del cartello Phoebus, ma la realtà è più sfumata e complessa di quella solitamente dipinta dalle teorie del complotto.
Alla fine dell’ ‘800 la lampadina a filamento era ormai matura per la commercializzazione in massa e agli inizi del ‘900 la competizione per offrire ai consumatori la migliore lampadina era agguerrita. Come spesso accade, le maggiori aziende cominciarono ad accordarsi in modo da trarre reciproco beneficio dal mercato. Questa cooperazione portò in breve, per esempio, all’adozione dell’attacco Edison come standard, quello che ancora oggi utilizziamo con le moderne lampadine a led. Nel 1924 quasi 30 aziende da tutto il mondo firmarono a Ginevra la Convenzione per lo sviluppo e il progresso dell’industria internazionale delle lampade elettriche a incandescenza, formando il più esteso e influente cartello industriale del settore. Per controllare che i membri rispettassero le regole fu istituita la compagnia Phoebus, da cui oggi deriva il nome colloquiale del cartello: Osram, Philips, General Electrics e tutti gli altri membri avrebbero condiviso i brevetti e il know-how, avrebbero stabilito quote di vendita, le aree commerciali, i prezzi e si sarebbero accordati sugli standard da adottare. Uno di questi era la durata massima delle lampadine: le aziende si impegnavano a produrre, vendere e pubblicizzare lampadine che non superassero le 1000 ore di durata, pena una sanzione da parte del cartello.
Per quale motivo si decise di limitare artificialmente la durata del prodotto quando nel secolo precedente esistevano lampadine che duravano anche 2500 ore? Come spiegava nel 1949 l’economista Arthur A. Bright Jr. nel saggio The Electric Lamp Industry, c’è senza dubbio una ragione tecnico-economica che giustifica la decisione del cartello: una maggiore durata è possibile, ma questo va a spese dell’efficienza a causa del consumo del filamento. In altre parole il consumatore si ritroverebbe con una lampadina funzionante, ma sempre meno luminosa e che consuma (e costa) sempre di più rispetto alla luce che produce. Per gli usi più comuni dell’epoca una lampadina che durava fino a 1000 ore rimanendo sufficientemente luminosa poteva essere quindi un buon compromesso. D’altra parte non si può negare che la minore durata del prodotto obbliga il consumatore ad acquistarlo più spesso, e alle industrie che aderivano all’accordo questo certo non poteva dispiacere. Inoltre di fatto si toglieva al consumatore il beneficio di differenziare l’acquisto in base alla destinazione d’uso. Bright ricorda anche che la General Electrics, tra i promotori del cartello, nel 1936 aveva messo in vendita lampadine natalizie da 500 ore, ma quando scoprirono che i consumatori preferivano addobbare l’albero con piccole luci notturne, a bassa luminosità e della durata di 2000 ore, fece in modo che i venditori dissuadessero il clienti da acquistarle. Questa azienda inoltre nel 1933 introdusse lampadine da torcia elettrica che duravano più o meno quanto una batteria, mentre in precedenza resistevano fino a due ricambi. Anche in questo caso, è vero che le nuove lampadine erano più luminose, ma a differenza di quanto poteva valere per le lampade standard, il vantaggio per il consumatore era nullo. In conclusione, il cartello Phoebus generalmente è considerato il primo caso documentato di obsolescenza programmata, tuttavia non è possibile dire che la durata massima delle lampadine imposta dai produttori sia stata dettata esclusivamente dalla necessità di aumentare le vendite.

Il documentario del 2010 The Light Bulb Conspiracy (qui sopra) parla del cartello citando una lampadina a incandescenza del 1901 che oggi funziona ancora, suggerendo che allora ci fossero senza dubbio le capacità per creare una lampadina ad alta efficienza e a lunga durata, ma si tratta di una conclusione semplicistica e fuorviante: il compromesso tra durata ed efficienza è una reale limitazione delle lampadine a incandescenza, ma al tempo stesso non è giustificabile che le aziende lo usassero come scusa nei casi in cui la minor durata delle lampade non aveva vantaggi per il consumatore (come nelle luci di Natale e nelle torce).
L’obsolescenza programmata è considerata alla base della società di consumo, ma bisogna resistere alla tentazione di immaginare che tutto ruoti intorno ad avide industrie riunite in cospirazioni planetarie per costringerci a comprare più di quanto dovremmo.
Certo, i chip che bloccano le cartucce dopo un certo numero di stampe o di tempo (anche se contengono ancora inchiostro utilizzabile) sembrano una vera carognata, ma più in generale fabbricare prodotti che abbiano un prezzo abbordabile e una vita utile non eccessivamente prolungata è quello che permette di mantenere alti i consumi e la produzione o, per dirla come una pubblicità governativa di tanti anni fa: far girare l’economia. Non è certo un caso che l’agente immobiliare Bernard London, il primo a usare l’espressione obsolescenza programmata, la volesse usare per portare l’America fuori dalla depressione. Oggi per molti beni di consumo semplicemente non ha senso puntare a un design o a materiali particolarmente durevoli perché saranno comunque sostituiti da nuovi modelli. Insomma, il problema non è solo lo smartphone con la batteria non sostituibile, ma il fatto che non sempre per noi la durata di un oggetto è un valore. Se avessimo a disposizione spazi e risorse illimitate, questo modello potrebbe continuare all’infinito senza troppi problemi, ma non è così e i nodi stanno venendo al pettine. Produrre, per esempio, i nostri gadget elettronici ha un enorme costo ambientale e sociale, e dopo pochi mesi diventano un rifiuto che deve essere riciclato e smaltito solo in strutture specializzate. Gran parte di questi rifiuti elettronici viene però inviata, usando canali più o meno legali, nei paesi in via di sviluppo, senza nessuna garanzia che vengano trattati nelle maniera corretta (e in sicurezza).
Un’alternativa sostenibile, sia dal punto di vista ambientale che economico, potrebbe essere l’ecodesign, un approccio alla progettazione che tiene conto dell’intero ciclo vitale del prodotto, compresi il suo riciclo e smaltimento. A livello europeo l’ambizione è quella di inserire questi principi nei piani industriali della comunità europea tramite l’applicazione della direttiva Ecodesign.”

Pubblicato in: Filosofia e teologia, Letteratura, libri e fumetti, opinioni, Pensatoio, Religioni, Scienze e tecnologia, Società

Tentativi di Silicon Abbey

Pubblico un articolo di Tommaso Guariento che ho scovato su L’indiscreto. E’ per interessati di tecnologia e teologia, filosofia e sociologia, antropologia e letteratura. Il tutto a partire dall’ultimo libro di Don DeLillo.
Un percorso tra DeLillo, il Realismo Speculativo e la Singolarità.
Siamo i possibili antenati di dio piuttosto che le sue creature, e soffriamo perché, diversamente dagli animali che non conoscono la possibilità umana del suo avvento, noi conosciamo la possibile divinizzazione di noi stessi. Portiamo dio nel nostro grembo, e la nostra essenziale inquietudine non è altro che la convulsione di un bambino che sta per nascere (Quentin Meillassoux, L’Inexistence Divine).
zero-k-9781501135392_hrCogliere poeticamente le contraddizioni del tempo presente è il compito che la scrittura si autoassegna ad ogni sua rinascita. L’ultimo romanzo di Don DeLillo, Zero K (2016), offre una perfetta esemplificazione di questa tesi. Ambientato in un laboratorio segreto di una sperduta provincia sovietica e nella scintillante New York della borsa e dei capitali finanziari, Zero K descrive il folle sogno di un gruppo di miliardari, santoni, sedicenti religiosi e scienziati che offrono un servizio di criogenizzazione dei corpi in attesa di costruire una tecnologia in grado di consentire la vita eterna. Nella prima parte, Jeffrey Lockhart, il protagonista, descrive la visita in un’ambientazione allo stesso tempo futuristica ed antica, dove incontra il padre (un miliardario) che gli spiega la sua intenzione di applicare questa tecnica a sé stesso ed alla seconda moglie, affetta da una malattia incurabile. Nella seconda parte Jeffrey racconta varie fasi della sua vita a New York: il suo rapporto con le donne, il lavoro, la città. Come nel precedente Cosmopolis (2003), DeLillo esprime nei dialoghi fra il personaggio principale e i personaggi secondari diverse teorie filosofiche, biologiche, economiche, teologiche generalmente legate al progresso tecnologico. Perché affermo che questo romanzo, più di altri, riesce a cogliere l’air du temps? Perché a differenza di altri testi narrativi che affrontano la connessione fra neoliberismo, nuove tecnologie e relazioni sociali (si pensi a Panorama di Tommaso Pincio, o a Bleeding Edge di Pynchon, o ancora al criticato The circle di Dave Eggers), qui il tema principale è la teologia. Già, perché in realtà il mondo di cui ci parla DeLillo non è più quello delle connessioni fra tecnologia e capitalismo analizzato in Cosmopolis, ma un approfondimento del concetto di Point Omega (2010), ovvero la convergenza di teologia e tecnologia ipotizzata per la prima volta dal gesuita Pierre Teilhard de Chardin nel suo libro Le phenomene humain (1955). È importante ricordare questo legame, perché ciò di cui vorremo parlare è proprio la congiuntura tecno-teologica che si aggira nelle narrazioni e le filosofie contemporanee.
Parafrasando Debord: “La Singolarità è il capitale a un tal grado di accumulazione da divenire dio». Makurzweil che cos’è la Singolarità? E perché con la “S” maiuscola? Per avere una risposta semplice, basta guardare un video a caso di Raymond Kurzweil su YouTube: si tratta di un inventore, scienziato e saggista che oggi lavora per Google a dei progetti non bene identificati di “perfezionamento dell’uomo”. Singolarità è il nome altisonante che si vuole dare ad un processo inarrestabile di evoluzione tecnologica (nel campo dell’informatica, dell’intelligenza artificiale, della robotica e della bioingegneria) che porterà l’uomo ad avere delle facoltà semi-divine come l’ubiquità, l’onniscienza e soprattutto l’immortalità.
Non si capisce se si tratti di uno scherzo o di un progetto serio, ma, ad ogni modo, Kurzweil non è il solo a credere in questa nuova ideologia della Silicon Valley. Alexander Bard, un nome probabilmente sconosciuto ai più, si è inventato un movimento religioso, il Sinteismo, basandosi proprio sull’emergere di una nuova coscienza religiosa conseguente all’evoluzione tecnologica, soprattutto quella legata ai social networks. Bard ha scritto un grosso tomo di filosofia per spiegare la sua idea, ma il suo sostrato culturale non è connesso alla speculazione accademica, quanto all’ambiente musicale underground ed ai frequentatori del Burning man festival.
Il Burning man, appunto, è un festival che dura otto giorni nel quale persone da tutto il mondo possono ritrovarsi nelle sperdute distese del deserto del Nevada per condividere un’esperienza di totale condivisione (non sono ammessi soldi, ma le transizioni sono legate al baratto). Durante il festival viene costruita una città circolare sul modello della Città del sole di Tommaso Campanella, si può fare libero uso di sostanze psicotrope e tutto si conclude con l’ignizione di un’effige antropomorfa in legno. Recentemente il festival è stato criticato dai suoi primi organizzatori e partecipanti (è nato nel ’91) per la presenza di élites di tecnocrati legati all’industria di softwares della Silicon Valley che partecipano all’evento per stabilire contatti più che per esperire una nuova forma di vita in comune.
Bard associa il Burning man alla nascita di un nuovo movimento religioso legato non tanto alla spiritualità New age degli anni ’90, quanto alle più recenti produzioni della filosofia continentale francese Quentin Meillassouxe americana. Bard, infatti, fa riferimento a una serie di tesi espresse in forma ancor parziale dal filosofo parigino Quentin Meillassoux, noto per essere stato l’ispiratore della corrente del Realismo Speculativo, ma anche per aver affermato una strana tesi in rapporto alla religione. Meillassoux sostiene infatti che la sentenza di Nietzsche “dio è morto” è sbagliata, e lo è in rapporto al tempo. La filosofia non ha il compito di criticare le narrazioni religiose, bollandole come frottole per masse di oppiomani, ma dovrebbe perseguire l’ideale platonico e kantiano di immaginare e costruire un mondo perfetto di giustizia e uguaglianza. Il problema delle religioni è che annunciano la venuta futuribile di questo mondo, ma non cercano di attuare la sua realizzazione terrena. La strana tesi di Meillassoux è che dio non sia esistito nel passato ma nulla vieta che esso possa apparire nel presente provenendo dal futuro. Il dio del filosofo francese ha comunque le stesse caratteristiche del vecchio pantokrator cristiano (onniscienza, ubiquità, immortalità, etc…), ma soprattutto è il garante della giustizia universale. Meillassoux considera le morti immotivate come l’ingiustizia più grave e prevede un possibile futuro nel quale questo scacco cesserà di esistere. L’immortalità per tutti, insomma.
C’è da dire che quest’enfasi nel descrivere l’evoluzione tecnologica come una corsa verso l’immortalità non è stata formulata per la prima volta in maniera razionale soltanto da Meillassoux. Se si escludono i sogni d’immortalità narrata che da Gilgamesh alle ricerche alchemiche della pietra filosofale hanno attraversato le mitologie e le religioni, c’è stato un periodo storico più vicino a noi in cui una forza politica estremamente razionalista aveva indagato la possibilità della vita eterna: si tratta del movimento dei Cosmisti russi. Senza troppo entrare nei dettagli, facendo riferimento alle ricerche dello storico dell’arte e filosofo russo Boris Groys, possiamo dire che agli inizi del 1900 è esistita una corrente estetica e scientifica di professori, artisti ed ingegneri che ritenevano possibile realizzare l’immortalità umana per mezzo di una continua trasfusione del sangue e di altre tecniche di proto-bioingegneria. Anche se dal punto di vista scientifico il progetto si è rivelato (ovviamente) un fallimento, dal punto di vista culturale, esso ha lasciato un’impronta rilevante nelle opere di poeti e pittori del futurismo. Anche in questo caso, come nell’attuale ideologia della Singolarità, ci troviamo di fronte ad un modello politico (il comunismo) che afferma di avere il potere tecnologico per attuare delle pretese teologiche. Non si tratta dell’attesa della Rivoluzione come aspettativa messianica della parusia, ma del tentativo concreto di attualizzare le utopie escatologiche delle religioni.
Ritorniamo al libro di DeLillo; cosa ci dice lo scrittore newyorkese nella sua ultima opera? DeLillo, per mezzo del protagonista, esprime tutta la sua scetticità nei confronti dello stralunato gruppo di scienziati, capitani d’impresa e religiosi che conduce le ricerche sull’intelligenza artificiale e sulla vita eterna. DeLillo, come in altri casi, contrappone il corpo all’astrazione dell’anima digitale. Ciò che coglie perfettamente è la natura propriamente utopica di questi progetti tecno-teologici. Nel laboratorio che il protagonista visita assieme al padre le varie stanze sono ornate da megaschermi che proiettano immagini dal mondo esterno: filmati di guerra, rituali religiosi, interviste a scienziati e filosofi. Anche nella Città del Sole di Campanella le mura circolari e concentriche che la costituiscono sono ricoperte di immagini che servono per educare gli abitanti dell’isola alla totalità delle conoscenze. La Città del Sole, così come l’Utopia di Moro, la Nuova Atlantide di Bacone e la Christianopolis di Andrea sono opere che descrivono la visita di un osservatore esterno all’interno di un mondo perfetto (un’isola) nella quale la scienza ha raggiunto livelli di sviluppo sconosciuti al tempo. In queste isole i sapienti lavorano incessantemente al perfezionamento della condizione umana, proprio come nell’ideologia di alcuni profeti attuali della Singolarità, e nelle pagine di Zero K di DeLillo. Ciò che colpisce è che il padre del protagonista decide di finanziare il progetto per la realizzazione della vita eterna e del perfezionamento dell’uomo allo scopo di salvare la vita della sua coniuge malata. Egli non è troppo distante dalla storia personale di Kurzweil, che decide di dedicare la vita all’invenzione di tecnologie per poter risuscitare il padre defunto. Tutto questo è al tempo stesso molto serio e molto ridicolo: è indubbio che le nuove tecnologie aprano possibilità sinora impensate, ed è anche vero che alcune delle macchine che nel seicento potevano essere solamente sognate, come un calcolatore in grado di contenere tutte le conoscenze enciclopediche del mondo, ora sono alla portata di tutti. Tuttavia l’aspetto che abbiamo provato a legare non è tanto la permanenza del tema della ricerca dell’immortalità, che è una narrazione mitologica sostanzialmente invariante, quanto le nuove forme che la religiosità assume in un’epoca sempre più digitalizzata.
Una religiosità materialista, “bianca”, “vuota”, “astratta” e senza contenuti che divinizza ciò che utilizziamo quotidianamente, ovvero motori di ricerca, social networks ed intelligenze artificiali. Da questi dispositivi concreti e dalle esperienze che ne facciamo non è possibile in alcun modo dedurre una futura fusione fra uomo e macchina o una scomparsa delle identità personali nell’universo liquido di una Rete unificata. Questa narrazione si struttura come un’unica possibilità per un’unica umanità che vivrà un unico ed eterno tempo presente. Tutto ciò è altamente improbabile: oltre a un’evoluzione tecnologica senza precedenti, i nostri anni sono caratterizzati da un inasprimento delle guerre, dalla ripresa di logiche segregative, dalla ricomparsa di barriere, dalla distruzione del welfare state, la crisi delle classi medie occidentali e da una necropolitica nel sud del mondo. Insomma, nulla sembra far presagire una nuova età dell’oro, caratterizzata dall’annullamento delle ingiustizie e dalla realizzazione della vita eterna per tutti. Quanto narrano queste storie di tecno-utopismo è invece l’emanazione diretta dell’egemonia culturale dell’ideologia californiana della Silicon Valley, che dopo aver imposto globalmente i suoi prodotti e i suoi brevetti, è passata alla fase mitopoietica di rappresentarsi non più come modello economico-politico ma come un’aberrante chimera tecno-teologica.”

Pubblicato in: Etica, Filosofia e teologia, Gemme, musica, opinioni, Pensatoio, Scienze e tecnologia, Società

Gemme n° 420

La canzone che ho portato parla di uomo che ha perso la sua strada vera, la reale libertà interiore perché vive in una società che lo comanda. Penso che anche noi siamo un po’ così, sottomessi alle cose che ci impone la società (anche banalmente il cellulare: ne siamo dipendenti anche per le cose semplici e non tentiamo di affrontare i problemi). Nel testo dice anche che siamo un po’ schiavizzati dalle macchine, è difficile liberarsi dalla tecnologia. Dovremmo cercare di essere liberi da ciò che crediamo essere fondamentale come gli oggetti materiali e cercare i veri valori oltre la materia e capire quello che vogliamo veramente”. Questa la gemma di E. (classe quarta).
Charles Dickens affermava che “La comunicazione elettrica non sarà mai un sostituto del viso di qualcuno che con la propria anima incoraggia un’altra persona ad essere coraggiosa e onesta.” Tecnologia come mezzo, non come fine.

Pubblicato in: cinema e tv, Gemme, Letteratura, Scienze e tecnologia

Gemme n° 405

vlcsnap-2016-02-20-08h26m05s427

Ho scelto questi video per me importanti: ho iniziato da piccolo a vedere Transformers e mi ha accompagnato per tutta la crescita. I video che ho portato sono in inglese, sia perché mi piacciono gli vlcsnap-2016-02-20-08h26m14s177Stati Uniti e un giorno mi piacerebbe vivere là, sia perché la qualità dei video in inglese è superiore. Ecco, questa del montaggio dei video di alta qualità è un’altra cosa che mi appassiona e alcune delle scene le ho montate io”. Questa la gemma di L. (classe seconda). I video che ha portato in classe sono molto pesanti, per cui ho pubblicato solo delle immagini.
Ringrazio il cielo di essere stato adolescente in un periodo senza personal computer e senza smartphone… penso che altrimenti avrei investito vagonate di ore dietro alle nuove tecnologie. Nvlcsnap-2016-02-20-08h26m19s429.pnge subisco sempre il fascino, resto incantato, non ne sono affatto un demonizzatore. Asimov affermava: “È difficile che la scienza e la tecnologia, nelle loro linee generali, superino la fantascienza. Ma in molti, piccoli e inattesi particolari vi saranno sempre delle sorprese assolute a cui, gli scrittori di fantascienza, non hanno mai pensato”.

Pubblicato in: opinioni, Scienze e tecnologia, Scuola, Società

La LIM? Obsoleta…

scuolaa
Questo post è rivolto, più che agli studenti, a colleghi, genitori e a tutte le persone interessate al mondo della scuola e soprattutto della didattica. Mi trovo spesso a riflettere e a confrontarmi con altri sulle possibilità che le nuove tecnologie offrono al lavoro di insegnante. L’intervista a Domizio Baldini pubblicata su Orizzonte Scuola mi sembra molto interessante.

Nuove tecnologie sui banchi per coinvolgere gli studenti e personalizzare i loro percorsi di apprendimento, ma senza abbandonare penna, foglio e libri di carta. I suggerimenti di Domizio Baldini (docente di scuola secondaria, Formatore De Agostini Scuola, Apple Education tutor, Tutor TIC) per una didattica efficace e multicanale.
Innanzitutto, che cos’è la didscuolabattica multicanale?
Mi piace citare una definizione dell’amico e collega Prof. Alberto Pian che ha pubblicato un ebook interessante ed utile che mi permetto di consigliare, La didattica Multicanale. Lo potete trovare sui vari store on line: “La grande sfida di una didattica multicanale integrata consiste nel tentativo di parlare a tutti usando i canali di tutti e impiegando diversi codici linguistici e comunicativi. Tutti i mezzi possibili devono essere strumenti della divulgazione, ma in modo integrato, armonioso, che renda possibile anche un godimento estetico della fruizione”. Credo che la didattica multicanale sia una delle risposte innovative che la scuola può dare per fornire agli studenti la competenza necessaria alle sfide di una società nuova e sempre più complessa”.
Come si costruisce una buona lezione in ottica multicanale?
Per prima cosa occorre esplorare la ricchezza presente in rete, occorre quindi soprattutto che i docenti siano sperimentatori e curiosi loro stessi. Solo così si potrà trasmettere la passione, la curiosità infinita, l’entusiasmo, il “demone” della ricerca. Trovare il vecchio filmato della RAI con Ungaretti che legge le sue poesie, usare Benigni e le sue letture pubbliche per la Divina Commedia, fare vedere Cassius Clay (allora si chiamava così) e la corsa di Berruti sui 200 m. alle Olimpiadi di Roma del ’60 e studiarne i movimenti atletici, mostrare sulla rete la foto del manoscritto originale dell’infinito di Leopardi o di una poesia di Cesare Pavese, un filmato di un esperimento scientifico da riprodurre in classe, sono solo alcuni esempi di risorse oggi disponibili in rete in ogni ambito disciplinare e interdisciplinare (Cassius Clay non serve solo per mostrare la sua intelligenza cinestetica, ma, per esempio, anche per introdurre la condizione di segregazione dei neri americani e, con il cambio di nome in Muhammad Ali, il trauma della Guerra del Vietnam).
Il lavoro vero dell’insegnante è poi quello di fornire il percorso ai propri studenti, ben sapendo che i modi dell’apprendere sono diversi e che ci saranno quelli che useranno più il canale visuale che non quello testuale o quello uditivo. L’abilità del docente sarà quella di fornire un percorso chiaro con obiettivi verificabili. La frase che si sente spesso “andate su internet a trovare risorse” non ha senso, è come mandare gli studenti alla Biblioteca Nazionale e dire loro: “cercate i libri che vi occorrono”. Occorre insegnare un metodo di ricerca fornendo loro percorsi costruiti anche insieme in classe, ma anche richiedere agli studenti di presentare loro stessi dei percorsi personali di ricerca privilegiando così diversi canali di apprendimenti e comunicativi (Flipped classroom) . La tecnologia oggi permette questo in modo facile ed intuitivo. Sarebbe , secondo me, un errore storico sottovalutarne le potenzialità didattiche”.
Una didattica, quindi, che oggi fa a meno di sussidi multimediali deve necessariamente considerarsi obsoleta?
Una didattica che non usi ANCHE le tecnologie oggi a disposizione è senz’altro una didattica più povera, meno coinvolgente, lontana dalla realtà di tutti i giorni, favorendo quell’errato sentimento comune che la scuola non serva poi a molto. Una volta andando a scuola si percepiva un mondo “altro”, con libri in biblioteca e lavagne appese nelle aule (la prima tecnologia pervasiva…), si respirava un’aura di “sapere” con Maestri e Professori che dispensavano contenuti seduti su cattedre di solito sopraelevate rispetto ai banchi, marcando così anche spazialmente la distanza tra i discenti (ignoranti) e i Docenti (che sapevano tutto).
Oggi non è più così. Lo studente spesso trova scuole vecchie, cadenti, con tecnologie obsolete ed antiquate o senza alcun sussidio tecnologico ed anche con docenti che affermano decisamente che “la tecnologia non serve a scuola”. Poi non ci dovremmo lamentare che gli studenti ormai tendono a considera l’istruzione scolastica come una volta veniva percepito il servizio Militare di leva: un cosa che si deve fare ma la cui utilità era quanto meno dubbia.
Per concludere posso dire che la vera sfida del docente del XXI secolo è quella di essere sempre più capace nella pratica quotidiana di inserire contenuti utilizzando più canali comunicativi. Personalmente ho adottato questa metodologia da tempo ed i risultati sia di interesse e coinvolgimento degli studenti, sia dal punto di vista dei risultati scolastici conseguiti, sono stati estremamente positivi. Con grande soddisfazione dei genitori e mia personale”.
E’ vero che i docenti italiani sono più riottosi al cambiamento rispetto ai colleghi degli altri Paesi? Come mai secondo lei?
Il nuovo spaventa sempre un po’, quindi sarebbe sbagliato pensare che i docenti italiani siano meno pronti a mettersi in gioco e sperimentare nuove didattiche. Ho esperienza di insegnamento all’estero essendo stato docente di Italiano come Lingua Straniera in una scuola a Londra per sette anni ed ho quindi una esperienza diretta di come si possano affrontare le novità. Erano i primi anni 90’ ed ebbi a disposizione dalla scuola il mio primo computer Macintosh, scelto da me per le possibilità di produzioni multimediali che offriva. La produzione di materiali originali da proporre in classe determinò un interesse e dei risultati scolastici così evidentemente migliori di prima da avere un numero di studenti sempre crescente ogni anno, doppiando e triplicando le scelte dell’Italiano sull’altra lingua straniera tradizionalmente proposta, cioè il Francese.
Lì ho percepito senza ombra di dubbio che quella era una strada da percorrere ed ora faccio parte di una comunità globale di Docenti (Apple Distinguished Educators) che, dalla Scuola dell’infanzia alla Università, cercano nuove strategie didattiche con l’uso di tecnologie oggi disponibili e che hanno la possibilità di far emergere le potenzialità degli studenti. Occorre fare una precisazione, frutto anche di una esperienza ormai trentennale di Formatore (MIUR, IRRE, INDIRE etc): non tutte le tecnologie sono uguali. Per quanto mi riguarda l’uso dell’Ipad non è paragonabile con quello di altri tablet in commercio e produrre materiali multimediali con computer Windows non è come farlo sul MAC. Si dovrebbero scegliere strumenti che facilitino il lavoro del docente non che lo complichino.
Archivio_territorio_ribol1382La LIM è stata una tecnologia rivoluzionaria 10 anni fa, oggi è obsoleta. Chi comprerebbe oggi una automobile che ha bisogno della manovella per mettersi in moto? Lo dico da utilizzatore e tutor di LIM per più di dieci anni.
Nel sistema inglese e in altri paesi che conosco, le scelte che i Board della scuola fanno sono semplicemente obbligatorie per tutti i docenti e si basano sui risultati finali. La presenza di esami uguali per tutti, fatti lo stesso giorno e corretti da docenti esterni, garantisce l’attendibilità dei risultati finali, permettendo un accesso alle Università basato su dati reali ed attendibili (la scelta delle Università non è libera ma basata sulle valutazioni degli esami finali) ed anche una valutazione del lavoro svolto dai docenti, premiando così il merito, l’aggiornamento professionale e le capacità didattiche dell’insegnante ed anche la sua partecipazione ATTIVA al progetto educativo proposto dalla scuola.
Questa strada è necessariamente da percorrere anche in Italia: tecnologia, formazione obbligatoria e valutabile, merito e valutazione del lavoro scolastico in modo più efficiente, trasparente, democratico e non autoreferenziale”.
I ragazzi utilizzano le tecnologie in maniera disinvolta, la vera novità per loro non sarebbe imparare a farne a meno?
Nella maggior parte delle scuole italiane la tecnologia non c’è, oppure non viene usata od usata malissimo. E’ questa la realtà! E’ vero che i ragazzi utilizzano la tecnologia in maniera disinvolta, ma questo non significa che la sappiano veramente usare! C’è un metodo, una riflessione che a loro manca e se non è la scuola, quale altra agenzia educativa può oggi fornirla? Le aziende? Altri Enti Statali? La risposta mi sembra chiara: la Scuola deve riacquistare la centralità del processo educativo e non è chiudendosi a riccio, non accettando il confronto che può riuscirci. Mi sia permesso un esempio un po’ provocatorio: sono stato un insegnante di lettere per più di quaranta anni e mi sento coinvolto quando leggo sulle statistiche ufficiali che solo il 3,6% degli italiani legge più di 10 libri l’anno. La scuola non ha un po’ di responsabilità? Possiamo considerarlo un successo “democratico”? E’ facile dare la colpa agli studenti ed al mondo che cambia… Lo diceva anche mia nonna cinquanta anni fa! Eh sì il mondo cambia. E la scuola? Penso che ci debba essere una seria riflessione ed un cambiamento reale da parte di tutti, senza steccati ed atteggiamenti manichei.
Prima della riforma della scuola media alla fine degli anni ’60 e della libera apertura all’istruzione Universitaria, alle scuole superiori ci andavano in pochi, con uno stesso background culturale ed anche, aggiungo, generalmente con le stesse possibilità economiche. I modelli comunicativi erano sempre gli stessi con i quali gli stessi insegnanti erano cresciuti. La società di quel tempo aveva quindi valori e modelli simili, con un forte deficit democratico, possiamo dire oggi.
Con l’ampliamento della platea studentesca l’insegnante si è trovato impreparato a gestire la molteplicità di “intelligenze”, come ci dice H. Gardner, e si è sempre più rifugiato nella ripetizione del solo modello a lui conosciuto, magari sostituendo l’autorevolezza con l’autoritarismo. La scuola ha cominciato a staccarsi dalla realtà proponendo modelli sempre più considerati obsoleti e inutili, perdendo quell’aura di centro del sapere che era prima.
Da questa scuola sono uscite anche eccellenze, docenti bravissimi ed anche innovatori, ma questo non deve essere un alibi, poiché la scuola italiana nel suo complesso è oggi una istituzione educativa che non riesce a raggiungere in generale, con le dovute eccezioni, validi risultati nelle valutazioni internazionali dell’OCSE PISA, per esempio. Od anche qui è colpa degli esami proposti?”.
Alcuni studi riferiscono che la didattica non tradizionale aumenterebbe il coinvolgimento degli studenti in difficoltà, ma non gioverebbe all’apprendimento e al profitto di quelli più dotati; il filosofo Roberto Casati ha lanciato l’allarme sul potenziale distrattivo dei mezzi in questione. Qual è il suo commento?
Mi ritrovo a citare mia nonna e poi mia madre che mi hanno detto in sequenza: non leggere troppo che ti fa male agli occhi, la televisione ti rovina e poi il computer ti fa diventare scemo.
Come in tutte le cose ci vuole equilibrio nei giudizi, non partendo sempre dalla sola nostra esperienza e sapendo che i nostri studenti sono veramente diversi ed hanno bisogno anche di canali comunicativi diversi. Un certo tipo di tecnologia mobile già prima citata oggi permette di PERSONALIZZARE il percorso educativo, in modo semplice e facile, senza perdite di tempo in tecnicismi inutili, venendo incontro sia alle esigenze di studenti con caratteristiche diverse e in difficoltà sia favorendo anche percorsi educativi di eccellenza per non mortificare i talenti presenti. E’ questa la mia esperienza di formatore e moltissimi docenti sono già su questo percorso di esperienza ed innovazione.
Questo, sia chiaro, non vuol dire che si debbano abbandonare la penna, il foglio ed i libri cartacei, ma che occorre integrare sempre di più strumenti tecnologici che possano aumentare la produttività e ampliare l’esperienza educativa dei nostri studenti. Scrivere su un programma di elaborazione testi una relazione NON è usare tecnologia innovativa; inserire elementi multimediali al testo e fornire anche una verifica interattiva è già aggiungere una valore all’oggetto didattico altrimenti non possibile con i mezzi tradizionali. Il tutto naturalmente in modo semplice, facile e creativo.
Poiché gli studenti sono coinvolti in un lavoro che li vede protagonisti attivi, la distrazione non avviene. Una affermazione come quella del Prof. Casati sul potenziale distrattivo dei mezzi in questione dovrebbe essere comparata dall’attenzione che oggi mediamente gli studenti mostrano in classe. Basterebbe guardare il loro diario scolastico per avere una risposta non proprio positiva. E poi è sempre l’uso che conta, non oggetto in sé. Anche l’auto ha un potere distrattivo ed anche la penna!”.
Il ricorso alla rete nella didattica dovrebbe aiutare a liberarci da errori e approssimazioni, ma non crede che fino a una certa età i ragazzi abbiano bisogno di sapere che gli adulti ne sanno più di loro? Che i docenti non sono soltanto dei ‘facilitatori’?
La scuola non è solo una istituzione che trasmette contenuti, è un ambiente educativo più ampio. Se non riesce a trasmettere il senso delle attività che vi si svolgono va incontro al fallimento. L’Italia non è più fortunatamente quella del Maestro Manzi, oggi le competenze che si richiedono sono anche quelle della comunicazione con i mezzi tecnologi, del saper cercare le risorse “valide” nella grande rete a disposizione. Si ritorna al discorso precedente, secondo me è la scuola che dovrebbe fornire gli strumenti e le competenze per fronteggiare le sfide complesse della globalità. Gli insegnanti posseggono la padronanza dei contenuti e non devono saperne di più di tecnologia, ma insegnare COME usarla a scuola, nella vita e domani nella professione è compito dell’istituzione scolastica, la sola che può fornire competenza tecnologica e contenutistica insieme. Per mia esperienza professionale nei molti incontri di formazione e negli eventi ai quali partecipo come relatore, ormai questa consapevolezza è patrimonio di un numero sempre maggiore dei docenti italiani. Sono quindi inguaribilmente ottimista per il futuro”.

Pubblicato in: Etica, Scienze e tecnologia, Società

Sviluppo…

20 anni di sviluppo tecnologico in una vignetta. Cosa ci sarà dopo la quinta immagine? Dopo il cloud?

sviluppo tecnologico

Pubblicato in: Etica, Gemme, opinioni, Scienze e tecnologia, Società

Gemme n° 25

Spero di non annoiare con questo video che dura poco più di cinque minuti”: ha esordito così M. (classe seconda).

A volte mi fa paura lo spazio che occupano i social network nelle relazioni, soprattutto tra noi giovani. Ho visto questo video parecchie volte perché mi ha colpito molto”. Anche io l’avevo già visto due volte: la prima volta ho letto i sottotitoli, la seconda ho guardato le immagini e solo oggi mi sono accorto che è tutto in rima… Sono dell’idea che la tecnologia sia uno strumento e come tutti gli strumenti la sua bontà o meno è legata all’uso che se ne fa. Vero è che si tratta di uno strumento molto potente e non tutte le sue potenzialità e caratteristiche sono immediatamente comprensibili. Rimando a quanto scritto qui.

Pubblicato in: Filosofia e teologia, Pensatoio, Scienze e tecnologia, Società, Storia

Ad occhio nudo

Corsica_355 copia small

Un articolo molto interessante di Roberto Cotroneo a proposito di globalizzazione, tecnologia, medioevo e rinascimento, estetica e memoria, futuro ed eternità, cultura e lasciti. Suscita mille riflessioni che abbiamo sfiorato proprio stamattina parlando di progresso tecnologico…

huizingaÈ davvero curioso che mentre cerchi di vedere un video su uno smartphone ti venga in mente un vecchio libro pubblicato nel 1919: quello di un saggista olandese, divenuto celebre perché capovolgeva la lettura di un’epoca storica. Il libro si intitola: L’autunno del Medioevo e il suo autore si chiamava Johan Huizinga.
Perché mettere assieme un video in streaming da internet e un saggio molto importante che parla di tutt’altro? Perché Huizinga sostiene che il medioevo non era un medioevo, ma un’epoca importante, florida, e che il Rinascimento con la sua esplosione di vitalità, di arte e di creatività non era l’uscita dal tunnel dei secoli bui, ma per certi versi persino un declino.
Oggi il nostro vissuto sta per essere spazzato via da nuovi linguaggi, da un diverso modo di percepire le cose, dalla globalizzazione, dal mondo che è diventato più piccolo, e da una nuova estetica. Da un futuro che sembra possa permetterci tutto e da mezzi di espressione che fino a qualche anno fa neppure si immaginavano. L’ho scritto varie volte, e ne sono sempre più convinto.
Ma stiamo perdendo la nitidezza di quello che percepiamo: abbiamo alleggerito il mondo per renderlo più mobile, per diffonderlo più rapidamente. La musica che ascoltiamo è di peggiore qualità rispetto a quella che potevamo sentire in cd, perché i formati audio devono essere più leggeri. Una macchina fotografica digitale che abbia la definizione di quelle con la pellicola costa moltissimo, e in ogni caso non ci permetterebbe di trasferire gli scatti attraverso internet, sarebbero troppo pesanti. I video hd sono sempre più diffusi, eppure noi li vediamo a definizioni più basse mentre viaggiamo o ci muoviamo. L’esigenza, sempre più ampia, di connettersi in mobilità ci costringe a moderare il peso di quanto vediamo e ascoltiamo. La compressione serve a farci vedere le immagini e ascoltare musica in modo più semplice, ma per farlo bisogna impoverire le informazioni.
Se corri troppo per il mondo non hai il tempo di sentire la consistenza della terra che hai sotto i piedi. Questo porta a un cambio estetico e culturale che passa attraverso un abbassamento dell’intensità e dunque della qualità. Vale per i gigabyte, vale per i pixel, vale per i formati audio, vale per le emozioni. E allora non c’è via di uscita: più sei veloce più devi essere leggero, più sei leggero più devi rinunciare ai dettagli, alla lentezza che permette di tenere fermo ragionamento e pensiero finché non sedimenta. Paradossalmente questo finisce per riguardare anche sentimenti, affetti, amicizie e lavoro, rapporti interpersonali in genere.
Huizinga contrapponeva l’intensità del romanico e del gotico, la grandezza della pittura e dei mosaici medioevali, la straordinaria capacità di cogliere il senso del tempo del misticismo francescano o domenicano, rispetto all’effervescenza del nuovo rappresentato dal Rinascimento.
E se oggi fossimo all’autunno della contemporaneità? Forse. Non sappiamo se stiamo uscendo da un nuovo Medioevo per entrare in un Rinascimento digitale. E neppure come cambierà il nostro modo di produrre arte e cultura, di vivere sentimenti e futuro, di condividere la nostra storia in modo che sia leggibile dai nostri nipoti.
E non siamo sicuri che tutto quello che facciamo rimarrà: non abbiamo certezza che i supporti digitali, gli archivi elettronici che memorizzano tutto, saranno ancora leggibili tra 50 o tra 100 anni. È possibile che da questa bulimia di dati, di server, di archivi immensi possa rimanere poco e che ci abitueremo a vivere e a percepire in definizioni più incerte. Ma se il nostro futuro sarà un nuovo medioevo o un rinascimento scintillante è difficile dirlo. Dovremmo forse chiederlo a un altro Huizinga.”