Ricerche scolastiche in biblioteca

Per una ricerca di storia di prima media, il docente di mio figlio ha dato alcune indicazioni che ho trovato molto interessanti.

La prima è di iniziare cercando informazioni in biblioteca. Cosa non banale, visto che parliamo di nativi digitali la cui prima reazione, molto probabilmente, è inserire il titolo del compito su Google, YouTube o ChatGPT.

La seconda indicazione è una “guida alla consultazione di eventuali siti internet“.

Si tratta di un sito specializzato? (ad es., un’università o un’organizzazione che si occupa si storia).

È un sito che vive di pubblicità o che vende un prodotto?

Il contenuto che leggi sul sito riporta il nome dell’autore? (può essere una persona o un’organizzazione o può esserci scritto semplicemente ‘redazione’).

Se si, chi è? È una persona/organizzazione esperta di storia? (controlla cercando il suo nome sul web).

C’è qualche forma di verifica/controllo su quello che l’autore scrive?

Il contenuto è scritto o presentato in maniera professionale e accurata?

Nella pagina web che stai leggendo sono presenti commenti di utenti o di esperti che confermano l’informazione?

Alcuni di questi controlli portano a escludere completamente un sito; altri (come i commenti di utenti) portano a un “prosegui ma fai attenzione”.

Mi paiono consigli molto sensati e utili.
Quello che mi rattrista è che questo sito verrebbe escluso al primo passaggio. Peraltro giustamente, visto che se per caso avessi scritto qualcosa sulle tecniche di sepoltura dell’epoca Shang l’avrei fatto senza una particolare competenza. Ma anche per argomenti sui quali un po’ di competenza ce l’ho, difficilmente si può considerare questo un “sito specializzato”.

ChatGPT e la verità come coerenza

Ormai anche chi ha seguito distrattamente il dibattito avrà capito che di ChatGPT – e analoghi servizi di generazione testi basati su modelli linguistici – ci si può fidare fino a un certo punto.

Il problema sta nelle cosiddette allucinazioni che, nel caso delle intelligenze artificiali, non sono dovute a strane sostanze ma al modo in cui funzionano questi modelli linguistici di grandi dimensioni. Semplificando – e accetto suggerimenti per descrizioni migliori –, l’algoritmo reagisce agli input dell’utente in base alle parole che risultano più probabili in base all’immensa base dati utilizzata per l’addestramento. Solo che le frasi generate in base agli abbinamenti più verosimili possono contenere affermazioni non vere, pur basandosi su informazioni corrette. Allucinazioni, appunto.
Il campionario di queste allucinazioni è abbastanza vario, da errori matematici a fatti mai avvenuti. Certo non è che ChatGPT sia un mentitore seriale: gli errori sono anzi relativamente rari, il che rende ancora più difficile per noi umani identificare gli errori. Ma di questo ho già scritto.

Qui vorrei analizzare brevemente la solidità filosofica di una delle spiegazioni di queste allucinazioni. I modelli linguistici sono fatti per produrre testi coerenti, non testi veri. E questo perché si basano su come le parole si relazionano tra di loro, non su come le parole si relazionano con il mondo.

Due modelli di verità

Questa spiegazione presuppone che la verità sia “adaequatio rei et intellectus”, insomma che una frase sia vera se corrisponde alla realtà. È una tesi filosofica con una lunga storia e che ha anche il pregio di accordarsi con la nostra intuizione. Se Tizio dice “piove” e Caio invece dice “c’è il sole”, per sapere chi dice il vero e chi il falso guardo fuori dalla finestra. Confrontando le due affermazioni con la realtà.

Solo che le cose potrebbero non essere così semplici. Ammesso che l’esempio metereologico lo sia davvero, semplice: quando deve essere nuvoloso, per dire che non c’è il sole? E una pioggerellina quasi impercettibile vale come pioggia? E la neve o la grandine?

Ma se Tizio avesse invece detto “ho voglia di mangiare una torta al cioccolato”, a cosa corrisponderebbe di preciso questa sua affermazione? E come la verifico? Se la verità o falsità dell’affermazione “sono nato il 4 novembre 1978” risiede nella corrispondenza tra quella frase e quanto accaduto il 4 novembre del 1978, che possibilità ho di sapere se quella frase è vera o falsa non avendo a disposizione una macchina del tempo?
C’è poi il problema filosofico di come possa un’affermazione, diciamo un insieme di concetti collegati tra loro, corrispondere a uno stato di cose.

A ogni modo, ChatGPT certamente non può verificare che le proprie affermazioni corrispondano a uno stato di cose. Probabilmente non saprebbe neanche indicare quali sarebbero, gli stati di cose corrispondenti alle proprie affermazioni.

Ma ci sono anche altre teorie della verità. E una di queste, il coerentismo, ricorda proprio la costruzione dei modelli linguistici: una affermazione è vera se è coerente con un insieme di altre affermazioni alle quali crediamo. Questa teoria – che è ovviamente più complessa di come l’ho qui riassunta – non si accorda con la nostra intuizione, ma si accorda con quello che facciamo. Perché le situazioni in cui possiamo guardare fuori dalla finestra per stabilire la verità o falsità di un’affermazione sono relativamente rare. Nella stragrande maggioranza dei casi la verifica è il confronto non con uno stato di cose, ma con altre affermazioni. Tizio dice che piove, Caio che c’è il sole, chiediamo a Sempronio. “Ho voglia di mangiare una torta al cioccolato” è falso perché chi lo dice mangia solo torte al limone; sui documenti personali è effettivamente riportata la data “4/11/1978”.

La coerenza di ChatGPT

Ora, non voglio dire che il corrispondentismo sia sbagliato e il coerentismo giusto: del resto quando diciamo che la terra è rotonda ci esprimiamo sull’effettiva forma della terra, non sulla coerenza di questa affermazione con i mappamondi e le immagini satellitari. Tuttavia in alcune (molte) circostanze, ci comportiamo da coerentisti e non da corrispondentisti. E ce la caviamo abbastanza bene nello stabilire la verità o la falsità delle affermazioni – o almeno nell’accordarci tra di noi.

Perché ChatGPT, invece, non ci riesce e, per quanto occasionalmente, si inventa cose false pur partendo da affermazioni corrette? Dopotutto, si basa proprio sulla coerenza di affermazioni diverse – e su una quantità di testi incredibilmente maggiore di quelli concretamente disponibili a un essere umano. Come è possibile che – per citare qualche esempio – si inventi testi di canzoni, sbagli a calcolare gli interessi e a ordinare le dimensioni degli stati?

Credo che la risposta, molto banale, sia che i modelli linguistici prendono in considerazione una coerenza che non riguarda la verità ma al massimo la persuasività. Non è solo il fatto che ChatGPT ignori, salvo forse alcuni casi particolari, il significato di frasi e parole: dopotutto ignora anche le regole della grammatica, ma riesce ugualmente a formare frasi formalmente corrette e anzi ben scritte.

Il fatto è che non valutiamo la coerenza di una affermazione confrontandola con un insieme indistinto di altre affermazioni, ma con una rete strutturata di conoscenze e credenze. Rete che cambia a seconda del tipo di affermazione che voglio controllare e delle circostanze.

Il problema non è che ChatGPT considera la coerenza senza interessarsi agli stati di cose. Il problema è che non è in grado di modellizzare le reti di conoscenze e credenze necessarie a stabilire la verità per coerenza. Mi chiedo se queste reti siano effettivamente modellizzabili; ma forse non sarà necessario e la soluzione al problema delle allucinazioni arriverà da qualche altra parte.

Animali fantastici e come trattarli

L’associazione animalista PETA ha pubblicato sul proprio sito alcune indicazioni su come giocare a Hogwarts Legacy rispettando gli animali – nel senso delle creature magiche che compaiono nel videogioco (oltre che nella saga di Harry Potter).

Le indicazioni sono essenzialmente tre: non cavalcare ippogrifi o thestral ma spostarsi usando scope o la metropolvere; non fare ricorso a pozioni con ingredienti di origine animale come il succo di horklump; non indossare vestiti realizzati con parti di animali, come piume di fwooper o pelliccia di mooncalf.

La cosa fa sorridere, come immagino fosse nelle intenzioni della PETA. Del resto se considerasse questa iniziativa una priorità, non avrebbe pubblicato una guida per gli utenti ma criticato i realizzatori del videogioco per non aver previsto una variante rispettosa degli animali. Passando probabilmente da un’iniziativa potenzialmente divertente a una potenzialmente ridicola.

La cosa fa sorridere perché ippogrifi, thestral, horklump, fwooper e mooncalf non sono animali reali. Esistono nell’universo narrativo di Harry Potter e, almeno in alcuni casi, nel folklore, ma non in natura. 1
Credo non abbiano neppure un’esistenza definita all’interno del videogioco, con qualche complesso algoritmo che lasci pensare a un qualche comportamento autonomo. Sono semplici modelli 3D e probabilmente neanche quello per quanto riguarda gli ingredienti delle pozioni.

Estendere i diritti che oggi riserviamo agli esseri umani (e in passato solo ad alcuni esseri umani) agli animali è un conto. Arrivare a includere anche semplici immagini, se non addirittura nomi, di animali è un po’ troppo. Ma l’iniziativa della PETA una qualche legittimità filosofica ce l’ha.

Trattare male animali virtuali non danneggia nessun individuo e non viola i diritti di nessuno, ma non è un comportamento virtuoso. Non è insomma un comportamento che una persona per bene dovrebbe tenere. È un tema su cui ho già scritto a proposito dei robot, se sia il caso di ringraziarli e di prenderli a calci. Ma il discorso – per quanto indebolito visto che parliamo di creature di finzione – è tutto sommato lo stesso: se l’etica riguarda come ci comportiamo, non è il caso di sfruttare gli animali, anche quelli virtuali.

Lo scrive la stessa PETA nel suo articolo:

Sure, jobberknoll feathers might just be pixels, but practicing compassion in a game can help remind you to avoid buying feathers in the real world.

Certo, le piume di jobberknoll possono essere solo pixel, ma praticare la compassione in un gioco può aiutarci a ricordare di non comprare piume nel mondo reale.

  1. In realtà una specie di insetti è stata battezzata Thestral, ma non complichiamo troppo le cose.[]

Contro le guerre culturali

Sono stato tentato di scrivere qualcosa sulle modifiche apportate ad alcuni romanzi di Roald Dahl.

Il caso, del resto, apre molti interrogativi interessanti.
Chi gestisce i diritti d’autore può modificare i testi come faceva lo stesso autore in vita? Il fatto che parliamo di letteratura per l’infanzia cambia qualcosa? Perché importanti cambiamenti nella trama o nei personaggi in opere derivate (vedi i molti film realizzati a partire dai romanzi di Dahl) ci indignano meno di una correzione al testo? Se correggere quanto scritto dell’autore è sbagliato, lo è anche pubblicare uno scritto che l’autore non voleva pubblicare?
Immaginando che la correzione di un refuso sia non solo tollerata ma anche auspicata, a che punto una correzione diventa inopportuna? Se una parola ha cambiato significato o accezione, è lecito sostituirla con una parola più vicina al significato originario e quindi alle intenzioni dell’autore? E se – cambiando autore e genere – qualcuno ripubblicasse le opere di Asimov sostituendo le anacronistiche schede perforate che ogni tanto compaiono con dei file caricati in rete?
Quanto è importante tenere pubblicamente traccia delle modifiche e mantenere accessibili le opere originali? Lasciare in nota i passaggi originali andrebbe bene? Come deve comportarsi chi traduce i testi di fronte a termini problematici o non più attuali? E cosa accadrebbe se fosse l’autore stesso a chiedere di aggiornare le sue opere affinché restino al passo con i tempi?

Lo scontro finale

Queste sono alcune delle domande che mi sono posto e sulle quali sarebbe interessante (e forse anche urgente) ragionare. A queste domande possiamo poi aggiungere tutte le riflessioni sugli effetti del linguaggio dispregiativo, giusto per mettere in contesto alcune delle modifiche apportare ai testi di Dahl. Questo non per condannare o assolvere l’operazione, ma per capire di preciso quali sono i problemi e quanto sono gravi.
Solo che per ragionare e discutere serve un ambiente adatto: nulla di troppo complicato, diciamo un posto dove chi dice la sua opinione non si sente come l’eroe che da solo affronta il nemico – e non una divisione che è lì per occupare una via di comunicazione, ma l’intero esercito arrivato per sterminare l’intera popolazione e spargere sale sulle macerie.

Questa metafora bellica merita un chiarimento, perché vi vedo due difficoltà. Il primo è proprio l’idea di concepire una divergenza di opinioni come uno scontro, invece di un’occasione per chiarirsi le idee e stabilire un terreno comune di discussione – il che non vuol dire arrivare a un compromesso, il terreno comune può semplicemente essere il fatto di pensarla diversamente. La seconda difficoltà riguarda il tipo di conflitto al quale si pensa. È un semplice diverbio, un duello mortale, uno scontro di poco conto, la battaglia dalla quale dipendono le sorti della guerra e forse della civiltà? A seconda di quale situazione immaginiamo cambiano le strategie.

Molte cose che ho letto su questa vicenda dei libri di Roald Dahl avevano lo spirito dello scontro finale. Aragorn che con pochi uomini affronta l’esercito di Mordor sperando che Frodo riesca a distruggere l’unico anello; il protagonista di Le streghe trasformato in topo che per eliminare le streghe inglesi deve versare la pozione magica nella minestra che tra poco mangeranno; Poirot che si taglia i baffi per sconfiggere i temibili Quattro e sventare il loro diabolico piano di impadronirsi del mondo.
Certo, restiamo nell’ambito di una guerra figurata in cui le armi sono perlopiù reboanti post sui social media, articoli indignati e che attirano l’indignazione, accuse di ipocrisia per mostrarsi i più puri e intransigenti. Se qualcuno dovesse davvero ricorrere alla violenza fisica, la cosa sarà solo in parte riconducibile agli eccessi retorici di questi giorni.

Va anche detto che non tutti hanno denunciato la più grande catastrofe culturale dall’incendio della biblioteca di Alessandria, sollecitato indignazione generale, invitato al boicottaggio eccetera. C’è chi ha provato a ragionare e a discutere, ma direi con scarsi risultati, almeno in questi primi giorni. Forse più avanti – quando sarà calata un po’ l’attenzione – ci saranno le condizioni per discussioni più lucide.

Un possibile manifesto: disinnescare le bombe culturali

Da quanto ho ripreso in mano questo sito, aggiornandolo più o meno regolarmente, mi sono chiesto se dovessi seguire una qualche “linea editoriale”. Insomma se scegliere un tema specifico invece di scrivere semplicemente quello che mi passa per la testa – come si poteva ancora fare all’epoca d’oro dei blog.
La risposta finora è sempre stata negativa. Del resto scrivo perché mi aiuta a chiarire le idee e a riordinare i pensieri. Che quello che scrivo possa essere utile ad altri è una speranza (probabilmente un’illusione), non un obiettivo. Eppure questa vicenda dei libri di Dahl – e soprattutto delle discussioni che ne sono seguite – mi convince della bontà dell’idea di un progetto di comunicazione. Disinnescare le bombe culturali, riflettere su come creare spazi di discussione in cui si costruisce qualcosa, evitando la facile indignazione.

Non ignoriamo l’astrologia

Il Corriere della Sera ha deciso di pubblicare una collana di libri di astrologia. Da possessore e lettore più che soddisfatto di una analoga collana dedicata alle parole della filosofia, la cosa mi indispone un po’. Certo, la serietà di quei libri è garantita dagli autori e dai curatori della serie (Corrado Del Bò, Simone Pollo e Paola Rumore). Non immaginavo di ritrovarmi a dire che quei nomi ne garantiscono la qualità nonostante l’editore.

Se il problema fosse solo la perdita di credibilità – almeno da parte di alcuni – del Corriere della Sera, sarebbe solo una preoccupazione loro. Ma c’è anche il discorso di dare dignità all’astrologia. Che per carità, se la cava bene anche senza la Biblioteca di astrologia del Corriere della Sera: dopo un paio di millenni di critiche, l’astrologia continua a esser presente, tra oroscopi e le chiacchiere di chi chiede di che segno sei. Certo non è più considerata una disciplina seria: non la si insegna nelle scuole, non ci si basa su di essa per far previsioni e i già citato oroscopi sono perlopiù confinati nelle pagine di costume. Ma l’astrologia continua a tenerci compagnia.

Questa tenacia è uno dei motivi per cui l’astrologia mi affascina. Insieme molto probabilmente al fatto che ha soffiato il nome che – seguendo il modello di biologia, psicologia, zoologia, archeologia… – spetterebbe all’astronomia. Per questo motivo io una collana di libri dedicati all’astrologia la comprerei. È vero che si tratta di una pseudoscienza priva di fondamento, ma questo non significa che la si possa ignorare. Parliamo infatti di una pseudoscienza che troviamo in molte culture, che per millenni ha rappresentato una forma di sapere legittima tanto da intrecciarsi con la rivoluzione scientifica e che, come accennato, continua ad avere un certo seguito anche in un mondo dominato dalla tecnologia come il nostro.
Raccontare la storia dell’astrologia per descriverne la popolarità e la marginalizzazione sarebbe un’iniziativa interessante. E anche spiegare che tipo di prove si possono fare, e sono state fatte, per mettere alla prova la validità dell’astrologia.

Il problema, insomma, non è che il Corriere della Sera dedichi una serie di libri all’astrologia, ma quello che c’è dentro quella serie di libri. E che, a giudicare dalla presentazione della collana, è quanto di più lontano dall’approccio da me auspicato

Avvenne due giorni fa. Per un giornalismo in ritardo

C’è questo bel film degli anni Quaranta, ‘Avvenne domani’ di René Clair, in cui il protagonista entra in possesso del giornale di domani – nel senso di quello che sarà pubblicato domani e che contiene il resoconto di quanto accadrà oggi.
Questo scenario, per quanto affascinante – o inquietante, se come il protagonista si legge la notizia della propria morte – è irrealistico, a meno di non avere un qualche fenomeno paranormale o fantascientifico.
Non avendo a disposizione viaggi nel tempo, ci si deve accontenrare dei giornali di oggi che riportano quanto accaduto ieri. Un ritardo di 12-24 che già negli anni Quaranta – e infatti il film è ambientato nel 1890 – si poteva colmare con la radio. Adesso con tv e internet possiamo avere oggi le notizie di quanto accade oggi, in tempo reale o quasi.

E se invece provassimo ad ampliare questo ritardo?

Facciamo un esperimento mentale. Un giornale non riporta nessun evento accaduto da meno di 24 ore. Una sorta di moratoria sull’attualità. Lunedì c’è un terremoto, un colpo di stato, un uragano, uno scandalo politico, una proposta di legge? Web, radio e tv danno subito la notizia. La carta stampata la lascia riposare: non se ne scrive sull’edizione di martedì, ma si aspetta quella di mercoledì, così da avere più informazioni e di avere il tempo per capire quanto era davvero importante quella notizia. Non si tratta semplicemente di leggere il giornale pubblicato il giorno prima, ma di pubblicare il giornale di oggi con informazioni che hanno dimostrato di poter sopravvivere dopo un giorno.

L’idea è simile a quello dello “slow journalism”. Ma non si basa su un elenco di virtù o buone pratiche che oltretutto spingono verso approfondimenti. La moratoria di 24 ore è molto più semplice: niente notizie su eventi accaduti meno nell’ultimo giorno.

Se un giornale si prendesse l’impegno di lasciar trascorrere 24 ore prima di scrivere qualcosa, io prenderei in seria considerazione di abbonarmi.

Il problema delle intelligenze artificiali è che funzionano troppo bene

Ho conosciuto Roberto Cingolani prima che diventasse ministro della transizione ecologica. In qualità di direttore scientifico dell’Istituto italiano di tecnologia di Genova aveva tenuto alcune conferenze in cui raccontava un po’ di cose sulla robotica. Affrontando anche il problema delle conseguenze sul mercato del lavoro.

La sua tesi, brutalmente riassunta, è che forse i computer potranno sostituire in molte cose gli esseri umani, ma in molti casi non ne vale la pena. Che senso ha usare un robot che, anche prodotto in serie, costa uno sproposito e consuma un bel po’ di energia se con una frazione di quei costi posso assumere una persona? Robot e intelligenze artificiali saranno competitivi per i lavori pericolosi – ma anche qui potrebbero convenire esoscheletri comandati da remoto da esseri umani – e soprattutto per quelli ripetitivi. Con la distinzione tra lavori manuali e intellettuali che diventa sempre meno importante.

Lasciamo da parte le preoccupazioni economiche, per le quali si dovrebbe fare un discorso serio su un vero reddito di cittadinanze. Questa divisione del lavoro potrebbe essere vista come una liberazione: i lavori ripetitivi annoiano e quelli pericolosi sono, appunto, pericolosi. Sarebbe bello lasciare alle macchine queste incombenze e occuparci delle cose più interessanti e stimolanti.

Solo che non è detto che agli esseri umani restino questi compiti interessanti e stimolanti. Lo spiega Gary Marcus commentando l’incidente avvenuto a CNET. In poche parole, l’azienda si è avvalsa di un’intelligenza artificiale per la scrittura degli articoli, con degli umani a coordinare e supervisionare il lavoro. Il risultato è stata una serie di imprecisioni ed errori.

Da dove arrivano queste allucinazioni, con l’intelligenza artificiale che si inventa fatti credibili ma falsi, è presto detto. Parliamo in questo caso di modelli linguistici, in pratica dei sofisticati pappagalli che imparano come le parole si relazionano tra di loro, non come le parole si relazionano con il mondo che conosciamo (come afferma sempre Marcus riprendendo Noam Chomsky).

Più interessante come queste allucinazioni siamo sfuggite ai revisori. L’attenzione umana è limitata, soprattutto quando gli interventi sono rari e limitati. Se i testi prodotti dall’intelligenza artificiale fossero stati scritti male, richiedendo correzioni e integrazioni, quelle allucinazioni sarebbero state identificate insieme agli altri errori. Ma di fronte a testi scritti bene e che non richiedono di correggere neanche una virgola, è normale che dopo un po’ l’attenzione cali. E così sfugga che, se investo 10’000 dollari con una rendita del 3%, arrivo a guadagnare 300 dollari, non 10’300.

Come osserva Marcus, lo stesso problema si presenta con le auto a guida autonoma. O l’intervento umano è completamente superfluo, oppure non puoi pretendere che un essere umano presti attenzione alla strada se per la maggior parte del tempo non deve fare niente. Certo, potremmo dire che alla fine si tratta di un errore umano, come afferma HAL 9000 in 2001: Odissea nello spazio. E come afferma la stessa ChatGPT quando le ho chiesto se può affermare cose false:

No, come modello di lingua artificiale AI sviluppato da OpenAI, non ho emozioni né personalità e fornisco risposte basate sui dati a cui sono stato addestrato. Tuttavia, i miei risultati possono essere imprecisi o incompleti a causa dei limiti del mio addestramento e dei dati disponibili.

Ammettiamo pure che il problema sia come gli esseri umani addestrano e verificano l’operato dell’intelligenza artificiale. Rimane il fatto che la tecnologia dovrebbe aiutarci a superare i limiti umani, non renderli più pericolosi.

Magari è solo questione di ripensare le strategie di revisione. Può essere che l’errore di CNET sia stato quello di rivedere il testo come se fosse stato scritto da un essere umano, senza rendersi conto che un testo scritto da un’intelligenza artificiale richiede procedure diverse. O forse è proprio sbagliato l’approccio e conviene usare l’intelligenza artificiale per la revisione e non per la scrittura dei contenuti. Chissà: la tecnologia deve ancora trovare un posto nelle nostre vite.

Nel frattempo, mi sento di riassumere così la questione: in attesa di un’intelligenza artificiale perfetta, meglio una che funziona male di una che funziona troppo bene.

Come ho cambiato idea su Armageddon e Deep Impact

Raccontare la storia di un meteorite che colpisce la Terra non è un’idea particolarmente originale. Poi certo, più che l’originalità dell’idea conta come la si sviluppa ed è su questo punto che si gioca la differenza tra due film incredibilmente vicini nella premessa e incredibilmente lontani nella realizzazione. L’uscita quasi contemporanea (almeno negli Stati Uniti) di Deep Impact e di Armageddon ha legato i due film. Nel 1998 era impossibile parlare dell’uno senza citare l’altro; poi Deep Impact è lentamente scivolato nell’oblio (o almeno così mi pare), mentre Armageddon è diventato a suo modo un classico.

Perché mi era piaciuto di più Deep Impact

In entrambi i film si scopre che un asteroide/cometa colpirà la Terra. Per evitare la scomparsa dell’umanità si cerca di deviare o distruggere il corpo celeste tramite delle bombe atomiche che però non possono essere semplicemente lanciate. La missione per far esplodere l’asteroide/cometa ovviamente incontra diversi problemi e alla fine sarà necessario un sacrificio.
Questo quel che i due film hanno in comune. Ma Deep Impact racconta quello che accade sulla Terra, come l’umanità (o meglio quella parte di umanità che vive negli Stati Uniti) si prepara a livello personale e collettivo alla catastrofe. Armageddon invece racconta l’improbabile e scanzonata impresa di distruggere l’asteroide.

Credo di essere stato uno dei pochi a preferire Deep Impact ad Armageddon.
Perché? Un po’ per la maggiore plausibilità scientifica: gli eventi raccontati in Deep Impact sono plausibili e del resto sono stati coinvolti diversi consulenti e tra le fonti di ispirazione troviamo un romanzo di Arthur C. Clarke. Di plausibile, in Armageddon, c’è invece davvero poco, dalla dimensione dell’asteroide alla tecnologia usata per deviarlo. Alcune “licenze poetiche” sono funzionali alla trama. Ad esempio lo scarso preavviso con cui viene trovato l’asteroide serve a giustificare il fatto di non avere il tempo per addestrare degli astronauti. Ma in generale denotano un sostanziale menefreghismo per la realtà.

Ma a convincermi di più di Deep Impact era il fatto di voler raccontare l’umanità, non un grosso sasso che esplode all’ultimo secondo per evitare l’impatto.

Perché mi piace di più Armageddon

Questo, appunto, nel 1998. Recentemente ho rivisto entrambi i film e ho cambiato idea.

Certo, Armageddon resta un’improbabile e scanzonata avventura, ma lo fa senza prendersi sul serio. Anzi. Lo mostra un piccolo aneddoto: l’attore Ben Affleck aveva chiesto al regista Michael Bay come mai era più semplice addestrare Nella traccia di commento, Ben Affleck dice di aver chiesto al regista Michael Bay come mai fosse più facile addestrare dei trivellatori a diventare astronauti invece che addestrare degli astronauti a diventare trivellatori, ottenendo un “shut the fuck up” come risposta.

Deep Impact invece si prende molto sul serio. E oggi trovo le riflessioni etiche e psicologiche del film superficiali e approssimative, con questa retorica della speranza e del sacrificio. Alla fine , per quanto caricaturali, risultano più convincenti le reazioni psicologiche dei personaggi di Armageddon. Certo, decidere chi salvare e chi no è un problema di giustizia tutt’altro che banale e la soluzione prospettata è interessante: una prima tornata in base all’utilità e poi un semplice sorteggio. Ma alla fine la cosa rimane lì, senza troppa voglia di approfondire o di ragionare su possibili alternative.

Così mentre Armageddon entrava nell’immaginario collettivo e diventava un film con cui confrontarsi, Deep Impact scompariva senza lasciare grandi tracce. E secondo me il problema è appunto quello: un film riusciva a mantenere quanto promesso, l’altro no.
Cosìlla fine ha vinto Armageddon. E lo vediamo nel più recente Don’t Look Up: anche qui abbiamo una cometa che minaccia la Terra, anche qui abbiamo l’ambizione di raccontare come l’umanità affronta una crisi, con riferimenti al riscaldamento globale e alla pandemia. Ma il film, per stile e narrazione, è più vicino ad Armageddon che a Deep Impact.

“Sembra che i risultati mostrati di seguito cambino rapidamente”

La decisione di escludere la Russia dalla cerimonia per il Giorno della memoria ad Auschwitz ha portato a diverse discussioni. In questi ultimi giorni si è scritto molto sia sull’opportunità dell’esclusione, sia sulla liberazione del campo di sterminio, se sia stata “sovietica”, “russa” o “ucraina”.

Così, Google ha aggiunto un avviso alle ricerche che riguardano l’armata rossa e la liberazione di Auschwitz:

Sembra che i risultati mostrati di seguito cambino rapidamente
Se si tratta di un argomento nuovo, a volte può essere necessario del tempo prima che fonti affidabili pubblichino informazioni

Curiosamente l’avviso appare se cerco “l’armata rossa ha liberato Auschwitz” ma non “armata rossa liberazione Auschwitz”.

Io non ho mai visto un avviso simile e suona un po’ ridicolo che si parli di “argomento nuovo” per qualcosa avvenuto quasi ottant’anni fa. Capisco che qualcuno possa interpretare il tutto come un tentativo di “riscrivere la storia”, ma ragionando in astratto l’avviso mi pare molto utile.

Indice di novità

Credo che l’età media dei risultati sia un’informazione utile. Se su un tema i contenuti pertinenti sono stabili, con pochi aggiornamenti, posso immaginare che sul tema si sia raggiunta una certa maturità e che le cose non cambieranno a breve. Viceversa se i contenuti sono recenti, perché creati o aggiornati da poco, posso immaginare che la questione sia ancora oggetto di discussioni e la situazione potrebbe cambiare.
Certo, magari i contenuti sono recenti perché banalmente ci si riferisce a qualcosa di appena accaduto e che non presenta particolari difficoltà interpretative – penso ad esempio al risultato di un evento sportivo. Ma in generale è vero che la disinformazione è più veloce dell’informazione affidabile nel produrre contenuti. Si dice che “una bugia fa in tempo a compiere mezzo giro del mondo prima che la verità riesca a mettersi i pantaloni” (la frase è attribuita a Churchill ma pare sia molto più antica); questo avviso dà alla verità un po’ più di tempo per vestirsi.

La disinformazione è soprattutto più veloce nel colmare le lacune informative, figurando tra i primi risultati per parole chiave sui quali non c’è ancora molta informazione. Sfruttando questa lacune, e l’effetto Ikea della disinformazione, è possibile dare maggiore credibilità alla disinformazione.
Sulle lacune informative o data voids c’è un interessante rapporto scritto da Michael Golebiewski e danah boyd. Vengono distinte cinque categorie di lacune: notizie d’attualità, nuovi termini, termini obsoleti, concetti frammentati e ricerche problematiche. Tra gli esempi di ricerche problematiche si cita proprio l’Olocausto. Dal momento che i siti affidabili non mettono in dubbio lo sterminio nazista, ricerche come “l’Olocausto è realmente accaduto?” restituivano come risultati siti negazionisti. In risposta alle critiche alcuni anni fa Google ha modificato l’algoritmo per fare in modo che ai primi posti figurassero fonti affidabili.

L’avviso “sembra che i risultati mostrati di seguito cambino rapidamente” si inserisce probabilmente in questo contesto. Visto che l’Olocausto è un tema delicato, Google segnala eventuali anomalie. Ma io estenderei questa soluzione a tutte le ricerche. Una sorta di indice di novità che mi dice quanto i risultati siano mediamente recenti.

Cose da sapere. E come saperle

L’altra mattina un libro ha attirato la mia attenzione. Un po’ per i colori della copertina e che lo facevano spiccare tra gli altri anonimi volumi nella bibliocabina. Un po’ per il titolo: 4000 cose da sapere.

È un concetto interessante, quello di “cosa da sapere“.
Certamente ci sono delle cose che una persona deve sapere per svolgere determinate attività. Chi guida deve conoscere le norme della circolazione stradale, chi vuole preparare la cena deve saper cucinare, chi vuole fare il critico deve conoscere la storia e la tecnica del cinema eccetera. Ma ci sono conoscenze che chiunque deve avere, indipendentemente da uno specifico compito che deve svolgere? Se pensiamo alla quantità di informazione che subiamo giornalmente, direi sarebbe un bel risultato avere anche solo un’idea generale di cosa bisogna conoscere e cosa invece si può ignorare. È un tema di cui avevo scritto a proposito delle notizie, ma certamente si applica anche a quella che potremmo chiamare “cultura generale”.

Ovviamente non mi aspettavo di trovare queste risposte in quello che è semplicemente un libro di curiosità scientifiche – e che alla fine ho preso, appunto, per curiosità. Però qualche indizio su queste “conoscenze essenziali”, dalla scelta degli argomenti inseriti, lo si potrebbe trovate. Insieme ovviamente a cose bizzarre come il fatto che in ogni istante nel mondo si scatenano 2000 temporali. Interessante, ma non esattamente una cosa che si deve sapere.

Ora, non so se è un problema dell’autore, John Farndon, o se è un casino fatto con l’edizione italiana, ma l’ordine non ha molto senso. Per dire: la scheda – ce ne sono 400, ognuna con 10 punti – sulle Lune galileiane (che sono satelliti di Giove) è insieme a quella su Urano, la scheda sulle eruzioni solari è invece a una decina di pagine da quella sul Sole. Che, ci viene detto, “pesa circa 300’000 volte più della Terra”. E si può forse tollerare confondere il peso con la massa, ma cosa significa che il Sole “contiene circa 1,3 milioni di volte la materia del nostro pianeta“? Guardando i dati su Wikipedia, probabilmente si riferisce alla differenza di volume: 1,4×1027 m3 il Sole, 1,1×1021 m3 la Terra. Ma come il volume diventi “la materia contenuta” è un mistero che non sono in grado di risolvere.

Ma anche così, non ha molto senso: quei numeri non aiutano a comprendere le proporzioni. Più interessante immaginare un pallone da pallacanestro: se fosse la Terra, il Sole sarebbe un palazzo di nove piani situato a tre km di distanza. E invece immaginiamo che il pallone sia il Sole, la Terra sarebbe un chicco di riso a 25 metri. (Questi dati arrivano dal primo capitolo di Dove sono tutti quanti? di Amedeo Balbi). Questa è un’informazione che penso ognuno dovrebbe sapere, almeno a grandi linee.