La disinformazione ai tempi dell’intelligenza artificiale

Circola un video di Bill Gates che dice cose che non ha mai detto: come riporta Facta, molto probabilmente il filmato è stato alterato usando un software di intelligenza artificiale. Parliamo di un deepfake, della creazione di immagini, video e audio praticamente irriconoscibili e relativamente facili da realizzare.
Ai deepfake possiamo aggiungere i modelli linguistici – che qui chiamo “intelligenze artificiali che scrivono cose” – con i quali possiamo in pochi secondi produrre dettagliati articoli di disinformazione sul fatto che la Terra è piatta, non siamo mai andati sulla Luna, l’11 settembre è stata una demolizione controllata, i vaccini hanno rischiato di portare all’estinzione l’umanità eccetera.

Quanta disinformazione!

Le intelligenze artificiali stanno aggravando il problema della disinformazione? Apparentemente sì, anche se forse il problema non è tanto la quantità e qualità delle false informazioni.
Già adesso per verificare una notizia occorre risalire alla fonte e ricostruire il contesto. E non è detto che la qualità delle manipolazioni porti più persone a ritenerle buone. Infatti più della qualità di un contenuto, contano la fiducia verso la fonte e quanto quel contenuto conferma le nostre opinioni. Saremo portati allo scetticismo di fronte a un video perfetto ma presentato da un media che consideriamo inaffidabile e che va contro quello che crediamo. Tenderemo invece a prendere per buono un video imperfetto presentato da fonte che riteniamo credibile e che conferma le nostre idee. Certo non è un atteggiamento ideale, ma ha l’indubbio vantaggio di risparmiarci la fatica di valutare attentamente ogni singola informazione che ci passa davanti, il che sarebbe impossibile.
I modelli linguistici sembrano aggravare la cosiddetta Legge di Brandolini, quella per cui l’energia per smontare una bufale è di un ordine di grandezza superiore a quella necessaria per inventarla. (C’è anche la variante della “montagna di merda, facile da scaricare ma difficile da spalare via”).
Però le intelligenze artificiali possono essere utilizzate anche per riconoscere e smontare le bufale, semplificando quindi anche l’altra parte del lavoro.

Forse sono eccessivamente ottimista, ma credo che alla fine non cambierà molto, per quanto riguarda la facilità (o difficoltà) nel riconoscere le bufale. Il vero problema non riguarderà le monete cattive, ma da quelle buone. Ovvero le notizie autentiche.

Il dividendo del bugiardo

Ho appena scritto che tendiamo a dare per vero quello che conferma le nostre idee e a dare per falso quello che le smentisce. Ma non è solo una questione di vero e falso.
Prima di tutto perché non è detto che una notizia, e più in generale un’affermazione, sia o vera o falsa senza vie di mezzo. Semplificazioni, approssimazioni o imprecisioni introducono tutta una serie di gradazioni. Nella maggior parte delle situazioni dire che la Luna dista 400mila km dalla Terra è un’adeguata approssimazione della distanza media di 384’399 km. Ed è certamente “meno sbagliato” dell’affermare che la Luna si trova a 400 km o a 400 milioni di km.
Soprattutto, può variare la nostra convinzione verso la verità o falsità di un’affermazione, insomma il “quanto ci crediamo”. Sono certo che la Luna non sia a poche centinaia di chilometri dalla Terra e non sia fatta di formaggio; su come si sia formata ho meno sicurezza, sia perché esistono diverse ipotesi sia perché non sono un esperto. Possiamo formularla anche così: sul fatto che la Luna non sia di formaggio sarei pronto ad accettare una scommessa particolarmente rischiosa, diciamo diecimila a uno; per scommettere che la Luna sia nata in seguito a un grande impatto vorrei invece quote più favorevoli. Infine, sulla quantità di acqua presente sulla Luna invece non scommetterei.

La crescente qualità della disinformazione prodotta da intelligenze artificiali forse non alza la credibilità della disinformazione, ma rischia di abbassare quella dell’informazione. Prendiamo – l’esempio è di John Gruber – la registrazione di alcune frasi sessiste di Donald Trump, tra cui il celebre “Grab them by the pussy”, pubblicata a poche settimane dalle elezioni del 2016. Trump alla fine venne eletto, ma la sua popolarità calò. All’epoca non era possibile mettere in dubbio l’autenticità dell’audio; oggi sarebbe una strategia percorribile. E anche un oppositore di Trump dovrebbe ammettere la possibilità di un deepfake e ridurre di conseguenza la propria sicurezza sull’autenticità della registrazione.

Questa erosione dell’affidabilità è un fenomeno noto da alcuni anni; ha anche un nome: “liar’s dividend”, il dividendo del bugiardo. Ne scriveva ad esempio Paul Chadwick sul Guardian nel 2018, sottolineando come gli effetti del dividendo del bugiardo cresceranno con la consapevolezza pubblica dell’esistenza dei deepfake. La popolarità di ChatGPT e dei modelli linguistici è quindi una brutta notizia.

Tutta colpa dell’Intelligenza artificiale?

Riassumendo, c’è il rischio che un audio o un video autentici vengano ritenuti meno attendibili perché c’è la possibilità che siano dei deepfake. O che la grande quantità di articoli di disinformazione ben scritti – da intelligenze artificiali – mi renda più scettico verso articoli ben documentati.

A ben guardare, però, il problema non è dovuto solo alla qualità di falsi. Come detto, molto dipende dal contesto di una notizia per cui, prima ancora che i deepfake e i modelli linguistici, il vero problema è che mass media e autorità hanno perso credibilità.

Quando si è diffusa questa sfiducia? In un articolo su The Conversation, Robert M. Dover indica come punto di svolta l’invasione dell’Iraq e l’utilizzo che i politici hanno fatto delle informazioni fornite dai servizi di intelligence. Non sono sicuro che quello sia stato davvero un momento cruciale; certo la diffidenza non è nata con le intelligenze artificiali e neanche con i social media.

Cose da sapere. E come saperle

L’altra mattina un libro ha attirato la mia attenzione. Un po’ per i colori della copertina e che lo facevano spiccare tra gli altri anonimi volumi nella bibliocabina. Un po’ per il titolo: 4000 cose da sapere.

È un concetto interessante, quello di “cosa da sapere“.
Certamente ci sono delle cose che una persona deve sapere per svolgere determinate attività. Chi guida deve conoscere le norme della circolazione stradale, chi vuole preparare la cena deve saper cucinare, chi vuole fare il critico deve conoscere la storia e la tecnica del cinema eccetera. Ma ci sono conoscenze che chiunque deve avere, indipendentemente da uno specifico compito che deve svolgere? Se pensiamo alla quantità di informazione che subiamo giornalmente, direi sarebbe un bel risultato avere anche solo un’idea generale di cosa bisogna conoscere e cosa invece si può ignorare. È un tema di cui avevo scritto a proposito delle notizie, ma certamente si applica anche a quella che potremmo chiamare “cultura generale”.

Ovviamente non mi aspettavo di trovare queste risposte in quello che è semplicemente un libro di curiosità scientifiche – e che alla fine ho preso, appunto, per curiosità. Però qualche indizio su queste “conoscenze essenziali”, dalla scelta degli argomenti inseriti, lo si potrebbe trovate. Insieme ovviamente a cose bizzarre come il fatto che in ogni istante nel mondo si scatenano 2000 temporali. Interessante, ma non esattamente una cosa che si deve sapere.

Ora, non so se è un problema dell’autore, John Farndon, o se è un casino fatto con l’edizione italiana, ma l’ordine non ha molto senso. Per dire: la scheda – ce ne sono 400, ognuna con 10 punti – sulle Lune galileiane (che sono satelliti di Giove) è insieme a quella su Urano, la scheda sulle eruzioni solari è invece a una decina di pagine da quella sul Sole. Che, ci viene detto, “pesa circa 300’000 volte più della Terra”. E si può forse tollerare confondere il peso con la massa, ma cosa significa che il Sole “contiene circa 1,3 milioni di volte la materia del nostro pianeta“? Guardando i dati su Wikipedia, probabilmente si riferisce alla differenza di volume: 1,4×1027 m3 il Sole, 1,1×1021 m3 la Terra. Ma come il volume diventi “la materia contenuta” è un mistero che non sono in grado di risolvere.

Ma anche così, non ha molto senso: quei numeri non aiutano a comprendere le proporzioni. Più interessante immaginare un pallone da pallacanestro: se fosse la Terra, il Sole sarebbe un palazzo di nove piani situato a tre km di distanza. E invece immaginiamo che il pallone sia il Sole, la Terra sarebbe un chicco di riso a 25 metri. (Questi dati arrivano dal primo capitolo di Dove sono tutti quanti? di Amedeo Balbi). Questa è un’informazione che penso ognuno dovrebbe sapere, almeno a grandi linee.

Abbiamo bisogno di uno spazio a prova di fake news

La disinformazione può essere pericolosa. Ridurre la produzione e la circolazione delle fake news è difficile e pone problemi di libertà di espressione. Una possibile alternativa è cercare di renderle innocue con spazi di comunicazione sicuri.

Premessa: i ‘toot’ di Mastodon

In questi giorni sto sperimentando un po’ Mastodon, un social network non centralizzato come del resto era decentralizzata tutta la rete fino a qualche anno fa, con tanti server che dialogavano tra di loro in base a protocolli pubblici.

Di Mastodon avevo sentito parlare già da qualche anno e forse mi ero anche iscritto da qualche parte; il profilo che sto usando attualmente risale a fine agosto, prima quindi della “grande fuga da Twitter” dovuta all’arrivo di Elon Musk, ma non me ne faccio un vanto anche perché questo articolo parla solo collateralmente di Mastodon e di social media – se siete finiti qui aspettandovi spiegazioni tecniche, mi spiace ma dovrete andare altrove.

Inizio dalla mia esperienza su Mastodon perché in questi primi giorni sulla piattaforma ho scoperto un paio di caratteristiche interessanti. La prima è l’assenza del “retweet con commento“: puoi rispondere a un contenuto (che qui si chiamano toot), lo puoi condividere alle persone della tua comunità ma non puoi citarlo con un commento e questa, da quel che ho capito, non è una dimenticanza ma una scelta. Il “cita e commenta” è infatti usato per il cosiddetto “grandstanding“, il criticare non per far progredire una discussione ma per “mettersi sul podio”. Sul tema c’è un bel libro di Justin Tosi e Brandon Warmke.
La seconda cosa interessante di Mastodon è che la ricerca funziona solo sugli hashtag: se scrivo una cosa critica su Elon Musk nessun fan del nuovo proprietario di Twitter la troverà a meno che non decida di aggiungere #elonmusk.

Queste caratteristiche di Mastodon – e probabilmente anche altre che non ho ancora scoperto – mirano a contenere il linguaggio d’odio e la violenza verbale senza ricorrere alla moderazione dei contenuti o a sospensioni e cancellazioni di account, misure che comunque avverrebbero su un singolo server.
Non so quanto siano efficaci; non so neanche se Mastodon avrà un futuro o meno. Però avremmo bisogno di soluzioni simili anche per la disinformazione e le fake news.

Il problema delle fake news

Penso che si possa dare per scontato che le fake news siano un problema. Magari non tutti sono d’accordo su quanto siano pericolose e sull’efficacia e l’opportunità delle varie soluzioni prospettate, ma credo che tutti siano d’accordo sul fatto che in un mondo ideale le persone condividano informazioni che considerano vere e rilevanti.

Un po’ meno scontato capire cosa sia una fake news. Una notizia errata frutto di un serio lavoro giornalistico è una fake news? E una notizia inventata di sana pianta che si rivela casualmente vera? O un’informazione vera ma presentata in maniera ingannevole? A questa ambiguità del concetto di fake news – che avevo proposto di ribattezzare “pseudonotizie” – si aggiungono poi le difficoltà nel verificare i singoli casi: un bel problema se pensiamo di intervenire attraverso la censura, sia essa affidata a esseri umani o ad algoritmi. Senza dimenticare che impedire o comunque ostacolare la condivisione di fake news è una limitazione della libertà di espressione. Il che non significa che sia sbagliata, ma solo che bisogna rifletterci bene.

Se è una buona cosa permettere di criticare e mettere in dubbio qualsiasi affermazione, anche e forse soprattutto quelle vere, d’altra parte ci sono fake news che possono causare danni, come la disinformazione intorno a farmaci sicuri ed efficaci.

L’esempio classico è considerare i panettieri responsabili della scarsità di pane: un conto è presentare questa ipotesi in una pacata discussione sull’aumento dei prezzi, un altro è affermarlo davanti a una folla affamata e inferocita. Una versione ancora più semplice riguarda il gridare “Al fuoco!” in un teatro affollato. E certo è opportuno che le persone non gridino “Al fuoco!”, ma come impedirlo? Forse conviene controllare gli impianti di sicurezza ed evitare che ci sia troppa gente in teatro.

È possibile pensare a spazi di comunicazione in cui le fake news possano diffondersi senza fare danni? Non lo so, ma certamente non sono il primo a guardare al fenomeno della disinformazione ragionando anche sulle caratteristiche dei vari mezzi di comunicazione che, a seconda delle dinamiche che instaurano, possono favorire o meno determinati comportamenti.

Un promemoria sul ‘backfire effect’

Per affrontare un’informazione falsa non basta presentare i fatti. Cambiare idea, soprattutto quando queste idee hanno una particolare importanza, non è infatti solo una questione di acquisire nuove informazioni e la correttezza non è l’unico aspetto di cui tenere conto.

Questo lo si sa da ormai da qualche millennio: già il buon Aristotele indicava, a fianco del logos (grosso modo la logica dei fatti), anche l’ethos (l’essere brave persone, sempre grosso modo) e il pathos, le emozioni.
Più recentemente la tesi che i fatti non bastano viene argomentata col cosiddetto backfire effect. In poche parole: la semplice verifica delle informazioni (fact-checking o debunking) non solo non basta, ma può essere controproducente agendo, appunto, come un “ritorno di fiamma” (in italiano di parlerebbe di “effetto boomerang” ma non ho mai visto usare questa espressione per il backfire effect) rinforzando la credenza nell’informazione che si è cercato di smentire.

L’eccezione, non la regola

Il tutto parte da una ricerca di Brendan Nyhan e Jason Reifler intitolato “When Corrections Fail: The Persistence of Political Misperceptions” e pubblicato nel 2010 sulla rivista Political Behavior.

La ricerca è citata di continuo (recentemente l’ho trovata in un libro sulla disinformazione appena pubblicato) ed è comprensibile: è un aspetto del quale tenere conto. Solo che il backfire effect non è così frequente come si sarebbe portati a pensare e a ricordarlo è proprio uno dei due autori, Brendan Nyhan:

Read this! Widespread neglect of more recent studies since my paper. Key point: “while backfire may occur in some cases, the evidence now suggests it is rare rather than the norm…generally debunking can make people’s beliefs in specific claims more accurate”

Nyhan si riferisce a un report di una ventina di pagine curato da Full Fact (vedi Does the “backfire effect” exist—and does it matter for factcheckers?) che, dopo aver analizzato varie ricerche, conclude che questo effetto controproducente è l’eccezione, non la regola. Tutto questo ovviamente con l’aggiunta che è importante capire come rendere più efficace l’azione dei factcecker – nel testo si cita ad esempio la questione della fiducia che, tornando ad Aristotele, rientra nella parte di ethos.

Quella di Nyhan non è una ritrattazione, ma una precisazione che, quando si cita quel lavoro, andrebbe secondo me ripresa. E spero che questo piccolo fact-checking funzioni.

Letture in autoisolamento – o della scomparsa dei giornali

L’epidemia, la distanza sociale, l’autoisolamento come influiscono sulla vostra “dieta mediale”, insomma su quello che guardate, ascoltate e leggete?

Io ad esempio ho praticamente azzerato radio e audiolibri – che del resto ascoltavo soprattutto in viaggio –, la lettura di libri (cartacei ed ebook) è sostanzialmente invariata mentre la visione di film e serie tv credo sia leggermente aumentata. La televisione è sempre a zero

Ma il cambiamento principale – e quello che giustifica questo post – riguarda l’informazione.

Continua a leggere “Letture in autoisolamento – o della scomparsa dei giornali”

Contro il verismo del fact-checking

La verifica dei fatti è importantissima. Nel giornalismo come nella vita di tutti i giorni – che poi sui social media facciamo tutti qualcosa di simile al giornalismo –, è importante avere informazioni verificate e attendibili. E se questo controllo non è stato fatto, o se è sfuggito qualcosa, è importante far presente l’errore: per una correzione, per segnalare l’informazione errata agli altri utenti o, nella peggiore delle situazioni, per far capire che è meglio stare alla larga da quella fonte lì che pubblica un sacco di bufale.

Ma – è ovvio che sarebbe arrivato un “ma”, no? A parte il titolo che lascia intuire una critica al fact checking, quanto letto finora era la classica premessa del “non sono razzista ma”: come non aspettarsi un attacco alla verifica dei fatti?

La verità non basta

Il fatto è che la verità non basta. Nel senso: è ovvio che vogliamo informazioni vere, ma in realtà quello che davvero vogliamo – o che dovremmo volere – sono informazioni buone. Per cui informazioni che siano non solo vere, ma anche pertinenti alla discussione, che non siano ambigue e né troppo dettagliate né troppo superficiali. (Per chi se lo stesse chiedendo: sì, sto riprendendo le massime conversazionali di Grice).

Questo vale per le indicazioni stradali, per una discussione su quale film guardare, per un dibattito sul riscaldamento globale, per un reportage sui vaccini: la verità è uno dei fattori da prendere in considerazione. E possiamo avere una buona informazione non del tutto vera (per una semplificazione, ad esempio) e una cattiva informazione del tutto vera (perché incompleta o fuori contesto).

Soffermarsi unicamente sulla verità e trascurare gli altri aspetti non contribuisce a migliorare la circolazione dell’informazione. Anzi.
Si arriva al punto in cui alla critica verso un ministro di aver firmato un’intesa con la Cina, si risponde con il fact checking: in realtà il documento è stato firmato da dei funzionari. (Sì, è accaduto davvero). Il che è certamente vero, ma pare quantomeno poco pertinente riguardo al tema della critica.

Se si prende in considerazione unicamente la verità – e magari pure con pedanteria – si finisce per fare la figura di quello che alla domanda “scusi sa che ore sono?” risponde semplicemente “sì”.

La verità non è abbastanza

Poi, fateci caso: abbiamo parlato di “verifica dei fatti”, poi di “vero e falso”. Ma i fatti, tecnicamente, non sono né veri né falsi: al più lo sono le affermazioni intorno a quei fatti. Il mio viaggio in treno di venerdì mattina non è vero né falso: lo è l’affermazione “ho preso il treno delle 9.01”.

Finezze da filosofo, certo: del resto tutti ci capiamo se dico “è un fatto vero” – intendo che quello che ho detto su quel fatto è vero.
Tuttavia vedo, sui social media, il fact checking abbattersi pure su delle semplici fotografie, bollate come “informazione falsa”. Ma un’immagine, di per sé, non è vera o falsa: per esserlo dovrebbe affermare qualcosa – ma quello accade fuori dall’immagine.

Mi spiego meglio. L’immagine di un disco volante sui cieli di Washington non è né vera né falsa; è vera l’affermazione che è un fotogramma di ‘Ultimatum alla Terra’ di Robert Wise; è falsa l’affermazione che si tratta della prova che gli alieni esistono.
Poi certo, a volte basta inserire un’immagine in un articolo o pubblicarla online perché “lasci intendere” qualcosa. Il che può essere un problema – ma non è un problema di verità della foto, bensì di pertinenza o ambiguità.

Il verismo del fact checking

La morale è una cosa bellissima: sono quelle norme che cercano di indicare come ci si dovrebbe comportare in situazioni difficili. Poi c’è il moralismo, dove prendi quelle norme e le applichi pedissequamente per lavarti la coscienza.

Similmente, la verità è una cosa bellissima: indica quell’onestà alla quale dovremmo tendere nel diffondere informazioni. Poi c’è il verismo – ok, il nome è già stato preso da due-tre dignitosissime correnti artistiche, ma fate finta di nulla –, dove prendi l’esattezza e ne fai un dogma con cui zittire gli altri.

Quindi? Alla fine credo che una non piccola parte dei problemi relativi alla cattiva qualità dell’informazione – in generale, non solo giornalistica – si possa risolvere con un po’ di trasparenza. Dare un minimo di contesto alle informazioni (e a chi le sta fornendo) aiuta a capire quanto siano chiare, pertinenti, complete. E vere.

Ma poi che cos’è una fake news? Un apostrofo rosa messo tra le parole “documentati”

Sui social media mi sono imbattuto nella versione Bacio perugina del celeberrimo “bacio apostrofo rosa t’amo” di Rostand.

Continua a leggere “Ma poi che cos’è una fake news? Un apostrofo rosa messo tra le parole “documentati””

Macerie civili

Di rimbalzo la stragrande maggioranza dei quotidiani riprende la succosa vicenda e la quasi totalità di essi non vuole essere da meno nell’iniettare olio lubrificante nei cingoli delle già roboanti ruspe, fors’anche perché orfane, le redazioni dei giornali, del commento di un giurista, di un avvocato, di un laureato in giurisprudenza o persino di uno studente del terzo anno di legge, che possa rendere chiaro come nella notizia del risarcimento danni a favore del nomade non ci sia proprio nulla di straordinario, d’eccezionale o di paradossale. Almeno in uno Stato di diritto che si regge sulla tutela dei diritti e delle libertà fondamentali e che non fa differenza, quando si tratta di salvaguardare la vita e la salute degli esseri umani, se a rimetterci la pelle o a finire sulla sedia a rotelle sia un cittadino, uno straniero regolare o irregolare, un evasore o qualcuno che ossequia puntualmente le vessazioni fiscali […].

Rocco Todero, “Ruspe sullo Stato di diritto“, Il Foglio

In difesa delle “fake news”

Lo ammetto subito: il titolo di questo post è un’esca per attirare lettori, un click bait per capirci. Non intendo affatto difendere bufale e notizie inventate — per quanto, lo ammetto, non abbia molta simpatica per le soluzioni autoritarie talvolta proposte per contrastare il fenomeno, per cui potrei davvero trovarmi a difendere il diritto di scrivere e condividere baggianate.
Ma questo è un altro discorso: qui mi interessa una difesa linguistica delle fake news. È la parola, che voglio difendere, non il fenomeno.

Infatti, nel titolo, fake news è scritto tra virgolette, trucchetto da filosofi del linguaggio per indicare che si sta parlando, appunto, della parola, non di quello che indica.1
Perché a volte c’è bisogno di uno stolto che, mentre il saggio indica la Luna, guarda il dito, più che altro per capire se al saggio trema un po’ la mano e se non è meglio usare un bastone o un cannocchiale, per mostrare il nostro bel satellite agli altri.

Continua a leggere “In difesa delle “fake news””
  1. Trucchetto che rischia di appesantire la lettura, e visto che quello che sto scrivendo non è un saggio di filosofia del linguaggio, vi risparmio le virgolette nel testo. []

Di fatti e di bias

B00IN70LW4.01._SX280_SCLZZZZZZZ_V343842487_Sto leggendo News: Le notizie: istruzioni per l’uso di Alain de Botton.

Finora, il mio giudizio è riassumibile nel classico “è bravo ma non si applica”, anche se vista la quantità di libri che l’autore svizzero sforna probabilmente è più corretto il contrario, “si applica ma proprio non ce la fa”.
Nel libro ci sono alcune buone intuizioni sul mondo dell’informazione. Nulla di nuovo per chi conosca un po’ il tema, ma comunque intuizioni interessanti e esposte in maniera molto accattivante.
Il problema è come queste intuizioni vengono sviluppate da de Botton che dimostra una ossessione per l’idea che il giornalismo debba contribuire alla prosperità (flourishing) dell’umanità. Continua a leggere “Di fatti e di bias”