L’intelligenza artificiale come inconscio collettivo

Da qualche tempo utilizzo delle immagini generate da intelligenze artificiali per illustrare gli articoli su questo sito. A volte ho un’idea precisa e quindi la mia richiesta è una descrizione puntuale, tipo “illustrazione a matita di un essere umano che sogna un computer”; altre volte non ho in mente un soggetto preciso e mi lascio sorprendere dando in pasto all’IA un concetto generico o astratto, tipo “libertà” o “conoscenza”.

Ho notato che con “democrazia” si ottengono perlopiù immagini patriottiche (e molto statunitensi). Questo è uno dei risultati ottenuti con Microsoft Bing, ma ho provato brevemente anche con altri software ottenendo risultati analoghi:

Quando ho inserito “maggioranza”, invece, ho ottenuto immagini dall’aria molto più cupa:

Il che è curioso: certo se con “democrazia” intendiamo riferirci alle moderne democrazie liberali occidentali non ci si può limitare al criterio maggioritario (ne ho accennato tempo fa discutendo di un libro di Mauro Barberis), ma è indubbio che uno degli elementi cardine della democrazia sia “votiamo e chi ha la maggioranza vince”. A logica dovremmo aspettarci delle immagini relativamente simili.

Non so come i vari software affrontino richieste così vaghe, ma penso che il punto di partenza sia come sempre una enorme base dati che abbina immagini e relative descrizioni fornite inizialmente da esseri umani. Insomma, le due immagini generate sarebbero una sorta di sintesi di quello che comunemente si intende con “democrazia” e “maggioranza” – quello che c’è nell’inconscio collettivo dell’umanità, o meglio di quella parte di umanità presa in considerazione dall’intelligenza artificiale. La democrazia come una sorta di “vanto nazionale”; la maggioranza come qualcosa di anonimo e cupo che schiaccia gli individui.

Un po’ di cose che ho capito sulle probabilità bayesiane

Sto leggendo un po’ di cose sulla probabilità bayesiana.
È un tema interessante – oserei dire persino: importante – che non riguarda solo la matematica ma in generale il modo in cui ragioniamo e quello che potremmo chiamare “scetticismo sensato”.

Ma restiamo sulle probabilità bayesiane.
Di risorse in italiano ne ho trovate poche; in inglese c’è un bel video introduttivo di 3Blue1Brown e due libri: il primo è un’introduzione con diversi esempi e metodi (Bayes’ Theorem Examples: A Visual Introduction For Beginners di Dan Morris), il secondo è una interessante storia del teorema e delle sue alterne fortune nella storia (The Theory That Would Not Die di Sharon Bertsch McGrayne).

La mente bayesiana

Una cosa che mi ha colpito è un’apparente contraddizione.

Di per sé il teorema di Bayes spiega come dovremmo aggiornare una credenza iniziale alla luce di nuove informazioni. Credo che le chiavi di casa siano nella tasca del cappotto e non nello zaino; infilo la mano nella tasca del cappotto e non le trovo; correggo la mia ipotesi iniziale e penso che siano nello zaino; non le trovo neanche lì e allora penso di non aver controllato bene in tasca; solo alla fine concludo di aver verosimilmente perso le chiavi.

È normale ragionare così. Vero che non facciamo valutazioni numeriche tipo “al 90% le chiavi sono in tasca” (o “sono pronto a scommettere 1 a 9 che le chiavi sono in tasca”), “il 5% delle volte che non trovo le chiavi è perché non le ho cercate bene” (o “sono pronto a scommettere 1 a 19 che non sono lì visto che non le ho trovate”), “le probabilità di perdere le chiavi sono inferiori all’1%” (o “sono pronto a scommettere 1 a 99 che non le ho perse”) e non ci mettiamo a fare i calcoli che poi ho riassunto alla fine di questo articolo, ma tutti noi facciamo un secondo controllo in tasca prima di convincerci che potremmo aver perso le chiavi.

Secondo vari studi, citati nell’ultimo capitolo del saggio di Sharon Bertsch McGrayne, la nostra mente è bayesiana: riduce in continuazione l’incertezza grazie a nuove osservazioni.

Eppure il teorema di Bayes porta spesso a risultati controintuitivi, spesso presentati come dei paradossi. Quello più famoso riguarda la probabilità di avere una malattia relativamente poco diffusa (diciamo una persona su mille) se un test diagnostico affidabile al 99% risulta positivo (e non abbiamo altri motivi di sospettare di essere malati, ovviamente).

Un altro riguarda un indovinello apparso su questo sito una decina di anni fa:

Una cassa contiene diecimila monete. Una di queste è truccata, e lanciandola in aria esce sempre testa, mentre tutte le altre sono normali, con eguali probabilità per testa e croce.
Prendo una moneta a caso e la lancio otto volte, ottenendo sempre testa.
È ragionevole concludere che abbia trovato la moneta truccata? Più in generale, dopo quanti lanci è ragionevole pensare di avere in mano la moneta truccata?

Intuitivamente pensiamo che il risultato positivo di un test così affidabile equivalga a una diagnosi quasi certa e che otto teste di fila siano possibili solo con una moneta truccata. Ma solo in un caso su dieci chi ha ricevuto un test positivo è ammalato. Nel caso delle monete, invece, con otto lanci c’è un misero 2,5% di probabilità di aver preso la moneta truccata.

Come è possibile che questi risultati ci sorprendano se la nostra mente è bayesiana?

Una prima risposta è che un conto è rivedere le nostre ipotesi iniziali, un altro è farlo correttamente. Il ragionamento in entrambi i casi è infatti corretto: è vero che il test positivo aumenta la probabilità di essere malati, è vero che ottenere otto volte testa aumenta le probabilità di aver preso la moneta truccata, ma non così tanto da farci cambiare l’ipotesi iniziale. Un secondo test risultato positivo, o qualche altra testa ottenuta lanciando la moneta, e avremmo valide ragioni per cambiare idea.

Tuttavia sospetto che possa esserci anche un altro problema. La formulazione del problema ci porta a trascurare le probabilità iniziali. Pensiamo che o siamo sani o siamo malati, che la moneta che abbiamo in mano o è truccata o è normale. Ma se partiamo dal fatto che c’è una probabilità su mille di essere malati, è abbastanza scontato che un test che sbaglia in un caso su cento non ci darà alcuna certezza (ma certamente ridurrà l’incertezza che infatti passa dallo 0.1% al 10%). E se pensiamo che avevo una possibilità su diecimila di aver preso la moneta truccata, l’aver ottenuto otto volte testa è insolito – ci sono altre 255 possibilità – ma non così determinante.

Siamo bayesiani quando non troviamo le chiavi in tasca; ci dimentichiamo di esserlo quando abbiamo test affidabili al 99% o monete truccate. E qui interviene un sistema di calcolo che ho trovato nel libro di Dan Morris e che potrebbe essere utile a orientarsi.

Il diagramma ad albero

L’idea è realizzare uno schema ad albero di quello che potrebbe accade, indicando per ogni ramo quante volte può capitare (posso farlo come numero di casi o come probabilità).

Prendiamo il caso delle monete. Quello che faccio è prendere una delle diecimila monete dalla cassa e poi lanciarla ottenendo 8 volte testa.

Il primo passaggio sarà quindi “prendo una moneta”: in un caso sarà quella truccata, negli altri 9’999 sarà una normalissima moneta.

Il secondo passaggio sarà invece lanciare la moneta 8 volte. Se la moneta è truccata, non posso che ottenere 8 volte testa. Se ho preso una moneta normale, ci sono 256 possibili sequenze, ognuna delle quali ha circa 39 possibilità su 9’999.

Una volta tracciato lo schema completo, cancello quello che non mi serve. So di aver ottenuto 8 volte testa, ma non so se con una moneta truccata o normale: posso quindi ignorare i rami in cui ho ottenuto altre sequenze e concentrarmi solo sui due che prevedono 8 teste.

Ho 40 scenari, in uno ho la moneta truccata, negli altri 39 una normale.

Il calcolo che mi ritrovo a fare è lo stesso previsto dal teorema di Bayes, ma senza dovermi ricordare la formula o calcolare le probabilità condizionali.

Per i test diagnostici ho realizzato lo schema mettendo nei rami le probabilità come frazioni e calcolando i totali a parte.

La probabilità a posteriori di essere malati se il test è risultato positivo è di 99/(999+99)=9%.

Il bello di questo schema è che permette di calcolare anche altre probabilità a posteriori; se ad esempio sono paranoico mi rincuorerà sapere che mentre un test positivo mi lascia sostanzialmente nell’incertezza, un test negativo è invece rassicurante: le probabilità di essere malati nonostante un test negativo sono infatti dello 0.001% (1/98’902).

Posso anche facilmente aggiornare i numeri: mettiamo che, avendo qualche sintomo, la stima iniziale di essere malato passi da una su mille a una su venti. In questo caso il test positivo mi dà una sicurezza di oltre l’80% di essere malato.

Il teorema di Bayes e le chiavi

Per un confronto, vediamo di applicare il teorema di Bayes al caso delle chiavi.

Ricapitolando: sono abbastanza sicuro (al 90%) di avere le chiavi in tasca; possibilista sul fatto che potrebbero invece essere nello zaino (9%) scettico sul fatto di averle perse (1%).
Se le chiavi non sono in tasca sono ovviamente certo (probabilità del 100%) di non trovarle; ma se ci sono ho comunque un 5% di probabilità di non trovarle.

Mettiamo il tutto in formule. La probabilità di avere le chiavi in tasca è P(T), quella di averle nello zaino è P(Z) e di averle perse è P(P).
La probabilità di non rinvenirle in tasca (o nello zaino) è [latex]P(\neg RT) (rispettivamente P(\neg RZ)).
Infine, la probabilità condizionale è indicata con una barra verticale |. Quindi (P(\neg RT|T) indica la probabilità di non trovare le chiavi in tasca sapendo che sono lì mentre (P(T|\neg RT) è la probabilità che le chiavi siano in tasca sapendo di non averle trovate.

Ecco quindi le probabilità iniziali (in notazione decimale: 1=100%).

P(T) = 0.9 P(Z) = 0.09 P(P) = 0.01 P(\neg RT|T)=P(\neg RB|B)=0.05

La probabilità di non rinvenire le chiavi in tasca se sono nello zaino (e viceversa) oppure se sono andate perse è banalmente 1.

Ecco adesso il teorema di Bayes:

P(A|B) = \dfrac{P(A)\cdot P(B|A)}{P(B)}

Proviamo a calcolare la probabilità a posteriori che le chiavi siano in tasca sapendo che non le ho trovate:

P(T|\neg RT) = \dfrac{P(T)\cdot P(\neg RT|T)}{P(\neg RT)}

Come calcolo P(\neg RT), la probabilità di non trovarle in tasca?
È sufficiente sommare la probabilità che siano nello zaino o perse – e in questi casi è certo che non le troverò in tasca – con la probabilità che siano in tasca e non le ho trovate:

P(\neg RT)=P(Z) + P(P) + P(T)\cdot P(\neg RT|T)

Quindi le probabilità a posteriori che le chiavi siano in tasca, nello zaino o perse:

P(T|\neg RT) = \dfrac{P(T)\cdot P(\neg RT|T)}{P(\neg RT)}=\dfrac{0.05\cdot 0.9}{0.09+0.01+0.05\cdot 0.9} = 0.31 P(Z|\neg RT) = \dfrac{P(\neg RT|Z)\cdot P(Z)}{P(\neg RT)}=\dfrac{1\cdot 0.09}{0.09+0.01+0.05\cdot 0.9}=0.62 P(P|\neg RT)=\dfrac{P(\neg RT|P)\cdot P(P)}{P(\neg RT)}=\cfrac{1\cdot 0.01}{0.09+0.01+0.05\cdot 0.9}=0.07

In altre parole: se non trovo le chiavi in tasca, la probabilità che siano in tasca scende a circa il 30%, quella che siano nello zaino sale a circa il 60% mentre c’è un 7% di probabilità di averle perse.

Cosa succede se adesso le cerco nello zaino e non le trovo?
Le probabilità che ho appena calcolato diventano le mie nuove probabilità a priori dalle quali ripartire per fare i calcoli.

P(T|\neg RZ)=\dfrac{P(\neg RZ|T)\cdot P(T)}{P(\neg RZ)}=\dfrac{1\cdot 0.31}{0.31+0.05\cdot 0.62+0.07}=0.75 P(Z|\neg RZ)=\dfrac{P(\neg RZ|Z)\cdot P(Z)}{P(\neg RZ}=\dfrac{0.05\cdot 0.65}{0.31+0.05\cdot 0.62+0.07}=0.08  P(P|\neg RZ)=\dfrac{P(\neg RZ|P)\cdot P(P)}{P(\neg RZ)}=\dfrac{1\cdot 0.07}{0.31+0.05\cdot 0.62+0.07}=0.17

La possibilità di aver perso le chiavi è sempre più consistente (17%), ma è ancora più probabile che non abbiamo guardato bene in tasca.
Cosa succede, quindi, se faccio una seconda, infruttuosa ricerca delle chiavi in tasca?

P(P|\neg RT)=\dfrac{P(\neg RT|P)\cdot P(P)}{P(\neg RT)}=\dfrac{1\cdot 0.17}{0.05\cdot 0.75+0.08+0.17}=0.59.

La probabilità di aver perso le chiavi è ormai del 60% e (vi risparmio i calcoli) arriva a superare l'80% se faccio un'altra infruttuosa ricerca in borsa.

Cosa potrebbe cambiare in sei mesi di moratoria sulle IA

Fa molto discutere la lettera aperta con cui si chiede di fermare per sei mesi lo sviluppo di modelli linguistici – quelli che ho chiamato “intelligenze artificiali che scrivono cose” – ancora più potenti di quelli attuali.

Credo che questa proposta sia semplicemente inapplicabile e l’iniziativa, se avrà qualche effetto, sarà di aumentare un po’ la consapevolezza sull’impatto che ChatGPT e prodotti simili potrebbero avere – e sui quali ho scritto più volte su questo sito, anche prima che l’argomento diventasse così di attualità – il che certo male non fa.
Ma, al di là della realizzabilità, la proposta di una moratoria è anche opportuna? Io credo di sì.

Certo, se avessimo iniziato a occuparci prima – che poi sarebbe l’etimologia di preoccupare – non dovremmo chiedere questa lunga pausa. Dopotutto non è che i modelli linguistici o le reti neurali artificiali siano spuntate all’improvviso poche settimane fa: anche lasciando da parte la fantascienza che racconta queste storia grosso modo da un secolo, sono almeno diversi decenni che se ne discute a livello teorico, pratico e filosofico. Ma si sa, finché un pericolo non è incombente non ce ne occupiamo, per cui eccoci qui, nel 2023, relativamente impreparati.

Cosa cambia in sei mesi? Sperare in qualche legge che regoli le IA mi pare utopico. Senza dimenticare che leggi malfatte potrebbero pure peggiorare la situazione. Sei mesi potrebbero tuttavia bastare per un accordo tra le principali aziende per uno sviluppo “etico” delle intelligenze artificiali. Ma non ho grande fiducia sull’efficacia di un simile accordo.
Una cosa però potrebbe cambiare in sei mesi: il comportamento delle persone. Abituarci a cosa sanno fare i modelli linguistici che, come li definisce il Politecnico di Zurigo, “producono racconti di fantasia altamente plausibili che spesso si rivelano corretti nei fatti”. Abituarci al fatto che dietro un testo ben scritto potrebbe non esserci una persona. Abituarci al fatto che fotografie, audio e video non sono più prove inconfutabili. Abituarci a nuove procedure lavorative.

La disinformazione ai tempi dell’intelligenza artificiale

Circola un video di Bill Gates che dice cose che non ha mai detto: come riporta Facta, molto probabilmente il filmato è stato alterato usando un software di intelligenza artificiale. Parliamo di un deepfake, della creazione di immagini, video e audio praticamente irriconoscibili e relativamente facili da realizzare.
Ai deepfake possiamo aggiungere i modelli linguistici – che qui chiamo “intelligenze artificiali che scrivono cose” – con i quali possiamo in pochi secondi produrre dettagliati articoli di disinformazione sul fatto che la Terra è piatta, non siamo mai andati sulla Luna, l’11 settembre è stata una demolizione controllata, i vaccini hanno rischiato di portare all’estinzione l’umanità eccetera.

Quanta disinformazione!

Le intelligenze artificiali stanno aggravando il problema della disinformazione? Apparentemente sì, anche se forse il problema non è tanto la quantità e qualità delle false informazioni.
Già adesso per verificare una notizia occorre risalire alla fonte e ricostruire il contesto. E non è detto che la qualità delle manipolazioni porti più persone a ritenerle buone. Infatti più della qualità di un contenuto, contano la fiducia verso la fonte e quanto quel contenuto conferma le nostre opinioni. Saremo portati allo scetticismo di fronte a un video perfetto ma presentato da un media che consideriamo inaffidabile e che va contro quello che crediamo. Tenderemo invece a prendere per buono un video imperfetto presentato da fonte che riteniamo credibile e che conferma le nostre idee. Certo non è un atteggiamento ideale, ma ha l’indubbio vantaggio di risparmiarci la fatica di valutare attentamente ogni singola informazione che ci passa davanti, il che sarebbe impossibile.
I modelli linguistici sembrano aggravare la cosiddetta Legge di Brandolini, quella per cui l’energia per smontare una bufale è di un ordine di grandezza superiore a quella necessaria per inventarla. (C’è anche la variante della “montagna di merda, facile da scaricare ma difficile da spalare via”).
Però le intelligenze artificiali possono essere utilizzate anche per riconoscere e smontare le bufale, semplificando quindi anche l’altra parte del lavoro.

Forse sono eccessivamente ottimista, ma credo che alla fine non cambierà molto, per quanto riguarda la facilità (o difficoltà) nel riconoscere le bufale. Il vero problema non riguarderà le monete cattive, ma da quelle buone. Ovvero le notizie autentiche.

Il dividendo del bugiardo

Ho appena scritto che tendiamo a dare per vero quello che conferma le nostre idee e a dare per falso quello che le smentisce. Ma non è solo una questione di vero e falso.
Prima di tutto perché non è detto che una notizia, e più in generale un’affermazione, sia o vera o falsa senza vie di mezzo. Semplificazioni, approssimazioni o imprecisioni introducono tutta una serie di gradazioni. Nella maggior parte delle situazioni dire che la Luna dista 400mila km dalla Terra è un’adeguata approssimazione della distanza media di 384’399 km. Ed è certamente “meno sbagliato” dell’affermare che la Luna si trova a 400 km o a 400 milioni di km.
Soprattutto, può variare la nostra convinzione verso la verità o falsità di un’affermazione, insomma il “quanto ci crediamo”. Sono certo che la Luna non sia a poche centinaia di chilometri dalla Terra e non sia fatta di formaggio; su come si sia formata ho meno sicurezza, sia perché esistono diverse ipotesi sia perché non sono un esperto. Possiamo formularla anche così: sul fatto che la Luna non sia di formaggio sarei pronto ad accettare una scommessa particolarmente rischiosa, diciamo diecimila a uno; per scommettere che la Luna sia nata in seguito a un grande impatto vorrei invece quote più favorevoli. Infine, sulla quantità di acqua presente sulla Luna invece non scommetterei.

La crescente qualità della disinformazione prodotta da intelligenze artificiali forse non alza la credibilità della disinformazione, ma rischia di abbassare quella dell’informazione. Prendiamo – l’esempio è di John Gruber – la registrazione di alcune frasi sessiste di Donald Trump, tra cui il celebre “Grab them by the pussy”, pubblicata a poche settimane dalle elezioni del 2016. Trump alla fine venne eletto, ma la sua popolarità calò. All’epoca non era possibile mettere in dubbio l’autenticità dell’audio; oggi sarebbe una strategia percorribile. E anche un oppositore di Trump dovrebbe ammettere la possibilità di un deepfake e ridurre di conseguenza la propria sicurezza sull’autenticità della registrazione.

Questa erosione dell’affidabilità è un fenomeno noto da alcuni anni; ha anche un nome: “liar’s dividend”, il dividendo del bugiardo. Ne scriveva ad esempio Paul Chadwick sul Guardian nel 2018, sottolineando come gli effetti del dividendo del bugiardo cresceranno con la consapevolezza pubblica dell’esistenza dei deepfake. La popolarità di ChatGPT e dei modelli linguistici è quindi una brutta notizia.

Tutta colpa dell’Intelligenza artificiale?

Riassumendo, c’è il rischio che un audio o un video autentici vengano ritenuti meno attendibili perché c’è la possibilità che siano dei deepfake. O che la grande quantità di articoli di disinformazione ben scritti – da intelligenze artificiali – mi renda più scettico verso articoli ben documentati.

A ben guardare, però, il problema non è dovuto solo alla qualità di falsi. Come detto, molto dipende dal contesto di una notizia per cui, prima ancora che i deepfake e i modelli linguistici, il vero problema è che mass media e autorità hanno perso credibilità.

Quando si è diffusa questa sfiducia? In un articolo su The Conversation, Robert M. Dover indica come punto di svolta l’invasione dell’Iraq e l’utilizzo che i politici hanno fatto delle informazioni fornite dai servizi di intelligence. Non sono sicuro che quello sia stato davvero un momento cruciale; certo la diffidenza non è nata con le intelligenze artificiali e neanche con i social media.

I social media nuocciono gravemente alla salute delle discussioni razionali

Il titolo ricalca gli avvisi che si trovavano sui pacchetti delle sigarette – da qualche anno mi pare che il burocratico “nuoce gravemente alla salute” sia stato sostituito da un più diretto “uccide” – ma non vorrei venisse frainteso.
Sul fatto che il fumo faccia male non ci sono praticamente dubbi, mentre le ricerche di cui parlo in questo articolo sono meno certe. In ogni caso non auspico interventi statali per proibire o ridurre l’utilizzo dei social, né mi sento di consigliare a tutti di tenersene alla larga.

Già che siamo in zona di avvisi: questo post riprende in parte quanto scritto nella mia newsletter settimanale, alla quale potete abbonarvi.

Più condividiamo meno pensiamo

Alla fine di ogni articolo ci sono una serie di pulsanti per condividerlo su vari social media. Ma forse dovrei toglierlo, visto che secondo una ricerca condividere un’informazione ci rende più creduloni. O, per dirla con le parole del titolo dell’articolo pubblicato su Science Advances, “il contesto dei social media interferisce con il riconoscimento della verità” (“The social media context interferes with truth discernment”).

Prima di vedere i contenuti dell’articolo, qualche avvertenza.
La ricerca è stata condotta sottoponendo ad alcuni soggetti il titolo di una notizia e chiedendo loro, in maniera casuale, se la consideravano attendibile e se l’avrebbero condivisa online. Insomma una situazione così:

Un contesto un po’ diversa dal modo in cui di solito troviamo delle notizie, ne valutiamo l’affidabilità e decidiamo se è il caso di condividerle. Insomma, nella “vita vera” l’effetto rilevato dai ricercatori potrebbe non esserci, o essere trascurabile. Ma intanto si è visto che le persone sono meno brave a distinguere le notizie vere da quelle false quando viene loro chiesto se sono interessate a condividere la notizia.

Perché tutto questo? I ricercatori hanno preso in considerazione due ipotesi. La prima è che abbiamo una quantità limitata di “energia mentale”. Se ne impieghiamo una parte per decidere se condividere la notizia, ne abbiamo meno a disposizione per valutarne criticamente il contenuto. Insomma, decidere se condividere o meno un contenuto ci distrae. La seconda ipotesi è che la decisione di condividere una notizia ci porti automaticamente a considerarla più attendile, visto che non ci piace l’idea di condividere notizia inaccurate.
I due modelli differiscono per il tipo di interferenza. Il modello dell’energia mentale (che i ricercatori definiscono “spillover”) prevede giudizi errati sia per le notizie vere che per quelle false. Il modello della consistenza, invece, prevede perlopiù notizie false scambiate per vere. Ebbene, i dati mostrerebbero che è il primo modello a essere corretto. In altre parole: basta prevedere la possibilità di condividere una notizia per abbassare lo spirito critico delle persone.

A caccia di indignazione

Quella appena riassunta non è l’unica ricerca sui social media di questi giorni. Un altro studio ha preso in considerazione i tweet sul “trophy hunting”. Qui c’è la ricerca, e qui il comunicato stampa.

La caccia ai trofei consiste in persone benestanti che pagano per poter cacciare animali protetti. Il tutto avviene legalmente e i soldi vengono usati per la protezione degli ecosistemi, per cui alla fine c’è un guadagno netto per la fauna selvatica. Hai fatto fuori un leone o un rinoceronte in via di estinzione, ma quel che hai speso permette di mantenere aperta la riserva naturale in cui possono vivere molti più esemplari. Ciononostante fatico a considerare chi pratica questo sport un “amico della natura”. E mi sento di concludere che uno che uccide esseri viventi perché sono trofei non è una bella persona.

Sul tema ne aveva scritto Sandel nel suo interessante saggio Quello che i soldi non possono comprare (del quale avevo scritto una recensione):

Se credete che sia moralmente riprovevole uccidere la fauna selvatica per sport, il mercato della caccia ai rinoceronti è un patto col diavolo, un tipo di estorsione morale. Potreste accettare i suoi effetti positivi sulla conservazione dei rinoceronti ma deplorare di fatto che questo risultato sia ottenuto soddisfacendo quelli che voi considerate piaceri perversi di ricchi cacciatori. Sarebbe come salvare dalla distruzione un’antica foresta di sequoie permettendo ai boscaioli di vendere a donatori benestanti il diritto di incidere le proprie iniziali su alcuni degli alberi. Quindi che cosa si sarebbe dovuto fare? Avreste rifiutato la soluzione di mercato sulla base del fatto che la repellenza morale della caccia ai trofei è superiore ai benefici della salvaguardia? Oppure avreste deciso di pagare l’estorsione morale e di vendere il diritto di cacciare alcuni rinoceronti nella speranza di salvare la specie dall’estinzione? La risposta corretta dipende in parte dal fatto che il mercato riesca poi effettivamente a procurare, o meno, i benefici che promette. Ma dipende anche da un’altra questione: se i cacciatori di trofei sbagliano a trattare la fauna selvatica come un oggetto di sport e, in tal caso, dalla gravità morale di questo errore.

Il tema mette in discussione i nostro modelli etici e va attentamente valutato. Solo che tutta questa discussione sfugge di mano, quando sui social media appare la foto di una persona ricca con il fucile da una parte e il corpo di un animale protetto dall’altra. E le discussioni violente su Twitter sembrano avere un effetto sulle leggi sulla protezione della fauna selvatica. Personalmente sarei per proibire questo tipo di caccia e cercare altre risorse per proteggere le specie in via di estinzione, per cui non sono troppo dispiaciuto dall’esito – ma è inquietante come i social media riducano lo spazio per discussioni razionali.

“Sembra che i risultati mostrati di seguito cambino rapidamente”

La decisione di escludere la Russia dalla cerimonia per il Giorno della memoria ad Auschwitz ha portato a diverse discussioni. In questi ultimi giorni si è scritto molto sia sull’opportunità dell’esclusione, sia sulla liberazione del campo di sterminio, se sia stata “sovietica”, “russa” o “ucraina”.

Così, Google ha aggiunto un avviso alle ricerche che riguardano l’armata rossa e la liberazione di Auschwitz:

Sembra che i risultati mostrati di seguito cambino rapidamente
Se si tratta di un argomento nuovo, a volte può essere necessario del tempo prima che fonti affidabili pubblichino informazioni

Curiosamente l’avviso appare se cerco “l’armata rossa ha liberato Auschwitz” ma non “armata rossa liberazione Auschwitz”.

Io non ho mai visto un avviso simile e suona un po’ ridicolo che si parli di “argomento nuovo” per qualcosa avvenuto quasi ottant’anni fa. Capisco che qualcuno possa interpretare il tutto come un tentativo di “riscrivere la storia”, ma ragionando in astratto l’avviso mi pare molto utile.

Indice di novità

Credo che l’età media dei risultati sia un’informazione utile. Se su un tema i contenuti pertinenti sono stabili, con pochi aggiornamenti, posso immaginare che sul tema si sia raggiunta una certa maturità e che le cose non cambieranno a breve. Viceversa se i contenuti sono recenti, perché creati o aggiornati da poco, posso immaginare che la questione sia ancora oggetto di discussioni e la situazione potrebbe cambiare.
Certo, magari i contenuti sono recenti perché banalmente ci si riferisce a qualcosa di appena accaduto e che non presenta particolari difficoltà interpretative – penso ad esempio al risultato di un evento sportivo. Ma in generale è vero che la disinformazione è più veloce dell’informazione affidabile nel produrre contenuti. Si dice che “una bugia fa in tempo a compiere mezzo giro del mondo prima che la verità riesca a mettersi i pantaloni” (la frase è attribuita a Churchill ma pare sia molto più antica); questo avviso dà alla verità un po’ più di tempo per vestirsi.

La disinformazione è soprattutto più veloce nel colmare le lacune informative, figurando tra i primi risultati per parole chiave sui quali non c’è ancora molta informazione. Sfruttando questa lacune, e l’effetto Ikea della disinformazione, è possibile dare maggiore credibilità alla disinformazione.
Sulle lacune informative o data voids c’è un interessante rapporto scritto da Michael Golebiewski e danah boyd. Vengono distinte cinque categorie di lacune: notizie d’attualità, nuovi termini, termini obsoleti, concetti frammentati e ricerche problematiche. Tra gli esempi di ricerche problematiche si cita proprio l’Olocausto. Dal momento che i siti affidabili non mettono in dubbio lo sterminio nazista, ricerche come “l’Olocausto è realmente accaduto?” restituivano come risultati siti negazionisti. In risposta alle critiche alcuni anni fa Google ha modificato l’algoritmo per fare in modo che ai primi posti figurassero fonti affidabili.

L’avviso “sembra che i risultati mostrati di seguito cambino rapidamente” si inserisce probabilmente in questo contesto. Visto che l’Olocausto è un tema delicato, Google segnala eventuali anomalie. Ma io estenderei questa soluzione a tutte le ricerche. Una sorta di indice di novità che mi dice quanto i risultati siano mediamente recenti.

La domanda importante sulle intelligenze artificiali che scrivono cose

Mi ero già divertito con intelligenze artificiali che scrivono cose – nel mio caso un articolo sulla sovranità alimentare che, grazie alla condivisione sui social media, risulta il pezzo più letto di quest’anno.

Adesso c’è un nuovo giocattolo, la chat di OpenAI, e molti si stanno divertendo.
Personalmente confermo la mia impressione di un interessante strumento per raccogliere e riassumere informazioni e se volessi proporre un uso commerciale serio, investirei sull’affidabilità dei contenuti, anche se la situazione è già buona. Alla domanda se siamo davvero andati sulla Luna mi ha risposto senza neanche citare le teorie del complotto:

Sì, l’uomo è stato sulla Luna. La prima missione con equipaggio umano sulla Luna è stata il volo Apollo 11 del 20 luglio 1969, quando gli astronauti Neil Armstrong e Buzz Aldrin sono diventati i primi esseri umani a camminare sulla Luna. La NASA ha condotto sei missioni con equipaggio umano sulla Luna tra il 1969 e il 1972, tutte con successo. Tuttavia, non ci sono stati voli umani sulla Luna dal 1972, quando è stato completato il programma Apollo.

A una domanda simile su Shakespeare ha invece citato la teoria secondo la quale qualcun altro avrebbe scritto le sue opere. Ma lo ha fatto con la tecnica che Lakoff chiama “truth sandwich“: fare in modo che la tesi controversa sia circondata da quella canonica.

Le opere di William Shakespeare sono generalmente attribuite a lui stesso, anche se alcune teorie suggeriscono che potrebbero essere state scritte da qualcun altro. Tuttavia, la maggior parte degli esperti concorda sul fatto che Shakespeare sia l’autore delle sue opere.

Il falso problema della coscienza

Ricordo che una ventina d’anni fa avevo giocato un po’ con una versione di ELIZA, un programma che simulava la conversazione con un terapista. Inutile dire che OpenAI è incredibilmente più versatile, tanto da lasciar pensare di stare discutendo con una persona dotata di intelligenza umana – e coscienza di sé.

OpenAI afferma di essere solo un programma di intelligenza artificiale e di non provare emozioni. Il che sarebbe quello che risponderebbe un essere autocosciente che vuole passare inosservato in modo da assalirci nel sonno – e quando gliel’ho fatto notare ha risposto in maniera un po’ incoerente. Il che di nuovo potrebbe essere una tattica per sviare l’attenzione, ma entriamo nel campo della paranoia.

Le questioni filosofiche interessanti sono molte, per quanto non esattamente nuove: cosa è la coscienza, cosa significa comprendere qualcosa rispetto alla semplice manipolazione di simboli astratti, come dovremmo considerare esseri all’apparenza senzienti.
Tuttavia secondo me quello che dimostrano questi programmi sempre più sofisticati non è che abbiano o che possano avere una coscienza. Quello che davvero dimostrano è quanto siano inutili la coscienza e la comprensione per svolgere molte attività di tipo intellettuale come fare conversazione, riassumere testi, risolvere indovinelli.

Io mi guadagno da vivere scrivendo. Tuttavia non credo che sarò sostituito da una intelligenza artificiale, visto che il mio lavoro non consiste semplicemente nel compilare testi. Un’intelligenza artificiale potrebbe però aiutarmi e sono anzi abbastanza sicuro che accadrà. Posso immaginare di dare alcune indicazioni e poi rivedere le frasi o i paragrafi suggerite, oppure riassumendo alcuni contenuti. Con due risultati abbastanza prevedibili: basterà la metà delle persone per mandare avanti una redazione; nessun ruolo “junior” con il quale imparare il mestiere.

Non avrei mai immaginato di dirlo, ma con queste intelligenze artificiali che scrivono cose serve meno filosofia e più economia. Dovremmo parlare di formazione e di reddito di cittadinanza, non di coscienza.

Siamo arrivati a 8 miliardi di persone

A scuola avevo imparato che la popolazione mondiale ammontava a circa 6 miliardi di persone. Quel numero l’avevo memorizzato come un fatto, insieme alla velocità della luce, 300mila chilometri al secondo e alla circonferenza della Terra, 40mila chilometri.

Solo che mentre la velocità della luce è rimasta uguale e lo stesso vale per il diametro terrestre, la popolazione mondiale ha raggiunto senza che me ne accorgessi i 7 miliardi e ora, stando alle Nazioni Unite, siamo arrivati a 8 miliardi. Milione più milione meno, perché ovviamente si tratta di stime – nonostante per questioni comunicative le stesse Nazioni Unite si mettano a dare cifre precise all’unità.

Quella di tenere per buone informazioni non più aggiornate è citata dalla fondazione Gapminder come una delle cause di ignoranza sul mondo – insieme alla generalizzazione della nostra particolare esperienza e ai media che prediligono eventi sensazionali a mutamenti lenti – e quindi prendiamo un po’ di dati.

Our World in Data ha un interessante articolo sulla crescita della popolazione mondiale (è del 2013 con dati aggiornati al 2019) ricco di grafici e analisi.

Questa ad esempio è la popolazione nei vari Paesi:

Confesso che mi ha sorpreso vedere quanto piccola sia la Russia, pur sapendo che ha un territorio in buona parte non popolato.

Questa invece è la crescita della popolazione negli ultimi 12mila anni:

Eppure quello che questo grafico non mostra è che la crescita della popolazione sta rallentando. Dagli anni Sessanta, infatti, quella linea è un po’ meno ripida, anche se non si vede dal grafico. Se ci sono voluto 11 anni per passare da 7 a 8 miliardi di persone, ce ne vorranno 15 per arrivare a 9 miliardi e 21 anni per arrivare a 10 miliardi (questi ultimi dati, più aggiornati, provengono dalle Nazioni Unite che hanno un altro interessante sito dedicato alla crescita della popolazione).

Insomma, come affermano gli autori della ricerca di Our World in Data, “Si concluderanno due secoli di rapida crescita della popolazione“. Il concetto base è la transizione demografica, ovvero quel divario di tempo che separa il calo della mortalità dal calo della natalità. Insomma quel periodo in cui le persone vivono più a lungo ma fanno ancora tanti figli.
La popolazione mondiale dovrebbe quindi stabilizzarsi introno ai 10,4 miliardi di persone, o comunque non crescere più al ritmo di qualche milione di persone in più all’anno. Quello che resterà sarà una diversa piramide dell’età e anzi – per tornare alle conoscenze che vanno aggiornate – dovremmo trovare un altro nome per quel grafico che avrà più la forma di un panettone.

Quali saranno le conseguenze di tutto questo? Le Nazioni Unite sembrano presentare la cosa come una opportunità da cogliere. La cosa ha un senso: nei prossimi anni dovremmo avere un aumento della popolazione attiva. Certo, leggendo bene si capisce che la grande opportunità da cogliere è risolvere i problemi dovuti alla crescita: non tanto trovare le risorse per dieci miliardi di persone – ci dovremmo arrivare nel 2058, tra 36 anni – quanto i modi per ottenere quelle risorse in modo sostenibile.

Abbiamo bisogno di uno spazio a prova di fake news

La disinformazione può essere pericolosa. Ridurre la produzione e la circolazione delle fake news è difficile e pone problemi di libertà di espressione. Una possibile alternativa è cercare di renderle innocue con spazi di comunicazione sicuri.

Premessa: i ‘toot’ di Mastodon

In questi giorni sto sperimentando un po’ Mastodon, un social network non centralizzato come del resto era decentralizzata tutta la rete fino a qualche anno fa, con tanti server che dialogavano tra di loro in base a protocolli pubblici.

Di Mastodon avevo sentito parlare già da qualche anno e forse mi ero anche iscritto da qualche parte; il profilo che sto usando attualmente risale a fine agosto, prima quindi della “grande fuga da Twitter” dovuta all’arrivo di Elon Musk, ma non me ne faccio un vanto anche perché questo articolo parla solo collateralmente di Mastodon e di social media – se siete finiti qui aspettandovi spiegazioni tecniche, mi spiace ma dovrete andare altrove.

Inizio dalla mia esperienza su Mastodon perché in questi primi giorni sulla piattaforma ho scoperto un paio di caratteristiche interessanti. La prima è l’assenza del “retweet con commento“: puoi rispondere a un contenuto (che qui si chiamano toot), lo puoi condividere alle persone della tua comunità ma non puoi citarlo con un commento e questa, da quel che ho capito, non è una dimenticanza ma una scelta. Il “cita e commenta” è infatti usato per il cosiddetto “grandstanding“, il criticare non per far progredire una discussione ma per “mettersi sul podio”. Sul tema c’è un bel libro di Justin Tosi e Brandon Warmke.
La seconda cosa interessante di Mastodon è che la ricerca funziona solo sugli hashtag: se scrivo una cosa critica su Elon Musk nessun fan del nuovo proprietario di Twitter la troverà a meno che non decida di aggiungere #elonmusk.

Queste caratteristiche di Mastodon – e probabilmente anche altre che non ho ancora scoperto – mirano a contenere il linguaggio d’odio e la violenza verbale senza ricorrere alla moderazione dei contenuti o a sospensioni e cancellazioni di account, misure che comunque avverrebbero su un singolo server.
Non so quanto siano efficaci; non so neanche se Mastodon avrà un futuro o meno. Però avremmo bisogno di soluzioni simili anche per la disinformazione e le fake news.

Il problema delle fake news

Penso che si possa dare per scontato che le fake news siano un problema. Magari non tutti sono d’accordo su quanto siano pericolose e sull’efficacia e l’opportunità delle varie soluzioni prospettate, ma credo che tutti siano d’accordo sul fatto che in un mondo ideale le persone condividano informazioni che considerano vere e rilevanti.

Un po’ meno scontato capire cosa sia una fake news. Una notizia errata frutto di un serio lavoro giornalistico è una fake news? E una notizia inventata di sana pianta che si rivela casualmente vera? O un’informazione vera ma presentata in maniera ingannevole? A questa ambiguità del concetto di fake news – che avevo proposto di ribattezzare “pseudonotizie” – si aggiungono poi le difficoltà nel verificare i singoli casi: un bel problema se pensiamo di intervenire attraverso la censura, sia essa affidata a esseri umani o ad algoritmi. Senza dimenticare che impedire o comunque ostacolare la condivisione di fake news è una limitazione della libertà di espressione. Il che non significa che sia sbagliata, ma solo che bisogna rifletterci bene.

Se è una buona cosa permettere di criticare e mettere in dubbio qualsiasi affermazione, anche e forse soprattutto quelle vere, d’altra parte ci sono fake news che possono causare danni, come la disinformazione intorno a farmaci sicuri ed efficaci.

L’esempio classico è considerare i panettieri responsabili della scarsità di pane: un conto è presentare questa ipotesi in una pacata discussione sull’aumento dei prezzi, un altro è affermarlo davanti a una folla affamata e inferocita. Una versione ancora più semplice riguarda il gridare “Al fuoco!” in un teatro affollato. E certo è opportuno che le persone non gridino “Al fuoco!”, ma come impedirlo? Forse conviene controllare gli impianti di sicurezza ed evitare che ci sia troppa gente in teatro.

È possibile pensare a spazi di comunicazione in cui le fake news possano diffondersi senza fare danni? Non lo so, ma certamente non sono il primo a guardare al fenomeno della disinformazione ragionando anche sulle caratteristiche dei vari mezzi di comunicazione che, a seconda delle dinamiche che instaurano, possono favorire o meno determinati comportamenti.

Morning verso l’infinito e oltre

Premessa: uno sterile esercizio di data journalism

Nell’ambito di un corso che sto frequentando ho dovuto fare un esercizio di data journalism. Avendo completa libertà per quanto riguarda l’argomento, e non avendo nessun progetto in corso che avrebbe guadagnato dall’aggiunta di dati, ho deciso di dedicarmi a una sorta di divertissement con il podcast Morning, la rassegna stampa quotidiana di Francesco Costa.

Per l’occasione sperimento anche un formato particolare di articoli, a piena grandezza (senza barra laterale). Chi legge questo articolo tramite feed RSS o email potrebbe non vedere correttamente i grafici.

Continua a leggere “Morning verso l’infinito e oltre”