L’identità tra avere, essere e fare

Avere o essere? di Erich Fromm è uno di quei libri che da adolescente consideri fondamentale, crescendo trovi scontato e stucchevole per poi parzialmente rivalutarlo. Col rischio di risultare, a nostra volta, un po’ scontati e stucchevoli.

Semplificando brutalmente, vi sono due modi di vivere: uno basato sull’avere e uno sull’essere. Nel primo il valore è determinato da quel che si possiede; nel secondo da quelle che potremmo definire “qualità interiori” e che include la crescita personale, l’amore e l’empatia.

Credo che potremmo e forse dovremmo aggiungere una terza modalità di condurre e valutare la propria vita: il fare.

Intendiamoci: l’identità, il modo in cui ci vediamo e valutiamo, è un concetto vago e complesso. Il che è stato, almeno per me, il motivo che mi ha portato a ignorare le riflessioni di Fromm. Ma prendiamoli come modelli, delle astrazioni che non incontreremo mai che che ci aiutano a comprendere noi stessi e gli altri.
Il primo di questi modelli è quello di chi guarda a sé stesso, al proprio carattere e comportamento. Il secondo è di chi guarda a quello che possiede, al controllo che può avere sugli altri. Il terzo, quello che propongo di aggiungere, punta tutto su quello che si fa. O che si tenta di fare, perché non è importante il risultato, non è importante l’effettiva utilità di quello che si fa: quello che conta è il fatto di fare qualcosa anche se inutile, anche se dispersivo, anche se controproducente. Conseguentemente, il non fare nulla – anche se magari è l’unica cosa sensata da fare, visto che non tutto è sotto il nostro controllo – è una cosa negativa o comunque pone in una situazione di inferiorità rispetto a chi fa qualcosa.

Si tratta, lo ribadisco, di modelli astratti. Ma se c’è un campo in cui questo “modello del fare” trova incarnazione, è la politica. Un politico deve fare qualcosa, anche se quel qualcosa è inutile o addirittura dannoso; anche se alla fine è come se non avesse fatto nulla (pensiamo a una legge che risulta inapplicabile o viene dichiarata nulla), almeno ha fatto qualcosa.
Immagino sia una reazione all’accusa, rivolta periodicamente a chi fa politica, di esser bravi a ingannare il prossimo – cioè gli elettori – con le parole. Ma non è un grande progresso e anzi forse è un regresso, se quello che conta è il fatto di fare qualcosa, non il come lo si fa e gli effetti complessivi di quello che si è fatto.

La conclusione del libro di Fromm è che, tutto sommato, è meglio essere che avere.
Non so se mi sento di concludere che è meglio essere che fare. Il carattere e il temperamento sono due caratteristiche poco considerate, in politica – e forse dovremmo valutarle meglio, nello scegliere chi votare –, ma non ha molto senso demonizzare quello che una persona fa (e a pensarci bene neanche quello che una persona possiede).

Cosa potrebbe cambiare in sei mesi di moratoria sulle IA

Fa molto discutere la lettera aperta con cui si chiede di fermare per sei mesi lo sviluppo di modelli linguistici – quelli che ho chiamato “intelligenze artificiali che scrivono cose” – ancora più potenti di quelli attuali.

Credo che questa proposta sia semplicemente inapplicabile e l’iniziativa, se avrà qualche effetto, sarà di aumentare un po’ la consapevolezza sull’impatto che ChatGPT e prodotti simili potrebbero avere – e sui quali ho scritto più volte su questo sito, anche prima che l’argomento diventasse così di attualità – il che certo male non fa.
Ma, al di là della realizzabilità, la proposta di una moratoria è anche opportuna? Io credo di sì.

Certo, se avessimo iniziato a occuparci prima – che poi sarebbe l’etimologia di preoccupare – non dovremmo chiedere questa lunga pausa. Dopotutto non è che i modelli linguistici o le reti neurali artificiali siano spuntate all’improvviso poche settimane fa: anche lasciando da parte la fantascienza che racconta queste storia grosso modo da un secolo, sono almeno diversi decenni che se ne discute a livello teorico, pratico e filosofico. Ma si sa, finché un pericolo non è incombente non ce ne occupiamo, per cui eccoci qui, nel 2023, relativamente impreparati.

Cosa cambia in sei mesi? Sperare in qualche legge che regoli le IA mi pare utopico. Senza dimenticare che leggi malfatte potrebbero pure peggiorare la situazione. Sei mesi potrebbero tuttavia bastare per un accordo tra le principali aziende per uno sviluppo “etico” delle intelligenze artificiali. Ma non ho grande fiducia sull’efficacia di un simile accordo.
Una cosa però potrebbe cambiare in sei mesi: il comportamento delle persone. Abituarci a cosa sanno fare i modelli linguistici che, come li definisce il Politecnico di Zurigo, “producono racconti di fantasia altamente plausibili che spesso si rivelano corretti nei fatti”. Abituarci al fatto che dietro un testo ben scritto potrebbe non esserci una persona. Abituarci al fatto che fotografie, audio e video non sono più prove inconfutabili. Abituarci a nuove procedure lavorative.

La disinformazione ai tempi dell’intelligenza artificiale

Circola un video di Bill Gates che dice cose che non ha mai detto: come riporta Facta, molto probabilmente il filmato è stato alterato usando un software di intelligenza artificiale. Parliamo di un deepfake, della creazione di immagini, video e audio praticamente irriconoscibili e relativamente facili da realizzare.
Ai deepfake possiamo aggiungere i modelli linguistici – che qui chiamo “intelligenze artificiali che scrivono cose” – con i quali possiamo in pochi secondi produrre dettagliati articoli di disinformazione sul fatto che la Terra è piatta, non siamo mai andati sulla Luna, l’11 settembre è stata una demolizione controllata, i vaccini hanno rischiato di portare all’estinzione l’umanità eccetera.

Quanta disinformazione!

Le intelligenze artificiali stanno aggravando il problema della disinformazione? Apparentemente sì, anche se forse il problema non è tanto la quantità e qualità delle false informazioni.
Già adesso per verificare una notizia occorre risalire alla fonte e ricostruire il contesto. E non è detto che la qualità delle manipolazioni porti più persone a ritenerle buone. Infatti più della qualità di un contenuto, contano la fiducia verso la fonte e quanto quel contenuto conferma le nostre opinioni. Saremo portati allo scetticismo di fronte a un video perfetto ma presentato da un media che consideriamo inaffidabile e che va contro quello che crediamo. Tenderemo invece a prendere per buono un video imperfetto presentato da fonte che riteniamo credibile e che conferma le nostre idee. Certo non è un atteggiamento ideale, ma ha l’indubbio vantaggio di risparmiarci la fatica di valutare attentamente ogni singola informazione che ci passa davanti, il che sarebbe impossibile.
I modelli linguistici sembrano aggravare la cosiddetta Legge di Brandolini, quella per cui l’energia per smontare una bufale è di un ordine di grandezza superiore a quella necessaria per inventarla. (C’è anche la variante della “montagna di merda, facile da scaricare ma difficile da spalare via”).
Però le intelligenze artificiali possono essere utilizzate anche per riconoscere e smontare le bufale, semplificando quindi anche l’altra parte del lavoro.

Forse sono eccessivamente ottimista, ma credo che alla fine non cambierà molto, per quanto riguarda la facilità (o difficoltà) nel riconoscere le bufale. Il vero problema non riguarderà le monete cattive, ma da quelle buone. Ovvero le notizie autentiche.

Il dividendo del bugiardo

Ho appena scritto che tendiamo a dare per vero quello che conferma le nostre idee e a dare per falso quello che le smentisce. Ma non è solo una questione di vero e falso.
Prima di tutto perché non è detto che una notizia, e più in generale un’affermazione, sia o vera o falsa senza vie di mezzo. Semplificazioni, approssimazioni o imprecisioni introducono tutta una serie di gradazioni. Nella maggior parte delle situazioni dire che la Luna dista 400mila km dalla Terra è un’adeguata approssimazione della distanza media di 384’399 km. Ed è certamente “meno sbagliato” dell’affermare che la Luna si trova a 400 km o a 400 milioni di km.
Soprattutto, può variare la nostra convinzione verso la verità o falsità di un’affermazione, insomma il “quanto ci crediamo”. Sono certo che la Luna non sia a poche centinaia di chilometri dalla Terra e non sia fatta di formaggio; su come si sia formata ho meno sicurezza, sia perché esistono diverse ipotesi sia perché non sono un esperto. Possiamo formularla anche così: sul fatto che la Luna non sia di formaggio sarei pronto ad accettare una scommessa particolarmente rischiosa, diciamo diecimila a uno; per scommettere che la Luna sia nata in seguito a un grande impatto vorrei invece quote più favorevoli. Infine, sulla quantità di acqua presente sulla Luna invece non scommetterei.

La crescente qualità della disinformazione prodotta da intelligenze artificiali forse non alza la credibilità della disinformazione, ma rischia di abbassare quella dell’informazione. Prendiamo – l’esempio è di John Gruber – la registrazione di alcune frasi sessiste di Donald Trump, tra cui il celebre “Grab them by the pussy”, pubblicata a poche settimane dalle elezioni del 2016. Trump alla fine venne eletto, ma la sua popolarità calò. All’epoca non era possibile mettere in dubbio l’autenticità dell’audio; oggi sarebbe una strategia percorribile. E anche un oppositore di Trump dovrebbe ammettere la possibilità di un deepfake e ridurre di conseguenza la propria sicurezza sull’autenticità della registrazione.

Questa erosione dell’affidabilità è un fenomeno noto da alcuni anni; ha anche un nome: “liar’s dividend”, il dividendo del bugiardo. Ne scriveva ad esempio Paul Chadwick sul Guardian nel 2018, sottolineando come gli effetti del dividendo del bugiardo cresceranno con la consapevolezza pubblica dell’esistenza dei deepfake. La popolarità di ChatGPT e dei modelli linguistici è quindi una brutta notizia.

Tutta colpa dell’Intelligenza artificiale?

Riassumendo, c’è il rischio che un audio o un video autentici vengano ritenuti meno attendibili perché c’è la possibilità che siano dei deepfake. O che la grande quantità di articoli di disinformazione ben scritti – da intelligenze artificiali – mi renda più scettico verso articoli ben documentati.

A ben guardare, però, il problema non è dovuto solo alla qualità di falsi. Come detto, molto dipende dal contesto di una notizia per cui, prima ancora che i deepfake e i modelli linguistici, il vero problema è che mass media e autorità hanno perso credibilità.

Quando si è diffusa questa sfiducia? In un articolo su The Conversation, Robert M. Dover indica come punto di svolta l’invasione dell’Iraq e l’utilizzo che i politici hanno fatto delle informazioni fornite dai servizi di intelligence. Non sono sicuro che quello sia stato davvero un momento cruciale; certo la diffidenza non è nata con le intelligenze artificiali e neanche con i social media.

A proposito delle imposizioni linguistiche

Torno brevemente sulla questione “linguaggio inclusivo” e il parere che l’Accademia della Crusca ha fornito alla Corte di Cassazione.

Seguendo – lo confesso senza particolare entusiasmo – le discussioni sui social media, ho notato il ripresentarsi da parte dei contrari allo schwa del curioso argomento “la lingua non può essere imposta dall’alto”.

Definisco “curioso” questo argomento innanzitutto perché si riferisce proprio a un caso di imposizione: appunto il divieto di utilizzare lo schwa o l’asterisco per evitare il maschile sovraesteso e l’obbligo di utilizzare i femminili professionali. A stabilire queste imposizioni non è tanto l’Accademia della Crusca, che si è limitata a fornire un parere, ma – immaginando che aderisca alle raccomandazioni – la Corte di Cassazione che impone, nei suoi testi, alcune norme redazionali.

A rigor di logica, se si è contro ogni “imposizione dall’alto” della lingua, si dovrebbe difendere il diritto di poter scrivere, se una persona lo desidera, “ə denunciantə” in un atto giudiziario. Ma sarebbe una pessima idea e la corte non solo può, ma probabilmente deve imporre dall’alto delle scelte linguistiche.

Non è certo l’unica realtà a fare una cosa del genere: credo che tutti gli editori abbiamo un proprio “manuale di stile” che non si limitano a grammatica e ortografia standard. Nei libri di Einaudi ad esempio “più” e “così” hanno l’accento acuto anziché grave (piú e cosí); il manuale di stile della Associated Press sconsiglia di utilizzare “claim” (dichiara) perché può implicare scetticismo su quanto affermato; da qualche anno il Guardian scrive “crisi climatica” invece di “cambiamento climatico”.

Certo, alla fine decidono i parlanti, in base a quello che dicono e scrivono e in base a quello che considerano giusto e sbagliato. Ma questo non toglie che c’è chi ha l’autorità di stabilire delle norme – in contesti specifici o anche in generale, come accaduto con la riforma dell’ortografia tedesca –, chi magari non ha l’autorità ma comunque l’autorevolezza per farlo e chi alla fine può solo limitarsi a fare proposte.

E qui arriviamo al secondo motivo per cui definisco “curioso” l’argomento “la lingua non può essere imposta dall’alto”. Non solo è falso, visto che è possibile e giusto farlo; non solo è fuori luogo visto che il caso in questione è una (legittima) imposizione dall’alto. Ma l’argomento sottintende anche che quel che “arriva dall’alto” sia di per sé male mentre quello che “arriva dal basso” sia di per sé buono. Il che, soprattutto se “in alto” mettiamo delle presunte “élite”, mi pare un argomento decisamente populista.

Niente schwa nei testi giuridici

Mi è stata segnalato che “La Crusca dice basta asterischi e schwa perché ideologici“.

Il riferimento è a un documento che ha uno di quei titoli che mi piacciono tanto perché non dovrebbero lasciare spazio a fraintendimenti: L’Accademia risponde a un quesito sulla parità di genere negli atti giudiziari posto dal Comitato Pari opportunità del Consiglio direttivo della Corte di Cassazione.

Parliamo insomma di un parere – la Crusca non ha del resto poteri prescrittivi sulla lingua, se non la sua autorevolezza – e che riguarda un contesto ben particolare, ovvero il linguaggio giuridico. Non è un divieto generale all’utilizzo di soluzioni come il “carə tuttə” anche in altri contesti ai quali, si legge, «occorre per contro garantire la massima libertà».

Detto questo: sì, il documento è decisamente ostile verso quelli che definisce “segni eterodossi”. Ed è anche vero che, nella lunga premessa, si criticano i presupposti teorici del linguaggio inclusivo.

Non condivido appieno queste critiche, che mi paiono forzate soprattutto con l’accostamento alla cancel culture, ma condivido o comunque a considero ragionevoli le raccomandazioni pratiche.

  • Evitare le reduplicazioni come “cittadine e cittadini” (soluzione peraltro criticata anche dai sostenitori del linguaggio inclusivo in quanto escluderebbe le persone non binarie).
  • Evitare l’articolo davanti ai cognomi di donne.
  • Evitare asterischi e schwa.
  • Declinare al femminile i nomi di cariche e professioni, come “ingegnera”, “la giudice istruttrice” o “la presidente”.
  • Usare forme neutre o generiche come “le persone” o “il personale”.
  • Accettabilità del maschile “inclusivo” plurale (ma non di quello singolare) come “i dipendenti”.

Questo, come detto, in un contesto di linguaggio sorvegliato come quello giuridico. Sul quale peraltro la Crusca fa un paio di affermazioni che appaiono temerarie, viste le oscurità di alcuni testi giuridici. Mi riferisco al timore di arrivare “alla disomogeneità e all’idioletto”: intento nobile, ma direi che da quel punto di vista il linguaggio inclusivo è l’ultimo dei problemi.

Chiudo con una considerazione. Questa è una presa di posizione conservativa eppure sostiene con convinzione – si parla di «uso largo e senza esitazioni» – i femminili professionali. Penso che, dei tanti aspetti del linguaggio inclusivo, quello di “ingegnera” lo si possa ormai dare per assodato.

I social media nuocciono gravemente alla salute delle discussioni razionali

Il titolo ricalca gli avvisi che si trovavano sui pacchetti delle sigarette – da qualche anno mi pare che il burocratico “nuoce gravemente alla salute” sia stato sostituito da un più diretto “uccide” – ma non vorrei venisse frainteso.
Sul fatto che il fumo faccia male non ci sono praticamente dubbi, mentre le ricerche di cui parlo in questo articolo sono meno certe. In ogni caso non auspico interventi statali per proibire o ridurre l’utilizzo dei social, né mi sento di consigliare a tutti di tenersene alla larga.

Già che siamo in zona di avvisi: questo post riprende in parte quanto scritto nella mia newsletter settimanale, alla quale potete abbonarvi.

Più condividiamo meno pensiamo

Alla fine di ogni articolo ci sono una serie di pulsanti per condividerlo su vari social media. Ma forse dovrei toglierlo, visto che secondo una ricerca condividere un’informazione ci rende più creduloni. O, per dirla con le parole del titolo dell’articolo pubblicato su Science Advances, “il contesto dei social media interferisce con il riconoscimento della verità” (“The social media context interferes with truth discernment”).

Prima di vedere i contenuti dell’articolo, qualche avvertenza.
La ricerca è stata condotta sottoponendo ad alcuni soggetti il titolo di una notizia e chiedendo loro, in maniera casuale, se la consideravano attendibile e se l’avrebbero condivisa online. Insomma una situazione così:

Un contesto un po’ diversa dal modo in cui di solito troviamo delle notizie, ne valutiamo l’affidabilità e decidiamo se è il caso di condividerle. Insomma, nella “vita vera” l’effetto rilevato dai ricercatori potrebbe non esserci, o essere trascurabile. Ma intanto si è visto che le persone sono meno brave a distinguere le notizie vere da quelle false quando viene loro chiesto se sono interessate a condividere la notizia.

Perché tutto questo? I ricercatori hanno preso in considerazione due ipotesi. La prima è che abbiamo una quantità limitata di “energia mentale”. Se ne impieghiamo una parte per decidere se condividere la notizia, ne abbiamo meno a disposizione per valutarne criticamente il contenuto. Insomma, decidere se condividere o meno un contenuto ci distrae. La seconda ipotesi è che la decisione di condividere una notizia ci porti automaticamente a considerarla più attendile, visto che non ci piace l’idea di condividere notizia inaccurate.
I due modelli differiscono per il tipo di interferenza. Il modello dell’energia mentale (che i ricercatori definiscono “spillover”) prevede giudizi errati sia per le notizie vere che per quelle false. Il modello della consistenza, invece, prevede perlopiù notizie false scambiate per vere. Ebbene, i dati mostrerebbero che è il primo modello a essere corretto. In altre parole: basta prevedere la possibilità di condividere una notizia per abbassare lo spirito critico delle persone.

A caccia di indignazione

Quella appena riassunta non è l’unica ricerca sui social media di questi giorni. Un altro studio ha preso in considerazione i tweet sul “trophy hunting”. Qui c’è la ricerca, e qui il comunicato stampa.

La caccia ai trofei consiste in persone benestanti che pagano per poter cacciare animali protetti. Il tutto avviene legalmente e i soldi vengono usati per la protezione degli ecosistemi, per cui alla fine c’è un guadagno netto per la fauna selvatica. Hai fatto fuori un leone o un rinoceronte in via di estinzione, ma quel che hai speso permette di mantenere aperta la riserva naturale in cui possono vivere molti più esemplari. Ciononostante fatico a considerare chi pratica questo sport un “amico della natura”. E mi sento di concludere che uno che uccide esseri viventi perché sono trofei non è una bella persona.

Sul tema ne aveva scritto Sandel nel suo interessante saggio Quello che i soldi non possono comprare (del quale avevo scritto una recensione):

Se credete che sia moralmente riprovevole uccidere la fauna selvatica per sport, il mercato della caccia ai rinoceronti è un patto col diavolo, un tipo di estorsione morale. Potreste accettare i suoi effetti positivi sulla conservazione dei rinoceronti ma deplorare di fatto che questo risultato sia ottenuto soddisfacendo quelli che voi considerate piaceri perversi di ricchi cacciatori. Sarebbe come salvare dalla distruzione un’antica foresta di sequoie permettendo ai boscaioli di vendere a donatori benestanti il diritto di incidere le proprie iniziali su alcuni degli alberi. Quindi che cosa si sarebbe dovuto fare? Avreste rifiutato la soluzione di mercato sulla base del fatto che la repellenza morale della caccia ai trofei è superiore ai benefici della salvaguardia? Oppure avreste deciso di pagare l’estorsione morale e di vendere il diritto di cacciare alcuni rinoceronti nella speranza di salvare la specie dall’estinzione? La risposta corretta dipende in parte dal fatto che il mercato riesca poi effettivamente a procurare, o meno, i benefici che promette. Ma dipende anche da un’altra questione: se i cacciatori di trofei sbagliano a trattare la fauna selvatica come un oggetto di sport e, in tal caso, dalla gravità morale di questo errore.

Il tema mette in discussione i nostro modelli etici e va attentamente valutato. Solo che tutta questa discussione sfugge di mano, quando sui social media appare la foto di una persona ricca con il fucile da una parte e il corpo di un animale protetto dall’altra. E le discussioni violente su Twitter sembrano avere un effetto sulle leggi sulla protezione della fauna selvatica. Personalmente sarei per proibire questo tipo di caccia e cercare altre risorse per proteggere le specie in via di estinzione, per cui non sono troppo dispiaciuto dall’esito – ma è inquietante come i social media riducano lo spazio per discussioni razionali.

Il dodo e T. Bayes: immagini false ma sincere

Questo è un articolo sul dodo e sul reverendo T. Bayes, ma il tema non sono né gli uccelli estinti né il calcolo delle probabilità soggettive, bensì le immagini.

Un tacchino tozzo e pesante

Iniziamo dal dodo, animale solitamente descritto come tozzo e pesante. Coerentemente con le immagini che lo ritraggono – incluse quelle usate per il logo di questo sito (basata su un’illustrazione ottocentesca).

Ebbene: il dodo non era affatto così.
Il fatto è che la maggior parte delle illustrazioni che abbiamo sono state realizzate dopo l’estinzione, avvenuta alla fine del Seicento: non erano ritratti dell’originale ma copie di copie e si sono man mano accentuate le caratteristiche che ci si aspettava da un uccello pacifico, inerme ed estinto.

Alla base di molti di questi ritratti c’è poi il quadro del pittore fiammingo Roelant Savery:

Solo che Savery aveva visto un esemplare tenuto in cattività e probabilmente malato a causa dell’alimentazione a base di carne.
Non credo che in natura avesse l’aspetto atletico di uno struzzo, ma quel collo così ingrossato è probabilmente dovuto a una malattia al fegato.

Ho scoperto tutto questo grazie a un articolo pubblicato su Horizons, la rivista del Fondo nazionale svizzero per la ricerca scientifica, che riprende una tesi di bachelor sulla comunicazione visiva di Oliver Hoop:

Evoluzione delle immagini del dodo (immagine di Oliver Hoop).

Il reverendo T. Bayes

Passiamo adesso al reverendo Thomas Bayes (1701-1761), al quale si deve la formula per calcolare la probabilità di una causa che ha provocato l’evento verificato:

T. Bayes

Solo che questa immagine, che troviamo un po’ ovunque incluse molte copertine di libri, non è di Thomas Bayes.
È stata usata in un testo del 1936 con la seguente didascalia: “Rev. T. Bayes: Improver of the Columnar Method developed by Barrett”. Solo che, come spiega Sharon Bertsch McGrayne nel suo saggio The Theory That Would Not Die, il “Columnar Method” è stato sviluppato una cinquantina d’anni dopo la morte di Thomas Bayes. Del resto lo stile del ritratto, in particolare i capelli, non corrispondono. Evidentemente è esistito un altro T. Bayes (che magari si chiamava pure Thaddeus), dimenticato dalla storia ma non dall’iconografia.

Peraltro di Bayes si tende a sbagliare pure la data di morte, avvenuta il 7 aprile del 1761: per un errore di trascrizione alcuni riportano “17 aprile”, mentre altri confondo la data di morte con quella di inumazione, avvenuta il 15 aprile.

La verità delle immagini

Nell’articolo sui dodo, Hoop sottolinea come questo caso “mostra perché le illustrazioni scientifiche debbano essere molto precise”. Certo, per uno scienziato che cerca di ricostruire come viveva il dodo quelle immagini rappresentano un problema in quanto mostrano caratteristiche che gli animali in natura non possedevano. Ma per tutti noi il dodo è così, tozzo e sgraziato, e del resto nella maggioranza dei casi quelle immagini non hanno scopi naturalistici.

Discorso simile per l’immagine di Bayes: solo gli storici della scienza si interessano all’articolo (peraltro postumo) in cui Thomas Bayes parla delle probabilità che una palla rimbalzi da una parte o l’altra di un tavolo.

Le immagini di per sé non sono né vere né false: la verità (o falsità) è una cosa che riguarda non le cose, ma le proposizioni. A essere falsa non è l’immagine di un dodo, ma l’affermare (o il credere) che quell’immagine sia una rappresentazione fedele di un esemplare tipico di un uccello esistito secoli fa.
Di una immagine possiamo al più dire se è più o meno adeguata a una determinata funzione. Il che complica incredibilmente le cose.

I messaggini di Hancock tra paura e fiducia

Credo sia utile dire una cosa sui “Lockdown files” che il quotidiano britannico The Telegraph sta pubblicando. Si tratta di migliaia di messaggi dell’ex ministro della sanità Matt Hancock, quello che si è dovuto dimettere per aver violato le restrizioni sul distanziamento sociale.

Non mi pare ci siano rilevazioni che cambino radicalmente quello che già si sapeva o si poteva sospettare visto il personaggio. Tuttavia uno scambio di messaggi ha dato il via a diverse discussioni online ed è stato anche ripreso dalla BBC.

In quei messaggi Hancock parla del “rilascio” (deploy) di una nuova variante del coronavirus per spaventare la popolazione (frighten the pants of everyone). Siti come BUTAC sono subito intervenuti spiegando che il riferimento è all’annuncio della scoperta della nuova variante, non alla sua diffusione tra la popolazione. Aggiungo anche che Hancock indica chiaramente che la paura ha lo scopo di far rispettare le restrizioni.

Ora, può essere che qualcuno abbia davvero preso quel “deploy” scritto da Hancock come prova del complotto del virus inesistente o creato in laboratorio come parte di un piano per dominare il mondo. Ma sinceramente non ho visto nessuno sostenerlo. La smentita di BUTAC mi pare quindi uno straw man argument.
Ho invece visto citare lo scambio di messaggi come conferma del fatto che le decisioni dei governi non erano basate sulla scienza e non erano prese per il bene della popolazione. Al contrario, la scienza si era sottomessa alla politica e alla sua volontà di controllo.

È una interpretazione che non condivido affatto. Ma che non posso pensare di contrastare semplicemente dicendo che Hancock parlava dell’annuncio e non del rilascio. Quella precisazione non tocca il punto più importante di quei messaggi, ovvero l’esistenza di un piano per spaventare la popolazione (come ha titolato la BBC: “Leaked messages suggest plan to frighten public”).
Siamo nella situazione in cui un governo, invece di informare in maniera completa e obiettiva la popolazione, punta tutto sulla paura. Invece di spiegare le motivazioni alla base dei vari provvedimenti si spaventano le persone, con un paternalismo che sarebbe inaccettabile anche ad aver a che fare con dei veri bambini – spieghi che le scale per la cantina sono pericolose, non che c’è un mostro nel seminterrato. Il tutto, ovviamente, senza rispettare le restrizioni imposte agli altri.

È un comportamento che era già emerso prima dei messaggi trapelati. Ma non per questo meno grave: agendo così si è ridotta, e a ragione, la fiducia verso le autorità (in questo caso britanniche, ma il discorso è chiaramente più ampio). Ricostruire questa fiducia non sarà semplice, ma il primo passo è certamente denunciare chiaramente le cose che non hanno funzionato, anche se vuol dare un briciolo di ragione a dei complottisti.

Ricerche scolastiche in biblioteca

Per una ricerca di storia di prima media, il docente di mio figlio ha dato alcune indicazioni che ho trovato molto interessanti.

La prima è di iniziare cercando informazioni in biblioteca. Cosa non banale, visto che parliamo di nativi digitali la cui prima reazione, molto probabilmente, è inserire il titolo del compito su Google, YouTube o ChatGPT.

La seconda indicazione è una “guida alla consultazione di eventuali siti internet“.

Si tratta di un sito specializzato? (ad es., un’università o un’organizzazione che si occupa si storia).

È un sito che vive di pubblicità o che vende un prodotto?

Il contenuto che leggi sul sito riporta il nome dell’autore? (può essere una persona o un’organizzazione o può esserci scritto semplicemente ‘redazione’).

Se si, chi è? È una persona/organizzazione esperta di storia? (controlla cercando il suo nome sul web).

C’è qualche forma di verifica/controllo su quello che l’autore scrive?

Il contenuto è scritto o presentato in maniera professionale e accurata?

Nella pagina web che stai leggendo sono presenti commenti di utenti o di esperti che confermano l’informazione?

Alcuni di questi controlli portano a escludere completamente un sito; altri (come i commenti di utenti) portano a un “prosegui ma fai attenzione”.

Mi paiono consigli molto sensati e utili.
Quello che mi rattrista è che questo sito verrebbe escluso al primo passaggio. Peraltro giustamente, visto che se per caso avessi scritto qualcosa sulle tecniche di sepoltura dell’epoca Shang l’avrei fatto senza una particolare competenza. Ma anche per argomenti sui quali un po’ di competenza ce l’ho, difficilmente si può considerare questo un “sito specializzato”.

ChatGPT e la verità come coerenza

Ormai anche chi ha seguito distrattamente il dibattito avrà capito che di ChatGPT – e analoghi servizi di generazione testi basati su modelli linguistici – ci si può fidare fino a un certo punto.

Il problema sta nelle cosiddette allucinazioni che, nel caso delle intelligenze artificiali, non sono dovute a strane sostanze ma al modo in cui funzionano questi modelli linguistici di grandi dimensioni. Semplificando – e accetto suggerimenti per descrizioni migliori –, l’algoritmo reagisce agli input dell’utente in base alle parole che risultano più probabili in base all’immensa base dati utilizzata per l’addestramento. Solo che le frasi generate in base agli abbinamenti più verosimili possono contenere affermazioni non vere, pur basandosi su informazioni corrette. Allucinazioni, appunto.
Il campionario di queste allucinazioni è abbastanza vario, da errori matematici a fatti mai avvenuti. Certo non è che ChatGPT sia un mentitore seriale: gli errori sono anzi relativamente rari, il che rende ancora più difficile per noi umani identificare gli errori. Ma di questo ho già scritto.

Qui vorrei analizzare brevemente la solidità filosofica di una delle spiegazioni di queste allucinazioni. I modelli linguistici sono fatti per produrre testi coerenti, non testi veri. E questo perché si basano su come le parole si relazionano tra di loro, non su come le parole si relazionano con il mondo.

Due modelli di verità

Questa spiegazione presuppone che la verità sia “adaequatio rei et intellectus”, insomma che una frase sia vera se corrisponde alla realtà. È una tesi filosofica con una lunga storia e che ha anche il pregio di accordarsi con la nostra intuizione. Se Tizio dice “piove” e Caio invece dice “c’è il sole”, per sapere chi dice il vero e chi il falso guardo fuori dalla finestra. Confrontando le due affermazioni con la realtà.

Solo che le cose potrebbero non essere così semplici. Ammesso che l’esempio metereologico lo sia davvero, semplice: quando deve essere nuvoloso, per dire che non c’è il sole? E una pioggerellina quasi impercettibile vale come pioggia? E la neve o la grandine?

Ma se Tizio avesse invece detto “ho voglia di mangiare una torta al cioccolato”, a cosa corrisponderebbe di preciso questa sua affermazione? E come la verifico? Se la verità o falsità dell’affermazione “sono nato il 4 novembre 1978” risiede nella corrispondenza tra quella frase e quanto accaduto il 4 novembre del 1978, che possibilità ho di sapere se quella frase è vera o falsa non avendo a disposizione una macchina del tempo?
C’è poi il problema filosofico di come possa un’affermazione, diciamo un insieme di concetti collegati tra loro, corrispondere a uno stato di cose.

A ogni modo, ChatGPT certamente non può verificare che le proprie affermazioni corrispondano a uno stato di cose. Probabilmente non saprebbe neanche indicare quali sarebbero, gli stati di cose corrispondenti alle proprie affermazioni.

Ma ci sono anche altre teorie della verità. E una di queste, il coerentismo, ricorda proprio la costruzione dei modelli linguistici: una affermazione è vera se è coerente con un insieme di altre affermazioni alle quali crediamo. Questa teoria – che è ovviamente più complessa di come l’ho qui riassunta – non si accorda con la nostra intuizione, ma si accorda con quello che facciamo. Perché le situazioni in cui possiamo guardare fuori dalla finestra per stabilire la verità o falsità di un’affermazione sono relativamente rare. Nella stragrande maggioranza dei casi la verifica è il confronto non con uno stato di cose, ma con altre affermazioni. Tizio dice che piove, Caio che c’è il sole, chiediamo a Sempronio. “Ho voglia di mangiare una torta al cioccolato” è falso perché chi lo dice mangia solo torte al limone; sui documenti personali è effettivamente riportata la data “4/11/1978”.

La coerenza di ChatGPT

Ora, non voglio dire che il corrispondentismo sia sbagliato e il coerentismo giusto: del resto quando diciamo che la terra è rotonda ci esprimiamo sull’effettiva forma della terra, non sulla coerenza di questa affermazione con i mappamondi e le immagini satellitari. Tuttavia in alcune (molte) circostanze, ci comportiamo da coerentisti e non da corrispondentisti. E ce la caviamo abbastanza bene nello stabilire la verità o la falsità delle affermazioni – o almeno nell’accordarci tra di noi.

Perché ChatGPT, invece, non ci riesce e, per quanto occasionalmente, si inventa cose false pur partendo da affermazioni corrette? Dopotutto, si basa proprio sulla coerenza di affermazioni diverse – e su una quantità di testi incredibilmente maggiore di quelli concretamente disponibili a un essere umano. Come è possibile che – per citare qualche esempio – si inventi testi di canzoni, sbagli a calcolare gli interessi e a ordinare le dimensioni degli stati?

Credo che la risposta, molto banale, sia che i modelli linguistici prendono in considerazione una coerenza che non riguarda la verità ma al massimo la persuasività. Non è solo il fatto che ChatGPT ignori, salvo forse alcuni casi particolari, il significato di frasi e parole: dopotutto ignora anche le regole della grammatica, ma riesce ugualmente a formare frasi formalmente corrette e anzi ben scritte.

Il fatto è che non valutiamo la coerenza di una affermazione confrontandola con un insieme indistinto di altre affermazioni, ma con una rete strutturata di conoscenze e credenze. Rete che cambia a seconda del tipo di affermazione che voglio controllare e delle circostanze.

Il problema non è che ChatGPT considera la coerenza senza interessarsi agli stati di cose. Il problema è che non è in grado di modellizzare le reti di conoscenze e credenze necessarie a stabilire la verità per coerenza. Mi chiedo se queste reti siano effettivamente modellizzabili; ma forse non sarà necessario e la soluzione al problema delle allucinazioni arriverà da qualche altra parte.