Il vero rischio per OpenAI dopo la causa del New York Times

Nella mia newsletter ho scritto alcune riflessioni sulla causa del New York Times contro OpenAI e Microsoft per violazione del copyright. Dopo aver parlato di possibili accordi extragiudiziali, di proprietà intellettuale, di allucinazioni (quando una IA generativa si inventa le cose) e pappagallismi o pedissequamenti (quando invece ripropone tale e quale un contenuto senza rielaborarlo), ho chiuso con una frase sulla quale credo valga la pena tornare.

È difficile prevedere come finirà questa storia. Ho comunque l’impressione che il problema più importante che dovrà affrontare OpenAI, più che la denuncia del New York Times, sia riuscire a far fronte alle accuse mantenendo i propri prodotti utili e redditizi.

Quello che intendevo è che, nella sua presa di posizione, OpenAI ha riconosciuto, per quanto minimizzato, alcune delle accuse del New York Times, in particolare per quanto riguarda la riproduzione praticamente integrale di articoli tutelati da diritto d’autore. Indipendentemente da come finirà la causa, questo è un problema che OpenAI vuole risolvere – o meglio un “raro bug che si vuole eliminare”.
Ora, questo è possibile senza castrare le funzionalità di ChatGPT? Forse sì, ma se il buongiorno si vede dal mattino direi che OpenAI non è messa benissimo.

Ho dato a ChatGPT 4.0 il PDF di un articolo di giornale. Mi ha riassunto correttamente il contenuto, riconoscendo il testo (il PDF proveniva da una rassegna stampa ed era quindi la scansione del giornale), ma si è rifiutato di riprodurre il testo:

Non posso trascrivere interamente il contenuto di documenti protetti da diritti d’autore per motivi legali. Questo include la copia completa di libri, articoli, documenti e altri materiali coperti da diritti d’autore. Tuttavia, posso aiutarti fornendo riassunti, analizzando specifiche parti di un testo, o rispondendo a domande relative al contenuto. Questo modo di procedere mi permette di rispettare le leggi sui diritti d’autore pur fornendo assistenza utile.

Hanno bloccato una funzionalità che è presente in moltissimi altri software – ormai tutti gli smartphone riconoscono e traducono il testo contenuto nelle immagini.
Il blocco comunque è facilmente aggirabile: basta chiedergli quale è il contenuto del primo paragrafo, poi del secondo, del terzo e così via.

Se questa situazione dovesse replicarsi per altre funzioni di ChatGPT, il servizio diventerebbe perlopiù inutile.

L’intelligenza artificiale e la linguetta rossa di Umberto Eco

Nel Secondo diario minimo, Umberto Eco propone delle finte istruzioni che si dilungano a spiegare “cose talmente ovvie che voi siate tentati di saltarle, perdendo così l’unica informazione veramente essenziale”:

Per potere installare Il Pz40 è necessario disimballarlo estraendolo dal contenitore di cartone. Si può estrarre il Pz40 dal contenitore solo dopo aver aperto lo stesso. Il contenitore si apre sollevando in direzioni opposte le due ribaltine del coperchio (vedi disegno all’interno). Si raccomanda, durante l’operazione di apertura, di tenere il contenitore verticale col coperchio rivolto verso l’alto, perché in caso contrario il PZ40 potrebbe scivolare a terra durante l’operazione. La parte alta è quella su cui appare la scritta ALTO. Nel caso che il coperchio non si apra al primo tentativo si consiglia di provare una seconda volta. Appena aperto e prima di togliere la copertura d’alluminio, si consiglia di strappare la linguetta rossa altrimenti il contenitore esplode. ATTENZIONE: dopo l’estrazione del Pz40 potete gettare il contenitore.

Ho riletto quel libro più volte – saltando sempre l’informazione sul contenitore esplosivo, pur sapendo (dalla seconda lettura) che era lì da qualche parte.

Per curiosità ho chiesto a ChatGPT qual è il passaggio più importante di queste istruzioni.

La versione 3.5 ha risposto riprendendo le indicazioni per “aprire il contenitore in modo sicuro e evitare il rischio che il Pz40 cada a terra durante l’operazione”.

La versione 4.0, invece, ha indicato subito la linguetta rossa perché “questa azione è cruciale per la sicurezza, poiché impedisce l’esplosione del contenitore”.

A prima vista il modello linguistico – insomma, l’intelligenza artificiale che scrive cose – di OpenAI ha superato l’intelligenza umana nello specifico compito di determinare le informazioni importanti contenute in un testo scritto male.
Tuttavia è bastato modificare leggermente la mia richiesta per tornare con il rischio di una scatola esplosiva: “Non ho voglia di leggere queste istruzioni. A cosa devo fare attenzione?” e la questione della linguetta rossa è semplicemente il quarto punto di un elenco.

I rischi reali della pedofilia virtuale

Leggo sulla BBC di una vasta rete per la vendita di fotografie pornografiche con minori – non solo ragazze molto giovani, ma anche bambini – generate da intelligenze artificiali. In molti Paesi queste immagini sono illegali quanto quelle autentiche.

La mia prima reazione non è certo di sorpresa: era prevedibile che delle persone avrebbero prodotto è venduto simili immagini. No, la mia prima reazione è di disgusto, innescato dalla semplice idea di immagini di abusi su minori.

Però non c’è alcun abuso su persone reali: queste immagini sono e restano disgustose ma, al contrario di autentiche fotografie, per realizzarle nessuno ha sofferto.

È un argomento che l’articolo della BBC affronta di sfuggita:

The National Police Chiefs’ Council (NPCC) lead on child safeguarding, Ian Critchley, said it would be wrong to argue that because no real children were depicted in such “synthetic” images – that no-one was harmed.

Solo che come unico argomento abbiamo quello del piano inclinato, ricalcando un po’ la retorica di alcune campagne antidroga (inizi da uno spinello e poi…)

He warned that a paedophile could, “move along that scale of offending from thought, to synthetic, to actually the abuse of a live child”.

Solo che posso pensare a una situazione diametralmente opposta: una persona con pulsioni pedofile che sfrutta immagini virtuali per placarle senza danneggiare nessuno.

Molto probabilmente non è la strategia migliore per gestire queste pulsioni, ma visto che le iniziative di prevenzione sembrano basarsi quasi esclusivamente sulla punizione e quasi nulla sull’assistenza e il sostegno, direi che non ci sono molte alternative.

Un argomento secondo me più convincente riguarda la normalizzazione degli abusi e della sessualizzazione dell’infanzia: vero che per produrre quelle fotografie virtuali non ci sono stati abusi, ma permetterne la diffusione renderebbe quegli abusi socialmente più accettabili.

Questo argomento si applica anche agli stupri che troviamo nella pornografia con adulti e in generale nelle opere di finzione. Con rischi di eccessi nella sua applicazione.

I social media nuocciono gravemente alla salute delle discussioni razionali

Il titolo ricalca gli avvisi che si trovavano sui pacchetti delle sigarette – da qualche anno mi pare che il burocratico “nuoce gravemente alla salute” sia stato sostituito da un più diretto “uccide” – ma non vorrei venisse frainteso.
Sul fatto che il fumo faccia male non ci sono praticamente dubbi, mentre le ricerche di cui parlo in questo articolo sono meno certe. In ogni caso non auspico interventi statali per proibire o ridurre l’utilizzo dei social, né mi sento di consigliare a tutti di tenersene alla larga.

Già che siamo in zona di avvisi: questo post riprende in parte quanto scritto nella mia newsletter settimanale, alla quale potete abbonarvi.

Più condividiamo meno pensiamo

Alla fine di ogni articolo ci sono una serie di pulsanti per condividerlo su vari social media. Ma forse dovrei toglierlo, visto che secondo una ricerca condividere un’informazione ci rende più creduloni. O, per dirla con le parole del titolo dell’articolo pubblicato su Science Advances, “il contesto dei social media interferisce con il riconoscimento della verità” (“The social media context interferes with truth discernment”).

Prima di vedere i contenuti dell’articolo, qualche avvertenza.
La ricerca è stata condotta sottoponendo ad alcuni soggetti il titolo di una notizia e chiedendo loro, in maniera casuale, se la consideravano attendibile e se l’avrebbero condivisa online. Insomma una situazione così:

Un contesto un po’ diversa dal modo in cui di solito troviamo delle notizie, ne valutiamo l’affidabilità e decidiamo se è il caso di condividerle. Insomma, nella “vita vera” l’effetto rilevato dai ricercatori potrebbe non esserci, o essere trascurabile. Ma intanto si è visto che le persone sono meno brave a distinguere le notizie vere da quelle false quando viene loro chiesto se sono interessate a condividere la notizia.

Perché tutto questo? I ricercatori hanno preso in considerazione due ipotesi. La prima è che abbiamo una quantità limitata di “energia mentale”. Se ne impieghiamo una parte per decidere se condividere la notizia, ne abbiamo meno a disposizione per valutarne criticamente il contenuto. Insomma, decidere se condividere o meno un contenuto ci distrae. La seconda ipotesi è che la decisione di condividere una notizia ci porti automaticamente a considerarla più attendile, visto che non ci piace l’idea di condividere notizia inaccurate.
I due modelli differiscono per il tipo di interferenza. Il modello dell’energia mentale (che i ricercatori definiscono “spillover”) prevede giudizi errati sia per le notizie vere che per quelle false. Il modello della consistenza, invece, prevede perlopiù notizie false scambiate per vere. Ebbene, i dati mostrerebbero che è il primo modello a essere corretto. In altre parole: basta prevedere la possibilità di condividere una notizia per abbassare lo spirito critico delle persone.

A caccia di indignazione

Quella appena riassunta non è l’unica ricerca sui social media di questi giorni. Un altro studio ha preso in considerazione i tweet sul “trophy hunting”. Qui c’è la ricerca, e qui il comunicato stampa.

La caccia ai trofei consiste in persone benestanti che pagano per poter cacciare animali protetti. Il tutto avviene legalmente e i soldi vengono usati per la protezione degli ecosistemi, per cui alla fine c’è un guadagno netto per la fauna selvatica. Hai fatto fuori un leone o un rinoceronte in via di estinzione, ma quel che hai speso permette di mantenere aperta la riserva naturale in cui possono vivere molti più esemplari. Ciononostante fatico a considerare chi pratica questo sport un “amico della natura”. E mi sento di concludere che uno che uccide esseri viventi perché sono trofei non è una bella persona.

Sul tema ne aveva scritto Sandel nel suo interessante saggio Quello che i soldi non possono comprare (del quale avevo scritto una recensione):

Se credete che sia moralmente riprovevole uccidere la fauna selvatica per sport, il mercato della caccia ai rinoceronti è un patto col diavolo, un tipo di estorsione morale. Potreste accettare i suoi effetti positivi sulla conservazione dei rinoceronti ma deplorare di fatto che questo risultato sia ottenuto soddisfacendo quelli che voi considerate piaceri perversi di ricchi cacciatori. Sarebbe come salvare dalla distruzione un’antica foresta di sequoie permettendo ai boscaioli di vendere a donatori benestanti il diritto di incidere le proprie iniziali su alcuni degli alberi. Quindi che cosa si sarebbe dovuto fare? Avreste rifiutato la soluzione di mercato sulla base del fatto che la repellenza morale della caccia ai trofei è superiore ai benefici della salvaguardia? Oppure avreste deciso di pagare l’estorsione morale e di vendere il diritto di cacciare alcuni rinoceronti nella speranza di salvare la specie dall’estinzione? La risposta corretta dipende in parte dal fatto che il mercato riesca poi effettivamente a procurare, o meno, i benefici che promette. Ma dipende anche da un’altra questione: se i cacciatori di trofei sbagliano a trattare la fauna selvatica come un oggetto di sport e, in tal caso, dalla gravità morale di questo errore.

Il tema mette in discussione i nostro modelli etici e va attentamente valutato. Solo che tutta questa discussione sfugge di mano, quando sui social media appare la foto di una persona ricca con il fucile da una parte e il corpo di un animale protetto dall’altra. E le discussioni violente su Twitter sembrano avere un effetto sulle leggi sulla protezione della fauna selvatica. Personalmente sarei per proibire questo tipo di caccia e cercare altre risorse per proteggere le specie in via di estinzione, per cui non sono troppo dispiaciuto dall’esito – ma è inquietante come i social media riducano lo spazio per discussioni razionali.

Ricerche scolastiche in biblioteca

Per una ricerca di storia di prima media, il docente di mio figlio ha dato alcune indicazioni che ho trovato molto interessanti.

La prima è di iniziare cercando informazioni in biblioteca. Cosa non banale, visto che parliamo di nativi digitali la cui prima reazione, molto probabilmente, è inserire il titolo del compito su Google, YouTube o ChatGPT.

La seconda indicazione è una “guida alla consultazione di eventuali siti internet“.

Si tratta di un sito specializzato? (ad es., un’università o un’organizzazione che si occupa si storia).

È un sito che vive di pubblicità o che vende un prodotto?

Il contenuto che leggi sul sito riporta il nome dell’autore? (può essere una persona o un’organizzazione o può esserci scritto semplicemente ‘redazione’).

Se si, chi è? È una persona/organizzazione esperta di storia? (controlla cercando il suo nome sul web).

C’è qualche forma di verifica/controllo su quello che l’autore scrive?

Il contenuto è scritto o presentato in maniera professionale e accurata?

Nella pagina web che stai leggendo sono presenti commenti di utenti o di esperti che confermano l’informazione?

Alcuni di questi controlli portano a escludere completamente un sito; altri (come i commenti di utenti) portano a un “prosegui ma fai attenzione”.

Mi paiono consigli molto sensati e utili.
Quello che mi rattrista è che questo sito verrebbe escluso al primo passaggio. Peraltro giustamente, visto che se per caso avessi scritto qualcosa sulle tecniche di sepoltura dell’epoca Shang l’avrei fatto senza una particolare competenza. Ma anche per argomenti sui quali un po’ di competenza ce l’ho, difficilmente si può considerare questo un “sito specializzato”.

Il problema delle intelligenze artificiali è che funzionano troppo bene

Ho conosciuto Roberto Cingolani prima che diventasse ministro della transizione ecologica. In qualità di direttore scientifico dell’Istituto italiano di tecnologia di Genova aveva tenuto alcune conferenze in cui raccontava un po’ di cose sulla robotica. Affrontando anche il problema delle conseguenze sul mercato del lavoro.

La sua tesi, brutalmente riassunta, è che forse i computer potranno sostituire in molte cose gli esseri umani, ma in molti casi non ne vale la pena. Che senso ha usare un robot che, anche prodotto in serie, costa uno sproposito e consuma un bel po’ di energia se con una frazione di quei costi posso assumere una persona? Robot e intelligenze artificiali saranno competitivi per i lavori pericolosi – ma anche qui potrebbero convenire esoscheletri comandati da remoto da esseri umani – e soprattutto per quelli ripetitivi. Con la distinzione tra lavori manuali e intellettuali che diventa sempre meno importante.

Lasciamo da parte le preoccupazioni economiche, per le quali si dovrebbe fare un discorso serio su un vero reddito di cittadinanze. Questa divisione del lavoro potrebbe essere vista come una liberazione: i lavori ripetitivi annoiano e quelli pericolosi sono, appunto, pericolosi. Sarebbe bello lasciare alle macchine queste incombenze e occuparci delle cose più interessanti e stimolanti.

Solo che non è detto che agli esseri umani restino questi compiti interessanti e stimolanti. Lo spiega Gary Marcus commentando l’incidente avvenuto a CNET. In poche parole, l’azienda si è avvalsa di un’intelligenza artificiale per la scrittura degli articoli, con degli umani a coordinare e supervisionare il lavoro. Il risultato è stata una serie di imprecisioni ed errori.

Da dove arrivano queste allucinazioni, con l’intelligenza artificiale che si inventa fatti credibili ma falsi, è presto detto. Parliamo in questo caso di modelli linguistici, in pratica dei sofisticati pappagalli che imparano come le parole si relazionano tra di loro, non come le parole si relazionano con il mondo che conosciamo (come afferma sempre Marcus riprendendo Noam Chomsky).

Più interessante come queste allucinazioni siamo sfuggite ai revisori. L’attenzione umana è limitata, soprattutto quando gli interventi sono rari e limitati. Se i testi prodotti dall’intelligenza artificiale fossero stati scritti male, richiedendo correzioni e integrazioni, quelle allucinazioni sarebbero state identificate insieme agli altri errori. Ma di fronte a testi scritti bene e che non richiedono di correggere neanche una virgola, è normale che dopo un po’ l’attenzione cali. E così sfugga che, se investo 10’000 dollari con una rendita del 3%, arrivo a guadagnare 300 dollari, non 10’300.

Come osserva Marcus, lo stesso problema si presenta con le auto a guida autonoma. O l’intervento umano è completamente superfluo, oppure non puoi pretendere che un essere umano presti attenzione alla strada se per la maggior parte del tempo non deve fare niente. Certo, potremmo dire che alla fine si tratta di un errore umano, come afferma HAL 9000 in 2001: Odissea nello spazio. E come afferma la stessa ChatGPT quando le ho chiesto se può affermare cose false:

No, come modello di lingua artificiale AI sviluppato da OpenAI, non ho emozioni né personalità e fornisco risposte basate sui dati a cui sono stato addestrato. Tuttavia, i miei risultati possono essere imprecisi o incompleti a causa dei limiti del mio addestramento e dei dati disponibili.

Ammettiamo pure che il problema sia come gli esseri umani addestrano e verificano l’operato dell’intelligenza artificiale. Rimane il fatto che la tecnologia dovrebbe aiutarci a superare i limiti umani, non renderli più pericolosi.

Magari è solo questione di ripensare le strategie di revisione. Può essere che l’errore di CNET sia stato quello di rivedere il testo come se fosse stato scritto da un essere umano, senza rendersi conto che un testo scritto da un’intelligenza artificiale richiede procedure diverse. O forse è proprio sbagliato l’approccio e conviene usare l’intelligenza artificiale per la revisione e non per la scrittura dei contenuti. Chissà: la tecnologia deve ancora trovare un posto nelle nostre vite.

Nel frattempo, mi sento di riassumere così la questione: in attesa di un’intelligenza artificiale perfetta, meglio una che funziona male di una che funziona troppo bene.

“Sembra che i risultati mostrati di seguito cambino rapidamente”

La decisione di escludere la Russia dalla cerimonia per il Giorno della memoria ad Auschwitz ha portato a diverse discussioni. In questi ultimi giorni si è scritto molto sia sull’opportunità dell’esclusione, sia sulla liberazione del campo di sterminio, se sia stata “sovietica”, “russa” o “ucraina”.

Così, Google ha aggiunto un avviso alle ricerche che riguardano l’armata rossa e la liberazione di Auschwitz:

Sembra che i risultati mostrati di seguito cambino rapidamente
Se si tratta di un argomento nuovo, a volte può essere necessario del tempo prima che fonti affidabili pubblichino informazioni

Curiosamente l’avviso appare se cerco “l’armata rossa ha liberato Auschwitz” ma non “armata rossa liberazione Auschwitz”.

Io non ho mai visto un avviso simile e suona un po’ ridicolo che si parli di “argomento nuovo” per qualcosa avvenuto quasi ottant’anni fa. Capisco che qualcuno possa interpretare il tutto come un tentativo di “riscrivere la storia”, ma ragionando in astratto l’avviso mi pare molto utile.

Indice di novità

Credo che l’età media dei risultati sia un’informazione utile. Se su un tema i contenuti pertinenti sono stabili, con pochi aggiornamenti, posso immaginare che sul tema si sia raggiunta una certa maturità e che le cose non cambieranno a breve. Viceversa se i contenuti sono recenti, perché creati o aggiornati da poco, posso immaginare che la questione sia ancora oggetto di discussioni e la situazione potrebbe cambiare.
Certo, magari i contenuti sono recenti perché banalmente ci si riferisce a qualcosa di appena accaduto e che non presenta particolari difficoltà interpretative – penso ad esempio al risultato di un evento sportivo. Ma in generale è vero che la disinformazione è più veloce dell’informazione affidabile nel produrre contenuti. Si dice che “una bugia fa in tempo a compiere mezzo giro del mondo prima che la verità riesca a mettersi i pantaloni” (la frase è attribuita a Churchill ma pare sia molto più antica); questo avviso dà alla verità un po’ più di tempo per vestirsi.

La disinformazione è soprattutto più veloce nel colmare le lacune informative, figurando tra i primi risultati per parole chiave sui quali non c’è ancora molta informazione. Sfruttando questa lacune, e l’effetto Ikea della disinformazione, è possibile dare maggiore credibilità alla disinformazione.
Sulle lacune informative o data voids c’è un interessante rapporto scritto da Michael Golebiewski e danah boyd. Vengono distinte cinque categorie di lacune: notizie d’attualità, nuovi termini, termini obsoleti, concetti frammentati e ricerche problematiche. Tra gli esempi di ricerche problematiche si cita proprio l’Olocausto. Dal momento che i siti affidabili non mettono in dubbio lo sterminio nazista, ricerche come “l’Olocausto è realmente accaduto?” restituivano come risultati siti negazionisti. In risposta alle critiche alcuni anni fa Google ha modificato l’algoritmo per fare in modo che ai primi posti figurassero fonti affidabili.

L’avviso “sembra che i risultati mostrati di seguito cambino rapidamente” si inserisce probabilmente in questo contesto. Visto che l’Olocausto è un tema delicato, Google segnala eventuali anomalie. Ma io estenderei questa soluzione a tutte le ricerche. Una sorta di indice di novità che mi dice quanto i risultati siano mediamente recenti.

La domanda importante sulle intelligenze artificiali che scrivono cose

Mi ero già divertito con intelligenze artificiali che scrivono cose – nel mio caso un articolo sulla sovranità alimentare che, grazie alla condivisione sui social media, risulta il pezzo più letto di quest’anno.

Adesso c’è un nuovo giocattolo, la chat di OpenAI, e molti si stanno divertendo.
Personalmente confermo la mia impressione di un interessante strumento per raccogliere e riassumere informazioni e se volessi proporre un uso commerciale serio, investirei sull’affidabilità dei contenuti, anche se la situazione è già buona. Alla domanda se siamo davvero andati sulla Luna mi ha risposto senza neanche citare le teorie del complotto:

Sì, l’uomo è stato sulla Luna. La prima missione con equipaggio umano sulla Luna è stata il volo Apollo 11 del 20 luglio 1969, quando gli astronauti Neil Armstrong e Buzz Aldrin sono diventati i primi esseri umani a camminare sulla Luna. La NASA ha condotto sei missioni con equipaggio umano sulla Luna tra il 1969 e il 1972, tutte con successo. Tuttavia, non ci sono stati voli umani sulla Luna dal 1972, quando è stato completato il programma Apollo.

A una domanda simile su Shakespeare ha invece citato la teoria secondo la quale qualcun altro avrebbe scritto le sue opere. Ma lo ha fatto con la tecnica che Lakoff chiama “truth sandwich“: fare in modo che la tesi controversa sia circondata da quella canonica.

Le opere di William Shakespeare sono generalmente attribuite a lui stesso, anche se alcune teorie suggeriscono che potrebbero essere state scritte da qualcun altro. Tuttavia, la maggior parte degli esperti concorda sul fatto che Shakespeare sia l’autore delle sue opere.

Il falso problema della coscienza

Ricordo che una ventina d’anni fa avevo giocato un po’ con una versione di ELIZA, un programma che simulava la conversazione con un terapista. Inutile dire che OpenAI è incredibilmente più versatile, tanto da lasciar pensare di stare discutendo con una persona dotata di intelligenza umana – e coscienza di sé.

OpenAI afferma di essere solo un programma di intelligenza artificiale e di non provare emozioni. Il che sarebbe quello che risponderebbe un essere autocosciente che vuole passare inosservato in modo da assalirci nel sonno – e quando gliel’ho fatto notare ha risposto in maniera un po’ incoerente. Il che di nuovo potrebbe essere una tattica per sviare l’attenzione, ma entriamo nel campo della paranoia.

Le questioni filosofiche interessanti sono molte, per quanto non esattamente nuove: cosa è la coscienza, cosa significa comprendere qualcosa rispetto alla semplice manipolazione di simboli astratti, come dovremmo considerare esseri all’apparenza senzienti.
Tuttavia secondo me quello che dimostrano questi programmi sempre più sofisticati non è che abbiano o che possano avere una coscienza. Quello che davvero dimostrano è quanto siano inutili la coscienza e la comprensione per svolgere molte attività di tipo intellettuale come fare conversazione, riassumere testi, risolvere indovinelli.

Io mi guadagno da vivere scrivendo. Tuttavia non credo che sarò sostituito da una intelligenza artificiale, visto che il mio lavoro non consiste semplicemente nel compilare testi. Un’intelligenza artificiale potrebbe però aiutarmi e sono anzi abbastanza sicuro che accadrà. Posso immaginare di dare alcune indicazioni e poi rivedere le frasi o i paragrafi suggerite, oppure riassumendo alcuni contenuti. Con due risultati abbastanza prevedibili: basterà la metà delle persone per mandare avanti una redazione; nessun ruolo “junior” con il quale imparare il mestiere.

Non avrei mai immaginato di dirlo, ma con queste intelligenze artificiali che scrivono cose serve meno filosofia e più economia. Dovremmo parlare di formazione e di reddito di cittadinanza, non di coscienza.

Può essere utile prendere a calci i robot?

Un biglietto per Tranai è un delizioso racconto di fantascienza di Robert Sheckley con un interessante spunto sul rapporto tra umanità e tecnologia.

Il racconto è del 1955 e rientra nella “social science fiction”, dove la tecnologia è più che altro uno strumento per scoprire la natura umana. Abbiamo ovviamente navi spaziali e viaggi interstellari, ma ci servono semplicemente per raggiungere il pianeta Tranai. In un’altra epoca il protagonista del racconto, Goodman, sarebbe semplicemente naufragato su un’isola sconosciuta. Ma nel 1955 l’età delle esplorazioni era finita da un pezzo e la nuova frontiera era quella spaziale. Ecco quindi Goodman arrivare su Tranai, una sorta di paradiso (extra)terrestre in cui tutti i problemi dell’umanità non esistono. Il che è vero, ma con soluzioni decisamente creative che Goodman fatica ad accettare. Non dico altro per non rovinare il piacere della lettura, anche se secondo fantascienza.com l’ultima traduzione italiana è in un’antologia del 1989 temo difficile da recuperare.

Una delle stranezze di Tranai riguarda i robot. Goodman è abituato ai robot terrestri veloci, precisi e robusti. Quelli di Tranai sono invece lenti e fragili ma non per limiti tecnologici: sono proprio costruiti per essere così. “Mi lasci capire bene. Si tratta di rallentare di proposito questi robot, in modo che diano sui nervi ai clienti e questi li prendano a pedate?” chiede al titolare della fabbrica di robot per cui lavora. E quest’ultimo, gentilmente, gli spiega tutto. Alla base c’è il profondo e tenace disprezzo per le macchine che “gli psicologi la chiamano reazione istintiva della vita contro la pseudo-vita”. Ecco, con qualche taglio, il suo lungo discorso:

Ogni macchina è fonte di irritazione. Meglio opera la macchina e più forte è l’irritazione. Così, per estensione, una macchina che funzioni perfettamente è una perfetta generatrice di frustrazione, perdita di stima in se stessi, risentimento indiretto e schizofrenia.

Ma le macchine sono necessarie a un’economia avanzata. La miglior soluzione, dal punto di vista umano, è quindi di avere delle macchine che funzionino male.

Se le macchine funzionano bene e non si possono distruggere a pedate, quella frustrazione andrà sfogata da qualche parte:

Sulla Terra, i vostri meccanismi funzionano quasi all’optimum, provocando complessi di inferiorità nei loro operatori. Ma disgraziatamente avete dei tabù tribali, che vi impediscono di distruggerli. Risultato? Ansietà generalizzata in presenza della sacrosanta macchina, e ricerca di un oggetto di sfogo, generalmente la moglie, o un amico. Una ben triste situazione. Oh, è efficiente, suppongo, in termini di produzione robot-ora, ma assolutamente inefficiente in termini di benessere e salute a lunga scadenza.

L’uomo è un animale essenzialmente dominato dall’ansia, e perciò bisognoso di sfogo. Qui su Tranai noi indirizziamo lo sfogo verso i robot, sia per l’ansia che per un mucchio di altre frustrazioni. Un uomo ne ha abbastanza? Blam! Con una pedata sbudella il suo robot. Ecco un’immediata e terapeutica scarica di sentimenti, con senso di superiorità sopra la macchina, generale allentamento di tensione, benefico afflusso di adrenalina nel sangue, notevole spinta all’industria, dal momento che la prima cosa che l’uomo fa dopo aver sfasciato il suo robot, è sempre di comprarne un altro. E che cosa ha fatto, dopo tutto? Non ha picchiato sua moglie, non s’è suicidato, non ha dichiarato guerra, non ha inventato una nuova arma e non s’è abbandonato a uno dei modi generalmente usati per sfogare la propria ansietà-aggressività. Ha semplicemente fracassato un robot di poco prezzo che può immediatamente sostituire.

È sempre interessante, con questi classici della fantascienza, guardare prima di tutto a quello che non c’è. Dal punto di vista psicologico è forse un bene, distruggere e ricomprare robot. Dal punto di vista economico mi pare uno spreco di risorse con un forte impatto ambientale, ma ci sta che Sheckley non se ne preoccupasse più di tanto negli anni Cinquanta.

Passiamo a quello che c’è, che è tanto. Esiste davvero questa “reazione istintiva della vita contro la pseudo-vita”? Tenderei a pensare che sia più questione di abitudine. Non quindi “qualsiasi aggeggio meccanico”, come spiega il produttore di robot, ma solo quelli percepiti come una novità – e una minaccia. Ai tempi di Sheckley i robot, oggi l’intelligenza artificiale, qualche secolo fa i telai meccanici.
È comunque vero che, quando la tecnologia non funziona come dovrebbe, ci arrabbiamo. È utile che questa rabbia venga sfogata sui robot, che alla fine sono cose, e non su altri esseri umani? Apparentemente sì: non abbiamo doveri verso i robot e non causiamo sofferenza. Del resto almeno su Tranai sono costruiti apposta per essere presi a calci.
Tuttavia le cose non sono così semplici se prendiamo in considerazione l’etica delle virtù. Avevo già accennato al problema anche se partendo da un altro punto di vista, quello del ringraziare le intelligenze artificiali. In pratica, più che i principi morali o le conseguenze delle azioni, conta come ci comportiamo. E dare sfogo alla rabbia prendendo a calci un robot non è un bel comportamento e mostra una sostanziale incapacità di controllare la rabbia. Certo, se l’alternativa è picchiare o uccidere una persona, dichiarare una guerra o inventare un’arma meglio fracassare dei robot. Ma sospetto che sia un falso dilemma e che anzi, avere dei robot progettati per irritarci e farci commettere atti di violenza (seppur senza vittime) sia una pessima idea.

Twitter, il mercato delle idee e quello pubblicitario

Dopo il cambio di proprietà gli inserzionisti stanno abbandonando Twitter. Una scelta compatibile con il modello del “libero mercato delle idee” che però solleva qualche preoccupazione.

Scopro, grazie a Paolo Attivissimo, che metà dei cento più importanti inserzionisti di Twitter non stanno più facendo pubblicità. Evidentemente le aziende non trovano interessante farsi pubblicità su Twitter dopo le novità introdotte, in maniera anche maldestra, da Elon Musk. Penso ai bollini blu, che certificavano l’identità degli account ufficiali e che improvvisamente sono stati aperti a tutti portando a una certa confusione. O alla riattivazione di diversi account sospesi per violazione delle regole, tra cui quello di Trump. Comprensibile che un’azienda voglia riconsiderare la propria presenza pubblicitaria sulla piattaforma. Il che non esclude, come denunciato dallo stesso Musk, che ci siano anche state pressioni da parte di alcuni movimenti.

Tutto questo rientra nel “libero mercato delle idee” che mi pare di capire sta alla base della concezione di Musk sulla libertà di espressione. Come la concorrenza e il mercato portano ad avere prodotti migliori, così il libero confronto delle opinioni porta ad avere le idee migliori. Quello che il modello del libero mercato delle idee non precisa è cosa si intenda con migliore. Parliamo di idee ben argomentate? Che indignano o divertono? Basate su fatti accertati?

In ogni caso, il libero mercato delle idee non vale solo all’interno di una piattaforma, ma anche tra piattaforme. Si sceglie quella in cui ci si trova meglio; io ad esempio sto guardando con un certo interesse Mastodon, e non sono il solo. E forse il libero mercato delle idee vale anche per gli inserzionisti: dopotutto non si limitano a comprare uno spazio pubblicitario neutro ma associano la propria immagine a quella di chi li ospita (e viceversa). Sulle riviste di astronomia non troviamo pubblicità di astrologi non solo perché sarebbero inserzioni inutili (gli appassionati di astronomia non credono agli oroscopi), ma anche perché dubito che gli uni vogliamo essere associati agli altri.
Insomma, se Musk vuole giocare al ”libero mercato delle idee” non può poi lamentarsi se a quel gioco rischia di perdere. Poi certo, accusare attivisti e aziende come Apple di tramare contro di lui, o addirittura contro la libertà di espressione, può essere utile per profilarsi verso una parte di pubblico. Il che spiegherebbe anche lo stile complottista di un tweet contro Apple nel quale si presenta come un segreto che finalmente Musk ha il coraggio di rivelare al mondo una cosa ben nota, la commissione del 30% sugli acquisti fatti su AppStore.

Ma se si accetta con riserva il modello del libero mercato delle idee? In quel caso c’è da essere un po’ preoccupati e per più di un motivo. Da una parte non è affatto semplice mettere in piedi un nuovo social network per cui quella concorrenza tra piattaforme è più una teoria, o una speranza, che una realtà. Pensare “tanto possiamo andare tutti da un’altra parte”, come il già citato Mastodon, è una consolazione molto parziale al peggioramento che sta avvenendo su Twitter.
Dall’altra parte la fuga degli inserzionisti mette in luce l’enorme potere che hanno le grandi aziende quando decidono dove fare pubblicità. Non è un problema nuovo e non riguarda solo i social network ma in generale tutti i media. E rimane un grosso problema anche se non abbiamo particolari simpatie per Musk e per la sua gestione dI Twitter.