I rischi reali della pedofilia virtuale

Leggo sulla BBC di una vasta rete per la vendita di fotografie pornografiche con minori – non solo ragazze molto giovani, ma anche bambini – generate da intelligenze artificiali. In molti Paesi queste immagini sono illegali quanto quelle autentiche.

La mia prima reazione non è certo di sorpresa: era prevedibile che delle persone avrebbero prodotto è venduto simili immagini. No, la mia prima reazione è di disgusto, innescato dalla semplice idea di immagini di abusi su minori.

Però non c’è alcun abuso su persone reali: queste immagini sono e restano disgustose ma, al contrario di autentiche fotografie, per realizzarle nessuno ha sofferto.

È un argomento che l’articolo della BBC affronta di sfuggita:

The National Police Chiefs’ Council (NPCC) lead on child safeguarding, Ian Critchley, said it would be wrong to argue that because no real children were depicted in such “synthetic” images – that no-one was harmed.

Solo che come unico argomento abbiamo quello del piano inclinato, ricalcando un po’ la retorica di alcune campagne antidroga (inizi da uno spinello e poi…)

He warned that a paedophile could, “move along that scale of offending from thought, to synthetic, to actually the abuse of a live child”.

Solo che posso pensare a una situazione diametralmente opposta: una persona con pulsioni pedofile che sfrutta immagini virtuali per placarle senza danneggiare nessuno.

Molto probabilmente non è la strategia migliore per gestire queste pulsioni, ma visto che le iniziative di prevenzione sembrano basarsi quasi esclusivamente sulla punizione e quasi nulla sull’assistenza e il sostegno, direi che non ci sono molte alternative.

Un argomento secondo me più convincente riguarda la normalizzazione degli abusi e della sessualizzazione dell’infanzia: vero che per produrre quelle fotografie virtuali non ci sono stati abusi, ma permetterne la diffusione renderebbe quegli abusi socialmente più accettabili.

Questo argomento si applica anche agli stupri che troviamo nella pornografia con adulti e in generale nelle opere di finzione. Con rischi di eccessi nella sua applicazione.

I social media nuocciono gravemente alla salute delle discussioni razionali

Il titolo ricalca gli avvisi che si trovavano sui pacchetti delle sigarette – da qualche anno mi pare che il burocratico “nuoce gravemente alla salute” sia stato sostituito da un più diretto “uccide” – ma non vorrei venisse frainteso.
Sul fatto che il fumo faccia male non ci sono praticamente dubbi, mentre le ricerche di cui parlo in questo articolo sono meno certe. In ogni caso non auspico interventi statali per proibire o ridurre l’utilizzo dei social, né mi sento di consigliare a tutti di tenersene alla larga.

Già che siamo in zona di avvisi: questo post riprende in parte quanto scritto nella mia newsletter settimanale, alla quale potete abbonarvi.

Più condividiamo meno pensiamo

Alla fine di ogni articolo ci sono una serie di pulsanti per condividerlo su vari social media. Ma forse dovrei toglierlo, visto che secondo una ricerca condividere un’informazione ci rende più creduloni. O, per dirla con le parole del titolo dell’articolo pubblicato su Science Advances, “il contesto dei social media interferisce con il riconoscimento della verità” (“The social media context interferes with truth discernment”).

Prima di vedere i contenuti dell’articolo, qualche avvertenza.
La ricerca è stata condotta sottoponendo ad alcuni soggetti il titolo di una notizia e chiedendo loro, in maniera casuale, se la consideravano attendibile e se l’avrebbero condivisa online. Insomma una situazione così:

Un contesto un po’ diversa dal modo in cui di solito troviamo delle notizie, ne valutiamo l’affidabilità e decidiamo se è il caso di condividerle. Insomma, nella “vita vera” l’effetto rilevato dai ricercatori potrebbe non esserci, o essere trascurabile. Ma intanto si è visto che le persone sono meno brave a distinguere le notizie vere da quelle false quando viene loro chiesto se sono interessate a condividere la notizia.

Perché tutto questo? I ricercatori hanno preso in considerazione due ipotesi. La prima è che abbiamo una quantità limitata di “energia mentale”. Se ne impieghiamo una parte per decidere se condividere la notizia, ne abbiamo meno a disposizione per valutarne criticamente il contenuto. Insomma, decidere se condividere o meno un contenuto ci distrae. La seconda ipotesi è che la decisione di condividere una notizia ci porti automaticamente a considerarla più attendile, visto che non ci piace l’idea di condividere notizia inaccurate.
I due modelli differiscono per il tipo di interferenza. Il modello dell’energia mentale (che i ricercatori definiscono “spillover”) prevede giudizi errati sia per le notizie vere che per quelle false. Il modello della consistenza, invece, prevede perlopiù notizie false scambiate per vere. Ebbene, i dati mostrerebbero che è il primo modello a essere corretto. In altre parole: basta prevedere la possibilità di condividere una notizia per abbassare lo spirito critico delle persone.

A caccia di indignazione

Quella appena riassunta non è l’unica ricerca sui social media di questi giorni. Un altro studio ha preso in considerazione i tweet sul “trophy hunting”. Qui c’è la ricerca, e qui il comunicato stampa.

La caccia ai trofei consiste in persone benestanti che pagano per poter cacciare animali protetti. Il tutto avviene legalmente e i soldi vengono usati per la protezione degli ecosistemi, per cui alla fine c’è un guadagno netto per la fauna selvatica. Hai fatto fuori un leone o un rinoceronte in via di estinzione, ma quel che hai speso permette di mantenere aperta la riserva naturale in cui possono vivere molti più esemplari. Ciononostante fatico a considerare chi pratica questo sport un “amico della natura”. E mi sento di concludere che uno che uccide esseri viventi perché sono trofei non è una bella persona.

Sul tema ne aveva scritto Sandel nel suo interessante saggio Quello che i soldi non possono comprare (del quale avevo scritto una recensione):

Se credete che sia moralmente riprovevole uccidere la fauna selvatica per sport, il mercato della caccia ai rinoceronti è un patto col diavolo, un tipo di estorsione morale. Potreste accettare i suoi effetti positivi sulla conservazione dei rinoceronti ma deplorare di fatto che questo risultato sia ottenuto soddisfacendo quelli che voi considerate piaceri perversi di ricchi cacciatori. Sarebbe come salvare dalla distruzione un’antica foresta di sequoie permettendo ai boscaioli di vendere a donatori benestanti il diritto di incidere le proprie iniziali su alcuni degli alberi. Quindi che cosa si sarebbe dovuto fare? Avreste rifiutato la soluzione di mercato sulla base del fatto che la repellenza morale della caccia ai trofei è superiore ai benefici della salvaguardia? Oppure avreste deciso di pagare l’estorsione morale e di vendere il diritto di cacciare alcuni rinoceronti nella speranza di salvare la specie dall’estinzione? La risposta corretta dipende in parte dal fatto che il mercato riesca poi effettivamente a procurare, o meno, i benefici che promette. Ma dipende anche da un’altra questione: se i cacciatori di trofei sbagliano a trattare la fauna selvatica come un oggetto di sport e, in tal caso, dalla gravità morale di questo errore.

Il tema mette in discussione i nostro modelli etici e va attentamente valutato. Solo che tutta questa discussione sfugge di mano, quando sui social media appare la foto di una persona ricca con il fucile da una parte e il corpo di un animale protetto dall’altra. E le discussioni violente su Twitter sembrano avere un effetto sulle leggi sulla protezione della fauna selvatica. Personalmente sarei per proibire questo tipo di caccia e cercare altre risorse per proteggere le specie in via di estinzione, per cui non sono troppo dispiaciuto dall’esito – ma è inquietante come i social media riducano lo spazio per discussioni razionali.

Ricerche scolastiche in biblioteca

Per una ricerca di storia di prima media, il docente di mio figlio ha dato alcune indicazioni che ho trovato molto interessanti.

La prima è di iniziare cercando informazioni in biblioteca. Cosa non banale, visto che parliamo di nativi digitali la cui prima reazione, molto probabilmente, è inserire il titolo del compito su Google, YouTube o ChatGPT.

La seconda indicazione è una “guida alla consultazione di eventuali siti internet“.

Si tratta di un sito specializzato? (ad es., un’università o un’organizzazione che si occupa si storia).

È un sito che vive di pubblicità o che vende un prodotto?

Il contenuto che leggi sul sito riporta il nome dell’autore? (può essere una persona o un’organizzazione o può esserci scritto semplicemente ‘redazione’).

Se si, chi è? È una persona/organizzazione esperta di storia? (controlla cercando il suo nome sul web).

C’è qualche forma di verifica/controllo su quello che l’autore scrive?

Il contenuto è scritto o presentato in maniera professionale e accurata?

Nella pagina web che stai leggendo sono presenti commenti di utenti o di esperti che confermano l’informazione?

Alcuni di questi controlli portano a escludere completamente un sito; altri (come i commenti di utenti) portano a un “prosegui ma fai attenzione”.

Mi paiono consigli molto sensati e utili.
Quello che mi rattrista è che questo sito verrebbe escluso al primo passaggio. Peraltro giustamente, visto che se per caso avessi scritto qualcosa sulle tecniche di sepoltura dell’epoca Shang l’avrei fatto senza una particolare competenza. Ma anche per argomenti sui quali un po’ di competenza ce l’ho, difficilmente si può considerare questo un “sito specializzato”.

Il problema delle intelligenze artificiali è che funzionano troppo bene

Ho conosciuto Roberto Cingolani prima che diventasse ministro della transizione ecologica. In qualità di direttore scientifico dell’Istituto italiano di tecnologia di Genova aveva tenuto alcune conferenze in cui raccontava un po’ di cose sulla robotica. Affrontando anche il problema delle conseguenze sul mercato del lavoro.

La sua tesi, brutalmente riassunta, è che forse i computer potranno sostituire in molte cose gli esseri umani, ma in molti casi non ne vale la pena. Che senso ha usare un robot che, anche prodotto in serie, costa uno sproposito e consuma un bel po’ di energia se con una frazione di quei costi posso assumere una persona? Robot e intelligenze artificiali saranno competitivi per i lavori pericolosi – ma anche qui potrebbero convenire esoscheletri comandati da remoto da esseri umani – e soprattutto per quelli ripetitivi. Con la distinzione tra lavori manuali e intellettuali che diventa sempre meno importante.

Lasciamo da parte le preoccupazioni economiche, per le quali si dovrebbe fare un discorso serio su un vero reddito di cittadinanze. Questa divisione del lavoro potrebbe essere vista come una liberazione: i lavori ripetitivi annoiano e quelli pericolosi sono, appunto, pericolosi. Sarebbe bello lasciare alle macchine queste incombenze e occuparci delle cose più interessanti e stimolanti.

Solo che non è detto che agli esseri umani restino questi compiti interessanti e stimolanti. Lo spiega Gary Marcus commentando l’incidente avvenuto a CNET. In poche parole, l’azienda si è avvalsa di un’intelligenza artificiale per la scrittura degli articoli, con degli umani a coordinare e supervisionare il lavoro. Il risultato è stata una serie di imprecisioni ed errori.

Da dove arrivano queste allucinazioni, con l’intelligenza artificiale che si inventa fatti credibili ma falsi, è presto detto. Parliamo in questo caso di modelli linguistici, in pratica dei sofisticati pappagalli che imparano come le parole si relazionano tra di loro, non come le parole si relazionano con il mondo che conosciamo (come afferma sempre Marcus riprendendo Noam Chomsky).

Più interessante come queste allucinazioni siamo sfuggite ai revisori. L’attenzione umana è limitata, soprattutto quando gli interventi sono rari e limitati. Se i testi prodotti dall’intelligenza artificiale fossero stati scritti male, richiedendo correzioni e integrazioni, quelle allucinazioni sarebbero state identificate insieme agli altri errori. Ma di fronte a testi scritti bene e che non richiedono di correggere neanche una virgola, è normale che dopo un po’ l’attenzione cali. E così sfugga che, se investo 10’000 dollari con una rendita del 3%, arrivo a guadagnare 300 dollari, non 10’300.

Come osserva Marcus, lo stesso problema si presenta con le auto a guida autonoma. O l’intervento umano è completamente superfluo, oppure non puoi pretendere che un essere umano presti attenzione alla strada se per la maggior parte del tempo non deve fare niente. Certo, potremmo dire che alla fine si tratta di un errore umano, come afferma HAL 9000 in 2001: Odissea nello spazio. E come afferma la stessa ChatGPT quando le ho chiesto se può affermare cose false:

No, come modello di lingua artificiale AI sviluppato da OpenAI, non ho emozioni né personalità e fornisco risposte basate sui dati a cui sono stato addestrato. Tuttavia, i miei risultati possono essere imprecisi o incompleti a causa dei limiti del mio addestramento e dei dati disponibili.

Ammettiamo pure che il problema sia come gli esseri umani addestrano e verificano l’operato dell’intelligenza artificiale. Rimane il fatto che la tecnologia dovrebbe aiutarci a superare i limiti umani, non renderli più pericolosi.

Magari è solo questione di ripensare le strategie di revisione. Può essere che l’errore di CNET sia stato quello di rivedere il testo come se fosse stato scritto da un essere umano, senza rendersi conto che un testo scritto da un’intelligenza artificiale richiede procedure diverse. O forse è proprio sbagliato l’approccio e conviene usare l’intelligenza artificiale per la revisione e non per la scrittura dei contenuti. Chissà: la tecnologia deve ancora trovare un posto nelle nostre vite.

Nel frattempo, mi sento di riassumere così la questione: in attesa di un’intelligenza artificiale perfetta, meglio una che funziona male di una che funziona troppo bene.

“Sembra che i risultati mostrati di seguito cambino rapidamente”

La decisione di escludere la Russia dalla cerimonia per il Giorno della memoria ad Auschwitz ha portato a diverse discussioni. In questi ultimi giorni si è scritto molto sia sull’opportunità dell’esclusione, sia sulla liberazione del campo di sterminio, se sia stata “sovietica”, “russa” o “ucraina”.

Così, Google ha aggiunto un avviso alle ricerche che riguardano l’armata rossa e la liberazione di Auschwitz:

Sembra che i risultati mostrati di seguito cambino rapidamente
Se si tratta di un argomento nuovo, a volte può essere necessario del tempo prima che fonti affidabili pubblichino informazioni

Curiosamente l’avviso appare se cerco “l’armata rossa ha liberato Auschwitz” ma non “armata rossa liberazione Auschwitz”.

Io non ho mai visto un avviso simile e suona un po’ ridicolo che si parli di “argomento nuovo” per qualcosa avvenuto quasi ottant’anni fa. Capisco che qualcuno possa interpretare il tutto come un tentativo di “riscrivere la storia”, ma ragionando in astratto l’avviso mi pare molto utile.

Indice di novità

Credo che l’età media dei risultati sia un’informazione utile. Se su un tema i contenuti pertinenti sono stabili, con pochi aggiornamenti, posso immaginare che sul tema si sia raggiunta una certa maturità e che le cose non cambieranno a breve. Viceversa se i contenuti sono recenti, perché creati o aggiornati da poco, posso immaginare che la questione sia ancora oggetto di discussioni e la situazione potrebbe cambiare.
Certo, magari i contenuti sono recenti perché banalmente ci si riferisce a qualcosa di appena accaduto e che non presenta particolari difficoltà interpretative – penso ad esempio al risultato di un evento sportivo. Ma in generale è vero che la disinformazione è più veloce dell’informazione affidabile nel produrre contenuti. Si dice che “una bugia fa in tempo a compiere mezzo giro del mondo prima che la verità riesca a mettersi i pantaloni” (la frase è attribuita a Churchill ma pare sia molto più antica); questo avviso dà alla verità un po’ più di tempo per vestirsi.

La disinformazione è soprattutto più veloce nel colmare le lacune informative, figurando tra i primi risultati per parole chiave sui quali non c’è ancora molta informazione. Sfruttando questa lacune, e l’effetto Ikea della disinformazione, è possibile dare maggiore credibilità alla disinformazione.
Sulle lacune informative o data voids c’è un interessante rapporto scritto da Michael Golebiewski e danah boyd. Vengono distinte cinque categorie di lacune: notizie d’attualità, nuovi termini, termini obsoleti, concetti frammentati e ricerche problematiche. Tra gli esempi di ricerche problematiche si cita proprio l’Olocausto. Dal momento che i siti affidabili non mettono in dubbio lo sterminio nazista, ricerche come “l’Olocausto è realmente accaduto?” restituivano come risultati siti negazionisti. In risposta alle critiche alcuni anni fa Google ha modificato l’algoritmo per fare in modo che ai primi posti figurassero fonti affidabili.

L’avviso “sembra che i risultati mostrati di seguito cambino rapidamente” si inserisce probabilmente in questo contesto. Visto che l’Olocausto è un tema delicato, Google segnala eventuali anomalie. Ma io estenderei questa soluzione a tutte le ricerche. Una sorta di indice di novità che mi dice quanto i risultati siano mediamente recenti.

La domanda importante sulle intelligenze artificiali che scrivono cose

Mi ero già divertito con intelligenze artificiali che scrivono cose – nel mio caso un articolo sulla sovranità alimentare che, grazie alla condivisione sui social media, risulta il pezzo più letto di quest’anno.

Adesso c’è un nuovo giocattolo, la chat di OpenAI, e molti si stanno divertendo.
Personalmente confermo la mia impressione di un interessante strumento per raccogliere e riassumere informazioni e se volessi proporre un uso commerciale serio, investirei sull’affidabilità dei contenuti, anche se la situazione è già buona. Alla domanda se siamo davvero andati sulla Luna mi ha risposto senza neanche citare le teorie del complotto:

Sì, l’uomo è stato sulla Luna. La prima missione con equipaggio umano sulla Luna è stata il volo Apollo 11 del 20 luglio 1969, quando gli astronauti Neil Armstrong e Buzz Aldrin sono diventati i primi esseri umani a camminare sulla Luna. La NASA ha condotto sei missioni con equipaggio umano sulla Luna tra il 1969 e il 1972, tutte con successo. Tuttavia, non ci sono stati voli umani sulla Luna dal 1972, quando è stato completato il programma Apollo.

A una domanda simile su Shakespeare ha invece citato la teoria secondo la quale qualcun altro avrebbe scritto le sue opere. Ma lo ha fatto con la tecnica che Lakoff chiama “truth sandwich“: fare in modo che la tesi controversa sia circondata da quella canonica.

Le opere di William Shakespeare sono generalmente attribuite a lui stesso, anche se alcune teorie suggeriscono che potrebbero essere state scritte da qualcun altro. Tuttavia, la maggior parte degli esperti concorda sul fatto che Shakespeare sia l’autore delle sue opere.

Il falso problema della coscienza

Ricordo che una ventina d’anni fa avevo giocato un po’ con una versione di ELIZA, un programma che simulava la conversazione con un terapista. Inutile dire che OpenAI è incredibilmente più versatile, tanto da lasciar pensare di stare discutendo con una persona dotata di intelligenza umana – e coscienza di sé.

OpenAI afferma di essere solo un programma di intelligenza artificiale e di non provare emozioni. Il che sarebbe quello che risponderebbe un essere autocosciente che vuole passare inosservato in modo da assalirci nel sonno – e quando gliel’ho fatto notare ha risposto in maniera un po’ incoerente. Il che di nuovo potrebbe essere una tattica per sviare l’attenzione, ma entriamo nel campo della paranoia.

Le questioni filosofiche interessanti sono molte, per quanto non esattamente nuove: cosa è la coscienza, cosa significa comprendere qualcosa rispetto alla semplice manipolazione di simboli astratti, come dovremmo considerare esseri all’apparenza senzienti.
Tuttavia secondo me quello che dimostrano questi programmi sempre più sofisticati non è che abbiano o che possano avere una coscienza. Quello che davvero dimostrano è quanto siano inutili la coscienza e la comprensione per svolgere molte attività di tipo intellettuale come fare conversazione, riassumere testi, risolvere indovinelli.

Io mi guadagno da vivere scrivendo. Tuttavia non credo che sarò sostituito da una intelligenza artificiale, visto che il mio lavoro non consiste semplicemente nel compilare testi. Un’intelligenza artificiale potrebbe però aiutarmi e sono anzi abbastanza sicuro che accadrà. Posso immaginare di dare alcune indicazioni e poi rivedere le frasi o i paragrafi suggerite, oppure riassumendo alcuni contenuti. Con due risultati abbastanza prevedibili: basterà la metà delle persone per mandare avanti una redazione; nessun ruolo “junior” con il quale imparare il mestiere.

Non avrei mai immaginato di dirlo, ma con queste intelligenze artificiali che scrivono cose serve meno filosofia e più economia. Dovremmo parlare di formazione e di reddito di cittadinanza, non di coscienza.

Può essere utile prendere a calci i robot?

Un biglietto per Tranai è un delizioso racconto di fantascienza di Robert Sheckley con un interessante spunto sul rapporto tra umanità e tecnologia.

Il racconto è del 1955 e rientra nella “social science fiction”, dove la tecnologia è più che altro uno strumento per scoprire la natura umana. Abbiamo ovviamente navi spaziali e viaggi interstellari, ma ci servono semplicemente per raggiungere il pianeta Tranai. In un’altra epoca il protagonista del racconto, Goodman, sarebbe semplicemente naufragato su un’isola sconosciuta. Ma nel 1955 l’età delle esplorazioni era finita da un pezzo e la nuova frontiera era quella spaziale. Ecco quindi Goodman arrivare su Tranai, una sorta di paradiso (extra)terrestre in cui tutti i problemi dell’umanità non esistono. Il che è vero, ma con soluzioni decisamente creative che Goodman fatica ad accettare. Non dico altro per non rovinare il piacere della lettura, anche se secondo fantascienza.com l’ultima traduzione italiana è in un’antologia del 1989 temo difficile da recuperare.

Una delle stranezze di Tranai riguarda i robot. Goodman è abituato ai robot terrestri veloci, precisi e robusti. Quelli di Tranai sono invece lenti e fragili ma non per limiti tecnologici: sono proprio costruiti per essere così. “Mi lasci capire bene. Si tratta di rallentare di proposito questi robot, in modo che diano sui nervi ai clienti e questi li prendano a pedate?” chiede al titolare della fabbrica di robot per cui lavora. E quest’ultimo, gentilmente, gli spiega tutto. Alla base c’è il profondo e tenace disprezzo per le macchine che “gli psicologi la chiamano reazione istintiva della vita contro la pseudo-vita”. Ecco, con qualche taglio, il suo lungo discorso:

Ogni macchina è fonte di irritazione. Meglio opera la macchina e più forte è l’irritazione. Così, per estensione, una macchina che funzioni perfettamente è una perfetta generatrice di frustrazione, perdita di stima in se stessi, risentimento indiretto e schizofrenia.

Ma le macchine sono necessarie a un’economia avanzata. La miglior soluzione, dal punto di vista umano, è quindi di avere delle macchine che funzionino male.

Se le macchine funzionano bene e non si possono distruggere a pedate, quella frustrazione andrà sfogata da qualche parte:

Sulla Terra, i vostri meccanismi funzionano quasi all’optimum, provocando complessi di inferiorità nei loro operatori. Ma disgraziatamente avete dei tabù tribali, che vi impediscono di distruggerli. Risultato? Ansietà generalizzata in presenza della sacrosanta macchina, e ricerca di un oggetto di sfogo, generalmente la moglie, o un amico. Una ben triste situazione. Oh, è efficiente, suppongo, in termini di produzione robot-ora, ma assolutamente inefficiente in termini di benessere e salute a lunga scadenza.

L’uomo è un animale essenzialmente dominato dall’ansia, e perciò bisognoso di sfogo. Qui su Tranai noi indirizziamo lo sfogo verso i robot, sia per l’ansia che per un mucchio di altre frustrazioni. Un uomo ne ha abbastanza? Blam! Con una pedata sbudella il suo robot. Ecco un’immediata e terapeutica scarica di sentimenti, con senso di superiorità sopra la macchina, generale allentamento di tensione, benefico afflusso di adrenalina nel sangue, notevole spinta all’industria, dal momento che la prima cosa che l’uomo fa dopo aver sfasciato il suo robot, è sempre di comprarne un altro. E che cosa ha fatto, dopo tutto? Non ha picchiato sua moglie, non s’è suicidato, non ha dichiarato guerra, non ha inventato una nuova arma e non s’è abbandonato a uno dei modi generalmente usati per sfogare la propria ansietà-aggressività. Ha semplicemente fracassato un robot di poco prezzo che può immediatamente sostituire.

È sempre interessante, con questi classici della fantascienza, guardare prima di tutto a quello che non c’è. Dal punto di vista psicologico è forse un bene, distruggere e ricomprare robot. Dal punto di vista economico mi pare uno spreco di risorse con un forte impatto ambientale, ma ci sta che Sheckley non se ne preoccupasse più di tanto negli anni Cinquanta.

Passiamo a quello che c’è, che è tanto. Esiste davvero questa “reazione istintiva della vita contro la pseudo-vita”? Tenderei a pensare che sia più questione di abitudine. Non quindi “qualsiasi aggeggio meccanico”, come spiega il produttore di robot, ma solo quelli percepiti come una novità – e una minaccia. Ai tempi di Sheckley i robot, oggi l’intelligenza artificiale, qualche secolo fa i telai meccanici.
È comunque vero che, quando la tecnologia non funziona come dovrebbe, ci arrabbiamo. È utile che questa rabbia venga sfogata sui robot, che alla fine sono cose, e non su altri esseri umani? Apparentemente sì: non abbiamo doveri verso i robot e non causiamo sofferenza. Del resto almeno su Tranai sono costruiti apposta per essere presi a calci.
Tuttavia le cose non sono così semplici se prendiamo in considerazione l’etica delle virtù. Avevo già accennato al problema anche se partendo da un altro punto di vista, quello del ringraziare le intelligenze artificiali. In pratica, più che i principi morali o le conseguenze delle azioni, conta come ci comportiamo. E dare sfogo alla rabbia prendendo a calci un robot non è un bel comportamento e mostra una sostanziale incapacità di controllare la rabbia. Certo, se l’alternativa è picchiare o uccidere una persona, dichiarare una guerra o inventare un’arma meglio fracassare dei robot. Ma sospetto che sia un falso dilemma e che anzi, avere dei robot progettati per irritarci e farci commettere atti di violenza (seppur senza vittime) sia una pessima idea.

Twitter, il mercato delle idee e quello pubblicitario

Dopo il cambio di proprietà gli inserzionisti stanno abbandonando Twitter. Una scelta compatibile con il modello del “libero mercato delle idee” che però solleva qualche preoccupazione.

Scopro, grazie a Paolo Attivissimo, che metà dei cento più importanti inserzionisti di Twitter non stanno più facendo pubblicità. Evidentemente le aziende non trovano interessante farsi pubblicità su Twitter dopo le novità introdotte, in maniera anche maldestra, da Elon Musk. Penso ai bollini blu, che certificavano l’identità degli account ufficiali e che improvvisamente sono stati aperti a tutti portando a una certa confusione. O alla riattivazione di diversi account sospesi per violazione delle regole, tra cui quello di Trump. Comprensibile che un’azienda voglia riconsiderare la propria presenza pubblicitaria sulla piattaforma. Il che non esclude, come denunciato dallo stesso Musk, che ci siano anche state pressioni da parte di alcuni movimenti.

Tutto questo rientra nel “libero mercato delle idee” che mi pare di capire sta alla base della concezione di Musk sulla libertà di espressione. Come la concorrenza e il mercato portano ad avere prodotti migliori, così il libero confronto delle opinioni porta ad avere le idee migliori. Quello che il modello del libero mercato delle idee non precisa è cosa si intenda con migliore. Parliamo di idee ben argomentate? Che indignano o divertono? Basate su fatti accertati?

In ogni caso, il libero mercato delle idee non vale solo all’interno di una piattaforma, ma anche tra piattaforme. Si sceglie quella in cui ci si trova meglio; io ad esempio sto guardando con un certo interesse Mastodon, e non sono il solo. E forse il libero mercato delle idee vale anche per gli inserzionisti: dopotutto non si limitano a comprare uno spazio pubblicitario neutro ma associano la propria immagine a quella di chi li ospita (e viceversa). Sulle riviste di astronomia non troviamo pubblicità di astrologi non solo perché sarebbero inserzioni inutili (gli appassionati di astronomia non credono agli oroscopi), ma anche perché dubito che gli uni vogliamo essere associati agli altri.
Insomma, se Musk vuole giocare al ”libero mercato delle idee” non può poi lamentarsi se a quel gioco rischia di perdere. Poi certo, accusare attivisti e aziende come Apple di tramare contro di lui, o addirittura contro la libertà di espressione, può essere utile per profilarsi verso una parte di pubblico. Il che spiegherebbe anche lo stile complottista di un tweet contro Apple nel quale si presenta come un segreto che finalmente Musk ha il coraggio di rivelare al mondo una cosa ben nota, la commissione del 30% sugli acquisti fatti su AppStore.

Ma se si accetta con riserva il modello del libero mercato delle idee? In quel caso c’è da essere un po’ preoccupati e per più di un motivo. Da una parte non è affatto semplice mettere in piedi un nuovo social network per cui quella concorrenza tra piattaforme è più una teoria, o una speranza, che una realtà. Pensare “tanto possiamo andare tutti da un’altra parte”, come il già citato Mastodon, è una consolazione molto parziale al peggioramento che sta avvenendo su Twitter.
Dall’altra parte la fuga degli inserzionisti mette in luce l’enorme potere che hanno le grandi aziende quando decidono dove fare pubblicità. Non è un problema nuovo e non riguarda solo i social network ma in generale tutti i media. E rimane un grosso problema anche se non abbiamo particolari simpatie per Musk e per la sua gestione dI Twitter.

Abbiamo bisogno di uno spazio a prova di fake news

La disinformazione può essere pericolosa. Ridurre la produzione e la circolazione delle fake news è difficile e pone problemi di libertà di espressione. Una possibile alternativa è cercare di renderle innocue con spazi di comunicazione sicuri.

Premessa: i ‘toot’ di Mastodon

In questi giorni sto sperimentando un po’ Mastodon, un social network non centralizzato come del resto era decentralizzata tutta la rete fino a qualche anno fa, con tanti server che dialogavano tra di loro in base a protocolli pubblici.

Di Mastodon avevo sentito parlare già da qualche anno e forse mi ero anche iscritto da qualche parte; il profilo che sto usando attualmente risale a fine agosto, prima quindi della “grande fuga da Twitter” dovuta all’arrivo di Elon Musk, ma non me ne faccio un vanto anche perché questo articolo parla solo collateralmente di Mastodon e di social media – se siete finiti qui aspettandovi spiegazioni tecniche, mi spiace ma dovrete andare altrove.

Inizio dalla mia esperienza su Mastodon perché in questi primi giorni sulla piattaforma ho scoperto un paio di caratteristiche interessanti. La prima è l’assenza del “retweet con commento“: puoi rispondere a un contenuto (che qui si chiamano toot), lo puoi condividere alle persone della tua comunità ma non puoi citarlo con un commento e questa, da quel che ho capito, non è una dimenticanza ma una scelta. Il “cita e commenta” è infatti usato per il cosiddetto “grandstanding“, il criticare non per far progredire una discussione ma per “mettersi sul podio”. Sul tema c’è un bel libro di Justin Tosi e Brandon Warmke.
La seconda cosa interessante di Mastodon è che la ricerca funziona solo sugli hashtag: se scrivo una cosa critica su Elon Musk nessun fan del nuovo proprietario di Twitter la troverà a meno che non decida di aggiungere #elonmusk.

Queste caratteristiche di Mastodon – e probabilmente anche altre che non ho ancora scoperto – mirano a contenere il linguaggio d’odio e la violenza verbale senza ricorrere alla moderazione dei contenuti o a sospensioni e cancellazioni di account, misure che comunque avverrebbero su un singolo server.
Non so quanto siano efficaci; non so neanche se Mastodon avrà un futuro o meno. Però avremmo bisogno di soluzioni simili anche per la disinformazione e le fake news.

Il problema delle fake news

Penso che si possa dare per scontato che le fake news siano un problema. Magari non tutti sono d’accordo su quanto siano pericolose e sull’efficacia e l’opportunità delle varie soluzioni prospettate, ma credo che tutti siano d’accordo sul fatto che in un mondo ideale le persone condividano informazioni che considerano vere e rilevanti.

Un po’ meno scontato capire cosa sia una fake news. Una notizia errata frutto di un serio lavoro giornalistico è una fake news? E una notizia inventata di sana pianta che si rivela casualmente vera? O un’informazione vera ma presentata in maniera ingannevole? A questa ambiguità del concetto di fake news – che avevo proposto di ribattezzare “pseudonotizie” – si aggiungono poi le difficoltà nel verificare i singoli casi: un bel problema se pensiamo di intervenire attraverso la censura, sia essa affidata a esseri umani o ad algoritmi. Senza dimenticare che impedire o comunque ostacolare la condivisione di fake news è una limitazione della libertà di espressione. Il che non significa che sia sbagliata, ma solo che bisogna rifletterci bene.

Se è una buona cosa permettere di criticare e mettere in dubbio qualsiasi affermazione, anche e forse soprattutto quelle vere, d’altra parte ci sono fake news che possono causare danni, come la disinformazione intorno a farmaci sicuri ed efficaci.

L’esempio classico è considerare i panettieri responsabili della scarsità di pane: un conto è presentare questa ipotesi in una pacata discussione sull’aumento dei prezzi, un altro è affermarlo davanti a una folla affamata e inferocita. Una versione ancora più semplice riguarda il gridare “Al fuoco!” in un teatro affollato. E certo è opportuno che le persone non gridino “Al fuoco!”, ma come impedirlo? Forse conviene controllare gli impianti di sicurezza ed evitare che ci sia troppa gente in teatro.

È possibile pensare a spazi di comunicazione in cui le fake news possano diffondersi senza fare danni? Non lo so, ma certamente non sono il primo a guardare al fenomeno della disinformazione ragionando anche sulle caratteristiche dei vari mezzi di comunicazione che, a seconda delle dinamiche che instaurano, possono favorire o meno determinati comportamenti.

Intelligenze artificiali che scrivono cose

Cercando un sistema per controllare come scrivo – quelle cose tipo “paragrafi troppo lunghi”, “metti un link esterno” eccetera –, ho scoperto l’esistenza di Writesonic. Si tratta di una piattaforma che sfrutta l’intelligenza artificiale per la creazione e la modifica di testi.

L’offerta è ampia, si va dai testi che accompagnano le foto su Instagram alle descrizioni di prodotti per Amazon, da “storie coinvolgenti e persuasive” 1 al riassunto di testi.

Puoi impostare la qualità dei testi su quattro livelli e un piano gratuito che ti permette, con qualità premium, fino a 2500 parole. Per curiosità ho sperimentato la funzione “AI Article & Blog Writer”.

Cosa ho fatto

Innanzitutto ho scelto il tema: la sovranità alimentare. Con Giorgia Meloni che ha ribattezzato il Ministero delle politiche agricole alimentari e forestali in Ministero dell’agricoltura e della sovranità alimentare, si discute se sia un’idea “di destra o di sinistra”. Ho quindi impostato come argomento il seguente testo: “La sovranità alimentare è un’idea progressista legata alla sostenibilità sociale, ambientale ed economica? Oppure è un’idea reazionaria, nazionalista e classista?”

Mi ha proposte tre possibili titoli: “La sovranità alimentare è una questione progressista? Discutiamo!” (che ho scelto), “La sovranità alimentare è un’idea progressista legata alla sostenibilità sociale, ambientale ed economica? O è un’idea reazionaria, nazionalista e classista?” e “La sovranità alimentare è un’idea progressista?”.

Mi ha poi proposto tre possibili introduzioni.

La sovranità alimentare è un tema che ha acquisito visibilità negli ultimi anni. La comunità internazionale ha preso atto delle gravi implicazioni dei mercati alimentari aziendali e del loro impatto sui piccoli produttori, sui sistemi alimentari e sull’ambiente. La sovranità alimentare può essere intesa come un insieme di diritti relativi al modo in cui le popolazioni producono, conservano, distribuiscono e accedono al cibo. È anche un processo attraverso il quale le comunità riprendono il controllo sulla produzione e sul consumo di alimenti sani. Per capire se questo argomento è adatto alla vostra organizzazione o riunione in questo momento, potete chiedervi: questi valori sono in linea con la missione della mia organizzazione? È un argomento che sta a cuore ai membri? Le persone si sentiranno più legate alla mia organizzazione grazie a questo argomento? È rilevante per i nostri membri? Risponde a qualche esigenza attuale della nostra organizzazione? Ci sono altri modi in cui potremmo sostenere ulteriormente gli sforzi di altri che lavorano in questo settore?

La sovranità alimentare è sempre più riconosciuta come una valida alternativa al sistema alimentare industriale dominante. Tale riconoscimento, tuttavia, è stato limitato a circoli specializzati. Anche all’interno del movimento per la giustizia alimentare, è rimasto un termine oscuro fino a poco tempo fa. Questo articolo esplora il potenziale della “sovranità alimentare” come questione progressista e la inquadra come tale. Ci sono diverse ragioni per cui questo tema non fa ancora parte della comprensione comune dei movimenti per la giustizia sociale: l’invisibilità strutturale, il gergo accademico, la limitata accessibilità alle fonti primarie e le tensioni ideologiche tra i diversi movimenti per la giustizia sociale. Questo articolo cerca di spiegare perché dovremmo considerare la sovranità alimentare come una questione progressista.

Il cibo non è solo una fonte di energia, vitamine e minerali. È anche un luogo chiave per contestare le relazioni di potere tra aziende e consumatori, produttori e fornitori, interessi radicati e attori emergenti. I dibattiti che ne derivano sono diventati così divisivi che è difficile capire dove finisce una parte e inizia l’altra. Ma se ci fosse un modo per unire tutti coloro che hanno a che fare con il cibo? E se la sovranità alimentare potesse essere quel tema unificante? Secondo il sito web di Food First, “la sovranità alimentare riguarda innanzitutto il fatto che le persone abbiano diritti sicuri sulla terra, l’acqua, le sementi e le fonti di proteine, nonché l’accesso a mercati equi e convenienti”. In altre parole, si tratta di capire chi possiede il nostro sistema alimentare: le grandi aziende o i piccoli agricoltori?

Ho scelto l’ultima e a questo punto mi ha proposto tre possibili scalette:

  1. Chi dovrebbe possedere il nostro sistema alimentare?
  2. Perché la sovranità alimentare è una questione progressista?
  3. Perché la sovranità alimentare non è una questione progressista?
  4. La sovranità alimentare riguarda solo i grandi e i piccoli proprietari?
  5. Conclusione
  1. Che aspetto ha la sovranità alimentare?
  2. Il caso della sovranità alimentare
  3. Perché potrebbe non essere una questione progressista
  4. Il caso contro la sovranità alimentare
  5. Riflessioni finali
  1. Chi possiede il nostro sistema alimentare?
  2. Che aspetto ha la sovranità alimentare?
  3. Perché la sovranità alimentare è una questione progressista?
  4. Critiche alla sovranità alimentare

Ho scelto la prima togliendo il quarto punto e ho ottenuto il testo che ho pubblicato poco fa.

Qualche considerazione

Il risultato, lo confesso, mi ha stupito: potrebbe benissimo essere un testo scritto da un essere umano. Certo, un essere umano che ha idee particolarmente originali sulla sovranità alimentare e sviluppa quanto contenuto nella traccia iniziale grazie a qualche ricerca online e frasi fatte, senza davvero aver capito quello che scrive. Il che è comunque un risultato notevole, anche perché quella è la situazione tipica non solo di uno studente alle prese con temi e tesine, ma anche di molte persone che scrivono per lavoro – penso, ma solo perché è una realtà che conosco bene, al giornalista che si ritrova a occuparsi di un tema del quale sa poco o nulla. Certo, un bravo giornalista sa come diventare un “esperto” in qualche ora, eventualmente sentendo colleghi o persone davvero esperte (senza virgolette), ma qui ho avuto il testo in pochi minuti.
Dove l’intelligenza artificiale ha decisamente fallito è la scelta dell’immagine.

I vantaggi per chi pubblica contenuti – e privilegia la quantità e la tempestività alla qualità – mi paiono evidenti. Più interessante chiedersi quali possano essere i vantaggi per un lettore.
Me ne viene in mente uno: semplificare la raccolta di informazioni. Proviamo a ripercorrere il procedimento che ho seguito pensando che il mio obiettivo non fosse avere un articolo sul tema del giorno per avere un po’ di clic, ma sapere che cosa è la sovranità alimentare. Ho chiesto quello che volevo sapere, nei passaggi successivi ho specificato meglio quel che mi interessa sapere, e poi ho lasciato che un’intelligenza artificiale accedesse a un certo numero di risorse e me facesse un riassunto di 7-800 parole.
L’alternativa sarebbe stata cercare “sovranità alimentare” su Google: se mi va bene qualcuno ha già fatto questo lavoro di sintesi – è il caso ad esempio del Post –, ma se mi va male dovrò perdere qualche ora selezionando e confrontando fonti.

Il problema è che ovviamente non ho la minima idea di come quelle informazioni siano state selezionate. Il testo generato automaticamente è chiaramente favorevole alla sovranità alimentare (“una questione progressista che può unire tutti coloro che si occupano di cibo”), immagino perché la maggioranza delle fonti hanno quella impostazione. Tremo all’idea di chiedere se i vaccini contro il Covid hanno come obiettivo ridurre la popolazione umana tramite terapia genica sperimentale.

  1. In teoria la persuasione riguarda i testi argomentativi e non la narrativa, ma forse in inglese “persuasive” vale anche per i racconti.[]