Sto leggendo Co-Intelligence. Living and Working with AI di Ethan Mollick. L’editore lo presenta come un manuale o una guida (playbook) a come convivere con gli LLM, i modelli linguistici di grandi dimensioni alla base di ChatGPT, Gemini, Claude eccetera.
È un libro sorprendentemente interessante — e dico “sorprendentemente” perché stiamo parlando di una tecnologia in rapida evoluzione, uno ci si può aspettare un testo destinato a invecchiare molto rapidamente, con consigli e raccomandazioni non più attuali. Mollick riesce invece a proporre riflessioni generali che siano comunque utili e applicabili nella pratica. E che, un anno e qualcosa dopo la pubblicazione, rimangono attuali.
Uno degli ultimi capitoli è dedicato a scenari futuri nei quali, brevemente e con molto buon senso, Mollick prova a descriverci in che direzione ci stiamo già muovendo. Profezie facili, se vogliamo, ma non per questo meno interessanti. Per quanto riguarda l’informazione e il giornalismo, o meglio il modo in cui “comprendiamo e fraintendiamo il mondo”, Mollick parte da una situazione è già attuale (e anzi in parte lo era anche prima delle IA):
Anche se l’intelligenza artificiale non dovesse migliorare ulteriormente, alcune delle sue implicazioni sono già inevitabili. La prima serie di cambiamenti certi causati dall’intelligenza artificiale riguarderà il modo in cui comprendiamo, e fraintendiamo, il mondo. È già impossibile distinguere le immagini generate dall’intelligenza artificiale da quelle reali, e questo semplicemente utilizzando gli strumenti oggi a disposizione di chiunque. Anche i video e le voci sono estremamente facili da falsificare. L’ambiente informativo online diventerà completamente ingestibile, con i fact-checker sopraffatti dal flusso di informazioni. Oggi creare immagini false è solo leggermente più difficile che scattare fotografie reali. Ogni immagine di un politico, di una celebrità o di una guerra potrebbe essere inventata: non c’è modo di distinguerle. Il nostro già fragile accordo su quali fatti siano reali rischia di sgretolarsi rapidamente.
Ho solo un commento da fare. Quando parla di “fact-checker sopraffatti dal flusso di informazioni” si potrebbe ribattere che gli LLM sono a disposizione anche di chi lavora per informazioni affidabili e verificate. Buona parte del suo libro è proprio dedicata a come le persone possano lavorare meglio con le intelligenze artificiali — e questo si applica anche a chi fa giornalismo.
È improbabile che le soluzioni tecnologiche possano salvarci. I tentativi di tracciare la provenienza di immagini e video mediante watermarking delle creazioni dell’IA possono essere vanificati con modifiche relativamente semplici al contenuto sottostante. E questo presuppone che le persone che falsificano immagini e video utilizzino strumenti commerciali: identificare i contenuti generati dall’IA diventerà ancora più difficile man mano che i governi svilupperanno i propri sistemi e i modelli open source prolifereranno. Forse, in un futuro, l’IA potrà aiutarci a separare il grano dal loglio, ma le IA sono notoriamente inaffidabili nel rilevare i contenuti generati dall’IA, quindi anche questa ipotesi sembra improbabile.
Condivido lo scetticismo di Mollick: la soluzione non può essere solo tecnologica. E tuttavia qui sembra considerare solo l’identificazione di contenuti generati tramite intelligenza artificiale. Gli LLM possono in realtà aiutarci verificare le notizie al di là dell’autenticità di un’immagine o di un video.
Ci sono solo alcuni modi in cui questa storia potrebbe finire. Forse ci sarà una rinascita della fiducia nei media mainstream, che potrebbero diventare gli arbitri dell’autenticità delle immagini e delle notizie, tracciando attentamente la provenienza di ogni notizia e artefatto. Ma questo sembra improbabile. Una seconda opzione è quella di dividerci ulteriormente in tribù, credendo alle informazioni che vogliamo credere e ignorando come false quelle a cui non vogliamo prestare attenzione. Presto, anche i fatti più elementari saranno oggetto di controversia. Questa crescita di bolle informative sempre più isolate sembra molto più probabile, accelerando la tendenza pre-LLM. Un’ultima opzione è quella di allontanarci completamente dalle fonti di notizie online, perché sono così inquinate da informazioni false da non essere più utili. Indipendentemente dalla direzione che prenderemo, anche senza progressi nell’IA, il modo in cui ci relazioniamo con le informazioni cambierà.
Qui ho poco da aggiungere: i tre scenari tracciati da Mollick mi paiono davvero gli unici possibili. Con il primo — la rinascita dei media tradizionali, magari proprio grazie a soluzioni basate sulle IA — possibile ma certamente improbabile.
Come accennato, sono previsioni facili: parliamo di tendenze già in atto. La polarizzazione non è una novità e l’isolamento in tribù che la pensano diversamente (e “conoscono” fatti diversi) precede ChatGPT. E sempre più persone rientrano nella categoria dei “deprivati di notizie”.


