Il problema delle intelligenze artificiali è che funzionano troppo bene

Ho conosciuto Roberto Cingolani prima che diventasse ministro della transizione ecologica. In qualità di direttore scientifico dell’Istituto italiano di tecnologia di Genova aveva tenuto alcune conferenze in cui raccontava un po’ di cose sulla robotica. Affrontando anche il problema delle conseguenze sul mercato del lavoro.

La sua tesi, brutalmente riassunta, è che forse i computer potranno sostituire in molte cose gli esseri umani, ma in molti casi non ne vale la pena. Che senso ha usare un robot che, anche prodotto in serie, costa uno sproposito e consuma un bel po’ di energia se con una frazione di quei costi posso assumere una persona? Robot e intelligenze artificiali saranno competitivi per i lavori pericolosi – ma anche qui potrebbero convenire esoscheletri comandati da remoto da esseri umani – e soprattutto per quelli ripetitivi. Con la distinzione tra lavori manuali e intellettuali che diventa sempre meno importante.

Lasciamo da parte le preoccupazioni economiche, per le quali si dovrebbe fare un discorso serio su un vero reddito di cittadinanze. Questa divisione del lavoro potrebbe essere vista come una liberazione: i lavori ripetitivi annoiano e quelli pericolosi sono, appunto, pericolosi. Sarebbe bello lasciare alle macchine queste incombenze e occuparci delle cose più interessanti e stimolanti.

Solo che non è detto che agli esseri umani restino questi compiti interessanti e stimolanti. Lo spiega Gary Marcus commentando l’incidente avvenuto a CNET. In poche parole, l’azienda si è avvalsa di un’intelligenza artificiale per la scrittura degli articoli, con degli umani a coordinare e supervisionare il lavoro. Il risultato è stata una serie di imprecisioni ed errori.

Da dove arrivano queste allucinazioni, con l’intelligenza artificiale che si inventa fatti credibili ma falsi, è presto detto. Parliamo in questo caso di modelli linguistici, in pratica dei sofisticati pappagalli che imparano come le parole si relazionano tra di loro, non come le parole si relazionano con il mondo che conosciamo (come afferma sempre Marcus riprendendo Noam Chomsky).

Più interessante come queste allucinazioni siamo sfuggite ai revisori. L’attenzione umana è limitata, soprattutto quando gli interventi sono rari e limitati. Se i testi prodotti dall’intelligenza artificiale fossero stati scritti male, richiedendo correzioni e integrazioni, quelle allucinazioni sarebbero state identificate insieme agli altri errori. Ma di fronte a testi scritti bene e che non richiedono di correggere neanche una virgola, è normale che dopo un po’ l’attenzione cali. E così sfugga che, se investo 10’000 dollari con una rendita del 3%, arrivo a guadagnare 300 dollari, non 10’300.

Come osserva Marcus, lo stesso problema si presenta con le auto a guida autonoma. O l’intervento umano è completamente superfluo, oppure non puoi pretendere che un essere umano presti attenzione alla strada se per la maggior parte del tempo non deve fare niente. Certo, potremmo dire che alla fine si tratta di un errore umano, come afferma HAL 9000 in 2001: Odissea nello spazio. E come afferma la stessa ChatGPT quando le ho chiesto se può affermare cose false:

No, come modello di lingua artificiale AI sviluppato da OpenAI, non ho emozioni né personalità e fornisco risposte basate sui dati a cui sono stato addestrato. Tuttavia, i miei risultati possono essere imprecisi o incompleti a causa dei limiti del mio addestramento e dei dati disponibili.

Ammettiamo pure che il problema sia come gli esseri umani addestrano e verificano l’operato dell’intelligenza artificiale. Rimane il fatto che la tecnologia dovrebbe aiutarci a superare i limiti umani, non renderli più pericolosi.

Magari è solo questione di ripensare le strategie di revisione. Può essere che l’errore di CNET sia stato quello di rivedere il testo come se fosse stato scritto da un essere umano, senza rendersi conto che un testo scritto da un’intelligenza artificiale richiede procedure diverse. O forse è proprio sbagliato l’approccio e conviene usare l’intelligenza artificiale per la revisione e non per la scrittura dei contenuti. Chissà: la tecnologia deve ancora trovare un posto nelle nostre vite.

Nel frattempo, mi sento di riassumere così la questione: in attesa di un’intelligenza artificiale perfetta, meglio una che funziona male di una che funziona troppo bene.

Un commento su “Il problema delle intelligenze artificiali è che funzionano troppo bene

Lascia un commento