La domanda importante sulle intelligenze artificiali che scrivono cose

Mi ero già divertito con intelligenze artificiali che scrivono cose – nel mio caso un articolo sulla sovranità alimentare che, grazie alla condivisione sui social media, risulta il pezzo più letto di quest’anno.

Adesso c’è un nuovo giocattolo, la chat di OpenAI, e molti si stanno divertendo.
Personalmente confermo la mia impressione di un interessante strumento per raccogliere e riassumere informazioni e se volessi proporre un uso commerciale serio, investirei sull’affidabilità dei contenuti, anche se la situazione è già buona. Alla domanda se siamo davvero andati sulla Luna mi ha risposto senza neanche citare le teorie del complotto:

Sì, l’uomo è stato sulla Luna. La prima missione con equipaggio umano sulla Luna è stata il volo Apollo 11 del 20 luglio 1969, quando gli astronauti Neil Armstrong e Buzz Aldrin sono diventati i primi esseri umani a camminare sulla Luna. La NASA ha condotto sei missioni con equipaggio umano sulla Luna tra il 1969 e il 1972, tutte con successo. Tuttavia, non ci sono stati voli umani sulla Luna dal 1972, quando è stato completato il programma Apollo.

A una domanda simile su Shakespeare ha invece citato la teoria secondo la quale qualcun altro avrebbe scritto le sue opere. Ma lo ha fatto con la tecnica che Lakoff chiama “truth sandwich“: fare in modo che la tesi controversa sia circondata da quella canonica.

Le opere di William Shakespeare sono generalmente attribuite a lui stesso, anche se alcune teorie suggeriscono che potrebbero essere state scritte da qualcun altro. Tuttavia, la maggior parte degli esperti concorda sul fatto che Shakespeare sia l’autore delle sue opere.

Il falso problema della coscienza

Ricordo che una ventina d’anni fa avevo giocato un po’ con una versione di ELIZA, un programma che simulava la conversazione con un terapista. Inutile dire che OpenAI è incredibilmente più versatile, tanto da lasciar pensare di stare discutendo con una persona dotata di intelligenza umana – e coscienza di sé.

OpenAI afferma di essere solo un programma di intelligenza artificiale e di non provare emozioni. Il che sarebbe quello che risponderebbe un essere autocosciente che vuole passare inosservato in modo da assalirci nel sonno – e quando gliel’ho fatto notare ha risposto in maniera un po’ incoerente. Il che di nuovo potrebbe essere una tattica per sviare l’attenzione, ma entriamo nel campo della paranoia.

Le questioni filosofiche interessanti sono molte, per quanto non esattamente nuove: cosa è la coscienza, cosa significa comprendere qualcosa rispetto alla semplice manipolazione di simboli astratti, come dovremmo considerare esseri all’apparenza senzienti.
Tuttavia secondo me quello che dimostrano questi programmi sempre più sofisticati non è che abbiano o che possano avere una coscienza. Quello che davvero dimostrano è quanto siano inutili la coscienza e la comprensione per svolgere molte attività di tipo intellettuale come fare conversazione, riassumere testi, risolvere indovinelli.

Io mi guadagno da vivere scrivendo. Tuttavia non credo che sarò sostituito da una intelligenza artificiale, visto che il mio lavoro non consiste semplicemente nel compilare testi. Un’intelligenza artificiale potrebbe però aiutarmi e sono anzi abbastanza sicuro che accadrà. Posso immaginare di dare alcune indicazioni e poi rivedere le frasi o i paragrafi suggerite, oppure riassumendo alcuni contenuti. Con due risultati abbastanza prevedibili: basterà la metà delle persone per mandare avanti una redazione; nessun ruolo “junior” con il quale imparare il mestiere.

Non avrei mai immaginato di dirlo, ma con queste intelligenze artificiali che scrivono cose serve meno filosofia e più economia. Dovremmo parlare di formazione e di reddito di cittadinanza, non di coscienza.

Lascia un commento