Dobbiamo ringraziare i robot che puliscono i pavimenti?

Commentando l’acquisizione da parte di Amazon di iRobot, il produttore dei popolari robot aspirapolvere Roomba, John Gruber immagina un futuro in cui avremo per casa degli assistenti robotici ben più versatili di una macchinetta che se la cava bene con la polvere ma non la cacca di cane (il web è pieno di racconti del genere) e non è neanche in grado di fare le scale. Qualcosa al quale poter dire “Roomba, sistema il casino che c’è in cucina e quando hai finito portami un bicchiere d’acqua, grazie”.

round robot vacuum
Photo by Jens Mahnke on Pexels.com

A essere sincero sono un po’ scettico su questi possibili sviluppi – mi ricordano le auto a guida autonoma, che è almeno vent’anni che avremo “entro 5 anni” – ma è interessante che Gruber concluda il suo ipotetico ordine ringraziando il robot. Se ne rende conto anche lui, tanto da concludere il suo testo con una precisazione:

(I like saying thanks to my AI assistants. My wife thinks I’m nuts. But I worry we, collectively, are going to be dreadfully rude to them by the time they’re essential elements of our daily lives.)

Ora, tralasciando il fatto che in inglese “please” e “thank you” sono più comuni che in italiano o in tedesco (Licia Corbolante spiega bene i motivi), perché mai dovremmo ringraziare un’intelligenza artificiale?

Partendo dalle principali teorie etiche, non vedo buoni motivi per farlo né per le morali deontologiche (per le quali, grosso modo, è giusto quello che discende da alcuni principi morali) né per quelle consequenzialiste (che valutano l’agire in base alle conseguenze). L’intelligenza artificiale non ha coscienza di sé e non soffre: la mancata gentilezza non viola principi morali e non ha conseguenze sgradevoli per nessuno.

Risposta diversa per l’etica delle virtù, quella che invece di guardare ai principi o agli effetti delle nostre azioni, si chiede che tipo di agenti morali vogliamo essere. E possiamo rispondere, come sembra fare John Gruber, che non vogliamo essere delle persone maleducate, anche se la maleducazione riguarda un’intelligenza artificiale.

Insegnare l’etica ai robot

Interessante articolo di Giuseppe O. Longo sulla roboetica: “Ma chi insegna l’etica ai robot?” (Avvenire, 27 dicembre 2008; pdf disponibile su Ethica).

In breve, se i robot sono in grado di prendere decisioni con un certo livello di autonomia (Longo parla di “un embrione di libero arbitrio”, espressione forse un po’ troppo forte), si pongono tutta una serie di problemi morali e giuridici. Occorre costruire robot che siano in grado di distinguere ciò che è giusto da ciò che è sbagliato ossia insegnare ai robot la nostra moralità, sperando che ciò sia possibile.

Quello dell’insegnamento ai robot potrebbe diventare una sorta di “test di Turing” al contrario: invece di scoprire quanto un computer sappia comportarsi come un essere umano, saggiare quanto una teoria morale sia razionale cercando di insegnarla a un robot. Se i suoi sofisticati circuiti proprio non riescono a digerirla, forse (e sottolineo forse) quella teoria morale è un po’ astrusa e sarebbe meglio abbandonarla.