Archivi tag: Giuseppe O. Longo

I pericoli del lamarckismo culturale

"Allungati! Fallo per i figli!" (Beatrice the Biologist)
“Allungati! Fallo per i figli!” (Beatrice the Biologist)

Se è vero, come ho già sottolineato, che l’evoluzione culturale si svolge in base a meccanismi che non sono solo di tipo darwiniano (mutazione e selezione), ma anche, e soprattutto, di tipo lamarckiano (eredità dei caratteri acquisiti, cioè imitazione e diffusione), allora non si possono ignorare le ragioni per cui in biologia il lamarckismo non può funzionare. Infatti esso porterebbe a una perdita irreversibile e fatale di flessibilità, perdita che nella realtà biologica non si osserva.
Ma se il meccanismo primo dell’evoluzione culturale è l’eredità dei caratteri acquisiti, l’argomentazione precedente porta a concludere che, a causa della globalizzazione, la cultura è soggetta a una perdita nefasta di flessibilità: e di fatto si osservano oggi i segni di una preoccupante tendenza all’uniformità culturale su scala mondiale.

Giuseppe O. Longo, “La Creatura Planetaria ovvero l’immortalità virtuale” in Homo immortalis. Una vita (quasi) infinita, Springer 2012 Continua la lettura di I pericoli del lamarckismo culturale

Insegnare l’etica ai robot

Interessante articolo di Giuseppe O. Longo sulla roboetica: “Ma chi insegna l’etica ai robot?” (Avvenire, 27 dicembre 2008; pdf disponibile su Ethica).

In breve, se i robot sono in grado di prendere decisioni con un certo livello di autonomia (Longo parla di “un embrione di libero arbitrio”, espressione forse un po’ troppo forte), si pongono tutta una serie di problemi morali e giuridici. Occorre costruire robot che siano in grado di distinguere ciò che è giusto da ciò che è sbagliato ossia insegnare ai robot la nostra moralità, sperando che ciò sia possibile.

Quello dell’insegnamento ai robot potrebbe diventare una sorta di “test di Turing” al contrario: invece di scoprire quanto un computer sappia comportarsi come un essere umano, saggiare quanto una teoria morale sia razionale cercando di insegnarla a un robot. Se i suoi sofisticati circuiti proprio non riescono a digerirla, forse (e sottolineo forse) quella teoria morale è un po’ astrusa e sarebbe meglio abbandonarla.