Un po’ di cose che ho capito sulle probabilità bayesiane

Sto leggendo un po’ di cose sulla probabilità bayesiana.
È un tema interessante – oserei dire persino: importante – che non riguarda solo la matematica ma in generale il modo in cui ragioniamo e quello che potremmo chiamare “scetticismo sensato”.

Ma restiamo sulle probabilità bayesiane.
Di risorse in italiano ne ho trovate poche; in inglese c’è un bel video introduttivo di 3Blue1Brown e due libri: il primo è un’introduzione con diversi esempi e metodi (Bayes’ Theorem Examples: A Visual Introduction For Beginners di Dan Morris), il secondo è una interessante storia del teorema e delle sue alterne fortune nella storia (The Theory That Would Not Die di Sharon Bertsch McGrayne).

La mente bayesiana

Una cosa che mi ha colpito è un’apparente contraddizione.

Di per sé il teorema di Bayes spiega come dovremmo aggiornare una credenza iniziale alla luce di nuove informazioni. Credo che le chiavi di casa siano nella tasca del cappotto e non nello zaino; infilo la mano nella tasca del cappotto e non le trovo; correggo la mia ipotesi iniziale e penso che siano nello zaino; non le trovo neanche lì e allora penso di non aver controllato bene in tasca; solo alla fine concludo di aver verosimilmente perso le chiavi.

È normale ragionare così. Vero che non facciamo valutazioni numeriche tipo “al 90% le chiavi sono in tasca” (o “sono pronto a scommettere 1 a 9 che le chiavi sono in tasca”), “il 5% delle volte che non trovo le chiavi è perché non le ho cercate bene” (o “sono pronto a scommettere 1 a 19 che non sono lì visto che non le ho trovate”), “le probabilità di perdere le chiavi sono inferiori all’1%” (o “sono pronto a scommettere 1 a 99 che non le ho perse”) e non ci mettiamo a fare i calcoli che poi ho riassunto alla fine di questo articolo, ma tutti noi facciamo un secondo controllo in tasca prima di convincerci che potremmo aver perso le chiavi.

Secondo vari studi, citati nell’ultimo capitolo del saggio di Sharon Bertsch McGrayne, la nostra mente è bayesiana: riduce in continuazione l’incertezza grazie a nuove osservazioni.

Eppure il teorema di Bayes porta spesso a risultati controintuitivi, spesso presentati come dei paradossi. Quello più famoso riguarda la probabilità di avere una malattia relativamente poco diffusa (diciamo una persona su mille) se un test diagnostico affidabile al 99% risulta positivo (e non abbiamo altri motivi di sospettare di essere malati, ovviamente).

Un altro riguarda un indovinello apparso su questo sito una decina di anni fa:

Una cassa contiene diecimila monete. Una di queste è truccata, e lanciandola in aria esce sempre testa, mentre tutte le altre sono normali, con eguali probabilità per testa e croce.
Prendo una moneta a caso e la lancio otto volte, ottenendo sempre testa.
È ragionevole concludere che abbia trovato la moneta truccata? Più in generale, dopo quanti lanci è ragionevole pensare di avere in mano la moneta truccata?

Intuitivamente pensiamo che il risultato positivo di un test così affidabile equivalga a una diagnosi quasi certa e che otto teste di fila siano possibili solo con una moneta truccata. Ma solo in un caso su dieci chi ha ricevuto un test positivo è ammalato. Nel caso delle monete, invece, con otto lanci c’è un misero 2,5% di probabilità di aver preso la moneta truccata.

Come è possibile che questi risultati ci sorprendano se la nostra mente è bayesiana?

Una prima risposta è che un conto è rivedere le nostre ipotesi iniziali, un altro è farlo correttamente. Il ragionamento in entrambi i casi è infatti corretto: è vero che il test positivo aumenta la probabilità di essere malati, è vero che ottenere otto volte testa aumenta le probabilità di aver preso la moneta truccata, ma non così tanto da farci cambiare l’ipotesi iniziale. Un secondo test risultato positivo, o qualche altra testa ottenuta lanciando la moneta, e avremmo valide ragioni per cambiare idea.

Tuttavia sospetto che possa esserci anche un altro problema. La formulazione del problema ci porta a trascurare le probabilità iniziali. Pensiamo che o siamo sani o siamo malati, che la moneta che abbiamo in mano o è truccata o è normale. Ma se partiamo dal fatto che c’è una probabilità su mille di essere malati, è abbastanza scontato che un test che sbaglia in un caso su cento non ci darà alcuna certezza (ma certamente ridurrà l’incertezza che infatti passa dallo 0.1% al 10%). E se pensiamo che avevo una possibilità su diecimila di aver preso la moneta truccata, l’aver ottenuto otto volte testa è insolito – ci sono altre 255 possibilità – ma non così determinante.

Siamo bayesiani quando non troviamo le chiavi in tasca; ci dimentichiamo di esserlo quando abbiamo test affidabili al 99% o monete truccate. E qui interviene un sistema di calcolo che ho trovato nel libro di Dan Morris e che potrebbe essere utile a orientarsi.

Il diagramma ad albero

L’idea è realizzare uno schema ad albero di quello che potrebbe accade, indicando per ogni ramo quante volte può capitare (posso farlo come numero di casi o come probabilità).

Prendiamo il caso delle monete. Quello che faccio è prendere una delle diecimila monete dalla cassa e poi lanciarla ottenendo 8 volte testa.

Il primo passaggio sarà quindi “prendo una moneta”: in un caso sarà quella truccata, negli altri 9’999 sarà una normalissima moneta.

Il secondo passaggio sarà invece lanciare la moneta 8 volte. Se la moneta è truccata, non posso che ottenere 8 volte testa. Se ho preso una moneta normale, ci sono 256 possibili sequenze, ognuna delle quali ha circa 39 possibilità su 9’999.

Una volta tracciato lo schema completo, cancello quello che non mi serve. So di aver ottenuto 8 volte testa, ma non so se con una moneta truccata o normale: posso quindi ignorare i rami in cui ho ottenuto altre sequenze e concentrarmi solo sui due che prevedono 8 teste.

Ho 40 scenari, in uno ho la moneta truccata, negli altri 39 una normale.

Il calcolo che mi ritrovo a fare è lo stesso previsto dal teorema di Bayes, ma senza dovermi ricordare la formula o calcolare le probabilità condizionali.

Per i test diagnostici ho realizzato lo schema mettendo nei rami le probabilità come frazioni e calcolando i totali a parte.

La probabilità a posteriori di essere malati se il test è risultato positivo è di 99/(999+99)=9%.

Il bello di questo schema è che permette di calcolare anche altre probabilità a posteriori; se ad esempio sono paranoico mi rincuorerà sapere che mentre un test positivo mi lascia sostanzialmente nell’incertezza, un test negativo è invece rassicurante: le probabilità di essere malati nonostante un test negativo sono infatti dello 0.001% (1/98’902).

Posso anche facilmente aggiornare i numeri: mettiamo che, avendo qualche sintomo, la stima iniziale di essere malato passi da una su mille a una su venti. In questo caso il test positivo mi dà una sicurezza di oltre l’80% di essere malato.

Il teorema di Bayes e le chiavi

Per un confronto, vediamo di applicare il teorema di Bayes al caso delle chiavi.

Ricapitolando: sono abbastanza sicuro (al 90%) di avere le chiavi in tasca; possibilista sul fatto che potrebbero invece essere nello zaino (9%) scettico sul fatto di averle perse (1%).
Se le chiavi non sono in tasca sono ovviamente certo (probabilità del 100%) di non trovarle; ma se ci sono ho comunque un 5% di probabilità di non trovarle.

Mettiamo il tutto in formule. La probabilità di avere le chiavi in tasca è P(T), quella di averle nello zaino è P(Z) e di averle perse è P(P).
La probabilità di non rinvenirle in tasca (o nello zaino) è [latex]P(\neg RT) (rispettivamente P(\neg RZ)).
Infine, la probabilità condizionale è indicata con una barra verticale |. Quindi (P(\neg RT|T) indica la probabilità di non trovare le chiavi in tasca sapendo che sono lì mentre (P(T|\neg RT) è la probabilità che le chiavi siano in tasca sapendo di non averle trovate.

Ecco quindi le probabilità iniziali (in notazione decimale: 1=100%).

P(T) = 0.9 P(Z) = 0.09 P(P) = 0.01 P(\neg RT|T)=P(\neg RB|B)=0.05

La probabilità di non rinvenire le chiavi in tasca se sono nello zaino (e viceversa) oppure se sono andate perse è banalmente 1.

Ecco adesso il teorema di Bayes:

P(A|B) = \dfrac{P(A)\cdot P(B|A)}{P(B)}

Proviamo a calcolare la probabilità a posteriori che le chiavi siano in tasca sapendo che non le ho trovate:

P(T|\neg RT) = \dfrac{P(T)\cdot P(\neg RT|T)}{P(\neg RT)}

Come calcolo P(\neg RT), la probabilità di non trovarle in tasca?
È sufficiente sommare la probabilità che siano nello zaino o perse – e in questi casi è certo che non le troverò in tasca – con la probabilità che siano in tasca e non le ho trovate:

P(\neg RT)=P(Z) + P(P) + P(T)\cdot P(\neg RT|T)

Quindi le probabilità a posteriori che le chiavi siano in tasca, nello zaino o perse:

P(T|\neg RT) = \dfrac{P(T)\cdot P(\neg RT|T)}{P(\neg RT)}=\dfrac{0.05\cdot 0.9}{0.09+0.01+0.05\cdot 0.9} = 0.31 P(Z|\neg RT) = \dfrac{P(\neg RT|Z)\cdot P(Z)}{P(\neg RT)}=\dfrac{1\cdot 0.09}{0.09+0.01+0.05\cdot 0.9}=0.62 P(P|\neg RT)=\dfrac{P(\neg RT|P)\cdot P(P)}{P(\neg RT)}=\cfrac{1\cdot 0.01}{0.09+0.01+0.05\cdot 0.9}=0.07

In altre parole: se non trovo le chiavi in tasca, la probabilità che siano in tasca scende a circa il 30%, quella che siano nello zaino sale a circa il 60% mentre c’è un 7% di probabilità di averle perse.

Cosa succede se adesso le cerco nello zaino e non le trovo?
Le probabilità che ho appena calcolato diventano le mie nuove probabilità a priori dalle quali ripartire per fare i calcoli.

P(T|\neg RZ)=\dfrac{P(\neg RZ|T)\cdot P(T)}{P(\neg RZ)}=\dfrac{1\cdot 0.31}{0.31+0.05\cdot 0.62+0.07}=0.75 P(Z|\neg RZ)=\dfrac{P(\neg RZ|Z)\cdot P(Z)}{P(\neg RZ}=\dfrac{0.05\cdot 0.65}{0.31+0.05\cdot 0.62+0.07}=0.08  P(P|\neg RZ)=\dfrac{P(\neg RZ|P)\cdot P(P)}{P(\neg RZ)}=\dfrac{1\cdot 0.07}{0.31+0.05\cdot 0.62+0.07}=0.17

La possibilità di aver perso le chiavi è sempre più consistente (17%), ma è ancora più probabile che non abbiamo guardato bene in tasca.
Cosa succede, quindi, se faccio una seconda, infruttuosa ricerca delle chiavi in tasca?

P(P|\neg RT)=\dfrac{P(\neg RT|P)\cdot P(P)}{P(\neg RT)}=\dfrac{1\cdot 0.17}{0.05\cdot 0.75+0.08+0.17}=0.59.

La probabilità di aver perso le chiavi è ormai del 60% e (vi risparmio i calcoli) arriva a superare l'80% se faccio un'altra infruttuosa ricerca in borsa.

L’effetto Ikea della (dis)informazione

Sto facendo delle ricerche sulle ricerche fai da te – quelle che chi fa controinformazione invita a fare con lo slogan “do your own research” sui vaccini, la crisi climatica, la guerra in Ucraina, l’allunaggio, gli attentati dell’11 settembre eccetera.

Fare ricerche per conto proprio non è di per sé sbagliato. Anzi direi che è una cosa buona e giusta, se non altro per comprendere meglio un determinato argomento. Ma sulle opportunità delle ricerche fai da te – se fatte bene – scriverò poi; qui mi soffermo sui rischi. Di solito si cita l’effetto Dunning-Kruger, quello per cui meno si è esperti più si è sicuri di sé. Ma sulle interpretazioni si impone qualche cautela.

Qui parlo di un altro effetto: l’effetto Ikea cognitivo.

L’uovo e la torta

Iniziamo dall’effetto Ikea classico. Si tratta della tendenza ad attribuire maggior valore ai prodotti assemblati o costruiti dal consumatore come appunto i mobili venduti dall’azienda svedese. A dare il nome a questo effetto sono stati, in un articolo del 2011, Michael Norton, Daniel Mochon e Dan Ariely. Il fenomeno era comunque già noto sia all’interno della psicologia sociale – si tratterebbe di un caso di “giustificazione dello sforzo” indagato da Leon Festinger nei suoi lavori sulla dissonanza cognitiva –, sia dal marketing. Gli autori citano il caso degli impasti preconfezionati per torte. Quando iniziarono a diffondersi negli anni Cinquanta del Novecento incontrarono la diffidenza dei consumatori, diffidenza superata modificando l’impasto e richiedendo l’aggiunta di un uovo. Secondo gli autori il lavoro costituito dall’aggiunta di quest’uovo, per quanto minimo, avrebbe aumentato il valore percepito della torta da parte dei consumatori.

Norton, Mochon e Ariely hanno misurato questo effetto con una serie di esperimenti. Chi fa uno sforzo per produrre alcuni oggetti – nel loro caso un mobile Ikea, un origami e un set lego – non solo attribuisce loro un valore maggiore rispetto a prodotti analoghi realizzati con maggior perizia da professionisti, ma si aspetta anche che altre persone li valutino maggiormente. Siamo disposti a spendere di più per un oggetto che abbiamo in parte realizzato. E ci aspettiamo anche che altre persone siano disposte a pagare di più per qualcosa fatto da noi anziché da un professionista.

Nel primo caso possiamo immaginare una sorta di valore affettivo dovuto al lavoro svolto, o ai vantaggi di una possibile personalizzazione (però l’effetto è stato rilevato anche con oggetti standard valutati unicamente per la loro funzionalità). Nel secondo caso siamo di fronte a un bias, una distorsione nel nostro modo di ragionare. Un bias che può essere sfruttato aumentando surrettiziamente il valore percepito dei beni venduti prevedendo un semplice lavoro da parte del consumatore. Come nel caso dell’uovo da aggiungere alla miscela per torte. Il lavoro richiesto deve essere sufficientemente elaborato da giustificare l’idea di aver contribuito a realizzare il prodotto – cosa che evidentemente non avveniva quando la miscela per torte era già pronta per il forno – ma sufficientemente semplice da garantire la realizzazione del prodotto. L’effetto Ikea, infatti, non si presenta quando il lavoro fai da te non va a buon fine (o quando il prodotto viene smontato).

Meglio degli esperti

È possibile che esista un effetto Ikea cognitivo che riguarda, invece di mobili e origami, i risultati di una ricerca fai da te? Lo scienziato cognitivo Tom Stafford pensa di sì e il filosofo Justin Tiehen sostiene che non sia una cosa così negativa. Sono portato a dargli ragione: indagare autonomamente un argomento anziché dare il proprio assenso a informazioni preconfezionate presenta il vantaggio di una maggiore comprensione.
Può quindi essere razionale attribuire un maggior valore epistemico alle informazioni ottenute tramite indagine. Tuttavia l’effetto Ikea non riguarda unicamente la valutazione da parte del soggetto, ma anche quella di altre persone. L’effetto Ikea cognitivo porta quindi una persona comune a pensare che le proprie conclusioni siano più affidabili più di quelle di un esperto. In qualche caso sarà anche vero (si dice che un esperto è uno che ha fatto tutti gli errori possibili nel suo campo), ma in generale è la ricetta perfetta per sbagliare.

La sociologa Francesca Tripodi, nel suo interessante The Propagandists’ Playbook. How Conservative Elites Manipulate Search and Threaten Democracy, approfondisce la similitudine tra i mobili Ikea e le conclusioni delle ricerche fai da te. In entrambi i casi il risultato dipende in minima parte dalle abilità del soggetto che di fatto si limita a eseguire semplici compiti indicati da qualcun altro:

But if conservative messaging is like a new table from Ikea, conservative elites are the engineers that design the furniture – making sure that the table goes together only one way, and with just the right amount of effort to give that perfectly satisfied feeling to the consumer (and encourage them to shop again soon).

Per i prodotti Ikea questo controllo sul risultato si basa su pezzi standard e istruzioni il più chiare e semplici possibili. Per la controinformazione invece tutto passa attraverso i motori di ricerca, sfruttando parole chiave poco usate e che vengono suggerite da chi invita a fare ricerche fai da te.

La irresistibile ascesa delle emozioni nei discorsi pubblici

Quando discutiamo di qualcosa usiamo la ragione o le emozioni? Secondo uno studio pubblicato su PNAS, le parole legate alla razionalità, dopo una crescita durata oltre un secolo, sono in rapido declino.

Ho scoperto questa ricerca grazie a un articolo scritto dal filosofo Massimo Pigliucci sullo Skeptical Inquirer che riassume brevemente metodi e risultati e analizza le possibili interpretazioni.
Riassumendo: gli autori – Marten Scheffer, Ingrid van de Leemput, Els Weinans e Johan Bollen – hanno analizzato a partire dal 1850 la frequenza relativa di termini legate alla razionalità e all’emotività nei testi presenti in Google Books Ngram Viewer, guardando anche all’utilizzo della prima e della terza persona. Insomma, la differenza tra un “io credo che…” e un “si può dimostrare che…”.
Per essere sicuri della solidità del risultato hanno rifatto l’analisi sui libri di saggistica e su quelli di narrativa, sugli articoli del New York Times e in varie lingue (tra cui l’italiano). Il fatto che abbiano trovato andamenti simili mostra la bontà del loro lavoro, anche se non si possono escludere del tutto errori dovuti a distorsioni del campione (magari un tempo si pubblicavano solo un certo tipo di libri, o comunque quelli rimasti oggi nelle biblioteche sono una selezione non rappresentativa) o alle parole cercate (magari ci sono espressioni un tempo diffuse che non sono state considerate).

I su e giù dei discorsi fattuali

Come variano, quindi, razionalità ed emotività nei testi argomentativi e nella narrativa? Fino agli anni Settanta del Novecento le parole legate ai sentimenti sono in costante calo mentre quelle legate a prove fattuali (gli autori parlano di “fact-based argumentation”) crescono. A partire dal 1980 questa tendenza si ribalta con una crescita di discorsi non basati sui fatti che diventa molto marcata a partire dal 2007.

Perché tutto questo? Secondo gli autori della ricerca, la crescita che si vede fino agli anni Settanta potrebbe essere legata una visione razionalistica e naturalistica della realtà legata ai progressi scientifici e tecnici; il calo degli anni Ottanta e Novanta sarebbe una sorta di reazione alle disuguaglianze di un sistema sociale ed economico che, almeno a livello retorico, si basa sulla razionalità; infine, la rapida crescita dell’ultimo decennio sarebbe legata ai social media.
Si tratta ovviamente di ipotesi e Pigliucci, nel suo articolo, osserva giustamente che per quanto ragionevoli siano, possiamo facilmente immaginare altre spiegazioni. A me ad esempio viene in mente la globalizzazione che ha portato a una maggior diffusione di tradizioni non occidentali.

Comunicare meglio

C’è tuttavia un aspetto che non mi è chiaro. Sia gli autori dello studio, sia Pigliucci sembrano convinti che quei numeri mostrino un declino del discorso razionale. Potrebbe invece essere dovuto, almeno in parte, a una maggiore attenzione alle emozioni. Il che non vuol dire affidare alle emozioni giudizi che sarebbe meglio tenere razionali, ma rendersi conto che le emozioni ci sono e che vanno conosciute. E utilizzate per una comunicazione che, di nuovo senza escludere il giudizio razionale, riesca essere più efficace. Per convincere le persone, argomentava Aristotele, non basta il logos (il discorso razionale) ma servono anche pathos (le emozioni) ed ethos (il comportamento) che sospetto facciano uso delle parole che lo studio ha indicato come “non fattuali” e legate all’intuizione. Ma è irrazionale raccontare il cambiamento climatico, spiegandone le cause e gli effetti, partendo da un’esperienza personale?

È un’ipotesi che aggiungo a quelle già avanzate: forse quel declino di parole razionali e quella ascesa di parole emozionali sono anche il segno che stiamo imparando a conoscerci, e a comunicare, meglio.

Piccola guida ragionata al “pensiero unico”

In questo articolo propongo alcune ipotesi alternative alle fantasie di complotto: cose di cui tenere conto prima di pensare all’esistenza di una qualche congiura.

Immagino che sia un’esperienza comune: l’improvvisa comparsa di un “pensiero unico”. Nel giro di qualche giorno un tema del quale non si parlava praticamente mai, e sul quale c’era una certa varietà di opinioni, diventa presenza costante nelle discussioni e tutti grosso modo sostengono la stessa posizione.

Facciamo l’esempio – è un codardo esempio di fantasia escogitato per evitare che l’eventuale discussione degeneri su qualche tema divisivo – delle vacanze estive. Poniamo che se ne parli raramente e comunque, quando ogni tanto il tema salta fuori, c’è chi preferisce il mare e chi la montagna. Poi nel giro di qualche giorno tutto cambia. Newsletter, podcast, siti internet, radio, tv, giornali, cartelloni pubblicitari, conoscenti e articoli scientifici parlano solo delle vacanze estive. E tutti sono d’accordo che è meglio andare al mare, magari indicando giusto due o tre località e limitando la discussione sull’ora più opportuna in cui prendere il gelato.

Difficile non pensare, anche in situazioni meno estreme di questo scenario inventato, a un qualcosa di organizzato dall’alto. Non necessariamente un complotto che coinvolga tutta la popolazione mondiale tranne noi, ma anche solo una riuscita campagna di propaganda per convincere quante più persone possibile ad andare al mare, o dissuaderle ad andare in montagna, o distrarle da qualche altro tema più importante e urgente.

Un’ipotesi assolutamente legittima e sensata. Dal momento che congiure e cospirazioni (e più banalmente campagne di marketing) esistono davvero, sarebbe un errore liquidare ogni ipotesi di complotto. Solo che è un attimo passare dalle ipotesi, basate su indizi e in attesa di conferme, alle fantasie di complotto1 completamente slegate dalla realtà.

Senza troppa originalità, propongo alcune indicazioni per evitare di fare quel passo e affrontare i casi di pensiero unico senza cadere nel complottismo.

L’idea non è fornire argomenti per criticare chi dà credito all’esistenza di un qualche complotto, ma fornire strumenti utili innanzitutto per noi stessi.

La massima di Hyman

Il punto di partenza, di fronte a un caso di pensiero unico e in generale di fronte a ogni fenomeno che vogliamo cercare di chiarire, non può che essere la “massima di Hyman” (spesso indicata anche come “imperativo categorico di Hyman”, ma il termine “massima” mi pare più adatto).

Non cercare di spiegare qualcosa finché non sei sicuro che questo qualcosa esista.

Ray Hyman

Ray Hyman è uno psicologo statunitense noto per le sue critiche alla parapsicologia ed è considerato uno dei fondatori dei movimenti scettici moderni. Sembra che ripetesse spesso questa massima, aggiungendo che anche i migliori ragionamenti sono inutili se i dati di partenza sono avariati.

Cosa vuol dire applicare la massima di Hyman al pensiero unico? Innanzitutto chiedendosi se è davvero così unico, questo pensiero. Non è che siamo noi a fare caso solo a chi sostiene la bontà delle vacanze al mare e non notiamo tutti quelli che invece ci propongono di andare in montagna? Oppure frequentiamo ambienti in cui la maggioranza preferisce il mare, ma il mondo è pieno di persone che invece vanno in e parlano di montagna?

A un altro livello, potremmo anche chiederci se l’improvvisa svolta verso il mare ci sia davvero stata. Siamo sicuri che delle vacanze estive si discutesse così poco, prima che qualcuno ci facesse notare il “pensiero unico del mare”? E davvero c’era tutta questa varietà di opinioni oppure c’è sempre stata un’importante maggioranza a favore del mare?

Il rasoio di Hanlon

Una volta presa in considerazione la massima di Hyman, c’è il rasoio Hanlon:

Mai attribuire a malafede quel che si può adeguatamente spiegare con la stupidità.

Robert J. Hanlon

La metafora del rasoio – che viene dal più conosciuto rasoio di Occam, vedi più avanti – si spiega con l’idea di dare un taglio netto eliminando certe ipotesi in favore di altre. In questo caso, quelle basate sulla malafede rispetto a quelle basate sulla stupidità. Mantengo questa immagine, ma considero sia il rasoio di Hanlon sia quello di Occam delle massime. Indicazioni generali su come ragionare, non dei principi da applicare indipendentemente dalla situazione.

Devo inoltre espandere il concetto che Hanlon – un tizio della Pennsylvania che ha inviato questa massima per un raccolta dedicata alla Legge di Murphy – chiama “stupidità”. A rigore, imporrebbe di prendere in considerazione solo l’ipotesi che stupidamente ci si dimentichi della possibilità di fare le vacanze in montagna.

Direi quindi di non attribuire a malafede, e in generale a un piano preordinato, quello può essere spiegato come un fenomeno spontaneo che non ha bisogno di spinte o imposizioni dall’alto. Nessuno parlava delle vacanze estive perché si pensava a cosa fare a Pasqua, adesso che siamo in estate tutti discutono e organizzano le vacanze estive; tra qualche mese si parlerà di cosa fare a Capodanno. Si parla del mare perché in pochi hanno voglia di fare lunghe camminate sui sentieri e con questo caldo mica vorrai visitare le città d’arte. E così via.

C’è anche da considerare la questione dell’imitazione o emulazione che porta naturalmente a una certa uniformità di opinioni e comportamenti. Ora: fare quel che fanno gli altri può apparire una scelta poco intelligente, ma in realtà in alcune circostanze può essere la cosa migliore da fare. Se ad esempio non disponiamo di sufficienti informazioni: affidarsi alla scelta della maggioranza, o comunque delle persone a noi vicine, può essere una buona strategia. Di fronte due ristoranti, uno semivuoto e l’altro con molti tavoli occupati, è naturale pensare che in quello con più persone si mangi meglio.
Questo ovviamente non è sempre vero. Su un argomento specialistico e controintuitivo molto probabilmente la maggior parte delle persone si sbaglia. Inoltre non è detto che quello che va bene agli altri vada bene anche a me. Sono sicuro che alla domanda “Qual è la capitale della Florida?” molti risponderanno (sbagliando) Miami e pochi (correttamente) Tallahassee. Magari il ristorante con meno persone fa semplicemente porzioni più piccole e noi siamo in cerca di un pasto leggero.

Da notare che i due scenari, quello di un fenomeno spontaneo o di un’imposizione dall’alto, non si escludono completamente. C’è magari qualcuno che, a vari livelli, spinge per ottenere un certo risultato ma il successo di questa impresa è solo in parte dovuto ai suoi sforzi.
Il mio esempio preferito, in proposito, riguarda Edward Bernays: nipote di Freud, è considerato il primo spin doctor della storia. O, per dirla in altra maniera, il primo manipolatore dell’opinione pubblica. Combinando le teorie dello zio, soprattutto per quanto riguarda il subconscio, alla psicologia delle masse avrebbe sviluppato un sistema infallibile per, appunto manipolare le persone. Tra i suoi successi viene spesso citata la colazione con uova e pancetta. Pagato da un’azienda produttrice di bacon, Bernays ha puntato sul messaggio, sostenuto dalla comunità medica, che una colazione nutriente è il modo più salutare per iniziare la giornata. Riuscendo effettivamente a rendere uova e pancetta una tipica colazione americana, cosa che forse senza di lui non sarebbe successa.
Mi chiedo tuttavia cosa sarebbe successo se a contattare Bernays fosse stato un produttore di cavoletti di Bruxelles. Dubito che questa verdura (che peraltro a me piace molto) avrebbe trovato molto spazio. Ma non c’è bisogno di ricorrere a esperimenti mentali: nel 1932 Bernays ha lavorato alla campagna per la rielezione del presidente Herbert Hoover. Sconfitto (e non di poco) da Franklin D. Roosevelt.

Il rasoio di Occam

Ed eccoci al celebre rasoio di Occam, dal teologo e filosofo del Trecento Guillelmus de Ockham:

A parità di fattori, la spiegazione più semplice è quella da preferire.

Guglielmo di Occam

Direi che i punti importanti, qui, sono due. Il primo è cosa intendiamo con “idea più semplice”. In alcuni casi l’ipotesi di un complotto globale è infatti incredibilmente complessa: pensiamo alle scie chimiche: quante persone dovrebbero essere coinvolte? Possibile che nessuna riesca a portare prove certe? Ma in altre situazioni pensare a una campagna centralizzata è invece un’ipotesi più semplice rispetto a un fenomeno spontaneo o di una semplice coincidenza. Il punto è valutare attentamente la semplicità. Pensare a una campagna pubblicitaria organizzata dalle località balneari è un conto; una cospirazione per svuotare le città perché è in corso una qualche catastrofe che si vuole tenere nascosta un altro.

Il secondo punto è “a parità di fattori”. La soluzione più semplice è infatti da preferire se spiega quanto sta accadendo altrettanto bene di ipotesi più complicate.

Cosa significa in concreto? Direi soprattutto prendere in considerazione l’ipotesi che tutti sostengono che sia meglio andare al mare perché banalmente è meglio andare al mare. Grosso modo come si è tutti d’accordo che la terra non è piatta perché la terra, effettivamente, non è piatta.

Riassumendo

Quando improvvisamente tutti la pensano allo stesso modo, prima di pensare che sia tutto organizzato da qualcuno dobbiamo chiederci se è davvero così (magari è solo una nostra impressione), poi se può essere anche solo in parte un fenomeno spontaneo e infine se l’ipotesi di una qualche campagna organizzata sia effettivamente la più semplice: magari tutti la pensano allo stesso modo perché, banalmente, hanno ragione.

  1. Il termine è di Wu Ming, vedi l’impegnativo ma interessante Q di qomplotto. []

Di birre, vaccini e razionalità

Nelle discussioni da bar si affronta sempre un gran numero di argomenti. E così, davanti a una birra, una camomilla e un’acqua minerale – no, non ero io quello della camomilla –, dopo aver parlato di politiche fiscali, organizzazione interna di partiti, educazione religiosa e influenza della filosofia aristotelica nella teoria della transustanziazione, si è fatto accenno anche ai vaccini. Sui quali, ha argomentato il mio interlocutore, “ci sono certezze che non lasciano spazio alla discussione”. Continua a leggere “Di birre, vaccini e razionalità”

L’unica naturale che voglio è l’acqua minerale

Avevo iniziato a scrivere questo articolo mesi fa. “Moratoria naturale” era il titolo provvisorio. Poi l’ho cambiato con “Sì, i gay sono davvero contronatura” e adesso quello che leggete qui sopra, che non rispecchia molto il contenuto, ma mi piace per cui lo tengo.

Già, perché anche il contenuto è cambiato – o meglio le mie idee sul possibile contenuto, perché di scritto c’era ben poco, prima di oggi.
Ero partito dall’idea di una moratoria sul termine naturale. Troppo ambiguo, troppi significati impliciti: io dico “naturale” intendendo qualcosa che non ha richiesto particolari interventi umani, e tu pensi a qualcosa di buono, di bello, di sacro. Insomma, un casino. Volevo anche proporre una serie di espressioni alternative. “Famiglia cattolica” invece di “Famiglia naturale”; “Parto vaginale” invece di “Parto naturale” e così via.

Continua a leggere “L’unica naturale che voglio è l’acqua minerale”

Il disgusto può essere un motivo, non una ragione

"Radish 3371103037 4ab07db0bf o" di Self, en:User:Jengod - Opera propria. Con licenza CC BY-SA 3.0 tramite Wikimedia Commons.
A me non piacciono i ravanelli. Ma non ne faccio un dramma (Radish via Wikimedia Commons).

Forse il problema è che sono stato un lettore distratto e superficiale, ma sulla faccenda dei “figli della chimica” – così lo stilista Domenico Dolce ha definito i bambini nati con (almeno alcune) tecniche di procreazione medicalmente assistita – ho letto soprattutto argomentazioni basate sul disgusto.
Questa pratica – surrogazione di maternità (detta volgarmente “utero in affitto”), fecondazione eterologa (con sperma o ovuli di una terza persona) e forse anche la fecondazione in vitro  – mi provoca ribrezzo, per cui no, non va bene.

Tralasciando che non si sa bene come intendere quel “non va bene”, se come condanna morale (insomma: tu che fai quella cosa sei una persona cattiva, dovresti quantomeno sentirti in colpa e gli altri dovrebbero quantomeno biasimarti) oppure legale (e quindi almeno una multa te la meriti, magari anche il carcere), il disgusto o ribrezzo può essere un motivo per cui una persona fa o non fa qualcosa, ma non una ragione con cui convincere o condannare gli altri. Continua a leggere “Il disgusto può essere un motivo, non una ragione”

Domande che fanno senso

Tra un appello alla gente affinché si ribelli ai politici ladri che si vogliono aumentare la pensione a un miliardo di euro al mese e la denuncia del complotto delle multinazionali per avvelenare la popolazione mondiale con le nanoparticelle geneticamente modificate contenute nei deodoranti il cui numero di serie è un numero primo divisibile per tre, mi è capitato di avere una discussione filosofica su Facebook. Lo so, frequento gente strana.
Comunque, a partire dall’ultimo articolo, si è parlato delle domande di senso, cioè quelle domande che iniziano con “Qual è il senso di” e finiscono con “l’universo” o “la vita” o “la complessità del cervello” eccetera. Continua a leggere “Domande che fanno senso”

Tu chiamale se vuoi emozioni

Il Corriere della Sera online – sulla scia di altri siti d’informazione – ha introdotto una sorta di “valutazione emozionale” delle notizie: per ogni articolo gli utenti possono stabilire se sono indignati, tristi, preoccupati, divertiti o soddisfatti. Continua a leggere “Tu chiamale se vuoi emozioni”

Una riflessione sul World Press Photo

Foto di Maika Elan
Foto di Maika Elan

Ho visitato, nella galleria SpazioReale a Monte Carasso in Svizzera, l’esposizione World Press Photo 2013 e avuto l’occasione di scambiare qualche parola con Kari Lundelin dell’omonima fondazione e con Gianluca Grossi, giornalista e curatore della galleria.1 Continua a leggere “Una riflessione sul World Press Photo”

  1. La mostra è stata anche a Milano. Altre date sul sito della fondazione. []