1 La crisi di replicazione e la riforma metodologica in psicologia
1.1 Introduzione
1.1.1 Una crisi annunciata
Negli ultimi vent’anni, la psicologia ha attraversato una trasformazione metodologica profonda, innescata da una crescente consapevolezza dei propri limiti empirici. Questa trasformazione prende il nome di crisi di replicazione (Baker, 2016; Bishop, 2019). Numerosi tentativi sistematici di replicare effetti pubblicati in studi classici hanno rivelato un tasso sorprendentemente alto di fallimenti. In molti casi, i risultati non solo non si replicano con la stessa ampiezza, ma talvolta non emergono affatto. Questa situazione ha costretto l’intera disciplina a interrogarsi sulla solidità delle proprie basi empiriche.
1.1.2 Che cos’è la replicazione
Replicare un risultato non significa semplicemente ottenere un nuovo p-value inferiore a .05. Significa ripetere un esperimento in condizioni il più possibile simili all’originale e ottenere una stima dell’effetto compatibile con quella iniziale, in termini sia di direzione che di grandezza. La replicabilità è uno dei pilastri fondamentali della scienza empirica: se un risultato rappresenta un fenomeno reale e generalizzabile, dovrebbe emergere anche in campioni indipendenti.
1.1.3 I numeri della crisi
La portata della crisi è stata messa in evidenza dall’Collaboration (2015), che ha tentato di replicare 100 studi pubblicati su riviste leader nel settore. Solo il 36% delle repliche ha prodotto risultati “significativi” nello stesso senso degli studi originali. Questo valore non va inteso come una misura bayesiana di probabilità, ma come un indicatore allarmante di quanto i risultati pubblicati siano sensibili alle condizioni sperimentali, ai campioni, e alle analisi.
L’evidenza si è accumulata con studi successivi: Camerer et al. (2018) hanno mostrato una riproducibilità deludente anche in economia comportamentale, mentre Klein et al. (2014) hanno riportato effetti inconsistenti in psicologia sociale. In molti casi, i risultati originali si sono dimostrati fragili, condizionali, o il prodotto di scelte analitiche arbitrarie.
1.1.4 Il fallimento della replicazione è un sintomo
Più che una patologia in sé, il fallimento della replicazione è un sintomo di un problema più ampio: un’adozione acritica e routinaria del paradigma frequentista, in particolare del Null Hypothesis Significance Testing (NHST). Questo approccio, se non applicato con estrema cautela, incentiva strategie di analisi discutibili. La dipendenza da soglie fisse come p < .05, la flessibilità nel trattamento dei dati, e la pratica di adattare le ipotesi a posteriori (HARKing), contribuiscono ad amplificare l’illusione della scoperta anche in assenza di effetti reali.
La statistica frequentista tradizionale, centrata sul concetto di errore di I e II specie, può indurre a interpretazioni errate e a una eccessiva enfasi su esiti binari (significativo/non significativo). Questa mentalità ha contribuito alla diffusione di falsi positivi, alla scarsa trasparenza nelle analisi, e a una generale crisi di credibilità nella letteratura psicologica (Ioannidis, 2005; Meehl, 1967).
1.2 Una via d’uscita: la rivoluzione bayesiana
In questo contesto, l’approccio bayesiano si è imposto come una delle risposte più promettenti. La statistica bayesiana si fonda sull’idea che la conoscenza scientifica non sia binaria (vero/falso), ma debba essere espressa in termini di gradi di credenza che evolvono nel tempo. L’inferenza diventa allora un processo di aggiornamento della conoscenza, in cui le distribuzioni di probabilità posteriori riflettono quanto siamo sicuri di una determinata ipotesi, alla luce dei dati e delle nostre conoscenze pregresse.
A differenza dell’approccio NHST, che produce una decisione dicotomica, l’inferenza bayesiana restituisce un’intera distribuzione di credibilità sull’effetto. Questo consente di rispondere a domande più naturali e utili per la pratica scientifica, come ad esempio: “quanto è probabile che l’effetto superi una soglia di rilevanza pratica?”, oppure: “quanto si restringe la mia incertezza sull’effetto rispetto alla conoscenza pregressa?”
1.3 Il problema dei piccoli campioni e l’eterogeneità
Uno dei limiti strutturali della ricerca psicologica riguarda la frequente presenza di campioni piccoli e popolazioni eterogenee. A causa della natura dei fenomeni studiati (ad esempio, patologie rare o condizioni sperimentali complesse), molti studi operano in condizioni di informazione limitata e con forte variabilità interindividuale. Questo porta a stime instabili, a bassa potenza statistica, e a risultati difficilmente replicabili.
L’approccio bayesiano è particolarmente adatto a questi contesti. Permette di:
- integrare conoscenze pregresse (priors) per aumentare la stabilità delle stime;
- modellare esplicitamente l’incertezza e l’eterogeneità tra soggetti o studi;
- valutare la robustezza dei risultati rispetto a diverse ipotesi a priori.
In altre parole, la statistica bayesiana rende possibile un’inferenza più solida in condizioni dove i metodi frequentisti si rivelano fragili, soprattutto nei casi in cui la variabilità è alta e i dati sono scarsi.
1.4 Verso una scienza cumulativa e trasparente
La crisi di replicazione ha accelerato la transizione verso pratiche di ricerca più aperte, riproducibili e cumulative. In questo nuovo paradigma, l’approccio bayesiano si integra perfettamente con la Data Science e gli strumenti di Open Science: version control con GitHub, documentazione con Quarto, condivisione di dati e codice, preregistrazione delle ipotesi e confronto tra modelli. Questi strumenti, sempre più adottati, non sono semplici tecnicalità, ma elementi strutturali di un nuovo modello di scienza psicologica.
Inoltre, si sta assistendo a un rinnovato interesse per la modellazione formale, in cui le ipotesi teoriche vengono esplicitate attraverso modelli matematici interpretabili. La statistica bayesiana è il linguaggio naturale di questi modelli, poiché permette di confrontare teorie alternative, incorporare incertezza parametrica, e testare la coerenza predittiva in modo diretto.
1.5 Conclusioni
La crisi di replicazione ha messo a nudo i limiti di un certo modo di fare scienza: eccessiva fiducia nei risultati significativi, scarsa attenzione all’incertezza, e una concezione rigida dell’inferenza. Il paradigma bayesiano, affiancato da pratiche di ricerca aperta e strumenti di data science, offre un’alternativa concreta e operativa. Questo libro si propone come guida introduttiva a questo approccio, con l’obiettivo di formare ricercatori capaci di pensare in termini di variabilità, incertezza e aggiornamento continuo della conoscenza.