Introduzione
Come discusso nel capitolo ?sec-prob-interpretation, il panorama dell’inferenza statistica è dominato da due grandi paradigmi metodologici: l’approccio frequentista e quello bayesiano. Entrambi forniscono strumenti per trarre conclusioni su popolazioni a partire da dati campionari, stimare parametri ignoti, formulare previsioni e valutare ipotesi teoriche. Ciò che li distingue non è l’obiettivo, bensì l’interpretazione del concetto di probabilità e le modalità attraverso cui integrano l’evidenza empirica con il bagaglio di conoscenze preesistenti.
Differenze fondamentali tra i due approcci
Statistica frequentista
Nella prospettiva frequentista, la probabilità viene definita come la frequenza relativa di un evento in un numero molto elevato—idealmente infinito—di prove ripetute sotto identiche condizioni. In questo framework, il parametro di interesse della popolazione è considerato fisso anche se sconosciuto, e l’inferenza si basa esclusivamente sui dati osservati, senza incorporare in modo formale conoscenze esterne. Le conclusioni si fondano su procedure quali la stima puntuale, che fornisce un singolo valore come migliore approssimazione del parametro; la costruzione di intervalli di confidenza, che individuano un range di valori plausibili sotto ripetuti campionamenti; e i test di ipotesi, che valutano la compatibilità dei dati con un’ipotesi nulla prefissata mediante p-value e statistiche test. Tale approccio poggia sull’assunzione che i dati provengano da un processo stabile e ripetibile, e che la validità delle conclusioni risieda nel loro comportamento a lungo termine.
Statistica bayesiana
La statistica bayesiana, al contrario, interpreta la probabilità come una misura di credenza soggettiva o plausibilità razionale, suscettibile di essere aggiornata quando nuove informazioni diventano disponibili (Jaynes, 2003). Il suo fondamento logico è il teorema di Bayes, che permette di combinare sistematicamente le conoscenze iniziali—espresse sotto forma di distribuzione a priori—con l’evidenza fornita dai dati—rappresentata dalla funzione di verosimiglianza—per ottenere una distribuzione a posteriori. Quest’ultima sintetizza tutto ciò che si sa sul parametro dopo aver osservato i dati, trattandolo non come una quantità fissa, ma come una variabile aleatoria la cui incertezza è quantificabile probabilisticamente. Rispetto all’approccio frequentista, il metodo bayesiano si distingue per la capacità di integrare in modo coerente informazioni pregresse, risultando particolarmente vantaggioso in contesti con dati scarsi o quando si dispone di conoscenze teoriche o empiriche robuste.
Il problema dell’induzione di Hume
Una prospettiva filosofica particolarmente illuminante per cogliere la distinzione tra i due paradigmi è offerta dal problema dell’induzione, sollevato da David Hume nel Trattato sulla natura umana (1739) (Hacking, 2006). Hume mise in discussione la legittimità logica del passaggio dall’osservazione di casi particolari all’enunciazione di leggi generali: nessun numero di osservazioni passate, per quanto elevato, può garantire che le regolarità osservate si ripeteranno in futuro.
L’approccio frequentista, basandosi sull’idea di ripetibilità e regolarità statistica, assume implicitamente che il mondo sia governato da leggi immutabili. Tuttavia, questa assunzione—per quanto pragmaticamente utile—non possiede una solida giustificazione epistemologica ed è esposta alle obiezioni humiane. Al contrario, l’approccio bayesiano non presume l’immutabilità delle regolarità statistiche, ma le tratta come oggetto di credenza, soggette a continua revisione. Esso non pretende di eliminare l’incertezza induttiva, ma la incorpora esplicitamente nel processo inferenziale, aggiornando razionalmente le aspettative via via che nuovi dati si rendono disponibili.
Un esempio pratico: il lancio di una moneta
Un esempio classico—quello del lancio di una moneta—permette di illustrare concretamente la differenza tra i due approcci.
Dal punto di vista frequentista, la probabilità di ottenere “testa” è una proprietà fisica della moneta, stimata come proporzione di teste in un numero molto alto di lanci. L’inferenza è ancorata all’oggetto e al processo generatore dei dati, e non ammette l’integrazione di convinzioni soggettive.
In ambito bayesiano, invece, la probabilità è intesa come grado di fiducia in un esito. Si inizia specificando una distribuzione a priori che riflette le aspettative iniziali sul bilanciamento della moneta; ogni nuovo lancio fornisce dati che, combinati con il precedente stato di conoscenza attraverso il teorema di Bayes, producono una distribuzione a posteriori aggiornata. Il risultato non è una stima puntuale, bensì una rappresentazione completa dell’incertezza residua, che evolve con l’accumularsi dell’evidenza.
Obiettivo di questa sezione
In questa sezione ci dedicheremo a un’analisi approfondita dei metodi dell’inferenza frequentista, esaminandone i principi fondamentali, la logica operativa e le applicazioni più comuni. Verranno trattati in dettaglio gli strumenti classici della stima puntuale, la costruzione e l’interpretazione degli intervalli di confidenza e la teoria dei test di ipotesi.
Questo approccio costituisce tuttora il paradigma di riferimento in ampi settori della ricerca psicologica e rappresenta un bagaglio tecnico indispensabile per la lettura critica della letteratura scientifica esistente. La sua diffusione storica e la sua persistente centralità in molti ambiti applicativi ne rendono necessaria la comprensione, non soltanto in un’ottica storica, ma anche come competenza pratica per orientarsi nel panorama della ricerca contemporanea.
Tuttavia, è essenziale affrontare questi contenuti con consapevolezza critica. Come emerso dalla discussione sul problema induttivo di Hume e dalla crisi della riproducibilità che ha investito le scienze psicologiche, l’inferenza frequentista presenta notevoli limiti concettuali e operativi. La sua rigidità interpretativa, la difficoltà nell’incorporare conoscenze pregresse e la tendenza a favorire una comunicazione dei risultati eccessivamente dichiarativa—spogliata dell’incertezza che invece le è propria—hanno contribuito in non piccola parte all’accumulo di evidenze fragili e poco replicabili.
Alla luce di queste considerazioni, lo studio dei metodi frequentisti qui proposto non nasce da un’adesione acritica al paradigma, ma dalla necessità di fornire agli studenti gli strumenti per comprenderne tanto le potenzialità quanto i vincoli. Pur riconoscendo la superiorità concettuale e pratica dell’approccio bayesiano in molti contesti di ricerca, riteniamo che una formazione statistica completa non possa prescindere dalla conoscenza della statistica frequentista, data la sua pervasività e il suo ruolo nel dibattito metodologico attuale. L’obiettivo è dunque fornire una base solida e al tempo stesso critica, che permetta di impiegare questi strumenti con giudizio e di valutare con consapevolezza i risultati che da essi derivano.