Introduzione
Il panorama dell’inferenza statistica è dominato da due grandi paradigmi metodologici: l’approccio frequentista e quello bayesiano. Entrambi forniscono strumenti per trarre conclusioni su popolazioni a partire da dati campionari, stimare parametri sconosciuti, formulare previsioni e valutare ipotesi teoriche. Ciò che li distingue non è l’obiettivo, ma l’interpretazione del concetto di probabilità e le modalità con cui integrano l’evidenza empirica con le conoscenze preesistenti.
Differenze fondamentali tra i due approcci
Statistica frequentista
Nella prospettiva frequentista, la probabilità di un evento è definita come la frequenza relativa di tale evento in un numero molto elevato, idealmente infinito, di prove ripetute sotto identiche condizioni. In questo contesto, il parametro di interesse della popolazione è considerato fisso, anche se sconosciuto, e l’inferenza si basa esclusivamente sui dati osservati, senza incorporare conoscenze pregresse. Le conclusioni si basano su procedure quali la stima puntuale, che fornisce un valore singolo come migliore approssimazione del parametro; la costruzione di intervalli di confidenza, che individuano un intervallo di valori plausibili in seguito a ripetuti campionamenti; e i test di ipotesi, che valutano la compatibilità dei dati con un’ipotesi nulla prefissata mediante il valore-\(p\) e le statistiche test. Questo approccio si basa sull’assunzione che i dati provengano da un processo stabile e ripetibile e che la validità delle conclusioni risieda nel loro comportamento a lungo termine.
Statistica bayesiana
La statistica bayesiana, al contrario, interpreta la probabilità come una misura della credenza soggettiva o della plausibilità razionale, suscettibile di essere aggiornata quando nuove informazioni diventano disponibili. Il suo fondamento logico è il teorema di Bayes, che permette di combinare sistematicamente le conoscenze iniziali, espresse sotto forma di una distribuzione a priori, con l’evidenza fornita dai dati, rappresentata dalla funzione di verosimiglianza, per ottenere una distribuzione a posteriori. Tale distribuzione sintetizza tutto ciò che si sa sul parametro dopo l’osservazione dei dati, trattandolo non come una quantità fissa, ma come una variabile aleatoria la cui incertezza può essere quantificata in termini probabilistici. Rispetto all’approccio frequentista, il metodo bayesiano si distingue per la capacità di integrare in modo coerente le informazioni pregresse, rivelandosi particolarmente vantaggioso in contesti caratterizzati da dati scarsi o quando si dispone di conoscenze pregresse solide e ben fondate.
Il problema dell’induzione
Una prospettiva filosofica particolarmente illuminante per cogliere la distinzione tra i due paradigmi è offerta dal problema dell’induzione, sollevato da David Hume nel Trattato sulla natura umana (1739). Hume mise in discussione la validità logica del passaggio dall’osservazione di casi particolari all’enunciazione di leggi generali: nessun numero di osservazioni passate, per quanto elevato, può garantire che le regolarità osservate si ripeteranno in futuro.
Mentre l’approccio frequentista, basandosi sull’idea di ripetibilità e regolarità statistica, presuppone implicitamente un mondo governato da leggi stabili (un’assunzione pragmatica, ma priva di un solido fondamento epistemologico e dunque esposta alle critiche humiane), l’approccio bayesiano adotta una posizione radicalmente diversa. Esso, infatti, non presuppone l’immutabilità delle regolarità statistiche, ma le considera esplicitamente come oggetto di credenza soggetta a revisione continua. Piuttosto che cercare di superare l’incertezza induttiva, il metodo bayesiano la incorpora nel processo inferenziale stesso, consentendo un aggiornamento razionale e graduale delle aspettative man mano che emergono nuove evidenze.
Un esempio pratico: il lancio di una moneta
Un esempio classico, come il lancio di una moneta, permette di illustrare concretamente la differenza tra i due approcci.
L’ottica frequentista interpreta la probabilità di ottenere “testa” come una proprietà fisica e intrinseca della moneta, corrispondente alla sua propensione a mostrare quel lato. Questa probabilità viene stimata come la frequenza relativa di teste in un numero idealmente infinito di lanci. L’inferenza è dunque rigidamente ancorata al processo fisico generatore dei dati, e non ammette l’integrazione di convinzioni soggettive esterne ai dati osservati.
Al contrario, l’approccio bayesiano definisce la probabilità come un grado di fiducia razionale in un esito. L’analisi inizia specificando una distribuzione a priori, che formalizza le aspettative iniziali sul bilanciamento della moneta. Ogni nuovo lancio fornisce un’osservazione che, attraverso il teorema di Bayes, aggiorna tale stato di conoscenza, producendo una distribuzione a posteriori. Il risultato non è una singola stima puntuale, ma una distribuzione di probabilità che rappresenta in modo esaustivo l’incertezza residua sul parametro, in continua evoluzione con l’accumularsi dell’evidenza empirica.
Obiettivo di questa sezione
Questa sezione fornisce un’analisi approfondita dei metodi dell’inferenza frequentista, esaminandone i principi fondativi, la logica operativa e le applicazioni più comuni. Verranno trattati in dettaglio i tre pilastri metodologici del paradigma: la stima puntuale, la costruzione e l’interpretazione degli intervalli di confidenza e la teoria dei test di ipotesi.
L’importanza di tale studio è duplice. Da un lato, l’approccio frequentista è ancora il paradigma di riferimento in ampie aree della ricerca psicologica e rappresenta un bagaglio tecnico essenziale per la lettura critica della letteratura scientifica. D’altro canto, la sua centralità persistente rende la sua comprensione una competenza pratica indispensabile per orientarsi nel panorama della ricerca empirica contemporanea.
È tuttavia cruciale affrontare questi contenuti con consapevolezza critica. I limiti concettuali ed epistemologici del paradigma, dalla sua vulnerabilità al problema induttivo di Hume ai noti deficit di riproducibilità emersi nelle scienze psicologiche, sono ormai ben documentati. La sua rigidità interpretativa, la sua incapacità strutturale di integrare conoscenze pregresse e la comunicazione dei risultati, spesso eccessivamente dichiarativa e spoglia dell’incertezza che invece le è propria, hanno contribuito in non piccola parte all’accumulo di evidenze fragili e poco replicabili.
Alla luce di queste considerazioni, lo studio dei metodi frequentisti qui proposto non nasce da un’adesione acritica, ma dalla necessità di fornire una comprensione realistica e sfumata. Pur riconoscendo la superiorità concettuale e l’utilità pratica dell’approccio bayesiano in molti contesti di ricerca, riteniamo che una formazione statistica completa non può prescindere da una conoscenza solida e critica della statistica frequentista, data la sua pervasività storica e il suo ruolo nel dibattito metodologico attuale.
L’obiettivo finale è dunque duplice: da un lato, fornire le competenze tecniche per utilizzare questi strumenti e, dall’altro, sviluppare la capacità critica per valutarne i risultati, impiegarli con giudizio e coglierne i limiti all’interno di un panorama statistico in continua evoluzione.