1 Origini storiche dell’approccio frequentista
- Comprendere il contesto storico e culturale da cui si è sviluppato l’approccio frequentista.
- Riconoscere le connessioni tra le origini della statistica moderna e le ideologie dell’epoca.
- Identificare i principi fondamentali del paradigma frequentista.
- Leggere il capitolo Sampling di Statistical Inference via Data Science: A ModernDive into R and the Tidyverse (Second Edition).
1.1 Contesto storico ed epistemologico della statistica moderna
1.1.1 La quantificazione dell’umano come progetto scientifico
La nascita della statistica moderna è strettamente legata al tentativo, tipico dell’Ottocento, di applicare il paradigma quantitativo delle scienze naturali allo studio dell’uomo. In questo passaggio si afferma l’idea che i fenomeni biologici, psicologici e sociali possano essere descritti mediante leggi statistiche, analogamente a quanto avviene per i fenomeni fisici. La variabilità individuale, lungi dall’essere considerata un disturbo accidentale, diventa così un legittimo oggetto di analisi scientifica.
È in questo contesto che si colloca l’opera di Francis Galton (1822–1911), figura chiave nella trasformazione della statistica da strumento amministrativo-descrittivo a linguaggio matematico della variazione.
1.1.2 Francis Galton: tra la misura dell’ereditarietà e le ombre dell’eugenetica
Galton concepì un ambizioso progetto di misurazione sistematica dell’umano, basato sull’assunzione epistemologica secondo cui i tratti individuali sono distribuiti secondo regolarità matematiche stabili. In questa prospettiva, Galton estese l’uso della distribuzione normale ai caratteri umani, interpretandola come legge empirica della variazione naturale. Egli mostrò come tratti fisici e mentali tendano a distribuirsi simmetricamente attorno a una media, con valori estremi via via più rari.
Questo passaggio ha un significato epistemologico cruciale. Considerare le popolazioni umane come collettivi statistici implica uno spostamento dell’oggetto della conoscenza: non più l’individuo singolare, ma le regolarità che emergono da grandi insiemi di osservazioni. La conoscenza scientifica assume quindi una forma intrinsecamente probabilistica.
Da questo programma derivano alcuni concetti fondamentali della statistica moderna:
- la regressione verso la media (da lui inizialmente definita “verso la mediocrità”), che introduce una concezione non deterministica dell’ereditarietà, descritta in termini di tendenze probabilistiche piuttosto che di causalità lineare;
- la deviazione standard, che formalizza la dispersione come grandezza misurabile e comparabile, trasformando la variabilità in informazione quantitativa.
Questi strumenti segnano il passaggio da una scienza qualitativa delle differenze individuali a una scienza quantitativa della variabilità.
La celebre dicotomia nature and nurture (natura ed educazione), coniata da Galton, riflette ulteriormente questa impostazione. Tale dicotomia tenta di articolare concettualmente il rapporto tra determinazione biologica e influenza ambientale, assumendo che entrambe possano essere indagate e separate mediante strumenti statistici. Questioni tradizionalmente di natura speculativa, come l’origine delle differenze individuali, vengono così riformulate in termini quantitativi e inferenziali.
1.1.2.1 Statistica ed eugenetica: una genealogia ambivalente
Il progetto epistemico di Galton, tuttavia, non è neutrale. È infatti intrinsecamente legato a un programma normativo: l’eugenetica, da lui fondata e denominata. In questo contesto, la statistica non opera soltanto come strumento descrittivo, ma anche come apparato di legittimazione scientifica di una visione gerarchica dell’umanità. La quantificazione delle differenze individuali viene reinterpretata come valutazione del valore biologico e la media statistica assume implicitamente una funzione normativa.
Dal punto di vista storico-epistemologico, è cruciale riconoscere che lo sviluppo della statistica matematica è avvenuto anche in risposta a esigenze di natura ideologica e istituzionale. Il progetto di misurare, classificare e confrontare le popolazioni umane ha fornito un potente incentivo alla formalizzazione di metodi quantitativi sempre più raffinati. Ciò non invalida necessariamente tali strumenti, ma impone una riflessione critica sul contesto concettuale e valoriale della loro nascita.
L’eredità di Galton è dunque strutturalmente ambigua: egli ha contribuito in modo decisivo alla costruzione di un linguaggio matematico della variabilità, ma a prezzo di un uso normativo e riduzionista della misura che ha segnato profondamente il dibattito scientifico e filosofico del secolo successivo.
1.1.3 Pearson e Fisher: la costruzione dell’oggettività frequentista
Il programma galtoniano trovò una sistematizzazione rigorosa nell’opera di Karl Pearson (1857–1936) e Ronald A. Fisher (1890–1962), che diedero forma a quella che oggi è nota come statistica frequentista. Dal punto di vista epistemologico, il loro contributo può essere interpretato come un tentativo di fondare l’inferenza statistica su criteri di oggettività formale, indipendenti dallo stato di conoscenza del soggetto osservante.
Karl Pearson, successore di Galton alla cattedra di eugenetica presso l’University College di Londra, contribuì a una profonda matematizzazione della statistica. Introdusse strumenti come il test del chi-quadrato, il coefficiente di correlazione lineare e una definizione rigorosa della deviazione standard. La sua concezione della statistica si basa sul confronto tra dati empirici e modelli teorici e prevede che la validità di un’ipotesi possa essere valutata tramite procedure standardizzate e replicabili.
In questa prospettiva, l’oggettività non è garantita da un riferimento diretto alla realtà, ma dalla conformità a regole formali di calcolo. La statistica diventa, quindi, una tecnologia epistemica finalizzata a limitare l’arbitrarietà del giudizio individuale.
Ronald Fisher radicalizzò ulteriormente questo orientamento. Con l’introduzione dell’analisi della varianza (ANOVA), del concetto di significatività statistica e dei valori-p, egli sviluppò una concezione dell’inferenza in cui l’incertezza è attribuita esclusivamente al processo di campionamento, non come espressione di ignoranza soggettiva. Il metodo della massima verosimiglianza rappresenta, in questo senso, il tentativo di derivare stime “ottimali” esclusivamente dalla struttura probabilistica dei dati osservati.
Il rifiuto esplicito dell’approccio bayesiano, accusato di introdurre elementi soggettivi attraverso le distribuzioni a priori, va letto non solo come una disputa tecnica, ma anche come una presa di posizione epistemologica. Fisher mirava a una scienza statistica che potesse rivendicare un’oggettività metodologica assoluta, in cui l’inferenza non dipende dalle credenze dell’osservatore, ma da procedure universalmente applicabili.
Storicamente, questa concezione dell’oggettività è sviluppata all’interno del quadro ideologico dell’eugenetica, che richiedeva strumenti in grado di produrre decisioni apparentemente neutrali e scientificamente fondate. La statistica frequentista rispondeva perfettamente a tale esigenza, offrendo un linguaggio matematico che separava formalmente il risultato dall’intenzione normativa.
Nel corso del XX secolo, questa impostazione è diventata dominante, relegando la tradizione bayesiana a un ruolo marginale per gran parte del Novecento. Solo con il rinnovato interesse per l’interpretazione epistemica della probabilità e con lo sviluppo del calcolo computazionale, i metodi bayesiani hanno conosciuto una rivalutazione, riaprendo il dibattito sul rapporto tra oggettività, inferenza e conoscenza scientifica.
1.2 Il paradigma frequentista
Alla luce di questo sviluppo storico, il frequentismo può essere compreso come un paradigma metodologico coerente, basato su una specifica concezione della probabilità, dell’inferenza e dell’oggettività scientifica.
1.2.1 Principi fondanti
La probabilità come frequenza. Nel paradigma frequentista, la probabilità è definita come il limite della frequenza relativa di un evento in una lunga serie (idealmente infinita) di ripetizioni indipendenti. Essa non esprime un grado di credenza, ma una proprietà oggettiva del processo generatore dei dati. La probabilità è dunque intrinsecamente legata alla ripetibilità e si riferisce a insiemi di eventi possibili, non a singoli casi.
Il modello concettuale: parametri fissi e dati aleatori. L’inferenza frequentista si basa su una distinzione concettuale precisa:
- il parametro di interesse (ad esempio, la media vera di una popolazione, μ) è una quantità fissa ma sconosciuta;
- i dati osservati costituiscono una realizzazione aleatoria, ottenuta tramite campionamento da un processo generatore stabile;
- il modello statistico descrive la distribuzione dei dati condizionata al valore ignoto del parametro;
- la variabilità è attribuita esclusivamente al campionamento: campioni diversi, estratti dallo stesso processo, producono stime diverse dello stesso parametro fisso.
1.2.2 Inferenza come comportamento a lungo termine
Nel frequentismo, l’inferenza viene valutata in base al comportamento a lungo termine di una procedura. Un intervallo di confidenza o un test statistico non forniscono una probabilità relativa a un’ipotesi specifica o a un parametro sconosciuto, ma garantiscono il tasso di successo che la procedura avrebbe se fosse applicata ripetutamente a nuovi campioni.
Questa impostazione riflette una visione operativa della conoscenza statistica, in cui la validità è definita in termini di prestazioni frequenziali (ad esempio, la percentuale di intervalli che contengono il valore effettivo del parametro) e non in termini di plausibilità epistemica o di aggiornamento delle credenze soggettive.
1.2.3 Strumenti inferenziali e interpretazione
1.2.3.1 Stima puntuale: gli stimatori
Nel paradigma frequentista, l’inferenza sul valore di un parametro si realizza mediante stimatori, ossia funzioni dei dati campionari progettate per fornire approssimazioni del parametro fisso ma sconosciuto (ad esempio, la media campionaria \(\bar{x}\) come stimatore della media della popolazione \(\mu\)). Lo stimatore non viene valutato in base al singolo valore osservato, ma in base alle sue proprietà distribuzionali sotto ripetizione del campionamento.
La qualità di uno stimatore è quindi definita in termini di comportamento a lungo termine, ossia considerando la distribuzione delle stime che si otterrebbero ripetendo l’esperimento un numero molto elevato di volte. In questo contesto assumono particolare rilievo le seguenti proprietà:
- Correttezza (assenza di distorsione): uno stimatore è detto corretto se il suo valore atteso, calcolato rispetto alla distribuzione campionaria, coincide con il valore vero del parametro;
- Consistenza: uno stimatore è consistente se, con l’aumentare della dimensione del campione, tende (in probabilità) al valore del parametro, garantendo che l’errore di stima diminuisca progressivamente con l’aumentare dell’informazione disponibile.
Queste proprietà riflettono l’impostazione epistemologica del frequentismo: la bontà di una procedura di stima non viene giudicata in base a un singolo risultato, ma in base alla sua affidabilità media e asintotica nel contesto di ripetizioni ideali dell’esperimento.
1.2.3.2 Stima intervallare: gli intervalli di confidenza
Per rappresentare l’incertezza associata alla stima puntuale, il paradigma frequentista introduce gli intervalli di confidenza, che forniscono una regione di valori plausibili per il parametro sulla base di una procedura di campionamento formalmente specificata. L’interpretazione di tali intervalli è strettamente legata al meccanismo procedurale che ne determina la costruzione.
In particolare, un intervallo di confidenza al 95% non esprime la probabilità che il parametro si trovi nell’intervallo calcolato a partire dai dati osservati. Esso indica, piuttosto, che ripetendo indefinitamente l’esperimento e applicando la medesima procedura di costruzione, il 95% degli intervalli così ottenuti conterrà il valore vero del parametro fisso.
È cruciale sottolineare che il livello di confidenza è una proprietà della procedura inferenziale, non del singolo intervallo osservato. Una volta calcolato a partire dai dati, l’intervallo è un oggetto deterministico: o include il parametro o non lo include, senza che sia lecito dal punto di vista epistemologico attribuire una probabilità a questo singolo evento. Questa distinzione riflette coerentemente l’impostazione frequentista, che localizza l’incertezza nelle procedure di campionamento e non nei parametri oggetto di stima.
1.2.3.3 Test di ipotesi: fondamenti e criticità
Nel paradigma frequentista, l’inferenza statistica prevede la verifica formale di un’ipotesi nulla (H₀), che solitamente rappresenta l’assenza di un effetto, di una differenza o di un’associazione. Il procedimento di test è strutturato come un problema decisionale e conduce a un esito dicotomico: l’ipotesi nulla viene rifiutata o non viene rifiutata.
La procedura richiede la fissazione preliminare di un livello di significatività \(\alpha\) (tradizionalmente pari a 0.05), interpretato come la massima probabilità accettabile di rifiutare erroneamente un’ipotesi nulla vera (errore di primo tipo). Sulla base di \(\alpha\) viene definita una regione critica per la statistica test. Se il valore osservato cade in tale regione, H₀ viene rifiutata; in caso contrario, non viene rifiutata.
È importante sottolineare che questo schema inferenziale non fornisce una misura diretta dell’evidenza a favore dell’ipotesi alternativa. Esso valuta esclusivamente il grado di incompatibilità dei dati osservati con l’ipotesi nulla, a condizione che quest’ultima sia vera.
Da un punto di vista epistemologico e operativo, tale metodologia presenta diverse criticità rilevanti:
Rigidità della decisione binaria. L’esito del test riduce l’inferenza a una scelta dicotomica, che non esprime gradi di evidenza e può risultare inadeguata nella descrizione di fenomeni complessi o di effetti di piccola entità, frequenti nelle scienze empiriche.
Arbitrarietà della soglia di significatività. Il valore di \(\alpha\), spesso fissato per convenzione storica, non possiede una giustificazione teorica intrinseca. Di conseguenza, lievi variazioni nei dati possono produrre decisioni opposte: valori-\(p\) pari a 0.049 e 0.051 non differiscono in modo sostanziale sul piano dell’evidenza empirica, ma conducono a esiti inferenziali diversi.
Ambiguità e fraintendimenti del valore-\(p\). Un valore-\(p\) basso non rappresenta la probabilità che l’ipotesi nulla sia vera. Esso indica esclusivamente la probabilità di osservare dati almeno altrettanto estremi di quelli ottenuti, assumendo che l’ipotesi nulla sia corretta. L’interpretazione del valore-\(p\) come misura diretta della plausibilità di un’ipotesi costituisce uno degli errori concettuali più diffusi nella pratica scientifica.
Nel loro insieme, queste criticità evidenziano come il test di ipotesi frequentista, pur offrendo una procedura formalmente rigorosa e standardizzata, presenti notevoli limiti interpretativi che ne rendono problematico l’uso come strumento esclusivo di inferenza scientifica.
Riflessioni conclusive
In questo capitolo abbiamo ricostruito la genesi storica ed epistemologica della statistica frequentista, mostrando come la sua centralità attuale nella ricerca psicologica e nelle scienze empiriche non sia il risultato di una necessità puramente tecnica, ma l’esito di un contesto storico, culturale e filosofico ben definito. Tale ricostruzione ha messo in evidenza il principio guida che ne ha orientato lo sviluppo: l’ideale di oggettività metodologica, inteso come progressiva eliminazione di ogni elemento di giudizio soggettivo dall’inferenza scientifica. Come osserva Chivers (2024), questo ideale ha operato anche come dispositivo di legittimazione epistemica del progetto eugenetico, rendendo esplicite le assunzioni teoriche e le contingenze pratiche che hanno plasmato i fondamenti del frequentismo.
L’analisi storica proposta non ha solo un valore ricostruttivo, ma svolge anche una funzione critica nei confronti della pratica scientifica contemporanea. In discipline come la psicologia, la cosiddetta “crisi della replicabilità” può essere interpretata, almeno in parte, come il risultato di un’adozione acritica e procedurale dell’inferenza frequentista, in cui la ricerca di un valore \(p\) “significativo” tende a sostituirsi a un’analisi sostanziale dei fenomeni studiati e alla verifica della loro robustezza empirica.
In questa prospettiva, il frequentismo non può essere considerato un insieme neutrale di strumenti tecnici, ma deve essere riconosciuto come un paradigma scientifico dotato di implicazioni metodologiche, epistemologiche ed etiche rilevanti. Comprenderne i presupposti storici e concettuali diventa pertanto una condizione necessaria per un uso consapevole e responsabile delle sue procedure inferenziali.
Nei capitoli successivi, esamineremo in modo sistematico le principali tecniche inferenziali del paradigma frequentista, mettendone in luce la coerenza interna e i limiti intrinseci. Questo percorso critico costituirà il fondamento per l’introduzione dell’approccio bayesiano che, proponendo una concezione diversa della probabilità e dell’inferenza, offrirà una prospettiva alternativa e complementare al frequentismo e costituirà il fulcro teorico del presente manuale.
Nota didattica. L’approccio frequentista viene qui presentato con un duplice obiettivo: da un lato, fornire gli strumenti concettuali indispensabili per interpretare criticamente la letteratura scientifica esistente; dall’altro, motivare l’esplorazione di paradigmi inferenziali alternativi. La sua comprensione rimane un passaggio formativo essenziale per una preparazione statistica rigorosa, critica e consapevole.