11 Introduzione alle distribuzioni di probabilità
Introduzione
Un ricercatore sta progettando uno studio sui tempi di reazione in un compito di decisione lessicale. Sa che dovrà modellare questi dati statisticamente, ma si trova di fronte a una scelta: quale distribuzione utilizzare? I tempi di reazione sono sempre positivi, spesso asimmetrici verso destra, e occasionalmente presentano valori estremi. Una distribuzione normale, simmetrica e definita su tutti i numeri reali, sembra inadeguata. Forse una gamma o una log-normale sarebbero più appropriate?
In un altro laboratorio, una clinica sta analizzando i dati di uno studio clinico su un nuovo intervento per la depressione. Deve modellare la proporzione di pazienti che raggiungono la remissione. Questa proporzione è necessariamente compresa tra 0 e 1: quale distribuzione può rappresentare adeguatamente l’incertezza di un parametro con questi vincoli?
Queste domande operative motivano il presente capitolo. Nei capitoli precedenti abbiamo costruito un framework per ragionare in modo coerente in condizioni di incertezza. Ora, però, sorge una questione pratica: come possiamo rappresentare concretamente le nostre credenze? Le famiglie parametriche di distribuzioni, come la normale, la binomiale, la beta, la gamma e altre, forniscono un vocabolario matematico per esprimere l’incertezza in forme standardizzate, ciascuna adatta a specifici tipi di variabili e configurazioni di credenze.
Per seguire questo capitolo è necessario aver letto:
- Capitolo 6
- Capitolo 7
- Capitolo 8
- Capitolo 10 — fondamentale per comprendere il duplice ruolo delle distribuzioni (prior e verosimiglianza)
Questo capitolo introduce il vocabolario delle famiglie parametriche, che saranno poi studiate in dettaglio nei capitoli successivi.
Conoscenze matematiche richieste:
- Appendice F - per proprietà delle distribuzioni continue
11.1 L’incertezza come condizione epistemica
11.1.1 Perché abbiamo bisogno delle distribuzioni
Nel ragionamento scientifico ci troviamo costantemente in una condizione di conoscenza incompleta. Non conosciamo con certezza il valore esatto di un parametro di interesse, che si tratti della prevalenza di un disturbo, dell’efficacia di un intervento o della correlazione tra due costrutti psicologici. Questa incertezza non rappresenta un difetto del metodo scientifico, ma una sua caratteristica costitutiva: la scienza avanza attraverso la riduzione progressiva dell’incertezza, non attraverso la sua eliminazione definitiva.
L’approccio bayesiano riconosce esplicitamente questa condizione e la pone al centro del ragionamento inferenziale. L’incertezza non viene nascosta dietro stime puntuali o decisioni dicotomiche (ad esempio significativo/non significativo), ma viene rappresentata, quantificata e comunicata mediante distribuzioni di probabilità.
In questa prospettiva, una distribuzione di probabilità non descrive primariamente “come sono distribuiti i dati nel mondo”, bensì “quali valori riteniamo più o meno plausibili, dato il nostro attuale stato di conoscenza”. Questa distinzione è sottile ma cruciale: la distribuzione è uno strumento epistemico, utilizzato per rappresentare credenze razionali, non una proprietà ontologica intrinseca del fenomeno studiato.
11.1.2 Dalla credenza puntuale alla credenza distribuita
Immaginiamo di voler esprimere le nostre credenze sulla proporzione di studenti universitari che presentano sintomi di ansia clinicamente rilevanti, indicata con \(\theta\). Un approccio ingenuo potrebbe consistere nell’indicare un singolo valore: “Credo che sia il 25%”. Tuttavia, una risposta di questo tipo è epistemicamente inadeguata, poiché non rende conto dell’incertezza che accompagna inevitabilmente tale credenza.
Una rappresentazione più adeguata riconosce che non attribuiamo la stessa plausibilità a tutti i possibili valori di \(\theta\). Potremmo ritenere molto plausibili i valori compresi tra 0.20 e 0.30, moderatamente plausibili quelli tra 0.15 e 0.35, e considerare altamente implausibili valori inferiori a 0.05 o superiori a 0.50. Una distribuzione di probabilità su \(\theta\) consente di rappresentare in modo esplicito e coerente questa struttura graduata di credenze.
La distribuzione Beta, che incontreremo nei prossimi capitoli, è particolarmente adatta a rappresentare credenze sulle proporzioni. Ad esempio, una distribuzione \(\text{Beta}(5, 15)\) esprime la convinzione che il valore di \(\theta\) sia probabilmente intorno a 0.25, con un’incertezza maggiore verso i valori più elevati rispetto a quelli più bassi. I parametri della distribuzione, in questo caso 5 e 15, codificano in modo compatto l’intera struttura delle nostre credenze, trasformando un insieme complesso di giudizi qualitativi in un oggetto matematico maneggevole.
11.2 Il duplice ruolo delle distribuzioni nell’inferenza bayesiana
Nell’approccio bayesiano, le distribuzioni di probabilità svolgono due ruoli distinti ma complementari, che corrispondono ai due termini fondamentali del teorema di Bayes. La chiara comprensione di questa dualità è essenziale per cogliere il motivo per cui le famiglie parametriche occupano una posizione centrale nell’inferenza bayesiana.
11.2.1 Distribuzioni come rappresentazione dell’incertezza sui parametri
Il primo ruolo, più caratteristico e distintivo dell’approccio bayesiano, consiste nel rappresentare formalmente l’incertezza circa i parametri del modello. Prima di osservare i dati, le conoscenze preliminari o le credenze sul parametro vengono codificate in una distribuzione a priori (prior). Questa può incorporare informazioni provenienti dalla letteratura scientifica, vincoli teorici, esperienza pregressa o, in assenza di informazioni sostanziali, esprimere una marcata incertezza iniziale.
Dopo l’osservazione dei dati, le credenze iniziali vengono aggiornate attraverso il teorema di Bayes, dando vita alla distribuzione a posteriori. Questa sintetizza tutto ciò che si è appreso, combinando il prior con l’evidenza empirica contenuta nei dati. La sua forma, ovvero la sua posizione, la sua dispersione, e l’eventuale presenza di asimmetria o multimodalità, comunica in modo completo ciò che abbiamo appreso e quanta incertezza residua permane.
In questo senso, la distribuzione risponde alla domanda: «Quanto dovrei credere in ciascun possibile valore del parametro?».
11.2.2 Distribuzioni come modelli generativi dei dati
Il secondo ruolo riguarda la descrizione del processo probabilistico che ha generato i dati, condizionatamente ai parametri. Questo ruolo è formalizzato dalla funzione di verosimiglianza.
La verosimiglianza risponde a una domanda diversa: «Se il parametro avesse un valore specifico, quanto sarebbero plausibili (o probabili) i dati che abbiamo effettivamente osservato?».
Quando assumiamo, ad esempio, che i tempi di reazione seguano una distribuzione gamma o che le risposte a un item dicotomico seguano una distribuzione di Bernoulli, stiamo formulando ipotesi sul meccanismo generativo dei dati. Tali ipotesi determinano la forma della funzione di verosimiglianza e influenzano direttamente il modo in cui l’evidenza empirica aggiorna le nostre credenze.
La scelta del modello generativo riflette le nostre ipotesi sostantive sulla natura del fenomeno studiato: i tempi di reazione sono sempre positivi e spesso asimmetrici (suggerendo distribuzioni come la gamma o la log-normale); i conteggi di eventi rari presentano una struttura particolare (suggerendo la distribuzione di Poisson); le proporzioni sono vincolate tra 0 e 1 (suggerendo la distribuzione beta per la prior e la binomiale per la verosimiglianza).
11.2.3 L’interazione tra i due ruoli
Il teorema di Bayes rappresenta il ponte matematico che connette questi due ruoli fondamentali:
\[ \underbrace{p(\theta \mid \text{dati})}_{\text{posteriore}} \propto \underbrace{p(\text{dati} \mid \theta)}_{\text{verosimiglianza}} \times \underbrace{p(\theta)}_{\text{prior}}. \]
La distribuzione a posteriori nasce dall’integrazione dinamica tra la conoscenza pregressa sui parametri, formalizzata nel prior, e l’evidenza empirica dei dati, catturata dalla verosimiglianza. Poiché entrambe le componenti dell’inferenza sono espresse attraverso distribuzioni di probabilità, le famiglie parametriche costituiscono strumenti indispensabili per formulare modelli coerenti, interpretabili e aggiornabili nell’inferenza bayesiana.
11.2.4 Esempio concreto: la distribuzione Beta nel duplice ruolo
Consideriamo uno studio sull’efficacia di un intervento CBT per l’ansia sociale. Il parametro di interesse è \(\theta\), ovvero la probabilità di remissione.
Come prior, prima di raccogliere dati, il ricercatore utilizza una \(\text{Beta}(3, 7)\) per esprimere la credenza che la remissione sia possibile ma non molto probabile (media a priori = 0.30). Questa scelta riflette la letteratura esistente su interventi simili.
Come verosimiglianza: i dati osservati (12 remissioni su 30 pazienti) sono modellati con una distribuzione Binomiale, che descrive il processo generativo: ogni paziente ha una probabilità \(\theta\) di remissione, indipendentemente dagli altri.
Come posterior: applicando il teorema di Bayes, si ottiene una distribuzione \(\text{Beta}(3+12, 7+18) = \text{Beta}(15, 25)\), che sintetizza ciò che sappiamo dopo aver osservato i dati. La media a posteriori (0.375) rappresenta un compromesso tra la credenza iniziale (0.30) e la proporzione osservata (0.40).
In questo esempio, la distribuzione Beta appare sia come prior che come posterior (appartengono alla stessa famiglia, proprietà detta coniugazione), mentre la Binomiale funge da verosimiglianza. Questa è la struttura tipica dell’inferenza bayesiana per le proporzioni.
11.3 Le famiglie parametriche come vocabolario
11.3.1 Cosa significa “famiglia parametrica”
Una famiglia parametrica di distribuzioni è un insieme di distribuzioni che condividono la stessa forma funzionale, ma differiscono per i valori di uno o più parametri. La famiglia normale, per esempio, comprende infinite distribuzioni tutte caratterizzate da una forma a campana simmetrica, che si distinguono per la loro posizione (parametro \(\mu\)) e per la loro dispersione (parametro \(\sigma\)).
Specificare una famiglia parametrica equivale quindi a fare un’assunzione sulla forma della distribuzione, mentre specificare i valori dei parametri significa selezionare un caso particolare all’interno di quella famiglia. Nell’inferenza bayesiana, di solito si fissa la famiglia sulla base di considerazioni teoriche o sostanziali (ad esempio: “ritengo plausibile una distribuzione normale”) e si lascia che siano i dati a informare i valori dei parametri attraverso il processo di aggiornamento bayesiano.
11.3.2 Il vocabolario delle forme
Ogni famiglia parametrica possiede caratteristiche distintive che la rendono adatta a rappresentare specifici tipi di variabili. Vediamole con esempi dalla ricerca psicologica.
Distribuzioni discrete — assegnano probabilità a valori distinti e contabili:
Bernoulli: modella eventi binari singoli. Esempio: la risposta di un paziente a un trattamento (remissione sì/no), la correttezza di una risposta a un item di test, la presenza/assenza di un sintomo.
Binomiale: descrive il numero di successi in una sequenza di prove. Esempio: quanti item corretti su 20 in un test di memoria, quanti pazienti su 50 rispondono a un farmaco, quanti giorni su 14 un paziente riporta umore depresso.
Poisson: appropriata per conteggi di eventi rari in intervalli definiti. Esempio: numero di attacchi di panico in un mese, numero di errori in un compito di attenzione sostenuta, frequenza di comportamenti autolesionistici in una settimana.
Distribuzioni continue — assegnano densità di probabilità a scale numeriche continue:
Normale (Gaussiana): emerge quando un fenomeno è influenzato da molti fattori indipendenti di piccolo effetto. Esempio: punteggi QI (costruiti per essere normali), punteggi a scale di personalità ben validate, misure antropometriche.
Gamma e Log-normale: adatte a quantità positive e asimmetriche. Esempio: tempi di reazione (sempre positivi, con coda destra), latenze di risposta, durata degli episodi depressivi, tempo alla ricaduta.
Beta: definita sull’intervallo [0,1], ideale per proporzioni e probabilità. Esempio: probabilità che un paziente risponda a un trattamento, proporzione di varianza spiegata, tasso di accuratezza in un compito.
11.3.3 Ponte applicativo: come scegliere la distribuzione appropriata
Nella pratica, la scelta della distribuzione non è un atto astratto ma una decisione informata, che può essere affrontata in modo sistematico seguendo una logica a cascata. Le domande chiave sono poche, ma poste nell’ordine giusto.
1. Qual è il supporto della variabile?
Il primo criterio è sempre il dominio dei valori possibili: una distribuzione che assegna probabilità a valori impossibili è automaticamente esclusa.
- Solo 0 e 1 → Bernoulli
- Numero di successi tra 0 e n → Binomiale
- Conteggi interi non negativi senza limite superiore → Poisson
- Numeri reali positivi (> 0) → Gamma, Log-normale
- Proporzioni comprese tra 0 e 1 → Beta
- Numeri reali su tutta la retta → Normale, t di Student
👉 Questa fase serve soprattutto a escludere modelli inadatti.
2. Qual è la forma attesa della distribuzione?
Una volta ristretto il campo, si considera la forma plausibile dei dati, sulla base di teoria, esperienza o letteratura.
- Simmetrica, campaniforme → Normale
- Asimmetrica a destra (coda lunga verso valori alti) → Gamma, Log-normale
- Asimmetrica a sinistra → Beta con (> )
- Presenza di outlier o code pesanti → t di Student
👉 Qui entra in gioco l’intelligenza sostantiva del problema, non solo la matematica.
3. Ci sono informazioni pregresse da incorporare?
Se il modello è bayesiano, la distribuzione scelta deve dialogare bene con il prior.
Se esistono conoscenze precedenti (studi, esperti, dati storici), il prior deve poterle rappresentare in modo naturale.
Le coppie coniugate (prior e posterior della stessa famiglia) non sono obbligatorie, ma:
- semplificano i calcoli,
- rendono l’interpretazione più trasparente,
- facilitano il debugging del modello.
👉 La scelta della distribuzione non riguarda solo i dati, ma l’intero ecosistema del modello.
Esempio applicativo
“Devo modellare i tempi di reazione in un esperimento di priming.”
Supporto I tempi di reazione sono numeri reali positivi → la Normale è esclusa.
Forma attesa I tempi di reazione mostrano tipicamente una forte asimmetria a destra → candidati naturali: Gamma o Log-normale.
Considerazioni di modellazione
- La Gamma ha parametri interpretabili (forma e scala).
- È compatibile con strutture gerarchiche e coniugazioni utili.
- È spesso più stabile numericamente in modelli complessi.
✅ Scelta finale: Distribuzione Gamma.
In sintesi
Scegliere una distribuzione significa rispondere a tre domande fondamentali:
- Quali valori sono possibili?
- Che forma mi aspetto realisticamente?
- Che tipo di inferenza voglio costruire (frequentista o bayesiana)?
Se queste tre risposte sono coerenti tra loro, la distribuzione “giusta” emerge quasi naturalmente.
11.3.4 Parsimonia e flessibilità
Le famiglie parametriche realizzano un equilibrio tra parsimonia e flessibilità. Con un numero ridotto di parametri, tipicamente uno, due o tre, possono rappresentare una vasta gamma di forme distribuzionali. La distribuzione normale richiede soltanto due parametri, \(\mu\) e \(\sigma\), per essere completamente specificata, mentre la distribuzione beta utilizza due parametri, \(\alpha\) e \(\beta\), per rappresentare credenze su proporzioni che possono essere simmetriche o asimmetriche, concentrate o disperse.
Questa parsimonia ha un valore epistemico rilevante: costringe a rendere esplicite le assunzioni fondamentali senza introdurre complessità non giustificate dall’evidenza disponibile. Allo stesso tempo, la varietà delle famiglie parametriche fornisce una flessibilità sufficiente per adattarsi alle caratteristiche dei diversi fenomeni psicologici, rendendo possibile una modellizzazione al tempo stesso semplice e informativa.
11.4 Applicazione: la variabilità nei fenomeni psicologici
11.4.1 Perché la variabilità richiede un trattamento distribuzionale
Le considerazioni epistemiche sviluppate finora trovano un’applicazione particolarmente rilevante nella ricerca psicologica, dove la variabilità tra individui, nel tempo e tra contesti rappresenta la norma piuttosto che l’eccezione.
Un recente articolo di Segal et al. (2025) sui disturbi mentali illustra efficacemente questo punto. L’autore osserva che molti limiti nella comprensione dell’eziologia dei disturbi psichiatrici derivano da una sottovalutazione sistematica della variabilità. Storicamente, gran parte della ricerca ha confrontato gruppi di pazienti con gruppi di controllo, identificando le differenze nelle medie come tratti distintivi. Questo approccio, pur avendo prodotto risultati importanti, trascura un aspetto cruciale: i disturbi psichiatrici sono caratterizzati da un’elevata eterogeneità che i semplici confronti tra medie non sono in grado di cogliere.
I numeri rendono evidente la portata del problema. Nel disturbo da stress post-traumatico, ad esempio, esistono oltre 636000 possibili combinazioni di sintomi che soddisfano i criteri diagnostici. Per quanto riguarda la depressione maggiore, le configurazioni sintomatologiche compatibili con la diagnosi superano le 16000, e meno del 50% dei pazienti depressi presenta la stessa configurazione di sintomi.
11.4.2 Oltre le medie di gruppo
Quando confrontiamo le medie di due gruppi e osserviamo una differenza “statisticamente significativa”, stiamo formulando un’affermazione a livello di popolazione. Tale affermazione può risultare epistemicamente inadeguata se la variabilità all’interno dei gruppi è molto maggiore della differenza tra le medie, se le distribuzioni si sovrappongono in modo sostanziale o se esistono sottogruppi eterogenei mascherati dalla media complessiva.
In questi contesti, la media rischia di diventare un riassunto fuorviante. Rappresentare l’intera distribuzione, includendone la forma, la dispersione e le eventuali caratteristiche come l’asimmetria o la multimodalità, fornisce un quadro molto più fedele del nostro stato di conoscenza.
L’approccio bayesiano, che fa un uso sistematico delle distribuzioni di probabilità, è naturalmente attrezzato per affrontare questa complessità. Non ci si limita a stimare un singolo valore “più probabile”, ma si ottiene una distribuzione a posteriori che quantifica esplicitamente l’incertezza. I modelli gerarchici consentono di stimare simultaneamente parametri di popolazione e parametri individuali, catturando la variabilità tra soggetti. I modelli di miscela, infine, permettono di identificare sottogruppi eterogenei all’interno di campioni apparentemente omogenei.
11.4.3 La variabilità come informazione
In questa prospettiva, la variabilità non è un “rumore” da eliminare mediante tecniche statistiche, ma un’informazione da modellare e comprendere. Le distribuzioni di probabilità diventano strumenti per rappresentare in modo esplicito tale variabilità: una distribuzione con alta varianza comunica qualcosa di sostanzialmente diverso rispetto a una distribuzione con bassa varianza e, in contesti differenti, entrambe possono essere epistemicamente appropriate.
Come sottolinea Segal et al. (2025), solo integrando sistematicamente la variabilità nell’analisi empirica è possibile sviluppare modelli predittivi robusti e interventi sensibili alla diversità individuale. Le famiglie parametriche di distribuzioni forniscono il linguaggio formale necessario per realizzare tale integrazione in modo coerente e rigoroso.
11.5 Verso i capitoli successivi
Nei prossimi capitoli esploreremo sistematicamente le principali famiglie di distribuzioni utilizzate nella ricerca psicologica, mostrando come esse possano essere impiegate per rappresentare l’incertezza in modo coerente e informativo.
Il Capitolo 12 sarà dedicato alle distribuzioni discrete: la distribuzione di Bernoulli per eventi binari singoli, la distribuzione binomiale per il conteggio dei successi in un numero finito di prove e la distribuzione di Poisson per la modellizzazione di eventi rari. Queste distribuzioni sono fondamentali per descrivere risposte categoriali, frequenze e conteggi.
Il Capitolo 13 affronterà invece le distribuzioni continue: la distribuzione normale per fenomeni influenzati da molti fattori indipendenti, la gamma e la log-normale per quantità positive e asimmetriche, la beta per proporzioni e probabilità e la t di Student per le situazioni in cui vi è incertezza sulla varianza.
Per ciascuna famiglia esamineremo la forma della distribuzione e il significato dei parametri, le proprietà matematiche rilevanti, i contesti in cui è appropriato utilizzarla e il suo ruolo nell’inferenza bayesiana, come distribuzione a priori, funzione di verosimiglianza o distribuzione a posteriori.
11.5.1 Una nota epistemologica
È importante ricordare che nessuna distribuzione è “vera” in senso assoluto. Come osservava George Box: “tutti i modelli sono sbagliati, ma alcuni sono utili”. La scelta di una famiglia parametrica rappresenta sempre un compromesso pragmatico: l’obiettivo non è catturare la realtà in ogni suo dettaglio, ma rappresentarne gli aspetti salienti con un adeguato livello di accuratezza e parsimonia.
Nel framework bayesiano, questa consapevolezza è incorporata nel metodo stesso. Modelli alternativi possono essere confrontati mediante il fattore di Bayes, combinati attraverso il model averaging e valutati tramite posterior predictive checks. In questo modo, anche l’incertezza associata alla scelta del modello diventa esplicita, quantificabile e gestibile all’interno del processo inferenziale.
Riflessioni conclusive
Nel framework bayesiano, le distribuzioni di probabilità sono strumenti fondamentali per rappresentare e comunicare l’incertezza. Ogni distribuzione fornisce una risposta formale alla domanda: «Quanto dovrei credere in ciascun possibile valore?», dato il mio attuale stato di conoscenza.
Le famiglie parametriche costituiscono un vocabolario ricco e flessibile per esprimere diversi tipi di credenze. La scelta della famiglia riflette le nostre assunzioni sulla natura del fenomeno studiato, ad esempio sui valori possibili, sulla simmetria o sull’asimmetria della distribuzione, mentre i valori dei parametri codificano il nostro stato di conoscenza specifico. Nell’inferenza bayesiana, questo vocabolario viene utilizzato sia per rappresentare le credenze a priori sui parametri, sia per formulare ipotesi sul processo generativo dei dati attraverso la verosimiglianza.
L’applicazione alla ricerca psicologica mette in luce l’importanza di questo approccio. La variabilità che caratterizza i fenomeni psicologici, sia tra individui, sia nel tempo, sia tra contesti, richiede strumenti che vadano oltre i semplici confronti tra medie. Le distribuzioni di probabilità permettono di rappresentare l’intera struttura della variabilità, trasformandola da “rumore” da ignorare a informazione da modellare e interpretare.
Nei capitoli successivi, esploreremo progressivamente questo vocabolario, concentrandoci sulle famiglie di distribuzioni che si sono rivelate più utili nella ricerca psicologica. L’obiettivo non è memorizzare formule, ma sviluppare un’intuizione solida sul tipo di distribuzione più appropriato in diverse circostanze e su come utilizzarla per ragionare in modo rigoroso e trasparente in situazioni di incertezza.
Punti chiave da ricordare
Concetti essenziali di questo capitolo:
- Le distribuzioni come linguaggio per l’incertezza
- Non descrivono “come sono i dati” ma “quali valori riteniamo plausibili”
- Strumento epistemico per rappresentare credenze razionali
- Passaggio da “credenza puntuale” a “credenza distribuita”
- Duplice ruolo nell’inferenza bayesiana
- Come prior: rappresentano incertezza sui parametri \(p(\theta)\)
- Come verosimiglianza: descrivono il processo generativo \(p(D \mid \theta)\)
- La stessa famiglia può svolgere entrambi i ruoli in contesti diversi
- Famiglie parametriche fondamentali
- Bernoulli e Binomiale: eventi binari e conteggi di successi
- Beta: proporzioni e probabilità (coniugata con Binomiale)
- Normale (Gaussiana): misure continue con variabilità simmetrica
- Poisson: conteggi di eventi rari in intervalli fissi
- Gamma: tempi di attesa e variabili continue positive
- Supporto delle distribuzioni
- Discreto finito: Bernoulli, Binomiale (numero fisso di valori)
- Discreto infinito: Poisson (interi non negativi)
- Continuo limitato: Beta ([0,1]), Uniforme ([a,b])
- Continuo illimitato: Normale (\(\mathbb{R}\)), Gamma (\(\mathbb{R}^+\))
- Parametri e interpretabilità
- Parametri di posizione: dove si concentra la distribuzione (media, moda)
- Parametri di scala: quanto è dispersa (varianza, deviazione standard)
- Parametri di forma: asimmetria, code pesanti, multimodalità
- Scelta parametri = scelta assunzioni esplicite
- Coniugazione (anteprima)
- Prior e verosimiglianza “coniugati” → posterior della stessa famiglia del prior
- Semplifica enormemente i calcoli (forma chiusa per la posterior)
- Esempi: Beta-Binomiale, Normale-Normale, Gamma-Poisson
- Principio di massima entropia
- Scegliere la distribuzione che massimizza l’entropia dati i vincoli noti
- Normale: massima entropia dato media e varianza note
- Esponenziale: massima entropia data solo la media (per \(\mathbb{R}^+\))
- Uniforme: massima entropia senza vincoli (massima ignoranza)
- Scelta della distribuzione nella pratica
- Vincoli sul supporto: interi vs reali, limitati vs illimitati
- Simmetria vs asimmetria
- Code pesanti vs leggere
- Informazioni pregresse codificabili
- Coniugazione per semplificare calcoli
Criteri di selezione:
| Tipo di variabile | Supporto | Famiglia tipica | Esempio psicologico |
|---|---|---|---|
| Binaria (0/1) | {0,1} | Bernoulli | Risposta corretta/errata a un item |
| Conteggio successi | {0,1,…,n} | Binomiale | Item corretti su 20 in un test |
| Conteggio eventi rari | {0,1,2,…} | Poisson | Attacchi di panico in un mese |
| Proporzione/probabilità | [0,1] | Beta | Tasso di remissione, accuratezza |
| Misura continua simmetrica | \(\mathbb{R}\) | Normale | Punteggi QI, scale standardizzate |
| Tempo di attesa/reazione | \(\mathbb{R}^+\) | Gamma, Log-normale | Tempi di reazione, latenze |
| Varianza/precisione | \(\mathbb{R}^+\) | Gamma, Inversa-Gamma | Variabilità tra soggetti |
Relazioni tra famiglie:
- Bernoulli è Binomiale con \(n=1\)
- Esponenziale è Gamma con shape \(\alpha=1\)
- Poisson emerge come limite di Binomiale per \(n \to \infty, p \to 0\)
- Normale emerge dal TLC (somma di variabili qualsiasi)
Per i prossimi capitoli:
Nel Capitolo 12 e Capitolo 13 studieremo in dettaglio le proprietà matematiche, i momenti, i grafici e le applicazioni psicologiche di ciascuna famiglia parametrica, fornendo gli strumenti operativi per specificare prior informativi e costruire modelli bayesiani interpretabili.