29 Probabilità condizionata
29.1 Introduzione
La probabilità condizionata esprime la probabilità di un evento tenendo conto del verificarsi di un altro evento. Questo concetto è fondamentale perché riflette il modo in cui aggiorniamo le nostre credenze alla luce di nuove informazioni. Ad esempio, la probabilità che piova domani può essere diversa a seconda delle condizioni atmosferiche di oggi: osservare un cielo nuvoloso modifica la nostra valutazione della probabilità di pioggia. In questo senso, ogni nuova informazione può confermare, rafforzare o mettere in discussione le credenze preesistenti.
La probabilità condizionata ha un ruolo centrale non solo nella teoria della probabilità, ma anche nelle applicazioni quotidiane e scientifiche. In molti contesti, le probabilità sono implicitamente condizionate da informazioni preesistenti, anche quando non lo esplicitiamo formalmente. Comprendere e quantificare questo processo di aggiornamento delle credenze ci consente di gestire in modo più efficace l’incertezza, rendendo la probabilità uno strumento dinamico per la decisione e l’inferenza.
29.2 Indipendenza Stocastica
Un caso particolare di aggiornamento delle probabilità si verifica quando due eventi non si influenzano a vicenda. In tal caso, la probabilità congiunta di più eventi si calcola in modo molto più semplice, grazie alla proprietà di indipendenza.
29.2.1 Indipendenza di Due Eventi
Definizione 29.1 Due eventi \(A\) e \(B\) si dicono indipendenti se la probabilità che si verifichino entrambi è uguale al prodotto delle probabilità dei singoli eventi:
\[ P(A \cap B) \;=\; P(A)\, P(B). \tag{29.1}\]
In altre parole, sapere che \(A\) si è verificato non influisce sul valore di \(P(B)\), e viceversa. Quando questa condizione è soddisfatta, si scrive \(A \perp B\) per indicare l’indipendenza dei due eventi.
Esempio 29.1 Supponiamo di lanciare due monete distinte e di considerare i seguenti eventi:
-
\(A\) = “La prima moneta mostra Testa”
- \(B\) = “La seconda moneta mostra Testa”
Poiché il risultato della prima moneta non influisce in alcun modo su quello della seconda, i due eventi sono indipendenti. In particolare, la probabilità di ottenere “Testa” su una moneta è:
\[ P(A) \;=\; P(B) \;=\; \frac{1}{2}. \]
La probabilità che entrambe le monete mostrino Testa (cioè che si verifichino contemporaneamente gli eventi \(A\) e \(B\)) è data dal prodotto delle loro probabilità:
\[ P(A \cap B) \;=\; P(A)\,P(B) \;=\; \frac{1}{2} \times \frac{1}{2} \;=\; \frac{1}{4}. \]
Poiché questa relazione è soddisfatta, possiamo concludere che \(A\) e \(B\) sono eventi indipendenti.
29.3 Indipendenza di un Insieme di Eventi
Il concetto di indipendenza non si limita a due soli eventi, ma può estendersi a un insieme arbitrario di eventi. In generale, diciamo che \(\{A_i : i \in I\}\) è un insieme di eventi indipendente se, per ogni sottoinsieme finito \(J \subseteq I\), la probabilità dell’intersezione degli eventi in \(J\) coincide con il prodotto delle probabilità di ciascun evento:
\[ P \Bigl(\bigcap_{i \in J} A_i\Bigr) \;=\; \prod_{i \in J} P(A_i). \tag{29.2}\]
Questa condizione richiede che ogni combinazione di eventi presenti la stessa proprietà di non influenzarsi a vicenda. L’indipendenza può essere:
- un’assunzione semplificante in molti modelli (ad esempio, ipotizzare che le variabili di un questionario misurino proprietà “indipendenti” dei partecipanti);
- una caratteristica empirica emersa dai dati, da verificare attraverso analisi apposite.
Esempio 29.2 Consideriamo una sequenza di tre lanci di una moneta equilibrata e definiamo gli eventi:
- \(A_1\) = “Il primo lancio mostra Testa”.
- \(A_2\) = “Il secondo lancio mostra Testa”.
- \(A_3\) = “Il terzo lancio mostra Testa”.
Ciascuno di questi eventi ha probabilità \(1/2\). Poiché ogni lancio non influenza gli altri, l’insieme \(\{A_1, A_2, A_3\}\) è indipendente nel senso più ampio: non solo \(P(A_1 \cap A_2) = P(A_1)P(A_2)\) e simili per coppie, ma vale anche
\[ P(A_1 \cap A_2 \cap A_3) \;=\; P(A_1)\,P(A_2)\,P(A_3) \;=\; \left(\tfrac12\right)\left(\tfrac12\right)\left(\tfrac12\right) \;=\; \tfrac18. \]
In effetti, per qualunque combinazione di Testa e Croce (ad esempio, “Testa al primo e terzo lancio, Croce al secondo”), la probabilità risulta sempre il prodotto delle probabilità dei singoli esiti, confermando l’indipendenza.
29.3.1 Quando gli Eventi Non Sono Indipendenti
Se per due eventi \(A\) e \(B\) si ha \(P(A \cap B) \neq P(A) P(B)\), essi non sono indipendenti. In tal caso, conoscere l’esito di uno fornisce informazioni sul probabile verificarsi dell’altro, e occorre tenere conto di questa dipendenza nei calcoli (ad esempio, usando la probabilità condizionata).
29.3.2 Differenza tra Indipendenza ed Eventi Disgiunti
Un errore frequente è confondere “indipendenti” con “disgiunti (o mutuamente esclusivi)”. Due eventi sono disgiunti se non possono avvenire contemporaneamente, cioè
\[ P(A \cap B) \;=\; 0. \]
Se \(P(A)>0\) e \(P(B)>0\) e gli eventi sono disgiunti, non possono essere indipendenti. Infatti, l’indipendenza richiederebbe
\[ P(A \cap B) \;=\; P(A)\,P(B), \]
ma, poiché \(P(A \cap B)=0\) e \(P(A) P(B)\) sarebbe positivo, la relazione non può valere. Quindi, la disgiunzione implica l’esclusione reciproca, mentre l’indipendenza significa che la probabilità di uno non risente in alcun modo dell’altro.
Esempio 29.3 Nel lancio di un dado a sei facce:
- \(C\) = “Esce un numero pari” \(\{\;2,4,6\}\).
- \(D\) = “Esce un numero dispari” \(\{\;1,3,5\}\).
I due eventi sono disgiunti, poiché un numero non può essere contemporaneamente pari e dispari; dunque \(P(C \cap D)=0\).
Tuttavia, non sono indipendenti: se lo fossero, si dovrebbe avere \(P(C \cap D) = P(C)P(D)\). Invece,
\[ 0 \;\neq\; \tfrac12 \,\times\, \tfrac12 \;=\; \tfrac14, \]
da cui segue che \(C\) e \(D\) non sono eventi indipendenti.
In sintesi, gli eventi disgiunti non possono verificarsi insieme, mentre gli eventi indipendenti non influiscono uno sulla probabilità dell’altro. Entrambe le proprietà sono importanti ma rispondono a concetti nettamente diversi.
29.4 Probabilità Condizionata
La probabilità condizionata esprime la probabilità di un evento \(A\) una volta che si sappia che un altro evento \(B\) è già avvenuto.
Definizione 29.2 Se \(P(B) > 0\), si definisce:
\[ P(A \mid B) \;=\; \frac{P(A \cap B)}{P(B)}. \tag{29.3}\]
Questa formula può essere letta come un “ricalcolo” della probabilità di \(A\) limitandosi al sottoinsieme di esiti in cui \(B\) è vero.
29.4.1 Interpretazione della Probabilità Condizionata
La probabilità condizionata funge da meccanismo di aggiornamento delle nostre conoscenze. Inizialmente, si dispone di una stima di \(P(A)\); dopo aver appreso che un evento correlato \(B\) si è verificato, si “restringe” il campo agli esiti compatibili con \(B\) e si riassegna la probabilità di \(A\) su questa base.
- Esempio intuitivo: Se si sa che una persona ha la febbre (\(B\)), la probabilità che abbia l’influenza (\(A\)) aumenta rispetto a quella calcolata sull’intera popolazione.
Questa capacità di “aggiornare le credenze” fa della probabilità condizionata uno strumento fondamentale in:
-
inferenze statistiche, per gestire informazioni parziali o acquisite progressivamente;
-
teoria dell’apprendimento, quando si valutano ipotesi o modelli a fronte di nuovi dati;
- modellizzazione delle dipendenze tra eventi, in cui la conoscenza di un evento influenza la probabilità di un altro.
Esempio 29.4 Lanciamo due dadi equilibrati consecutivamente.
Dato che la somma dei dadi è 10, qual è la probabilità che uno dei due dadi mostri un 6?
Definiamo:
-
B come l’evento che la somma sia 10:
\[ B = \{(4, 6), (5, 5), (6, 4)\}. \]
-
A come l’evento che uno dei due dadi mostri un 6:
\[ A = \{(1, 6), \dots, (5, 6), (6, 1), \dots, (6, 5)\}. \]
L’intersezione tra A e B è:
\[ A \cap B = \{(4, 6), (6, 4)\}. \]
Poiché in questo esperimento tutti gli eventi elementari sono equiprobabili, la probabilità condizionata \(P(A | B)\) è data da:
\[
P(A | B) = \frac{P(A \cap B)}{P(B)} = \frac{\frac{2}{36}}{\frac{3}{36}} = \frac{2}{3}.
\]
Quindi, la probabilità che uno dei due dadi mostri un 6, sapendo che la somma è 10, è \(\frac{2}{3}\).
Esempio 29.5 Somma di due dadi
Consideriamo il lancio di due dadi equilibrati e calcoliamo la probabilità che la somma dei punteggi risulti minore di 8.
-
Senza informazioni aggiuntive
- Ogni dado può assumere valori da 1 a 6, per un totale di 36 possibili combinazioni \((6 \times 6)\).
- Tra queste 36, esistono 21 combinazioni in cui la somma è minore di 8.
- Dunque la probabilità iniziale è: \[ P(\text{Somma} < 8) \;=\; \frac{21}{36} \;\approx\; 0{.}58. \]
- Ogni dado può assumere valori da 1 a 6, per un totale di 36 possibili combinazioni \((6 \times 6)\).
-
Con informazione aggiuntiva
Supponiamo di sapere che la somma uscita è dispari. Questa nuova informazione restringe lo spazio degli esiti possibili:- Solo 18 combinazioni su 36 producono un risultato dispari.
- Tra queste 18, 12 combinazioni hanno somma minore di 8.
- Pertanto, la probabilità condizionata diventa: \[ P(\text{Somma} < 8 \,\mid\, \text{Somma dispari}) \;=\; \frac{12}{18} \;=\; 0{.}67. \]
- Solo 18 combinazioni su 36 producono un risultato dispari.
Confrontando i due risultati (\(0{,}58\) senza informazioni contro \(0{,}67\) con l’informazione “somma dispari”), osserviamo come la probabilità di un evento possa cambiare una volta ottenuta un’informazione aggiuntiva.
Codice in R.
Nel codice R che segue, utilizziamo l’insieme di tutte le combinazioni di lanci per verificare numericamente i risultati:
# 1. Definiamo i possibili valori di un dado
r <- 1:6
# 2. Costruiamo tutte le combinazioni possibili (i, j)
# in cui i e j vanno da 1 a 6.
# In totale ci aspettiamo 36 combinazioni (6 x 6).
sample <- expand.grid(i = r, j = r)
nrow(sample) # Contiamo quante sono: dovrebbero essere 36
#> [1] 36
# 3. Selezioniamo solo le coppie (i, j) in cui la somma è minore di 8.
# Verifichiamo quante sono e le confrontiamo con il totale.
event <- subset(sample, i + j < 8)
cat(nrow(event), "/", nrow(sample), "\n") # Dovrebbe stampare 21 / 36
#> 21 / 36
# 4. Selezioniamo ora solo le coppie con somma dispari.
# %% è l’operatore "modulo": (i + j) %% 2 != 0 verifica se la somma è dispari.
sample_odd <- subset(sample, (i + j) %% 2 != 0)
nrow(sample_odd) # Dovrebbe essere 18
#> [1] 18
# 5. Calcoliamo quante coppie hanno somma minore di 8 tra quelle con somma dispari.
event_odd <- subset(sample_odd, i + j < 8)
cat(nrow(event_odd), "/", nrow(sample_odd), "\n") # Dovrebbe stampare 12 / 18
#> 12 / 18
Secondo la Equazione eq-prob-cond-definition, se definiamo
-
\(A\) = “Somma < 8”
- \(B\) = “Somma dispari”,
allora \(P(A \cap B) = 12/36\) e \(P(B) = 18/36\). Di conseguenza,
\[ P(A \mid B) \;=\; \frac{P(A \cap B)}{P(B)} \;=\; \frac{12/36}{18/36} \;=\; \frac{12}{18} \;=\; 0{.}67. \]
Questo esempio dimostra come la probabilità condizionata consenta di aggiornare la stima di un evento alla luce di nuove informazioni.
29.5 Indipendenza e Probabilità Condizionata
L’indipendenza tra due eventi \(A\) e \(B\) può essere interpretata intuitivamente attraverso la probabilità condizionata. Due eventi sono indipendenti se il verificarsi di uno non influenza la probabilità di verificarsi dell’altro. In altre parole, conoscere che \(B\) è accaduto non modifica la probabilità di \(A\), e viceversa.
Questa relazione può essere formalizzata con le seguenti equazioni:
\[ P(A \mid B) = \frac{P(A \cap B)}{P(B)} = P(A), \]
\[ P(B \mid A) = \frac{P(A \cap B)}{P(A)} = P(B). \]
Pertanto, \(A\) e \(B\) sono indipendenti se e solo se:
\[ P(A \mid B) = P(A), \]
\[ P(B \mid A) = P(B). \]
Queste condizioni significano che la probabilità di \(A\) non cambia, indipendentemente dal fatto che \(B\) sia accaduto, e lo stesso vale per \(B\).
29.5.1 Indipendenza di Tre Eventi
La definizione di indipendenza si estende naturalmente a tre eventi \(A\), \(B\), e \(C\), ma con condizioni aggiuntive. Tre eventi sono indipendenti se:
-
Ogni coppia di eventi è indipendente:
\[ \begin{aligned} P(A \cap B) &= P(A) P(B), \\ P(A \cap C) &= P(A) P(C), \\ P(B \cap C) &= P(B) P(C). \end{aligned} \]
-
La probabilità congiunta di tutti e tre gli eventi è uguale al prodotto delle loro probabilità individuali:
\[ P(A \cap B \cap C) = P(A) P(B) P(C). \]
Le prime tre condizioni verificano l’indipendenza a coppie (indipendenza a due a due), mentre l’ultima condizione garantisce che i tre eventi siano completamente indipendenti. È importante notare che l’indipendenza a due a due non implica necessariamente l’indipendenza completa: per essere indipendenti nel senso completo, tutte e quattro le condizioni devono essere soddisfatte.
In sintesi, l’indipendenza tra eventi implica che il verificarsi di uno di essi non fornisce alcuna informazione sulla probabilità del verificarsi degli altri. Nel caso di due eventi, questa proprietà si traduce nell’invarianza della probabilità condizionata. Per tre o più eventi, l’indipendenza richiede sia l’indipendenza a coppie sia la condizione più forte sull’intersezione di tutti gli eventi.
Questi concetti sono fondamentali nella probabilità e nella statistica, poiché semplificano molti calcoli e forniscono una base per modelli più complessi.
Esempio 29.6 Indipendenza tra Eventi in un Mazzo di Carte
Scenario 1: Mazzo Completo (52 Carte)
Consideriamo un mazzo standard di 52 carte. Ogni seme (picche, cuori, quadri, fiori) contiene 13 carte, e nel mazzo ci sono 4 Regine in totale. Definiamo i seguenti eventi:
-
\(A\) = “Pescare una carta di picche”,
- \(B\) = “Pescare una carta Regina”.
Probabilità di \(A\). Poiché ci sono 13 picche in un mazzo di 52 carte, \[ P(A) = \frac{13}{52} = \frac{1}{4}. \]
Probabilità di \(B\). Ci sono 4 Regine su 52 carte, quindi \[ P(B) = \frac{4}{52} = \frac{1}{13}. \]
Probabilità congiunta \(P(A \cap B)\). L’unica carta che è contemporaneamente “picche” e “Regina” è la Regina di picche, perciò: \[ P(A \cap B) = \frac{1}{52}. \]
Per verificare l’indipendenza di \(A\) e \(B\), confrontiamo \(P(A \cap B)\) con \(P(A)\,P(B)\):
\[ P(A)\,P(B) = \frac{1}{4} \times \frac{1}{13} = \frac{1}{52}, \] \[ P(A \cap B) = \frac{1}{52}. \]
Poiché \(P(A \cap B) = P(A)\,P(B)\), i due eventi sono indipendenti quando il mazzo è completo.
Scenario 2: Mazzo Ridotto (51 Carte)
Ora rimuoviamo una carta qualunque dal mazzo — ad esempio il “2 di quadri” — portando il totale a 51 carte. Notiamo che la Regina di picche non è stata rimossa, ma il cambio di composizione potrebbe comunque influire sulle probabilità.
Probabilità di \(A \cap B\). Poiché la Regina di picche è ancora presente, pescare quella carta specifica ha ora probabilità \[ P(A \cap B) = \frac{1}{51}. \]
Probabilità di \(A\). Il seme di picche non è stato modificato (restano 13 picche), ma il denominatore è passato a 51 carte: \[ P(A) = \frac{13}{51}. \]
Probabilità di \(B\). Nel mazzo restano ancora 4 Regine (nessuna è stata rimossa), su 51 carte totali: \[ P(B) = \frac{4}{51}. \]
Prodotto \(P(A)\,P(B)\). Calcolando: \[ P(A)\,P(B) = \frac{13}{51} \times \frac{4}{51} = \frac{52}{2601}. \]
Confrontando:
\[ P(A \cap B) = \frac{1}{51}, \quad\text{mentre}\quad P(A)\,P(B) = \frac{52}{2601}. \]
Si verifica che
\[ \frac{1}{51} \;\neq\; \frac{52}{2601}. \]
Pertanto, \(A\) e \(B\) non sono più indipendenti nel mazzo ridotto.
In sintesi, questo esempio mostra come l’indipendenza tra due eventi dipenda dal contesto:
- con un mazzo completo (52 carte), “pescare picche” e “pescare una Regina” sono eventi indipendenti;
- basta rimuovere una carta qualunque (anche non correlata direttamente a “picche” o “Regine”) perché le probabilità cambino e gli stessi eventi cessino di essere indipendenti.
In altre parole, ogni modifica alla composizione del mazzo può influire sulle probabilità dei singoli eventi e, di conseguenza, sulle loro relazioni di dipendenza o indipendenza.
29.6 Teorema del Prodotto
A partire dalla definizione di probabilità condizionata, possiamo derivare quello che viene chiamato Teorema del Prodotto, noto anche come teorema della probabilità composta, regola moltiplicativa o regola della catena. Questo risultato permette di esprimere la probabilità congiunta di due o più eventi come il prodotto di probabilità condizionate.
29.6.1 Caso di Due Eventi
Per due eventi \(A\) e \(B\), il Teorema del Prodotto asserisce che:
\[ P(A \cap B) \;=\; P(B) \,\cdot\, P(A \mid B) \;=\; P(A) \,\cdot\, P(B \mid A). \tag{29.4}\]
In altre parole, la probabilità che \(A\) e \(B\) si verifichino contemporaneamente può essere calcolata in due modi equivalenti:
- primo modo: prendi la probabilità di \(B\), quindi moltiplicala per la probabilità di \(A\), sapendo già che \(B\) è accaduto;
- secondo modo: prendi la probabilità di \(A\), quindi moltiplicala per la probabilità di \(B\), sapendo già che \(A\) è accaduto.
L’ordine degli eventi in cui si applica la condizione è arbitrario, a patto di rispettare la formula e scegliere la condizione corrispondente.
29.6.2 Generalizzazione a \(n\) Eventi
Il Teorema del Prodotto si estende naturalmente al caso di più di due eventi. Se consideriamo \(n\) eventi \(A_1, A_2, \dots, A_n\), e assumiamo che
\[ P(A_1 \cap A_2 \cap \cdots \cap A_{n-1}) \;>\; 0, \]
allora la probabilità che tutti questi eventi si verifichino è data da:
\[ \begin{aligned} P(A_1 \,\cap\, A_2 \,\cap\, \cdots \,\cap\, A_n) &= P(A_1) \;\times\; P(A_2 \mid A_1) \;\times\; P(A_3 \mid A_1 \cap A_2) \;\times\; \cdots \\ &\quad \cdots \times\; P(A_n \mid A_1 \cap A_2 \cap \cdots \cap A_{n-1}). \end{aligned} \tag{29.5}\]
In pratica, ciascun fattore si ottiene considerando la probabilità dell’evento successivo, condizionata sul verificarsi di tutti gli eventi precedenti. Questa formulazione è cruciale, ad esempio, nelle analisi di sequenze di eventi o in modelli statistici in cui le probabilità vengono “aggiornate” gradualmente mano a mano che si verificano nuove condizioni.
Il Teorema del Prodotto rappresenta uno dei fondamenti teorici più importanti della probabilità e trova applicazioni in numerosi contesti, quali:
- la modellazione di processi sequenziali o temporali;
- la scomposizione di problemi complessi in calcoli più semplici e gestibili;
- la teoria delle reti bayesiane e l’analisi della probabilità condizionata.
Grazie a questo teorema, è possibile affrontare problemi complessi suddividendoli in passaggi progressivi, in cui ogni probabilità condizionata contribuisce alla costruzione della soluzione complessiva in maniera sistematica.
29.6.2.1 Procedura di calcolo
Per applicare la regola:
-
parti dal primo evento: usa la probabilità incondizionata \(P(A_1)\);
- condiziona progressivamente: moltiplica per \(P(A_2 \mid A_1)\), poi per \(P(A_3 \mid A_1 \cap A_2)\), e così via;
- termina con l’ultimo evento: includi \(P(A_n \mid A_1 \cap \cdots \cap A_{n-1})\).
Esempio 29.7 Da un’urna contenente 6 palline bianche e 4 nere si estrae una pallina per volta, senza reintrodurla nell’urna. Indichiamo con \(B_i\) l’evento: “esce una pallina bianca alla \(i\)-esima estrazione” e con \(N_i\) l’estrazione di una pallina nera. L’evento: “escono due palline bianche nelle prime due estrazioni” è rappresentato dalla intersezione \(\{B_1 \cap B_2\}\) e, per l’Equazione eq-probcondinv, la sua probabilità vale
\[ P(B_1 \cap B_2) = P(B_1)P(B_2 \mid B_1). \]
\(P(B_1)\) vale 6/10, perché nella prima estrazione \(\Omega\) è costituito da 10 elementi: 6 palline bianche e 4 nere. La probabilità condizionata \(P(B_2 \mid B_1)\) vale 5/9, perché nella seconda estrazione, se è verificato l’evento \(B_1\), lo spazio campionario consiste di 5 palline bianche e 4 nere. Si ricava pertanto:
\[ P(B_1 \cap B_2) = \frac{6}{10} \cdot \frac{5}{9} = \frac{1}{3}. \]
In modo analogo si ha che
\[ P(N_1 \cap N_2) = P(N_1)P(N_2 \mid N_1) = \frac{4}{10} \cdot \frac{3}{9} = \frac{4}{30}. \]
Se l’esperimento consiste nell’estrazione successiva di 3 palline, la probabilità che queste siano tutte bianche, per l’Equazione eq-probcomposte, vale
\[ \begin{aligned} P(B_1 \cap B_2 \cap B_3) &=P(B_1)P(B_2 \mid B_1)P(B_3 \mid B_1 \cap B_2) \notag\\ &=\frac{6}{10}\cdot\frac{5}{9} \cdot\frac{4}{8} \notag\\ &= \frac{1}{6}. \end{aligned} \]
La probabilità dell’estrazione di tre palline nere è invece:
\[ \begin{aligned} P(N_1 \cap N_2 \cap N_3) &= P(N_1)P(N_2 \mid N_1)P(N_3 \mid N_1 \cap N_2)\notag\\ &= \frac{4}{10} \cdot \frac{3}{9} \cdot \frac{2}{8} \notag\\ &= \frac{1}{30}.\notag \end{aligned} \]
29.7 Teorema della Probabilità Totale
Il Teorema della Probabilità Totale — anche detto legge della probabilità totale — permette di calcolare la probabilità di un evento \(A\) scomponendola rispetto a una partizione di sottoinsiemi che coprono l’intero spazio campionario. È particolarmente utile quando si affrontano situazioni con più scenari, categorie o gruppi nei quali ripartire il calcolo di probabilità.
29.7.1 Enunciato Generale
Definizione 29.3 Supponiamo che lo spazio campionario \(\Omega\) sia suddiviso in una partizione di eventi \(B_1, B_2, \dots, B_n\), ossia:
-
mutua esclusività: \(B_i \cap B_j = \varnothing\) per \(i \neq j\);
- copertura totale: \(\bigcup_{i=1}^n B_i = \Omega\).
Allora, per un qualsiasi evento \(A \subseteq \Omega\) vale:
\[ P(A) \;=\; \sum_{i=1}^n P(A \cap B_i) \;=\; \sum_{i=1}^n P(A \mid B_i)\, P(B_i). \tag{29.6}\]
In altre parole, \(P(A)\) può essere visto come una media pesata delle probabilità condizionate \(P(A \mid B_i)\), con pesi \(P(B_i)\).
29.7.2 Caso di Due Partizioni
Quando lo spazio campionario è ripartito in due soli eventi, \(B\) e il suo complementare \(B^c\), la formula si semplifica in:
\[ \begin{aligned} P(A) &= P(A \cap B) + P(A \cap B^c) \\ &= P(A \mid B)\,P(B) \;+\; P(A \mid B^c)\,P(B^c). \end{aligned} \tag{29.7}\]
Esempio 29.8 Test medico
Abbiamo:
- \(B\): “Una persona è malata”;
-
\(B^c\): “Una persona è sana”;
- \(A\): “Test positivo”.
Secondo il Teorema della Probabilità Totale, la probabilità di un risultato positivo si ottiene sommando:
\[ P(A) = P(\text{Positivo} \mid \text{Malato}) \,P(\text{Malato}) \;+\; P(\text{Positivo} \mid \text{Sano}) \,P(\text{Sano}). \]
29.7.3 Applicazioni Principali
Analisi per Categorie
Quando la popolazione è divisa in gruppi \(B_1, \dots, B_n\) (ad esempio, fasce d’età o regioni), la probabilità di un evento \(A\) si ottiene sommando le probabilità di \(A\) condizionate a ciascun gruppo, moltiplicate per la frequenza di quel gruppo.Teorema di Bayes
Il denominatore della formula di Bayes è la somma \(\sum_{j=1}^n P(E \mid H_j)\,P(H_j)\), che è appunto un’applicazione della probabilità totale. Qui, \(H_1, \dots, H_n\) rappresentano ipotesi alternative (partizione) e \(E\) un dato osservato.
Esempio 29.9 Urne con Palline di Colori Diversi
Abbiamo 3 urne, ciascuna con 100 palline:
- Urna 1: 75 rosse, 25 blu
- Urna 2: 60 rosse, 40 blu
- Urna 3: 45 rosse, 55 blu
L’urna viene scelta a caso (probabilità \(1/3\) per ciascuna). Qual è la probabilità di estrarre una pallina rossa?
Definisco:
-
\(R\): “Estraggo una pallina rossa”;
- \(U_i\): “Seleziono l’Urna \(i\)”.
Le urne \(U_1, U_2, U_3\) costituiscono una partizione (disgiunte e coprenti \(\Omega\)). Sappiamo:
\[ P(R \mid U_1)=0.75, \quad P(R \mid U_2)=0.60, \quad P(R \mid U_3)=0.45. \]
Applicando la probabilità totale:
\[ \begin{aligned} P(R) &= P(R \mid U_1)\,P(U_1) + P(R \mid U_2)\,P(U_2) + P(R \mid U_3)\,P(U_3)\\ &= 0.75 \times \tfrac13 + 0.60 \times \tfrac13 + 0.45 \times \tfrac13 = 0.60. \end{aligned} \]
Esempio 29.10 Probabilità della Depressione in Diverse Fasce d’Età
Una popolazione è suddivisa in 3 gruppi:
- giovani (30%),
- adulti (40%),
- anziani (30%).
Le probabilità condizionate di soffrire di depressione sono:
\[ P(D \mid \text{Giovane}) = 0.10, \quad P(D \mid \text{Adulto}) = 0.20, \quad P(D \mid \text{Anziano}) = 0.35. \]
Usando la probabilità totale:
\[ P(D) = 0.10\times0.30 + 0.20\times0.40 + 0.35\times0.30 = 0.215. \]
Dunque, circa il 21.5% della popolazione totale soffre di depressione, combinando i tassi per ciascuna fascia.
In breve, il Teorema della Probabilità Totale “scompone” un problema globale in sotto-problemi più specifici, ciascuno condizionato su una porzione dello spazio campionario, permettendo di sommare i risultati finali per ottenere \(P(A)\).
29.8 Riflessioni Conclusive
La probabilità condizionata è uno dei concetti più importanti in statistica, poiché fornisce il quadro teorico per:
- comprendere e formalizzare l’indipendenza tra eventi o variabili (assenza di ogni tipo di relazione);
- espandere e generalizzare il calcolo delle probabilità (ad esempio, la legge della probabilità totale, che scompone in modo sistematico eventi complessi);
- alimentare metodi inferenziali avanzati, come il Teorema di Bayes.
In particolare, il Teorema di Bayes rappresenta uno strumento cardine dell’inferenza statistica: grazie alla probabilità condizionata, è possibile “aggiornare” in modo continuo le credenze sulle ipotesi (o sui parametri di un modello) alla luce di nuove osservazioni. Tale caratteristica di “apprendimento” graduale rende l’inferenza bayesiana flessibile e potente, ideale per affrontare situazioni in cui vengono resi disponibili dati aggiuntivi o in cui le condizioni iniziali possono cambiare.
In definitiva, la probabilità condizionata non solo chiarisce la nozione di indipendenza e getta le fondamenta di metodi inferenziali evoluti, ma soprattutto rappresenta il “motore” di modelli che si adattano dinamicamente alle nuove informazioni. Questa prospettiva “attiva” nell’aggiornamento delle probabilità è ciò che rende l’analisi statistica uno strumento versatile per descrivere e interpretare il mondo reale.
29.9 Esercizi
Informazioni sull’Ambiente di Sviluppo
sessionInfo()
#> R version 4.5.0 (2025-04-11)
#> Platform: aarch64-apple-darwin20
#> Running under: macOS Sequoia 15.5
#>
#> Matrix products: default
#> BLAS: /Library/Frameworks/R.framework/Versions/4.5-arm64/Resources/lib/libRblas.0.dylib
#> LAPACK: /Library/Frameworks/R.framework/Versions/4.5-arm64/Resources/lib/libRlapack.dylib; LAPACK version 3.12.1
#>
#> locale:
#> [1] C/UTF-8/C/C/C/C
#>
#> time zone: Europe/Rome
#> tzcode source: internal
#>
#> attached base packages:
#> [1] stats graphics grDevices utils datasets methods base
#>
#> other attached packages:
#> [1] thematic_0.1.6 MetBrewer_0.2.0 ggokabeito_0.1.0 see_0.11.0
#> [5] gridExtra_2.3 patchwork_1.3.0 bayesplot_1.12.0 psych_2.5.3
#> [9] scales_1.4.0 markdown_2.0 knitr_1.50 lubridate_1.9.4
#> [13] forcats_1.0.0 stringr_1.5.1 dplyr_1.1.4 purrr_1.0.4
#> [17] readr_2.1.5 tidyr_1.3.1 tibble_3.2.1 ggplot2_3.5.2
#> [21] tidyverse_2.0.0 rio_1.2.3 here_1.0.1
#>
#> loaded via a namespace (and not attached):
#> [1] generics_0.1.4 stringi_1.8.7 lattice_0.22-7
#> [4] hms_1.1.3 digest_0.6.37 magrittr_2.0.3
#> [7] evaluate_1.0.3 grid_4.5.0 timechange_0.3.0
#> [10] RColorBrewer_1.1-3 fastmap_1.2.0 rprojroot_2.0.4
#> [13] jsonlite_2.0.0 mnormt_2.1.1 cli_3.6.5
#> [16] rlang_1.1.6 withr_3.0.2 tools_4.5.0
#> [19] parallel_4.5.0 tzdb_0.5.0 pacman_0.5.1
#> [22] vctrs_0.6.5 R6_2.6.1 lifecycle_1.0.4
#> [25] htmlwidgets_1.6.4 pkgconfig_2.0.3 pillar_1.10.2
#> [28] gtable_0.3.6 glue_1.8.0 xfun_0.52
#> [31] tidyselect_1.2.1 rstudioapi_0.17.1 farver_2.1.2
#> [34] htmltools_0.5.8.1 nlme_3.1-168 rmarkdown_2.29
#> [37] compiler_4.5.0