29 Probabilità condizionata
- comprendere e applicare i concetti di probabilità congiunta, marginale e condizionata;
- approfondire la comprensione e l’applicazione dei principi di indipendenza e probabilità condizionata;
- analizzare e interpretare il paradosso di Simpson;
- applicare il teorema del prodotto e della probabilità totale.
- Leggere il capitolo Conditional probability di Introduction to Probability (Blitzstein & Hwang, 2019).
- Leggere il capitolo Conditional Probability (Schervish & DeGroot, 2014).
29.1 Introduzione
La probabilità condizionata esprime la probabilità di un evento tenendo conto del verificarsi di un altro evento. Questo concetto è fondamentale perché riflette il modo in cui aggiorniamo le nostre credenze alla luce di nuove informazioni. Ad esempio, la probabilità che piova domani può essere diversa a seconda delle condizioni atmosferiche di oggi: osservare un cielo nuvoloso modifica la nostra valutazione della probabilità di pioggia. In questo senso, ogni nuova informazione può confermare, rafforzare o mettere in discussione le credenze preesistenti.
La probabilità condizionata ha un ruolo centrale non solo nella teoria della probabilità, ma anche nelle applicazioni quotidiane e scientifiche. In molti contesti, le probabilità sono implicitamente condizionate da informazioni preesistenti, anche quando non lo esplicitiamo formalmente. Comprendere e quantificare questo processo di aggiornamento delle credenze ci consente di gestire in modo più efficace l’incertezza, rendendo la probabilità uno strumento dinamico per la decisione e l’inferenza.
29.2 Indipendenza Stocastica
Un caso particolare di aggiornamento delle probabilità si verifica quando due eventi non si influenzano a vicenda. In tal caso, la probabilità congiunta di più eventi si calcola in modo molto più semplice, grazie alla proprietà di indipendenza.
29.2.1 Indipendenza di Due Eventi
Definizione 29.1 Due eventi \(A\) e \(B\) si dicono indipendenti se la probabilità che si verifichino entrambi è uguale al prodotto delle probabilità dei singoli eventi:
\[ P(A \cap B) \;=\; P(A)\, P(B). \tag{29.1}\]
In altre parole, sapere che \(A\) si è verificato non influisce sul valore di \(P(B)\), e viceversa. Quando questa condizione è soddisfatta, si scrive \(A \perp B\) per indicare l’indipendenza dei due eventi.
Esempio 29.1 Supponiamo di lanciare due monete distinte e di considerare i seguenti eventi:
-
\(A\) = “La prima moneta mostra Testa”
- \(B\) = “La seconda moneta mostra Testa”
Poiché il risultato della prima moneta non influisce in alcun modo su quello della seconda, i due eventi sono indipendenti. In particolare, la probabilità di ottenere “Testa” su una moneta è:
\[ P(A) \;=\; P(B) \;=\; \frac{1}{2}. \]
La probabilità che entrambe le monete mostrino Testa (cioè che si verifichino contemporaneamente gli eventi \(A\) e \(B\)) è data dal prodotto delle loro probabilità:
\[ P(A \cap B) \;=\; P(A)\,P(B) \;=\; \frac{1}{2} \times \frac{1}{2} \;=\; \frac{1}{4}. \]
Poiché questa relazione è soddisfatta, possiamo concludere che \(A\) e \(B\) sono eventi indipendenti.
29.3 Indipendenza di un Insieme di Eventi
Il concetto di indipendenza non si limita a due soli eventi, ma può estendersi a un insieme arbitrario di eventi. In generale, diciamo che \(\{A_i : i \in I\}\) è un insieme di eventi indipendente se, per ogni sottoinsieme finito \(J \subseteq I\), la probabilità dell’intersezione degli eventi in \(J\) coincide con il prodotto delle probabilità di ciascun evento:
\[ P \Bigl(\bigcap_{i \in J} A_i\Bigr) \;=\; \prod_{i \in J} P(A_i). \tag{29.2}\]
Questa condizione richiede che ogni combinazione di eventi presenti la stessa proprietà di non influenzarsi a vicenda. L’indipendenza può essere:
- un’assunzione semplificante in molti modelli (ad esempio, ipotizzare che le variabili di un questionario misurino proprietà “indipendenti” dei partecipanti);
- una caratteristica empirica emersa dai dati, da verificare attraverso analisi apposite.
Esempio 29.2 Consideriamo una sequenza di tre lanci di una moneta equilibrata e definiamo gli eventi:
- \(A_1\) = “Il primo lancio mostra Testa”.
- \(A_2\) = “Il secondo lancio mostra Testa”.
- \(A_3\) = “Il terzo lancio mostra Testa”.
Ciascuno di questi eventi ha probabilità \(1/2\). Poiché ogni lancio non influenza gli altri, l’insieme \(\{A_1, A_2, A_3\}\) è indipendente nel senso più ampio: non solo \(P(A_1 \cap A_2) = P(A_1)P(A_2)\) e simili per coppie, ma vale anche
\[ P(A_1 \cap A_2 \cap A_3) \;=\; P(A_1)\,P(A_2)\,P(A_3) \;=\; \left(\tfrac12\right)\left(\tfrac12\right)\left(\tfrac12\right) \;=\; \tfrac18. \]
In effetti, per qualunque combinazione di Testa e Croce (ad esempio, “Testa al primo e terzo lancio, Croce al secondo”), la probabilità risulta sempre il prodotto delle probabilità dei singoli esiti, confermando l’indipendenza.
29.3.1 Quando gli Eventi Non Sono Indipendenti
Se per due eventi \(A\) e \(B\) si ha \(P(A \cap B) \neq P(A) P(B)\), essi non sono indipendenti. In tal caso, conoscere l’esito di uno fornisce informazioni sul probabile verificarsi dell’altro, e occorre tenere conto di questa dipendenza nei calcoli (ad esempio, usando la probabilità condizionata).
29.3.2 Differenza tra Indipendenza ed Eventi Disgiunti
Un errore frequente è confondere “indipendenti” con “disgiunti (o mutuamente esclusivi)”. Due eventi sono disgiunti se non possono avvenire contemporaneamente, cioè
\[ P(A \cap B) \;=\; 0. \]
Se \(P(A)>0\) e \(P(B)>0\) e gli eventi sono disgiunti, non possono essere indipendenti. Infatti, l’indipendenza richiederebbe
\[ P(A \cap B) \;=\; P(A)\,P(B), \]
ma, poiché \(P(A \cap B)=0\) e \(P(A) P(B)\) sarebbe positivo, la relazione non può valere. Quindi, la disgiunzione implica l’esclusione reciproca, mentre l’indipendenza significa che la probabilità di uno non risente in alcun modo dell’altro.
Esempio 29.3 Nel lancio di un dado a sei facce:
- \(C\) = “Esce un numero pari” \(\{\;2,4,6\}\).
- \(D\) = “Esce un numero dispari” \(\{\;1,3,5\}\).
I due eventi sono disgiunti, poiché un numero non può essere contemporaneamente pari e dispari; dunque \(P(C \cap D)=0\).
Tuttavia, non sono indipendenti: se lo fossero, si dovrebbe avere \(P(C \cap D) = P(C)P(D)\). Invece,
\[ 0 \;\neq\; \tfrac12 \,\times\, \tfrac12 \;=\; \tfrac14, \]
da cui segue che \(C\) e \(D\) non sono eventi indipendenti.
In sintesi, gli eventi disgiunti non possono verificarsi insieme, mentre gli eventi indipendenti non influiscono uno sulla probabilità dell’altro. Entrambe le proprietà sono importanti ma rispondono a concetti nettamente diversi.
29.4 Probabilità Condizionata
La probabilità condizionata esprime la probabilità di un evento \(A\) una volta che si sappia che un altro evento \(B\) è già avvenuto.
Definizione 29.2 Se \(P(B) > 0\), si definisce:
\[ P(A \mid B) \;=\; \frac{P(A \cap B)}{P(B)}. \tag{29.3}\]
Questa formula può essere letta come un “ricalcolo” della probabilità di \(A\) limitandosi al sottoinsieme di esiti in cui \(B\) è vero.
29.4.1 Interpretazione della Probabilità Condizionata
La probabilità condizionata funge da meccanismo di aggiornamento delle nostre conoscenze. Inizialmente, si dispone di una stima di \(P(A)\); dopo aver appreso che un evento correlato \(B\) si è verificato, si “restringe” il campo agli esiti compatibili con \(B\) e si riassegna la probabilità di \(A\) su questa base.
- Esempio intuitivo: Se si sa che una persona ha la febbre (\(B\)), la probabilità che abbia l’influenza (\(A\)) aumenta rispetto a quella calcolata sull’intera popolazione.
Questa capacità di “aggiornare le credenze” fa della probabilità condizionata uno strumento fondamentale in:
-
inferenze statistiche, per gestire informazioni parziali o acquisite progressivamente;
-
teoria dell’apprendimento, quando si valutano ipotesi o modelli a fronte di nuovi dati;
- modellizzazione delle dipendenze tra eventi, in cui la conoscenza di un evento influenza la probabilità di un altro.
Esempio 29.4 Lanciamo due dadi equilibrati consecutivamente.
Dato che la somma dei dadi è 10, qual è la probabilità che uno dei due dadi mostri un 6?
Definiamo:
-
B come l’evento che la somma sia 10:
\[ B = \{(4, 6), (5, 5), (6, 4)\}. \]
-
A come l’evento che uno dei due dadi mostri un 6:
\[ A = \{(1, 6), \dots, (5, 6), (6, 1), \dots, (6, 5)\}. \]
L’intersezione tra A e B è:
\[ A \cap B = \{(4, 6), (6, 4)\}. \]
Poiché in questo esperimento tutti gli eventi elementari sono equiprobabili, la probabilità condizionata \(P(A | B)\) è data da:
\[
P(A | B) = \frac{P(A \cap B)}{P(B)} = \frac{\frac{2}{36}}{\frac{3}{36}} = \frac{2}{3}.
\]
Quindi, la probabilità che uno dei due dadi mostri un 6, sapendo che la somma è 10, è \(\frac{2}{3}\).
Esempio 29.5 Somma di due dadi
Consideriamo il lancio di due dadi equilibrati e calcoliamo la probabilità che la somma dei punteggi risulti minore di 8.
-
Senza informazioni aggiuntive
- Ogni dado può assumere valori da 1 a 6, per un totale di 36 possibili combinazioni \((6 \times 6)\).
- Tra queste 36, esistono 21 combinazioni in cui la somma è minore di 8.
- Dunque la probabilità iniziale è: \[ P(\text{Somma} < 8) \;=\; \frac{21}{36} \;\approx\; 0{.}58. \]
- Ogni dado può assumere valori da 1 a 6, per un totale di 36 possibili combinazioni \((6 \times 6)\).
-
Con informazione aggiuntiva
Supponiamo di sapere che la somma uscita è dispari. Questa nuova informazione restringe lo spazio degli esiti possibili:- Solo 18 combinazioni su 36 producono un risultato dispari.
- Tra queste 18, 12 combinazioni hanno somma minore di 8.
- Pertanto, la probabilità condizionata diventa: \[ P(\text{Somma} < 8 \,\mid\, \text{Somma dispari}) \;=\; \frac{12}{18} \;=\; 0{.}67. \]
- Solo 18 combinazioni su 36 producono un risultato dispari.
Confrontando i due risultati (\(0{,}58\) senza informazioni contro \(0{,}67\) con l’informazione “somma dispari”), osserviamo come la probabilità di un evento possa cambiare una volta ottenuta un’informazione aggiuntiva.
Codice in R.
Nel codice R che segue, utilizziamo l’insieme di tutte le combinazioni di lanci per verificare numericamente i risultati:
# 1. Definiamo i possibili valori di un dado
r <- 1:6
# 2. Costruiamo tutte le combinazioni possibili (i, j)
# in cui i e j vanno da 1 a 6.
# In totale ci aspettiamo 36 combinazioni (6 x 6).
sample <- expand.grid(i = r, j = r)
nrow(sample) # Contiamo quante sono: dovrebbero essere 36
#> [1] 36
# 3. Selezioniamo solo le coppie (i, j) in cui la somma è minore di 8.
# Verifichiamo quante sono e le confrontiamo con il totale.
event <- subset(sample, i + j < 8)
cat(nrow(event), "/", nrow(sample), "\n") # Dovrebbe stampare 21 / 36
#> 21 / 36
# 4. Selezioniamo ora solo le coppie con somma dispari.
# %% è l’operatore "modulo": (i + j) %% 2 != 0 verifica se la somma è dispari.
sample_odd <- subset(sample, (i + j) %% 2 != 0)
nrow(sample_odd) # Dovrebbe essere 18
#> [1] 18
# 5. Calcoliamo quante coppie hanno somma minore di 8 tra quelle con somma dispari.
event_odd <- subset(sample_odd, i + j < 8)
cat(nrow(event_odd), "/", nrow(sample_odd), "\n") # Dovrebbe stampare 12 / 18
#> 12 / 18
Secondo la Equazione 29.3, se definiamo
-
\(A\) = “Somma < 8”
- \(B\) = “Somma dispari”,
allora \(P(A \cap B) = 12/36\) e \(P(B) = 18/36\). Di conseguenza,
\[ P(A \mid B) \;=\; \frac{P(A \cap B)}{P(B)} \;=\; \frac{12/36}{18/36} \;=\; \frac{12}{18} \;=\; 0{.}67. \]
Questo esempio dimostra come la probabilità condizionata consenta di aggiornare la stima di un evento alla luce di nuove informazioni.
Supponiamo di utilizzare un test diagnostico con le seguenti caratteristiche:
-
Sensibilità (probabilità di test positivo fra le donne malate): 90%.
-
Specificità (probabilità di test negativo fra le donne sane): 90%.
- Prevalenza (percentuale di donne effettivamente malate nella popolazione): 1%.
1. Esempio con 1000 donne.
Per semplificare i calcoli, immaginiamo di sottoporre a screening 1000 donne a caso:
-
Donne malate (1%): 10 su 1000.
- Con una sensibilità del 90%, circa 9 di queste 10 donne avranno un esito positivo al test (vere positive).
- Circa 1 donna avrà invece un risultato negativo (falso negativo).
- Con una sensibilità del 90%, circa 9 di queste 10 donne avranno un esito positivo al test (vere positive).
-
Donne sane (99%): 990 su 1000.
- Con una specificità del 90%, circa 891 di queste 990 risulteranno negative al test (vere negative).
- Le restanti 99 donne avranno un esito positivo (false positive).
- Con una specificità del 90%, circa 891 di queste 990 risulteranno negative al test (vere negative).
Questo ci permette di costruire uno schema riassuntivo (spesso rappresentato sotto forma di tabella o diagramma a blocchi):
-
positive: \(9\) (vere positive) + \(99\) (false positive) = 108,
- negative: \(1\) (falso negativo) + \(891\) (vero negativo) = 892.
2. Probabilità non condizionata di un test positivo.
La probabilità che una donna, scelta a caso, risulti positiva allo screening (indipendentemente dal fatto che sia malata o sana) si ottiene rapportando il numero di test positivi al totale:
\[ P(\text{Test positivo}) \;=\; \frac{108}{1000} \;=\; 0{.}108 \;\; (10{.}8\%). \]
Questa è una probabilità non condizionata, in quanto considera l’intera popolazione delle 1000 donne, senza ulteriori informazioni.
3. Probabilità condizionata di essere malate dato un test positivo.
Ci interessa ora sapere: Se una donna ha appena ricevuto un risultato positivo, qual è la probabilità che abbia davvero il cancro al seno?
Matematicamente, riformuliamo la domanda come:
\[
P(\text{Cancro} \mid \text{Test positivo}).
\]
Osservando il nostro esempio di 1000 donne:
- Abbiamo 108 test positivi in tutto.
- Solo 9 di questi test positivi provengono effettivamente da donne malate.
Pertanto,
\[ P(\text{Cancro} \mid \text{Test positivo}) \;=\; \frac{9}{108} \;=\; 0{.}083 \;\; (8{.}3\%). \]
Questa è una probabilità condizionata, poiché riguarda soltanto quelle donne già selezionate in base all’esito positivo del test.
4. Confronto fra probabilità non condizionata e condizionata.
-
Probabilità non condizionata (esito positivo): \(0{.}108\) (10.8%).
- Probabilità condizionata (avere un tumore, sapendo che il test è positivo): \(0{.}083\) (8.3%).
Notiamo come l’informazione aggiuntiva (“il test è risultato positivo”) riduca il numero di casi osservati, focalizzando l’attenzione su un sottoinsieme della popolazione. In altre parole, la conoscenza di un test positivo aggiorna la nostra stima della probabilità di avere la malattia, mostrandoci che, nonostante l’alta sensibilità e specificità, la maggior parte dei test positivi riguarda donne sane (false positive), a causa della bassa prevalenza (1%).
Questo esempio illustra in modo tangibile la distinzione fra:
-
probabilità non condizionata: la probabilità di un evento considerando l’intera popolazione,
- probabilità condizionata: la probabilità di un evento una volta appresa un’informazione aggiuntiva (qui, l’esito positivo del test).
Questa differenza è fondamentale nell’interpretazione dei test diagnostici, specialmente quando la malattia è relativamente rara.
Il problema di Monty Hall è un famoso quesito di teoria della probabilità che illustra in modo efficace il concetto di probabilità condizionata. Questo problema è diventato celebre grazie a una rubrica tenuta da Marilyn vos Savant nella rivista Parade, in cui rispose a una lettera pubblicata il 9 settembre 1990:
“Supponiamo di partecipare a un quiz televisivo e di dover scegliere tra tre porte. Dietro una di esse c’è un’auto, mentre dietro le altre due ci sono delle capre. Scegli una porta, ad esempio la numero 1, e il conduttore, che sa cosa c’è dietro ogni porta, ne apre un’altra, diciamo la numero 3, rivelando una capra. A questo punto, ti chiede se vuoi cambiare la tua scelta e passare alla porta numero 2. È vantaggioso cambiare porta?” Craig. F. Whitaker, Columbia, MD
La situazione descritta ricorda quella del popolare quiz televisivo degli anni ’70 Let’s Make a Deal, condotto da Monty Hall e Carol Merrill. Marilyn vos Savant rispose che il concorrente dovrebbe cambiare porta, poiché la probabilità di vincere l’auto raddoppia passando da 1/3 a 2/3. Tuttavia, la sua risposta suscitò un acceso dibattito, con molte persone, inclusi alcuni matematici, che sostenevano che cambiare porta non avrebbe offerto alcun vantaggio. Questo episodio ha reso il problema di Monty Hall uno dei più famosi esempi di come l’intuizione possa portare a conclusioni errate in ambito probabilistico.
Chiarire il Problema.
La lettera originale di Craig Whitaker è piuttosto vaga, quindi per analizzare il problema in modo rigoroso è necessario fare alcune ipotesi:
- Posizione dell’auto: L’auto è nascosta in modo casuale ed equiprobabile dietro una delle tre porte.
- Scelta iniziale del giocatore: Il giocatore sceglie una porta in modo casuale, indipendentemente dalla posizione dell’auto.
- Azione del conduttore: Dopo la scelta del giocatore, il conduttore apre una delle due porte rimanenti, rivelando una capra, e offre al giocatore la possibilità di cambiare porta.
- Scelta del conduttore: Se il conduttore ha la possibilità di scegliere tra due porte (entrambe con capre), ne apre una in modo casuale.
Con queste assunzioni, possiamo rispondere alla domanda: Qual è la probabilità che il giocatore vinca l’auto se decide di cambiare porta?
Di seguito, esploreremo tre metodi per risolvere il problema di Monty Hall: il diagramma ad albero, l’analisi delle probabilità e una simulazione.
Metodo 1: diagramma ad albero.
Il diagramma ad albero è uno strumento utile per visualizzare tutti i possibili esiti di un esperimento probabilistico. Nel caso del problema di Monty Hall, possiamo suddividere il processo in tre fasi:
- Posizione dell’auto: L’auto può trovarsi dietro una delle tre porte (A, B o C), ciascuna con probabilità 1/3.
- Scelta del giocatore: Il giocatore sceglie una porta in modo casuale, indipendentemente dalla posizione dell’auto.
- Azione del conduttore: Il conduttore apre una delle due porte rimanenti, rivelando una capra.
Il diagramma ad albero mostra tutte le possibili combinazioni di questi eventi. Ad esempio, se l’auto è dietro la porta A e il giocatore sceglie la porta B, il conduttore aprirà la porta C (l’unica porta rimanente con una capra).
Passo 1: Identificare lo spazio campionario
Lo spazio campionario è composto da 12 esiti possibili, rappresentati dalle combinazioni di:
- Posizione dell’auto (A, B, C).
- Scelta iniziale del giocatore (A, B, C).
- Porta aperta dal conduttore (una delle due rimanenti con una capra).
Ecco un diagramma ad albero che rappresenta questa situazione:

Passo 2: Definire l’evento di interesse
L’evento di interesse è “il giocatore vince cambiando porta”. Questo si verifica quando la porta inizialmente scelta dal giocatore non nasconde l’auto, e il giocatore decide di cambiare porta.
Gli esiti che soddisfano questa condizione sono:
(Auto A, Scelta B, Apertura C)
(Auto A, Scelta C, Apertura B)
(Auto B, Scelta A, Apertura C)
(Auto B, Scelta C, Apertura A)
(Auto C, Scelta A, Apertura B)
(Auto C, Scelta B, Apertura A)
Questi esiti sono in totale 6.
Passo 3: Calcolare le probabilità degli esiti
Ogni esito ha una probabilità specifica, calcolata moltiplicando le probabilità lungo il percorso nel diagramma ad albero.
Esempio di calcolo per l’esito (Auto A, Scelta B, Apertura C)
:
- La probabilità che l’auto sia dietro la porta A è \(\frac{1}{3}\).
- La probabilità che il giocatore scelga la porta B è \(\frac{1}{3}\).
- La probabilità che il conduttore apra la porta C (che contiene una capra) è \(1\) (poiché il conduttore deve aprire una porta con una capra, e la porta C è l’unica possibile).
La probabilità totale per questo esito è:
\[ P(\text{Auto A, Scelta B, Apertura C}) = \frac{1}{3} \times \frac{1}{3} \times 1 = \frac{1}{9}. \]
Procedendo in modo simile per tutti gli altri esiti, otteniamo le probabilità per tutti i 12 esiti.
Passo 4: Calcolare la probabilità dell’evento
La probabilità di vincere cambiando porta è la somma delle probabilità degli esiti favorevoli.
\[ \begin{aligned} P&(\text{vincere cambiando porta}) = \notag \\ &\quad P(\text{Auto A, Scelta B, Apertura C}) + P(\text{Auto A, Scelta C, Apertura B}) + \notag\\ &\quad P(\text{Auto B, Scelta A, Apertura C}) + \dots \notag \end{aligned} \]
\[ = \frac{1}{9} + \frac{1}{9} + \frac{1}{9} + \frac{1}{9} + \frac{1}{9} + \frac{1}{9} = \frac{6}{9} = \frac{2}{3}. \]
La probabilità di vincere mantenendo la scelta originale è il complemento:
\[ P(\text{vincere mantenendo la scelta}) = 1 - P(\text{vincere cambiando porta}) = 1 - \frac{2}{3} = \frac{1}{3}. \]
La conclusione è che il giocatore ha una probabilità di vincere pari a \(\frac{2}{3}\) se cambia porta, contro una probabilità di \(\frac{1}{3}\) se mantiene la sua scelta iniziale. Cambiare porta è quindi la strategia vincente.
Metodo 2: analisi delle probabilità.
Il problema di Monty Hall può essere chiarito analizzando i tre scenari possibili, immaginando di essere osservatori esterni che sanno cosa si nasconde dietro ogni porta:
-
Primo scenario:
- Il giocatore sceglie inizialmente la porta con una capra (chiamiamola “capra 1”).
- Il conduttore apre l’altra porta con la “capra 2”.
- Se il giocatore cambia porta, vince l’automobile.
- Il giocatore sceglie inizialmente la porta con una capra (chiamiamola “capra 1”).
-
Secondo scenario:
- Il giocatore sceglie inizialmente la porta con l’altra capra (“capra 2”).
- Il conduttore apre la porta con la “capra 1”.
- Se il giocatore cambia porta, vince l’automobile.
- Il giocatore sceglie inizialmente la porta con l’altra capra (“capra 2”).
-
Terzo scenario:
- Il giocatore sceglie inizialmente la porta con l’automobile.
- Il conduttore apre una delle due porte con una capra (non importa quale).
- Se il giocatore cambia porta, perde l’automobile.
- Il giocatore sceglie inizialmente la porta con l’automobile.
All’inizio del gioco, il giocatore ha:
-
1/3 di probabilità di scegliere l’automobile.
- 2/3 di probabilità di scegliere una capra.
Dopo la scelta iniziale, il conduttore apre una porta con una capra, ma questa azione non altera le probabilità iniziali. Il giocatore si trova quindi con due porte chiuse: quella scelta inizialmente e una rimanente.
- Se il giocatore ha scelto l’automobile inizialmente (1/3 di probabilità), cambiando porta perde.
- Se il giocatore ha scelto una capra inizialmente (2/3 di probabilità), cambiando porta vince l’automobile.
In sintesi, cambiando porta, il giocatore ha 2/3 di probabilità di vincere l’automobile, mentre mantenendo la scelta iniziale ha solo 1/3 di probabilità. Pertanto, la strategia migliore è cambiare porta per massimizzare le possibilità di vittoria.
Metodo 3: simulazione.
Per confermare il risultato, possiamo eseguire una simulazione. Ripetendo il gioco migliaia di volte, possiamo confrontare la frequenza con cui il giocatore vince cambiando porta rispetto a quando mantiene la scelta iniziale.
Ecco un esempio di codice in R per la simulazione:
# Numero di simulazioni da effettuare.
# Più è grande B, più precisa sarà la stima.
B <- 10000
# Definiamo una funzione "monty_hall" che
# a) simula un gioco
# b) restituisce TRUE/FALSE a seconda che il giocatore vinca l'auto o no.
monty_hall <- function(strategy){
# 1. Dichiariamo le porte possibili, in forma di stringhe.
doors <- c("1", "2", "3")
# 2. Stabiliamo dove si trova il premio (auto) e le capre.
# "prize" sarà un vettore con dentro "car" per la porta con l’auto
# e "goat" per quelle con la capra.
# La funzione sample() crea una distribuzione casuale di "car" e "goat".
prize <- sample(c("car", "goat", "goat"))
# 3. Troviamo qual è la porta che ha la macchina.
prize_door <- doors[ prize == "car" ]
# 4. Il giocatore fa la sua prima scelta, pescando a caso fra le 3 porte.
my_pick <- sample(doors, 1)
# 5. Il conduttore deve aprire una porta che:
# - non sia la mia (my_pick)
# - non abbia la macchina (prize_door)
# Così facendo, rivela una porta con la capra.
# Se ci sono due porte con capra, ne sceglie una a caso.
show <- sample(doors[!doors %in% c(my_pick, prize_door)], 1)
# 6. La strategia "stick" significa: RESTARE sulla scelta iniziale (my_pick).
# La strategia "switch" significa: CAMBIARE porta, passando a quella
# rimasta tra le due che NON sono state aperte.
stick <- my_pick
switch <- doors[!doors %in% c(my_pick, show)]
# 7. Se la strategia scelta (in input) è "stick", la mia scelta finale è "stick".
# Altrimenti, è "switch".
final_choice <- ifelse(strategy == "stick", stick, switch)
# 8. La funzione restituisce TRUE se la scelta finale coincide con la porta premiata,
# altrimenti FALSE.
return(final_choice == prize_door)
}
Nel codice qui sopra:
-
my_pick
è la porta che il giocatore sceglie subito. -
show
è la porta che il conduttore mostra, rivelando la capra. -
stick
rimane la scelta iniziale (quindi è my_pick). -
switch
è la porta che rimane fra le non aperte e non scelte inizialmente.
Al termine, la funzione monty_hall()
stabilisce se, con la strategia considerata, si vince (TRUE) o si perde (FALSE).
- La media di un vettore di
TRUE/FALSE
in R è pari alla frazione diTRUE
. - In questo modo,
mean(stick_results)
ci dice la probabilità di vincere restando sulla scelta iniziale. -
mean(switch_results)
ci dice la probabilità di vincere se si cambia sempre porta dopo l’intervento del conduttore.
Risultati attesi:
- Mantenere la Scelta Iniziale: La frequenza di vittoria dovrebbe essere circa 1/3 (33.3%).
- Cambiare Porta: La frequenza di vittoria dovrebbe essere circa 2/3 (66.6%).
La simulazione conferma che cambiare porta aumenta la probabilità di vincere da 1/3 a 2/3, dimostrando che la strategia ottimale nel problema di Monty Hall è quella di cambiare porta dopo che il conduttore ha rivelato una capra.
In sintesi, il problema di Monty Hall mette in luce come l’intuizione possa trarci in inganno quando ci confrontiamo con scenari probabilistici. Attraverso l’uso del diagramma ad albero, un’analisi delle probabilità e l’esecuzione di simulazioni, abbiamo dimostrato che cambiare porta raddoppia le possibilità di vincita, facendole passare da 1/3 a 2/3. Questo risultato, in apparente contrasto con ciò che potrebbe sembrare intuitivo, costituisce un esempio emblematico dell’importanza di adottare un approccio formale nella valutazione delle probabilità, anziché affidarsi esclusivamente a impressioni iniziali che spesso si rivelano fuorvianti.
Nel contesto della probabilità condizionata, un fenomeno particolarmente interessante e, al tempo stesso, controintuitivo è il paradosso di Simpson. Questo paradosso si verifica quando una tendenza osservata in diversi gruppi di dati separati scompare o addirittura si inverte una volta che i gruppi vengono combinati.
Il paradosso di Simpson evidenzia l’importanza di considerare le variabili confondenti e di analizzare i dati con grande attenzione per evitare di trarre conclusioni errate o fuorvianti. È un esempio emblematico di come l’interpretazione dei dati statistici richieda non solo strumenti matematici, ma anche una profonda comprensione del contesto e delle relazioni tra le variabili coinvolte.
Un caso storico di paradosso di Simpson riguarda l’applicazione della pena di morte negli Stati Uniti (Radelet & Pierce, 1991). Questo studio analizza 674 processi per omicidio in Florida tra il 1976 e il 1987, esaminando l’influenza della razza dell’imputato e della vittima sulla probabilità di ricevere la pena di morte. I dati riportano il numero di condannati alla pena di morte in base alla razza dell’imputato e della vittima:
Razza dell’imputato | Razza della vittima | Pena di morte | No pena di morte | Tasso di condanna |
---|---|---|---|---|
Bianco | Bianco | 19 | 132 | 19 / 151 ≈ 12.6% |
Bianco | Nero | 11 | 52 | 11 / 63 ≈ 17.5% |
Nero | Bianco | 6 | 37 | 6 / 43 ≈ 14.0% |
Nero | Nero | 1 | 9 | 1 / 10 = 10.0% |
Se analizziamo i dati separatamente per la razza della vittima, emerge che la probabilità di ricevere la pena di morte è più alta per gli imputati bianchi rispetto agli imputati neri, sia nei casi in cui la vittima era bianca (12.6% vs 14.0%) sia nei casi in cui la vittima era nera (17.5% vs 10.0%).
Tuttavia, quando i dati vengono aggregati senza tenere conto della razza della vittima, si osserva una tendenza opposta:
Razza dell’imputato | Pena di morte | No pena di morte | Tasso di condanna |
---|---|---|---|
Bianco | 30 | 184 | 30 / 214 ≈ 14.0% |
Nero | 7 | 46 | 7 / 53 ≈ 13.2% |
Aggregando i dati, sembra che gli imputati neri abbiano meno probabilità di ricevere la pena di morte rispetto agli imputati bianchi (13.2% vs 14.0%).
Questa apparente contraddizione è il risultato del paradosso di Simpson. La variabile confondente in questo caso è la razza della vittima: gli omicidi con vittime bianche avevano una probabilità molto più alta di portare alla pena di morte rispetto agli omicidi con vittime nere. Poiché gli imputati bianchi erano più spesso accusati di aver ucciso vittime bianche (per cui la probabilità di pena di morte era maggiore), il loro tasso di condanna complessivo risultava più alto. Viceversa, gli imputati neri erano più spesso accusati di aver ucciso vittime nere (per cui la probabilità di pena di morte era inferiore), abbassando il loro tasso di condanna complessivo.
Questo caso dimostra come l’aggregazione dei dati senza considerare una variabile confondente (in questo caso, la razza della vittima) possa portare a una conclusione errata e fuorviante. È essenziale analizzare i dati in modo stratificato per evitare interpretazioni distorte e per comprendere i reali meccanismi sottostanti un fenomeno.
29.5 Indipendenza e Probabilità Condizionata
L’indipendenza tra due eventi \(A\) e \(B\) può essere interpretata intuitivamente attraverso la probabilità condizionata. Due eventi sono indipendenti se il verificarsi di uno non influenza la probabilità di verificarsi dell’altro. In altre parole, conoscere che \(B\) è accaduto non modifica la probabilità di \(A\), e viceversa.
Questa relazione può essere formalizzata con le seguenti equazioni:
\[ P(A \mid B) = \frac{P(A \cap B)}{P(B)} = P(A), \]
\[ P(B \mid A) = \frac{P(A \cap B)}{P(A)} = P(B). \]
Pertanto, \(A\) e \(B\) sono indipendenti se e solo se:
\[ P(A \mid B) = P(A), \]
\[ P(B \mid A) = P(B). \]
Queste condizioni significano che la probabilità di \(A\) non cambia, indipendentemente dal fatto che \(B\) sia accaduto, e lo stesso vale per \(B\).
29.5.1 Indipendenza di Tre Eventi
La definizione di indipendenza si estende naturalmente a tre eventi \(A\), \(B\), e \(C\), ma con condizioni aggiuntive. Tre eventi sono indipendenti se:
-
Ogni coppia di eventi è indipendente:
\[ \begin{align} P(A \cap B) &= P(A) P(B), \\ P(A \cap C) &= P(A) P(C), \\ P(B \cap C) &= P(B) P(C). \end{align} \]
-
La probabilità congiunta di tutti e tre gli eventi è uguale al prodotto delle loro probabilità individuali:
\[ P(A \cap B \cap C) = P(A) P(B) P(C). \]
Le prime tre condizioni verificano l’indipendenza a coppie (indipendenza a due a due), mentre l’ultima condizione garantisce che i tre eventi siano completamente indipendenti. È importante notare che l’indipendenza a due a due non implica necessariamente l’indipendenza completa: per essere indipendenti nel senso completo, tutte e quattro le condizioni devono essere soddisfatte.
In sintesi, l’indipendenza tra eventi implica che il verificarsi di uno di essi non fornisce alcuna informazione sulla probabilità del verificarsi degli altri. Nel caso di due eventi, questa proprietà si traduce nell’invarianza della probabilità condizionata. Per tre o più eventi, l’indipendenza richiede sia l’indipendenza a coppie sia la condizione più forte sull’intersezione di tutti gli eventi.
Questi concetti sono fondamentali nella probabilità e nella statistica, poiché semplificano molti calcoli e forniscono una base per modelli più complessi.
Esempio 29.6 Indipendenza tra Eventi in un Mazzo di Carte
Scenario 1: Mazzo Completo (52 Carte)
Consideriamo un mazzo standard di 52 carte. Ogni seme (picche, cuori, quadri, fiori) contiene 13 carte, e nel mazzo ci sono 4 Regine in totale. Definiamo i seguenti eventi:
-
\(A\) = “Pescare una carta di picche”,
- \(B\) = “Pescare una carta Regina”.
Probabilità di \(A\). Poiché ci sono 13 picche in un mazzo di 52 carte, \[ P(A) = \frac{13}{52} = \frac{1}{4}. \]
Probabilità di \(B\). Ci sono 4 Regine su 52 carte, quindi \[ P(B) = \frac{4}{52} = \frac{1}{13}. \]
Probabilità congiunta \(P(A \cap B)\). L’unica carta che è contemporaneamente “picche” e “Regina” è la Regina di picche, perciò: \[ P(A \cap B) = \frac{1}{52}. \]
Per verificare l’indipendenza di \(A\) e \(B\), confrontiamo \(P(A \cap B)\) con \(P(A)\,P(B)\):
\[ P(A)\,P(B) = \frac{1}{4} \times \frac{1}{13} = \frac{1}{52}, \] \[ P(A \cap B) = \frac{1}{52}. \]
Poiché \(P(A \cap B) = P(A)\,P(B)\), i due eventi sono indipendenti quando il mazzo è completo.
Scenario 2: Mazzo Ridotto (51 Carte)
Ora rimuoviamo una carta qualunque dal mazzo — ad esempio il “2 di quadri” — portando il totale a 51 carte. Notiamo che la Regina di picche non è stata rimossa, ma il cambio di composizione potrebbe comunque influire sulle probabilità.
Probabilità di \(A \cap B\). Poiché la Regina di picche è ancora presente, pescare quella carta specifica ha ora probabilità \[ P(A \cap B) = \frac{1}{51}. \]
Probabilità di \(A\). Il seme di picche non è stato modificato (restano 13 picche), ma il denominatore è passato a 51 carte: \[ P(A) = \frac{13}{51}. \]
Probabilità di \(B\). Nel mazzo restano ancora 4 Regine (nessuna è stata rimossa), su 51 carte totali: \[ P(B) = \frac{4}{51}. \]
Prodotto \(P(A)\,P(B)\). Calcolando: \[ P(A)\,P(B) = \frac{13}{51} \times \frac{4}{51} = \frac{52}{2601}. \]
Confrontando:
\[ P(A \cap B) = \frac{1}{51}, \quad\text{mentre}\quad P(A)\,P(B) = \frac{52}{2601}. \]
Si verifica che
\[ \frac{1}{51} \;\neq\; \frac{52}{2601}. \]
Pertanto, \(A\) e \(B\) non sono più indipendenti nel mazzo ridotto.
In sintesi, questo esempio mostra come l’indipendenza tra due eventi dipenda dal contesto:
- con un mazzo completo (52 carte), “pescare picche” e “pescare una Regina” sono eventi indipendenti;
- basta rimuovere una carta qualunque (anche non correlata direttamente a “picche” o “Regine”) perché le probabilità cambino e gli stessi eventi cessino di essere indipendenti.
In altre parole, ogni modifica alla composizione del mazzo può influire sulle probabilità dei singoli eventi e, di conseguenza, sulle loro relazioni di dipendenza o indipendenza.
29.6 Teorema del Prodotto
A partire dalla definizione di probabilità condizionata, possiamo derivare quello che viene chiamato Teorema del Prodotto, noto anche come teorema della probabilità composta, regola moltiplicativa o regola della catena. Questo risultato permette di esprimere la probabilità congiunta di due o più eventi come il prodotto di probabilità condizionate.
29.6.1 Caso di Due Eventi
Per due eventi \(A\) e \(B\), il Teorema del Prodotto asserisce che:
\[ P(A \cap B) \;=\; P(B) \,\cdot\, P(A \mid B) \;=\; P(A) \,\cdot\, P(B \mid A). \tag{29.4}\]
In altre parole, la probabilità che \(A\) e \(B\) si verifichino contemporaneamente può essere calcolata in due modi equivalenti:
- primo modo: prendi la probabilità di \(B\), quindi moltiplicala per la probabilità di \(A\), sapendo già che \(B\) è accaduto;
- secondo modo: prendi la probabilità di \(A\), quindi moltiplicala per la probabilità di \(B\), sapendo già che \(A\) è accaduto.
L’ordine degli eventi in cui si applica la condizione è arbitrario, a patto di rispettare la formula e scegliere la condizione corrispondente.
29.6.2 Generalizzazione a \(n\) Eventi
Il Teorema del Prodotto si estende naturalmente al caso di più di due eventi. Se consideriamo \(n\) eventi \(A_1, A_2, \dots, A_n\), e assumiamo che
\[ P(A_1 \cap A_2 \cap \cdots \cap A_{n-1}) \;>\; 0, \]
allora la probabilità che tutti questi eventi si verifichino è data da:
\[ \begin{aligned} P(A_1 \,\cap\, A_2 \,\cap\, \cdots \,\cap\, A_n) &= P(A_1) \;\times\; P(A_2 \mid A_1) \;\times\; P(A_3 \mid A_1 \cap A_2) \;\times\; \cdots \\ &\quad \cdots \times\; P(A_n \mid A_1 \cap A_2 \cap \cdots \cap A_{n-1}). \end{aligned} \tag{29.5}\]
In pratica, ciascun fattore si ottiene considerando la probabilità dell’evento successivo, condizionata sul verificarsi di tutti gli eventi precedenti. Questa formulazione è cruciale, ad esempio, nelle analisi di sequenze di eventi o in modelli statistici in cui le probabilità vengono “aggiornate” gradualmente mano a mano che si verificano nuove condizioni.
Il Teorema del Prodotto rappresenta uno dei fondamenti teorici più importanti della probabilità e trova applicazioni in numerosi contesti, quali:
- la modellazione di processi sequenziali o temporali;
- la scomposizione di problemi complessi in calcoli più semplici e gestibili;
- la teoria delle reti bayesiane e l’analisi della probabilità condizionata.
Grazie a questo teorema, è possibile affrontare problemi complessi suddividendoli in passaggi progressivi, in cui ogni probabilità condizionata contribuisce alla costruzione della soluzione complessiva in maniera sistematica.
29.6.2.1 Procedura di calcolo
Per applicare la regola:
-
parti dal primo evento: usa la probabilità incondizionata \(P(A_1)\);
- condiziona progressivamente: moltiplica per \(P(A_2 \mid A_1)\), poi per \(P(A_3 \mid A_1 \cap A_2)\), e così via;
- termina con l’ultimo evento: includi \(P(A_n \mid A_1 \cap \cdots \cap A_{n-1})\).
Esempio 29.7 Da un’urna contenente 6 palline bianche e 4 nere si estrae una pallina per volta, senza reintrodurla nell’urna. Indichiamo con \(B_i\) l’evento: “esce una pallina bianca alla \(i\)-esima estrazione” e con \(N_i\) l’estrazione di una pallina nera. L’evento: “escono due palline bianche nelle prime due estrazioni” è rappresentato dalla intersezione \(\{B_1 \cap B_2\}\) e, per l’Equazione 29.4, la sua probabilità vale
\[ P(B_1 \cap B_2) = P(B_1)P(B_2 \mid B_1). \]
\(P(B_1)\) vale 6/10, perché nella prima estrazione \(\Omega\) è costituito da 10 elementi: 6 palline bianche e 4 nere. La probabilità condizionata \(P(B_2 \mid B_1)\) vale 5/9, perché nella seconda estrazione, se è verificato l’evento \(B_1\), lo spazio campionario consiste di 5 palline bianche e 4 nere. Si ricava pertanto:
\[ P(B_1 \cap B_2) = \frac{6}{10} \cdot \frac{5}{9} = \frac{1}{3}. \]
In modo analogo si ha che
\[ P(N_1 \cap N_2) = P(N_1)P(N_2 \mid N_1) = \frac{4}{10} \cdot \frac{3}{9} = \frac{4}{30}. \]
Se l’esperimento consiste nell’estrazione successiva di 3 palline, la probabilità che queste siano tutte bianche, per l’Equazione 29.5, vale
\[ \begin{aligned} P(B_1 \cap B_2 \cap B_3) &=P(B_1)P(B_2 \mid B_1)P(B_3 \mid B_1 \cap B_2) \notag\\ &=\frac{6}{10}\cdot\frac{5}{9} \cdot\frac{4}{8} \notag\\ &= \frac{1}{6}. \end{aligned} \]
La probabilità dell’estrazione di tre palline nere è invece:
\[ \begin{aligned} P(N_1 \cap N_2 \cap N_3) &= P(N_1)P(N_2 \mid N_1)P(N_3 \mid N_1 \cap N_2)\notag\\ &= \frac{4}{10} \cdot \frac{3}{9} \cdot \frac{2}{8} \notag\\ &= \frac{1}{30}.\notag \end{aligned} \]
29.7 Teorema della Probabilità Totale
Il Teorema della Probabilità Totale — anche detto legge della probabilità totale — permette di calcolare la probabilità di un evento \(A\) scomponendola rispetto a una partizione di sottoinsiemi che coprono l’intero spazio campionario. È particolarmente utile quando si affrontano situazioni con più scenari, categorie o gruppi nei quali ripartire il calcolo di probabilità.
29.7.1 Enunciato Generale
Definizione 29.3 Supponiamo che lo spazio campionario \(\Omega\) sia suddiviso in una partizione di eventi \(B_1, B_2, \dots, B_n\), ossia:
-
mutua esclusività: \(B_i \cap B_j = \varnothing\) per \(i \neq j\);
- copertura totale: \(\bigcup_{i=1}^n B_i = \Omega\).
Allora, per un qualsiasi evento \(A \subseteq \Omega\) vale:
\[ P(A) \;=\; \sum_{i=1}^n P(A \cap B_i) \;=\; \sum_{i=1}^n P(A \mid B_i)\, P(B_i). \tag{29.6}\]
In altre parole, \(P(A)\) può essere visto come una media pesata delle probabilità condizionate \(P(A \mid B_i)\), con pesi \(P(B_i)\).
29.7.2 Caso di Due Partizioni
Quando lo spazio campionario è ripartito in due soli eventi, \(B\) e il suo complementare \(B^c\), la formula si semplifica in:
\[ \begin{aligned} P(A) &= P(A \cap B) + P(A \cap B^c) \\ &= P(A \mid B)\,P(B) \;+\; P(A \mid B^c)\,P(B^c). \end{aligned} \tag{29.7}\]
Esempio 29.8 Test medico
Abbiamo:
- \(B\): “Una persona è malata”;
-
\(B^c\): “Una persona è sana”;
- \(A\): “Test positivo”.
Secondo il Teorema della Probabilità Totale, la probabilità di un risultato positivo si ottiene sommando:
\[ P(A) = P(\text{Positivo} \mid \text{Malato}) \,P(\text{Malato}) \;+\; P(\text{Positivo} \mid \text{Sano}) \,P(\text{Sano}). \]
29.7.3 Applicazioni Principali
Analisi per Categorie
Quando la popolazione è divisa in gruppi \(B_1, \dots, B_n\) (ad esempio, fasce d’età o regioni), la probabilità di un evento \(A\) si ottiene sommando le probabilità di \(A\) condizionate a ciascun gruppo, moltiplicate per la frequenza di quel gruppo.Teorema di Bayes
Il denominatore della formula di Bayes è la somma \(\sum_{j=1}^n P(E \mid H_j)\,P(H_j)\), che è appunto un’applicazione della probabilità totale. Qui, \(H_1, \dots, H_n\) rappresentano ipotesi alternative (partizione) e \(E\) un dato osservato.
Esempio 29.9 Urne con Palline di Colori Diversi
Abbiamo 3 urne, ciascuna con 100 palline:
- Urna 1: 75 rosse, 25 blu
- Urna 2: 60 rosse, 40 blu
- Urna 3: 45 rosse, 55 blu
L’urna viene scelta a caso (probabilità \(1/3\) per ciascuna). Qual è la probabilità di estrarre una pallina rossa?
Definisco:
-
\(R\): “Estraggo una pallina rossa”;
- \(U_i\): “Seleziono l’Urna \(i\)”.
Le urne \(U_1, U_2, U_3\) costituiscono una partizione (disgiunte e coprenti \(\Omega\)). Sappiamo:
\[ P(R \mid U_1)=0.75, \quad P(R \mid U_2)=0.60, \quad P(R \mid U_3)=0.45. \]
Applicando la probabilità totale:
\[ \begin{aligned} P(R) &= P(R \mid U_1)\,P(U_1) + P(R \mid U_2)\,P(U_2) + P(R \mid U_3)\,P(U_3)\\ &= 0.75 \times \tfrac13 + 0.60 \times \tfrac13 + 0.45 \times \tfrac13 = 0.60. \end{aligned} \]
Esempio 29.10 Probabilità della Depressione in Diverse Fasce d’Età
Una popolazione è suddivisa in 3 gruppi:
- giovani (30%),
- adulti (40%),
- anziani (30%).
Le probabilità condizionate di soffrire di depressione sono:
\[ P(D \mid \text{Giovane}) = 0.10, \quad P(D \mid \text{Adulto}) = 0.20, \quad P(D \mid \text{Anziano}) = 0.35. \]
Usando la probabilità totale:
\[ P(D) = 0.10\times0.30 + 0.20\times0.40 + 0.35\times0.30 = 0.215. \]
Dunque, circa il 21.5% della popolazione totale soffre di depressione, combinando i tassi per ciascuna fascia.
In breve, il Teorema della Probabilità Totale “scompone” un problema globale in sotto-problemi più specifici, ciascuno condizionato su una porzione dello spazio campionario, permettendo di sommare i risultati finali per ottenere \(P(A)\).
29.8 Riflessioni Conclusive
La probabilità condizionata è uno dei concetti più importanti in statistica, poiché fornisce il quadro teorico per:
- comprendere e formalizzare l’indipendenza tra eventi o variabili (assenza di ogni tipo di relazione);
- espandere e generalizzare il calcolo delle probabilità (ad esempio, la legge della probabilità totale, che scompone in modo sistematico eventi complessi);
- alimentare metodi inferenziali avanzati, come il Teorema di Bayes.
In particolare, il Teorema di Bayes rappresenta uno strumento cardine dell’inferenza statistica: grazie alla probabilità condizionata, è possibile “aggiornare” in modo continuo le credenze sulle ipotesi (o sui parametri di un modello) alla luce di nuove osservazioni. Tale caratteristica di “apprendimento” graduale rende l’inferenza bayesiana flessibile e potente, ideale per affrontare situazioni in cui vengono resi disponibili dati aggiuntivi o in cui le condizioni iniziali possono cambiare.
In definitiva, la probabilità condizionata non solo chiarisce la nozione di indipendenza e getta le fondamenta di metodi inferenziali evoluti, ma soprattutto rappresenta il “motore” di modelli che si adattano dinamicamente alle nuove informazioni. Questa prospettiva “attiva” nell’aggiornamento delle probabilità è ciò che rende l’analisi statistica uno strumento versatile per descrivere e interpretare il mondo reale.
29.9 Esercizi
Esercizio 1: Soddisfazione con la Vita e Stress Accademico
Un gruppo di studenti ha compilato la Satisfaction with Life Scale (SWLS) e un questionario sullo stress accademico. Dai dati raccolti emerge che:
- Il 40% degli studenti ha riportato un alto livello di stress accademico.
- Il 60% degli studenti ha riportato un basso livello di stress accademico.
- Tra gli studenti con alto stress, il 30% ha riportato una soddisfazione con la vita elevata.
- Tra gli studenti con basso stress, il 70% ha riportato una soddisfazione con la vita elevata.
Calcola la probabilità che uno studente scelto a caso abbia:
- Un alto livello di stress e una soddisfazione elevata.
- Una soddisfazione elevata.
- Un alto livello di stress, dato che ha una soddisfazione elevata.
Esercizio 2: Studio del Paradosso di Simpson
Un’università vuole valutare la relazione tra la frequenza di partecipazione alle lezioni e il successo negli esami finali. I dati raccolti mostrano che:
Gruppo | Studenti con alta frequenza | Superano l’esame | Non superano l’esame |
---|---|---|---|
A | 40 | 30 | 10 |
B | 60 | 20 | 40 |
- Calcola la probabilità di superare l’esame per ciascun gruppo separatamente.
- Calcola la probabilità totale di superare l’esame.
- Spiega se il Paradosso di Simpson si manifesta in questi dati.
Esercizio 3: Il Problema di Monty Hall
In un quiz televisivo, un concorrente deve scegliere tra tre porte: dietro una c’è un’auto e dietro le altre due ci sono capre. Dopo la scelta iniziale, il conduttore, che sa cosa c’è dietro ogni porta, apre una delle due porte rimanenti rivelando una capra. Il concorrente ha ora la possibilità di cambiare la sua scelta.
- Qual è la probabilità di vincere l’auto se il concorrente non cambia la sua scelta?
- Qual è la probabilità di vincere l’auto se il concorrente cambia la sua scelta?
- Spiega perché cambiare porta è la strategia migliore.
Esercizio 4: Teorema della Probabilità Totale
Un’università ha tre dipartimenti: Psicologia, Economia e Ingegneria. Le proporzioni di studenti iscritti sono:
- Psicologia: 40%
- Economia: 35%
- Ingegneria: 25%
La probabilità di laurearsi in tempo varia per ogni dipartimento:
- Psicologia: 70%
- Economia: 60%
- Ingegneria: 80%
Calcola la probabilità che uno studente scelto a caso si laurei in tempo.
Esercizio 5: Urne e Palline
Un’urna contiene 5 palline rosse e 7 blu. Si estrae una pallina, si osserva il colore e poi la pallina viene rimessa nell’urna. Quindi si estrae una seconda pallina.
- Qual è la probabilità di estrarre due palline rosse?
- Qual è la probabilità di estrarre almeno una pallina blu?
- Qual è la probabilità di estrarre una pallina rossa alla seconda estrazione, dato che la prima estratta era blu?
Esercizio 1: Soddisfazione con la Vita e Stress Accademico
-
La probabilità che uno studente abbia alto stress e soddisfazione elevata si calcola moltiplicando la probabilità condizionata di avere soddisfazione elevata dato l’alto stress per la probabilità di avere alto stress:
\[ P(S \cap V) = P(V | S) P(S) = 0.30 \times 0.40 = 0.12. \]
-
La probabilità che uno studente abbia una soddisfazione elevata, indipendentemente dal livello di stress, si ottiene applicando la legge della probabilità totale:
\[ P(V) = P(V | S) P(S) + P(V | \neg S) P(\neg S) \]
\[ = (0.30 \times 0.40) + (0.70 \times 0.60) = 0.12 + 0.42 = 0.54. \]
-
La probabilità che uno studente abbia alto stress sapendo che ha una soddisfazione elevata si calcola utilizzando la formula della probabilità condizionata:
\[ P(S | V) = \frac{P(S \cap V)}{P(V)} = \frac{0.12}{0.54} \approx 0.22. \]
Esercizio 2: Studio del Paradosso di Simpson
- \(P(E | A) = \frac{30}{40} = 0.75\), \(P(E | B) = \frac{20}{60} = 0.33\)
- \(P(E) = P(E | A) P(A) + P(E | B) P(B) = (0.75 \times 0.40) + (0.33 \times 0.60) = 0.30 + 0.198 = 0.498\)
- Se i tassi di successo aggregati mostrano una relazione invertita, il Paradosso di Simpson si manifesta.
Esercizio 3: Il Problema di Monty Hall
- \(P(V | S) = \frac{1}{3}\)
- \(P(V | C) = \frac{2}{3}\)
- Cambiare porta aumenta le probabilità di vincita da \(1/3\) a \(2/3\), quindi conviene sempre cambiare.
Esercizio 4: Teorema della Probabilità Totale
\(P(L) = (0.70 \times 0.40) + (0.60 \times 0.35) + (0.80 \times 0.25) = 0.28 + 0.21 + 0.20 = 0.69\)
Esercizio 5: Urne e Palline
- \(P(R_1 \cap R_2) = (5/12) \times (5/12) = 25/144\)
- \(1 - P(R_1 \cap R_2) = 1 - 25/144 = 119/144\)
- \(P(R_2 | B_1) = 5/12\)
Informazioni sull’Ambiente di Sviluppo
sessionInfo()
#> R version 4.4.2 (2024-10-31)
#> Platform: aarch64-apple-darwin20
#> Running under: macOS Sequoia 15.3.2
#>
#> Matrix products: default
#> BLAS: /Library/Frameworks/R.framework/Versions/4.4-arm64/Resources/lib/libRblas.0.dylib
#> LAPACK: /Library/Frameworks/R.framework/Versions/4.4-arm64/Resources/lib/libRlapack.dylib; LAPACK version 3.12.0
#>
#> locale:
#> [1] C/UTF-8/C/C/C/C
#>
#> time zone: Europe/Rome
#> tzcode source: internal
#>
#> attached base packages:
#> [1] stats graphics grDevices utils datasets methods base
#>
#> other attached packages:
#> [1] thematic_0.1.6 MetBrewer_0.2.0 ggokabeito_0.1.0 see_0.11.0
#> [5] gridExtra_2.3 patchwork_1.3.0 bayesplot_1.11.1 psych_2.5.3
#> [9] scales_1.3.0 markdown_2.0 knitr_1.50 lubridate_1.9.4
#> [13] forcats_1.0.0 stringr_1.5.1 dplyr_1.1.4 purrr_1.0.4
#> [17] readr_2.1.5 tidyr_1.3.1 tibble_3.2.1 ggplot2_3.5.1
#> [21] tidyverse_2.0.0 rio_1.2.3 here_1.0.1
#>
#> loaded via a namespace (and not attached):
#> [1] generics_0.1.3 stringi_1.8.4 lattice_0.22-6 hms_1.1.3
#> [5] digest_0.6.37 magrittr_2.0.3 evaluate_1.0.3 grid_4.4.2
#> [9] timechange_0.3.0 fastmap_1.2.0 rprojroot_2.0.4 jsonlite_1.9.1
#> [13] mnormt_2.1.1 cli_3.6.4 rlang_1.1.5 munsell_0.5.1
#> [17] withr_3.0.2 tools_4.4.2 parallel_4.4.2 tzdb_0.5.0
#> [21] colorspace_2.1-1 pacman_0.5.1 vctrs_0.6.5 R6_2.6.1
#> [25] lifecycle_1.0.4 htmlwidgets_1.6.4 pkgconfig_2.0.3 pillar_1.10.1
#> [29] gtable_0.3.6 glue_1.8.0 xfun_0.51 tidyselect_1.2.1
#> [33] rstudioapi_0.17.1 farver_2.1.2 htmltools_0.5.8.1 nlme_3.1-167
#> [37] rmarkdown_2.29 compiler_4.4.2