36 Covarianza e correlazione
- definire e calcolare la covarianza per quantificare la relazione lineare tra due variabili casuali.
- utilizzare la correlazione per misurare l’intensità della relazione lineare tra variabili casuali, indipendentemente dalle loro unità di misura.
- comprendere le proprietà chiave della covarianza e della correlazione, inclusa l’incorrelazione.
- estendere i concetti di probabilità congiunta, marginale e condizionale alle variabili continue, utilizzando gli integrali.
- Leggere il capitolo Joint Distributions (Chan & Kroese, 2025).
- Leggere il capitolo Joint Distributions (Blitzstein & Hwang, 2019).
36.1 Introduzione
Quando due variabili casuali non sono indipendenti, diciamo che esse sono associate o dipendenti. È importante non solo stabilire se tale relazione esista, ma anche quantificare la sua intensità e la sua direzione. A tal fine, utilizziamo due misure chiave: la covarianza e la correlazione.
36.2 Covarianza
La covarianza misura il grado e la direzione della relazione lineare tra due variabili casuali. Una covarianza positiva indica che le due variabili tendono ad aumentare o diminuire insieme, mentre una covarianza negativa indica che una variabile tende ad aumentare quando l’altra diminuisce.
36.2.1 Definizione di Covarianza
La covarianza tra due variabili casuali discrete \(X\) e \(Y\) è definita come:
\[ \text{Cov}(X, Y) = \mathbb{E}\left[(X - \mathbb{E}[X])(Y - \mathbb{E}[Y])\right] . \]
Esplicitamente, questa definizione può essere riscritta come:
\[ \text{Cov}(X, Y) = \sum_{x}\sum_{y}(x - \mu_X)(y - \mu_Y)p(x, y) . \]
dove \(\mu_X\) e \(\mu_Y\) sono le medie delle variabili \(X\) e \(Y\) e \(p(x,y)\) è la funzione di massa di probabilità congiunta.
Questa definizione mostra una stretta analogia con la varianza, che è la covarianza di una variabile con se stessa:
\[ \mathbb{V}(X) = Cov(X, X). \]
Inoltre, la covarianza può essere calcolata attraverso la relazione:
\[ Cov(X, Y) = \mathbb{E}(XY) - \mathbb{E}(X)\mathbb{E}(Y). \]
36.2.2 Dimostrazione
La formula alternativa per la covarianza si dimostra come segue.
Per definizione, la covarianza tra due variabili casuali \(X\) e \(Y\) è:
\[ \mathrm{Cov}(X, Y) \;=\; \mathbb{E}\Bigl[\bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr)\Bigr]. \]
Questa è semplicemente la definizione formale, in cui consideriamo la “deviazione” di \(X\) dal proprio valor medio (\(\mathbb{E}[X]\)) e la “deviazione” di \(Y\) dal proprio valor medio (\(\mathbb{E}[Y]\)), e ne calcoliamo l’aspettativa del prodotto.
Consideriamo l’argomento dell’aspettativa: \(\bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr)\).
Per prima cosa espandiamo il prodotto come faremmo con normali variabili algebriche:
\[ \bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr) = X\,Y \;-\; X\,\mathbb{E}[Y] \;-\; \mathbb{E}[X]\,Y \;+\; \mathbb{E}[X]\mathbb{E}[Y]. \]
Adesso prendiamo l’aspettativa (o valore atteso) di ciascun termine che abbiamo ottenuto. Indichiamo con \(\mathbb{E}\) l’operatore di aspettativa:
\[ \mathbb{E}\Bigl[\bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr)\Bigr] = \mathbb{E}[\,X\,Y \;-\; X\,\mathbb{E}[Y] \;-\; \mathbb{E}[X]\,Y \;+\; \mathbb{E}[X]\mathbb{E}[Y]\,]. \]
Grazie alla linearità dell’aspettativa, possiamo scindere questa grande aspettativa in una somma (e differenza) di aspettative di singoli termini:
\[ = \mathbb{E}[XY] \;-\; \mathbb{E}[X\,\mathbb{E}[Y]] \;-\; \mathbb{E}[\mathbb{E}[X]\,Y] \;+\; \mathbb{E}[\mathbb{E}[X]\mathbb{E}[Y]]. \]
Ricordiamo che \(\mathbb{E}[X]\) e \(\mathbb{E}[Y]\) sono numeri (costanti) e non variabili casuali. Dunque, quando nell’aspettativa compare un fattore costante, possiamo estrarlo fuori dall’operatore \(\mathbb{E}[\cdot]\).
\(\mathbb{E}[X\,\mathbb{E}[Y]]\) si semplifica in \(\mathbb{E}[Y]\cdot \mathbb{E}[X]\) perché \(\mathbb{E}[Y]\) è una costante. In formula: \[ \mathbb{E}[X\,\mathbb{E}[Y]] = \mathbb{E}[Y] \,\mathbb{E}[X]. \]
Allo stesso modo, \(\mathbb{E}[\mathbb{E}[X]\,Y]\) si semplifica in \(\mathbb{E}[X]\cdot \mathbb{E}[Y]\).
Infine, \(\mathbb{E}[\mathbb{E}[X]\mathbb{E}[Y]]\) è \(\mathbb{E}[X]\mathbb{E}[Y]\) in quanto \(\mathbb{E}[X]\mathbb{E}[Y]\) è già una costante.
Usando queste regole, riscriviamo i termini:
\[ \mathbb{E}[XY] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;+\; \mathbb{E}[X]\mathbb{E}[Y]. \]
Osserviamo i termini rimanenti:
\[ \mathbb{E}[XY] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;+\; \mathbb{E}[X]\mathbb{E}[Y]. \]
- Il termine \(\mathbb{E}[X]\mathbb{E}[Y]\) compare due volte in negativo (\(-\,\mathbb{E}[X]\mathbb{E}[Y]\)) e una volta in positivo (\(+\,\mathbb{E}[X]\mathbb{E}[Y]\)).
- Facendo la somma algebrica, ne rimane solo \(-\,\mathbb{E}[X]\mathbb{E}[Y]\) (perché \(-\,1 -\,1 +\,1 = -\,1\)).
Quindi il risultato è:
\[ \mathbb{E}[XY] \;-\; \mathbb{E}[X]\mathbb{E}[Y]. \]
Abbiamo quindi dimostrato in maniera esplicita che:
\[ \mathrm{Cov}(X, Y) = \mathbb{E}\bigl[(X - \mathbb{E}[X]) (Y - \mathbb{E}[Y])\bigr] = \mathbb{E}[XY] - \mathbb{E}[X]\mathbb{E}[Y]. \]
36.2.3 Esempio Psicologico: Covarianza tra Ansia e Prestazione Cognitiva
Riprendendo i dati del capitolo precedente sulla relazione tra ansia (Y) e prestazione cognitiva (X), calcoliamo ora la covarianza.
Medie marginali:
- Prestazione cognitiva \(X\):
\[\mathbb{E}(X)=0\times0.30 + 1\times0.45 + 2\times0.25=0.95\] - Ansia \(Y\):
\[\mathbb{E}(Y)=0\times0.30 + 1\times0.40 + 2\times0.30=1.00\]
Calcoliamo \(\mathbb{E}(XY)\):
\[ \begin{align} \mathbb{E}(XY) &= (0\times0\times0.05)+(0\times1\times0.10)+(0\times2\times0.15)+ \notag\\ & \quad (1\times0\times0.15)+(1\times1\times0.20)+(1\times2\times0.10)+ \notag\\ & \quad(2\times0\times0.10)+(2\times1\times0.10)+(2\times2\times0.05) \end{align} \]
Simplificando:
\[\mathbb{E}(XY)=0.00+0.00+0.00+0.00+0.20+0.20+0.00+0.20+0.20=0.80\]
Quindi, la covarianza sarà:
\[\text{Cov}(X,Y)=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)=0.80-(0.95\times1.00)=-0.15\]
La covarianza negativa indica che all’aumentare del livello di ansia tende a corrispondere una diminuzione della prestazione cognitiva, coerentemente con quanto spesso riscontrato nella letteratura psicologica.
36.3 Correlazione
La correlazione standardizza la covarianza, rendendola indipendente dalle unità di misura delle variabili. Essa varia tra -1 e 1 ed è definita come:
\[ \rho(X,Y)=\frac{\text{Cov}(X,Y)}{\sqrt{\text{Var}(X)\text{Var}(Y)}} . \]
dove \(\mathbb{V}(X)\) e \(\mathbb{V}(Y)\) rappresentano le varianze di \(X\) e \(Y\), rispettivamente.
Il coefficiente di correlazione \(\rho_{xy}\) è un valore adimensionale, ovvero non dipende dalle unità di misura delle variabili, e varia nell’intervallo \(-1 \leq \rho \leq 1\).
36.3.1 Calcolo della Correlazione
Per calcolare la correlazione tra ansia e prestazione cognitiva, dobbiamo prima ottenere le varianze di ciascuna variabile.
- Varianza di X (prestazione cognitiva):
\[ \begin{align} \text{Var}(X) &=\sum_{x}(x-\mu_X)^2p(x) \notag\\ &= (0-0.95)^2\times0.30+(1-0.95)^2\times0.45+(2-0.95)^2\times0.25=0.5475 \notag \end{align} \]
- Varianza di Y (ansia):
\[ \begin{align} \text{Var}(Y) &=\sum_{y}(y-\mu_Y)^2p(y) \notag\\ &= (0-1.00)^2\times0.30+(1-1.00)^2\times0.40+(2-1.00)^2\times0.30=0.60 \notag \end{align} \]
Quindi, il coefficiente di correlazione è:
\[ \rho(X,Y)=\frac{-0.15}{\sqrt{0.5475\times0.60}}=-0.261 \]
Il valore negativo della correlazione conferma che ansia e prestazione cognitiva presentano una relazione inversa: all’aumentare dell’ansia, la prestazione tende a diminuire.
36.4 Interpretazione della Correlazione
Il coefficiente di correlazione è una misura standardizzata e facile da interpretare:
- \(\rho = 1\): perfetta relazione lineare positiva
- \(\rho = -1\): perfetta relazione lineare negativa
- \(\rho = 0\): assenza di relazione lineare
Nel nostro esempio, il valore \(-0.261\) indica una relazione lineare negativa moderata tra ansia e prestazione.
36.5 Proprietà
- Covarianza con una Costante: La covarianza tra una variabile aleatoria \(X\) e una costante \(c\) è sempre nulla: \(Cov(c, X) = 0\).
- Simmetria: La covarianza è simmetrica: \(Cov(X,Y) = Cov(Y,X)\).
- Intervallo di Correlazione: Il coefficiente di correlazione \(\rho\) varia tra -1 e 1: \(-1 \leq \rho(X,Y) \leq 1\).
- Indipendenza dalle Unità di Misura: La correlazione è indipendente dalle unità di misura: \(\rho(aX, bY) = \rho(X,Y)\) per ogni \(a, b > 0\).
- Relazione Lineare Perfetta: Se \(Y = a + bX\) è una funzione lineare di \(X\), allora \(\rho(X,Y) = \pm 1\), a seconda del segno di \(b\).
- Covarianza e Costanti: La covarianza tra \(X\) e \(Y\), ciascuna moltiplicata per una costante, è \(Cov(aX, bY) = ab \, Cov(X,Y)\).
- Varianza della Somma/Differenza: \(\mathbb{V}(X \pm Y) = \mathbb{V}(X) + \mathbb{V}(Y) \pm 2Cov(X,Y)\).
- Covarianza e Somma di Variabili: \(Cov(X + Y, Z) = Cov(X,Z) + Cov(Y,Z)\).
- Varianza di una Somma di Variabili Aleatorie: Per variabili aleatorie \(X_1, \dots, X_n\), si ha \(\mathbb{V}(\sum_{i=1}^n X_i) = \sum_{i=1}^n \mathbb{V}(X_i) + 2\sum_{i<j} Cov(X_i, X_j)\).
- Covarianza e Somme di Prodotti: \(Cov(\sum_{i=1}^n a_i X_i, \sum_{j=1}^m b_j Y_j) = \sum_{i=1}^n \sum_{j=1}^m a_i b_j Cov(X_i, Y_j)\).
- Indipendenza e Covarianza di Somme: Se \(X_1, X_2, \dots, X_n\) sono indipendenti, allora \(Cov(\sum_{i=1}^n a_i X_i, \sum_{j=1}^n b_j X_j) = \sum_{i=1}^n a_i b_i \mathbb{V}(X_i)\).
36.5.1 Incorrelazione
Due variabili casuali \(X\) ed \(Y\) si dicono incorrelate, o linearmente indipendenti, se la loro covarianza è nulla:
\[ Cov(X,Y) = \mathbb{E}[(X - \mu_X)(Y - \mu_Y)] = 0, \]
equivalente a dire che \(\rho_{XY} = 0\) e \(\mathbb{E}(XY) = \mathbb{E}(X)\mathbb{E}(Y)\).
Questa condizione indica una forma di indipendenza più debole rispetto all’indipendenza stocastica. Tuttavia, \(Cov(X, Y) = 0\) non implica necessariamente che \(X\) ed \(Y\) siano stocasticamente indipendenti.
Esempio 36.1 Consideriamo una distribuzione di probabilità congiunta di due variabili aleatorie, \(X\) e \(Y\), definita come:
\[ f_{XY}(x,y) = \left\{ \begin{array}{ll} \frac{1}{4} & \text{per } (x,y) \in \{(0,0), (1,1), (1, -1), (2,0) \}, \\ 0 & \text{altrimenti.} \end{array} \right. \]
Questo implica che le variabili aleatorie \(X\) e \(Y\) assumono valori specifici con probabilità uniforme solo per determinate coppie \((x, y)\) e zero in tutti gli altri casi.
36.6 Conclusioni
La covarianza e la correlazione forniscono strumenti essenziali per quantificare le relazioni tra variabili casuali. Utilizzare queste misure permette di approfondire la comprensione delle relazioni psicologiche, come quella tra ansia e prestazione, facilitando ulteriori analisi statistiche e interpretazioni teoriche.
Esercizi
Esercizio 1: Distribuzione congiunta di due lanci di dado
Si lancia due volte un dado a sei facce equilibrato. Siano:
- \(X\) il risultato del primo lancio.
- \(Y\) il risultato del secondo lancio.
- Costruisci la tabella della distribuzione congiunta \(P(X, Y)\), considerando che tutti i risultati possibili hanno la stessa probabilità.
- Verifica che la somma delle probabilità sia 1.
- Determina la distribuzione marginale di \(X\) e di \(Y\).
- Le variabili \(X\) e \(Y\) sono indipendenti? Giustifica la risposta.
Esercizio 2: Somma di due dadi
Si lancia due volte un dado a sei facce. Definiamo:
- \(S = X + Y\), la somma dei due risultati.
- Costruisci la tabella di probabilità congiunta \(P(X, Y)\).
- Calcola la distribuzione di probabilità della variabile aleatoria \(S\).
- Determina \(P(S = 7)\) e \(P(S \leq 5)\).
- Qual è il valore più probabile di \(S\)? E il meno probabile?
Esercizio 3: Lancio di tre monete
Si lanciano tre monete equilibrate. Definiamo:
- \(X\) il numero di teste ottenute.
- \(Y\) il risultato del primo lancio (1 se testa, 0 se croce).
- Determina lo spazio campionario e associa i valori delle variabili aleatorie \(X\) e \(Y\).
- Costruisci la distribuzione congiunta \(P(X, Y)\).
- Calcola \(P(X = 2 \mid Y = 1)\) e \(P(Y = 1 \mid X = 2)\).
- Le variabili \(X\) e \(Y\) sono indipendenti?
Esercizio 4: Minimo e massimo tra due dadi
Si lancia due volte un dado a sei facce. Definiamo:
- \(X = \min \{X_1, X_2\}\), il valore minimo tra i due lanci.
- \(Y = \max \{X_1, X_2\}\), il valore massimo tra i due lanci.
- Costruisci la tabella della distribuzione congiunta \(P(X, Y)\).
- Calcola \(P(X = 3, Y = 5)\) e \(P(X \geq 3, Y \leq 4)\).
- Determina la distribuzione marginale di \(X\) e di \(Y\).
- Calcola la covarianza tra \(X\) e \(Y\).
Esercizio 5: Differenza tra due dadi
Si lanciano due dadi a sei facce. Definiamo:
- \(X\) il risultato del primo lancio.
- \(Y\) la differenza assoluta tra i due risultati, ovvero \(Y = |X - X_2|\).
- Determina la tabella della distribuzione congiunta \(P(X, Y)\).
- Calcola la distribuzione marginale di \(Y\).
- Determina \(P(Y = 0)\) e \(P(Y = 3)\).
- Le variabili \(X\) e \(Y\) sono indipendenti? Giustifica la risposta.
Esercizio 1: Distribuzione congiunta di due lanci di dado
Abbiamo due variabili aleatorie discrete: - \(X\), risultato del primo lancio di un dado a sei facce. - \(Y\), risultato del secondo lancio.
1. Tabella della distribuzione congiunta \(P(X, Y)\) Poiché il dado è equo, ogni coppia di risultati \((x, y)\) ha la stessa probabilità. Esistono \(6 \times 6 = 36\) combinazioni possibili, e ognuna ha probabilità:
\[ P(X = x, Y = y) = \frac{1}{36}, \quad \text{per ogni } x, y \in \{1, 2, 3, 4, 5, 6\} \]
La tabella della distribuzione congiunta è:
\(X\) \(Y\) | 1 | 2 | 3 | 4 | 5 | 6 |
---|---|---|---|---|---|---|
1 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 |
2 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 |
3 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 |
4 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 |
5 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 |
6 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 | 1/36 |
2. Verifica che la somma delle probabilità sia 1 La somma di tutte le probabilità è:
\[ \sum_{x=1}^{6} \sum_{y=1}^{6} P(X = x, Y = y) = 36 \times \frac{1}{36} = 1. \]
3. Distribuzione marginale di \(X\) e \(Y\) Per ottenere la distribuzione marginale di \(X\):
\[ P(X = x) = \sum_{y=1}^{6} P(X = x, Y = y) = 6 \times \frac{1}{36} = \frac{1}{6}, \quad \forall x. \]
Analogamente, per \(Y\):
\[ P(Y = y) = \sum_{x=1}^{6} P(X = x, Y = y) = \frac{1}{6}, \quad \forall y. \]
Entrambe seguono una distribuzione uniforme su \(\{1, 2, 3, 4, 5, 6\}\).
4. Indipendenza di \(X\) e \(Y\) Due variabili sono indipendenti se \(P(X = x, Y = y) = P(X = x) P(Y = y)\).
\[ \frac{1}{36} = \frac{1}{6} \times \frac{1}{6} = \frac{1}{36}, \quad \forall x, y. \]
Poiché questa relazione vale per tutti i valori, \(X\) e \(Y\) sono indipendenti.
Esercizio 2: Somma di due dadi
Abbiamo:
\[ S = X + Y \]
1. Tabella di probabilità congiunta \(P(X, Y)\) È la stessa tabella costruita nel primo esercizio.
2. Distribuzione di probabilità di \(S\) La somma \(S\) assume valori da \(2\) (1+1) a \(12\) (6+6). La probabilità di ogni valore di \(S\) si ottiene contando le coppie \((x, y)\) che lo producono:
\(S\) | \(P(S)\) |
---|---|
2 | 1/36 |
3 | 2/36 |
4 | 3/36 |
5 | 4/36 |
6 | 5/36 |
7 | 6/36 |
8 | 5/36 |
9 | 4/36 |
10 | 3/36 |
11 | 2/36 |
12 | 1/36 |
3. Calcolo di \(P(S = 7)\) e \(P(S \leq 5)\) - \(P(S = 7) = 6/36 = 1/6\). - \(P(S \leq 5) = P(S = 2) + P(S = 3) + P(S = 4) + P(S = 5)\)
\[ \frac{1}{36} + \frac{2}{36} + \frac{3}{36} + \frac{4}{36} = \frac{10}{36} = \frac{5}{18}. \]
4. Valori più probabili e meno probabili - Il valore più probabile è \(S = 7\) (\(P(S=7) = 1/6\)). - I valori meno probabili sono \(S = 2\) e \(S = 12\) (\(P(S) = 1/36\)).
Esercizio 3: Lancio di tre monete
Abbiamo:
- Tre monete equilibrare.
- Variabili:
- \(X\): numero di teste ottenute.
- \(Y\): risultato del primo lancio (1 se testa, 0 se croce).
1. Spazio campionario e valori di \(X\) e \(Y\)
Lo spazio campionario dei lanci è:
\[ \{ (C, C, C), (C, C, T), (C, T, C), (C, T, T), (T, C, C), (T, C, T), (T, T, C), (T, T, T) \} \]
Ora assegniamo \(X\) e \(Y\):
Lancio | \(X\) (num. teste) | \(Y\) (primo lancio) |
---|---|---|
C, C, C | 0 | 0 |
C, C, T | 1 | 0 |
C, T, C | 1 | 0 |
C, T, T | 2 | 0 |
T, C, C | 1 | 1 |
T, C, T | 2 | 1 |
T, T, C | 2 | 1 |
T, T, T | 3 | 1 |
2. Distribuzione congiunta \(P(X, Y)\)
Poiché ogni lancio ha probabilità \(\frac{1}{8}\), la tabella di probabilità congiunta è:
\(X\) \(Y\) | 0 | 1 |
---|---|---|
0 | 1/8 | 0 |
1 | 2/8 | 1/8 |
2 | 1/8 | 3/8 |
3 | 0 | 1/8 |
3. Probabilità condizionate \(P(X = 2 \mid Y = 1)\) \[ P(X = 2 \mid Y = 1) = \frac{P(X = 2, Y = 1)}{P(Y = 1)} = \frac{3/8}{5/8} = \frac{3}{5}. \]
\(P(Y = 1 \mid X = 2)\) \[ P(Y = 1 \mid X = 2) = \frac{P(X = 2, Y = 1)}{P(X = 2)} = \frac{3/8}{4/8} = \frac{3}{4}. \]
4. Indipendenza di \(X\) e \(Y\)
Verifichiamo se \(P(X = x, Y = y) = P(X = x) P(Y = y)\) per ogni coppia.
Esempio: \(P(X = 2, Y = 1) = 3/8\) ma \(P(X=2) P(Y=1) = (4/8)(5/8) = 20/64 = 5/16 \neq 3/8\).
Quindi \(X\) e \(Y\) non sono indipendenti.
Esercizio 4: Minimo e massimo tra due dadi
Abbiamo:
- \(X = \min(X_1, X_2)\), il minimo tra i due lanci.
- \(Y = \max(X_1, X_2)\), il massimo tra i due lanci.
1. Tabella della distribuzione congiunta
Poiché i due lanci sono indipendenti e simmetrici, ci sono 36 coppie \((X_1, X_2)\), e ogni coppia ha probabilità \(\frac{1}{36}\).
La tabella congiunta si costruisce considerando che \(X = \min(X_1, X_2)\) e \(Y = \max(X_1, X_2)\):
\(X\) \(Y\) | 1 | 2 | 3 | 4 | 5 | 6 |
---|---|---|---|---|---|---|
1 | 1/36 | 2/36 | 3/36 | 4/36 | 5/36 | 6/36 |
2 | - | 1/36 | 2/36 | 3/36 | 4/36 | 5/36 |
3 | - | - | 1/36 | 2/36 | 3/36 | 4/36 |
4 | - | - | - | 1/36 | 2/36 | 3/36 |
5 | - | - | - | - | 1/36 | 2/36 |
6 | - | - | - | - | - | 1/36 |
2. Probabilità richieste
- \(P(X = 3, Y = 5) = 3/36\).
- \(P(X \geq 3, Y \leq 4) = P(X = 3, Y = 3) + P(X = 3, Y = 4) + P(X = 4, Y = 4) = 1/36 + 2/36 + 1/36 = 4/36 = 1/9\).
Esercizio 5: Differenza tra due dadi
Abbiamo:
- \(X\) = primo lancio.
- \(Y = |X - X_2|\).
1. Tabella della distribuzione congiunta \(P(X, Y)\)
\(Y\) assume valori da 0 a 5, a seconda della differenza tra i due dadi:
\(X\) \(Y\) | 0 | 1 | 2 | 3 | 4 | 5 |
---|---|---|---|---|---|---|
1 | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 |
2 | 1/6 | 2/6 | 1/6 | 1/6 | 1/6 | 0 |
3 | 1/6 | 2/6 | 2/6 | 1/6 | 0 | 0 |
4 | 1/6 | 2/6 | 2/6 | 1/6 | 0 | 0 |
5 | 1/6 | 2/6 | 1/6 | 1/6 | 0 | 0 |
6 | 1/6 | 1/6 | 1/6 | 1/6 | 0 | 0 |
2. Distribuzione marginale di \(Y\)
Sommiamo lungo \(X\):
\(Y\) | \(P(Y)\) |
---|---|
0 | 6/36 |
1 | 10/36 |
2 | 8/36 |
3 | 6/36 |
4 | 4/36 |
5 | 2/36 |
3. Probabilità richieste
- \(P(Y = 0) = 6/36 = 1/6\).
- \(P(Y = 3) = 6/36 = 1/6\).
4. Indipendenza di \(X\) e \(Y\)
Come nell’esercizio 3, verifichiamo che \(P(X, Y) \neq P(X) P(Y)\) per alcune coppie. Essendo la tabella non simmetrica, \(X\) e \(Y\) non sono indipendenti.
Considera il seguente esperimento casuale: si estrae una pallina da un’urna contenente tre palline numerate con i valori \(1\), \(2\) e \(3\).
Dopo l’estrazione, si definiscono due variabili casuali:
- \(X\), il valore della pallina estratta.
- \(Y\), il valore di un’altra variabile definita come \(Y = X^2\).
- Costruisci la distribuzione congiunta di \(X\) e \(Y\).
- Calcola il valore atteso di \(X\) e \(Y\), ossia \(E[X]\) e \(E[Y]\).
- Calcola la covarianza tra \(X\) e \(Y\), ossia \(\text{Cov}(X, Y)\).
- Calcola la correlazione tra \(X\) e \(Y\), ossia \(\rho(X, Y)\).
- Interpreta il valore della correlazione: cosa indica il segno e il valore ottenuto?
1. Distribuzione congiunta di \(X\) e \(Y\)
Poiché ogni pallina ha la stessa probabilità di essere estratta, la distribuzione congiunta è:
\(X\) | \(Y = X^2\) | \(P(X, Y)\) |
---|---|---|
1 | 1 | \(\frac{1}{3}\) |
2 | 4 | \(\frac{1}{3}\) |
3 | 9 | \(\frac{1}{3}\) |
2. Calcolo di \(E[X]\) e \(E[Y]\)
\[ E[X] = \sum_{i} x_i P(X = x_i) = 1 \cdot \frac{1}{3} + 2 \cdot \frac{1}{3} + 3 \cdot \frac{1}{3} = \frac{1 + 2 + 3}{3} = 2 \]
\[ E[Y] = \sum_{i} y_i P(Y = y_i) = 1 \cdot \frac{1}{3} + 4 \cdot \frac{1}{3} + 9 \cdot \frac{1}{3} = \frac{1 + 4 + 9}{3} = \frac{14}{3} \]
3. Calcolo della covarianza \(\text{Cov}(X, Y)\)
La covarianza è definita come:
\[ \text{Cov}(X, Y) = E[XY] - E[X]E[Y] \]
Prima calcoliamo \(E[XY]\):
\[ E[XY] = \sum_{i} x_i y_i P(X = x_i, Y = y_i) = 1 \cdot 1 \cdot \frac{1}{3} + 2 \cdot 4 \cdot \frac{1}{3} + 3 \cdot 9 \cdot \frac{1}{3} \]
\[ = \frac{1 + 8 + 27}{3} = \frac{36}{3} = 12 \]
Ora possiamo calcolare la covarianza:
\[ \text{Cov}(X, Y) = E[XY] - E[X]E[Y] = 12 - \left(2 \cdot \frac{14}{3}\right) = 12 - \frac{28}{3} = \frac{36 - 28}{3} = \frac{8}{3} \]
4. Calcolo della correlazione \(\rho(X, Y)\)
La correlazione è definita come:
\[ \rho(X, Y) = \frac{\text{Cov}(X, Y)}{\sigma_X \cdot \sigma_Y} \]
Calcoliamo prima le varianze:
\[ \text{Var}(X) = E[X^2] - (E[X])^2 \]
\[ E[X^2] = 1^2 \cdot \frac{1}{3} + 2^2 \cdot \frac{1}{3} + 3^2 \cdot \frac{1}{3} = \frac{1 + 4 + 9}{3} = \frac{14}{3} \]
\[ \text{Var}(X) = \frac{14}{3} - 2^2 = \frac{14}{3} - 4 = \frac{14 - 12}{3} = \frac{2}{3} \]
Ora la varianza di \(Y\):
\[ \text{Var}(Y) = E[Y^2] - (E[Y])^2 \]
\[ E[Y^2] = 1^2 \cdot \frac{1}{3} + 4^2 \cdot \frac{1}{3} + 9^2 \cdot \frac{1}{3} = \frac{1 + 16 + 81}{3} = \frac{98}{3} \]
\[ \text{Var}(Y) = \frac{98}{3} - \left(\frac{14}{3}\right)^2 = \frac{98}{3} - \frac{196}{9} = \frac{98 \cdot 3 - 196}{9} = \frac{294 - 196}{9} = \frac{98}{9} \]
Calcoliamo le deviazioni standard:
\[ \sigma_X = \sqrt{\text{Var}(X)} = \sqrt{\frac{2}{3}} = \frac{\sqrt{6}}{3} \]
\[ \sigma_Y = \sqrt{\text{Var}(Y)} = \sqrt{\frac{98}{9}} = \frac{\sqrt{98}}{3} \]
Ora possiamo calcolare la correlazione:
\[ \rho(X, Y) = \frac{\text{Cov}(X, Y)}{\sigma_X \cdot \sigma_Y} = \frac{\frac{8}{3}}{\frac{\sqrt{6}}{3} \cdot \frac{\sqrt{98}}{3}} \]
\[ = \frac{\frac{8}{3}}{\frac{\sqrt{6 \cdot 98}}{9}} = \frac{8 \cdot 9}{3 \cdot \sqrt{6 \cdot 98}} = \frac{24}{\sqrt{588}} \]
Poiché \(\sqrt{588} = \sqrt{4 \cdot 147} = 2\sqrt{147} = 2\sqrt{49 \cdot 3} = 2 \cdot 7 \cdot \sqrt{3} = 14\sqrt{3}\):
\[ \rho(X, Y) = \frac{24}{14\sqrt{3}} = \frac{12}{7\sqrt{3}} = \frac{12\sqrt{3}}{21} \approx 0.995 \]
5. Interpretazione della correlazione
- Il valore \(\rho(X, Y) \approx 0.995\) è molto vicino a 1, indicando una correlazione positiva quasi perfetta tra \(X\) e \(Y\).
- Il segno positivo indica che all’aumentare di \(X\), anche \(Y\) tende ad aumentare.
- L’alto valore (prossimo a 1) indica che la relazione tra \(X\) e \(Y\) è quasi perfettamente lineare, il che è coerente con la definizione \(Y = X^2\) nell’intervallo considerato (piccoli valori positivi di \(X\)).
Esercizi sulla distribuzione di probabilità congiunta sono disponibili sulla seguente pagina web.
36.7 Informazioni sull’Ambiente di Sviluppo
sessionInfo()
#> R version 4.4.2 (2024-10-31)
#> Platform: aarch64-apple-darwin20
#> Running under: macOS Sequoia 15.3.2
#>
#> Matrix products: default
#> BLAS: /Library/Frameworks/R.framework/Versions/4.4-arm64/Resources/lib/libRblas.0.dylib
#> LAPACK: /Library/Frameworks/R.framework/Versions/4.4-arm64/Resources/lib/libRlapack.dylib; LAPACK version 3.12.0
#>
#> locale:
#> [1] C/UTF-8/C/C/C/C
#>
#> time zone: Europe/Rome
#> tzcode source: internal
#>
#> attached base packages:
#> [1] stats graphics grDevices utils datasets methods base
#>
#> other attached packages:
#> [1] thematic_0.1.6 MetBrewer_0.2.0 ggokabeito_0.1.0 see_0.11.0
#> [5] gridExtra_2.3 patchwork_1.3.0 bayesplot_1.11.1 psych_2.5.3
#> [9] scales_1.3.0 markdown_2.0 knitr_1.50 lubridate_1.9.4
#> [13] forcats_1.0.0 stringr_1.5.1 dplyr_1.1.4 purrr_1.0.4
#> [17] readr_2.1.5 tidyr_1.3.1 tibble_3.2.1 ggplot2_3.5.1
#> [21] tidyverse_2.0.0 rio_1.2.3 here_1.0.1
#>
#> loaded via a namespace (and not attached):
#> [1] generics_0.1.3 stringi_1.8.4 lattice_0.22-6 hms_1.1.3
#> [5] digest_0.6.37 magrittr_2.0.3 evaluate_1.0.3 grid_4.4.2
#> [9] timechange_0.3.0 fastmap_1.2.0 rprojroot_2.0.4 jsonlite_1.9.1
#> [13] mnormt_2.1.1 cli_3.6.4 rlang_1.1.5 munsell_0.5.1
#> [17] withr_3.0.2 tools_4.4.2 parallel_4.4.2 tzdb_0.5.0
#> [21] colorspace_2.1-1 pacman_0.5.1 vctrs_0.6.5 R6_2.6.1
#> [25] lifecycle_1.0.4 htmlwidgets_1.6.4 pkgconfig_2.0.3 pillar_1.10.1
#> [29] gtable_0.3.6 glue_1.8.0 xfun_0.51 tidyselect_1.2.1
#> [33] rstudioapi_0.17.1 farver_2.1.2 htmltools_0.5.8.1 nlme_3.1-167
#> [37] rmarkdown_2.29 compiler_4.4.2