11  Covarianza e correlazione

Introduzione

Quando due variabili casuali non sono indipendenti, diciamo che esse sono associate o dipendenti. È importante non solo stabilire se tale relazione esista, ma anche quantificare la sua intensità e la sua direzione. A tal fine, utilizziamo due misure chiave: la covarianza e la correlazione.

Panoramica del capitolo

  • Definire e calcolare la covarianza per quantificare la relazione lineare tra due variabili casuali.
  • Utilizzare la correlazione per misurare l’intensità della relazione lineare tra variabili casuali, indipendentemente dalle loro unità di misura.
  • Comprendere le proprietà chiave della covarianza e della correlazione, inclusa l’incorrelazione.
  • Estendere i concetti di probabilità congiunta, marginale e condizionale alle variabili continue, utilizzando gli integrali.
here::here("code", "_common.R") |>
  source()

11.1 Covarianza

La covarianza misura il grado e la direzione della relazione lineare tra due variabili casuali. Una covarianza positiva indica che le due variabili tendono ad aumentare o diminuire insieme, mentre una covarianza negativa indica che una variabile tende ad aumentare quando l’altra diminuisce.

11.1.1 Definizione di Covarianza

La covarianza tra due variabili casuali discrete \(X\) e \(Y\) è definita come:

\[ \text{Cov}(X, Y) = \mathbb{E}\left[(X - \mathbb{E}[X])(Y - \mathbb{E}[Y])\right] . \]

Esplicitamente, questa definizione può essere riscritta come:

\[ \text{Cov}(X, Y) = \sum_{x}\sum_{y}(x - \mu_X)(y - \mu_Y)p(x, y) . \]

dove \(\mu_X\) e \(\mu_Y\) sono le medie delle variabili \(X\) e \(Y\) e \(p(x,y)\) è la funzione di massa di probabilità congiunta.

Questa definizione mostra una stretta analogia con la varianza, che è la covarianza di una variabile con se stessa:

\[ \mathbb{V}(X) = Cov(X, X). \]

Inoltre, la covarianza può essere calcolata attraverso la relazione:

\[ Cov(X, Y) = \mathbb{E}(XY) - \mathbb{E}(X)\mathbb{E}(Y). \]

11.1.2 Dimostrazione

La formula alternativa per la covarianza si dimostra come segue.

Per definizione, la covarianza tra due variabili casuali \(X\) e \(Y\) è:

\[ \mathrm{Cov}(X, Y) \;=\; \mathbb{E}\Bigl[\bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr)\Bigr]. \]

Questa è semplicemente la definizione formale, in cui consideriamo la “deviazione” di \(X\) dal proprio valor medio (\(\mathbb{E}[X]\)) e la “deviazione” di \(Y\) dal proprio valor medio (\(\mathbb{E}[Y]\)), e ne calcoliamo l’aspettativa del prodotto.

Consideriamo l’argomento dell’aspettativa: \(\bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr)\).

Per prima cosa espandiamo il prodotto come faremmo con normali variabili algebriche:

\[ \bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr) = X\,Y \;-\; X\,\mathbb{E}[Y] \;-\; \mathbb{E}[X]\,Y \;+\; \mathbb{E}[X]\mathbb{E}[Y]. \]

Adesso prendiamo l’aspettativa (o valore atteso) di ciascun termine che abbiamo ottenuto. Indichiamo con \(\mathbb{E}\) l’operatore di aspettativa:

\[ \mathbb{E}\Bigl[\bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr)\Bigr] = \mathbb{E}[\,X\,Y \;-\; X\,\mathbb{E}[Y] \;-\; \mathbb{E}[X]\,Y \;+\; \mathbb{E}[X]\mathbb{E}[Y]\,]. \]

Grazie alla linearità dell’aspettativa, possiamo scindere questa grande aspettativa in una somma (e differenza) di aspettative di singoli termini:

\[ = \mathbb{E}[XY] \;-\; \mathbb{E}[X\,\mathbb{E}[Y]] \;-\; \mathbb{E}[\mathbb{E}[X]\,Y] \;+\; \mathbb{E}[\mathbb{E}[X]\mathbb{E}[Y]]. \]

Ricordiamo che \(\mathbb{E}[X]\) e \(\mathbb{E}[Y]\) sono numeri (costanti) e non variabili casuali. Dunque, quando nell’aspettativa compare un fattore costante, possiamo estrarlo fuori dall’operatore \(\mathbb{E}[\cdot]\).

  1. \(\mathbb{E}[X\,\mathbb{E}[Y]]\) si semplifica in \(\mathbb{E}[Y]\cdot \mathbb{E}[X]\) perché \(\mathbb{E}[Y]\) è una costante. In formula: \[ \mathbb{E}[X\,\mathbb{E}[Y]] = \mathbb{E}[Y] \,\mathbb{E}[X]. \]

  2. Allo stesso modo, \(\mathbb{E}[\mathbb{E}[X]\,Y]\) si semplifica in \(\mathbb{E}[X]\cdot \mathbb{E}[Y]\).

  3. Infine, \(\mathbb{E}[\mathbb{E}[X]\mathbb{E}[Y]]\) è \(\mathbb{E}[X]\mathbb{E}[Y]\) in quanto \(\mathbb{E}[X]\mathbb{E}[Y]\) è già una costante.

Usando queste regole, riscriviamo i termini:

\[ \mathbb{E}[XY] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;+\; \mathbb{E}[X]\mathbb{E}[Y]. \]

Osserviamo i termini rimanenti:

\[ \mathbb{E}[XY] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;+\; \mathbb{E}[X]\mathbb{E}[Y]. \]

  • Il termine \(\mathbb{E}[X]\mathbb{E}[Y]\) compare due volte in negativo (\(-\,\mathbb{E}[X]\mathbb{E}[Y]\)) e una volta in positivo (\(+\,\mathbb{E}[X]\mathbb{E}[Y]\)).
  • Facendo la somma algebrica, ne rimane solo \(-\,\mathbb{E}[X]\mathbb{E}[Y]\) (perché \(-\,1 -\,1 +\,1 = -\,1\)).

Quindi il risultato è:

\[ \mathbb{E}[XY] \;-\; \mathbb{E}[X]\mathbb{E}[Y]. \]

Abbiamo quindi dimostrato in maniera esplicita che:

\[ \mathrm{Cov}(X, Y) = \mathbb{E}\bigl[(X - \mathbb{E}[X]) (Y - \mathbb{E}[Y])\bigr] = \mathbb{E}[XY] - \mathbb{E}[X]\mathbb{E}[Y]. \]

11.1.3 Esempio Psicologico: Covarianza tra Ansia e Prestazione Cognitiva

Riprendendo i dati del capitolo precedente sulla relazione tra ansia (Y) e prestazione cognitiva (X), calcoliamo ora la covarianza.

Medie marginali:

  • Prestazione cognitiva \(X\):
    \[\mathbb{E}(X)=0\times0.30 + 1\times0.45 + 2\times0.25=0.95\]
  • Ansia \(Y\):
    \[\mathbb{E}(Y)=0\times0.30 + 1\times0.40 + 2\times0.30=1.00\]

Calcoliamo \(\mathbb{E}(XY)\):

\[ \begin{aligned} \mathbb{E}(XY) &= (0\times0\times0.05)+(0\times1\times0.10)+(0\times2\times0.15)+ \notag\\ & \quad (1\times0\times0.15)+(1\times1\times0.20)+(1\times2\times0.10)+ \notag\\ & \quad(2\times0\times0.10)+(2\times1\times0.10)+(2\times2\times0.05) \end{aligned} \]

Simplificando:

\[\mathbb{E}(XY)=0.00+0.00+0.00+0.00+0.20+0.20+0.00+0.20+0.20=0.80\]

Quindi, la covarianza sarà:

\[\text{Cov}(X,Y)=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)=0.80-(0.95\times1.00)=-0.15\]

La covarianza negativa indica che all’aumentare del livello di ansia tende a corrispondere una diminuzione della prestazione cognitiva, coerentemente con quanto spesso riscontrato nella letteratura psicologica.

11.2 Correlazione

La correlazione standardizza la covarianza, rendendola indipendente dalle unità di misura delle variabili. Essa varia tra -1 e 1 ed è definita come:

\[ \rho(X,Y)=\frac{\text{Cov}(X,Y)}{\sqrt{\text{Var}(X)\text{Var}(Y)}} . \]

dove \(\mathbb{V}(X)\) e \(\mathbb{V}(Y)\) rappresentano le varianze di \(X\) e \(Y\), rispettivamente.

Il coefficiente di correlazione \(\rho_{xy}\) è un valore adimensionale, ovvero non dipende dalle unità di misura delle variabili, e varia nell’intervallo \(-1 \leq \rho \leq 1\).

11.2.1 Calcolo della Correlazione

Per calcolare la correlazione tra ansia e prestazione cognitiva, dobbiamo prima ottenere le varianze di ciascuna variabile.

  • Varianza di X (prestazione cognitiva):

\[ \begin{aligned} \text{Var}(X) &=\sum_{x}(x-\mu_X)^2p(x) \notag\\ &= (0-0.95)^2\times0.30+(1-0.95)^2\times0.45+(2-0.95)^2\times0.25=0.5475 \notag \end{aligned} \]

  • Varianza di Y (ansia):

\[ \begin{aligned} \text{Var}(Y) &=\sum_{y}(y-\mu_Y)^2p(y) \notag\\ &= (0-1.00)^2\times0.30+(1-1.00)^2\times0.40+(2-1.00)^2\times0.30=0.60 \notag \end{aligned} \]

Quindi, il coefficiente di correlazione è:

\[ \rho(X,Y)=\frac{-0.15}{\sqrt{0.5475\times0.60}}=-0.261 \]

Il valore negativo della correlazione conferma che ansia e prestazione cognitiva presentano una relazione inversa: all’aumentare dell’ansia, la prestazione tende a diminuire.

11.3 Interpretazione della Correlazione

Il coefficiente di correlazione è una misura standardizzata e facile da interpretare:

  • \(\rho = 1\): perfetta relazione lineare positiva
  • \(\rho = -1\): perfetta relazione lineare negativa
  • \(\rho = 0\): assenza di relazione lineare

Nel nostro esempio, il valore \(-0.261\) indica una relazione lineare negativa moderata tra ansia e prestazione.

11.4 Proprietà

La covarianza e la correlazione possiedono una serie di proprietà formali che ne regolano il comportamento al variare delle variabili e delle costanti coinvolte. Di seguito vengono enunciate e discusse le principali.

La covarianza tra una variabile aleatoria \(X\) e una costante \(c\) è sempre nulla: \[ \text{Cov}(c, X) = 0. \] Inoltre, la covarianza gode della proprietà di simmetria: \[ \text{Cov}(X, Y) = \text{Cov}(Y, X). \]

Il coefficiente di correlazione \(\rho_{X,Y}\) è limitato nell’intervallo chiuso \([-1, 1]\): \[ -1 \leq \rho(X, Y) \leq 1. \] Tale coefficiente è invariante rispetto a cambiamenti di scala delle variabili: per ogni \(a > 0\) e \(b > 0\) si ha \[ \rho(aX, bY) = \rho(X, Y). \] Nel caso di una relazione lineare perfetta della forma \(Y = a + bX\), il coefficiente di correlazione assume valore estremo: \[ \rho(X, Y) = \begin{cases} +1 & \text{se } b > 0, \\ -1 & \text{se } b < 0. \end{cases} \]

Riguardo alle trasformazioni lineari, la covarianza soddisfa: \[ \text{Cov}(aX, bY) = ab \cdot \text{Cov}(X, Y), \] e, più in generale, per due combinazioni lineari di variabili aleatorie: \[ \text{Cov}\left( \sum_{i=1}^n a_i X_i, \sum_{j=1}^m b_j Y_j \right) = \sum_{i=1}^n \sum_{j=1}^m a_i b_j \, \text{Cov}(X_i, Y_j). \]

La varianza della somma (o differenza) di due variabili è data da: \[ \mathbb{V}(X \pm Y) = \mathbb{V}(X) + \mathbb{V}(Y) \pm 2 \, \text{Cov}(X, Y). \] Più in generale, per una somma di \(n\) variabili aleatorie: \[ \mathbb{V}\left( \sum_{i=1}^n X_i \right) = \sum_{i=1}^n \mathbb{V}(X_i) + 2 \sum_{i < j} \text{Cov}(X_i, X_j). \]

La covarianza è additiva in ciascun argomento: per ogni variabile aleatoria \(Z\), \[ \text{Cov}(X + Y, Z) = \text{Cov}(X, Z) + \text{Cov}(Y, Z). \]

Nel caso particolare in cui le variabili \(X_1, X_2, \dots, X_n\) siano mutualmente indipendenti, la covarianza tra due loro combinazioni lineari si semplifica in: \[ \text{Cov}\left( \sum_{i=1}^n a_i X_i, \sum_{j=1}^n b_j X_j \right) = \sum_{i=1}^n a_i b_i \, \mathbb{V}(X_i), \] poiché i termini di covarianza incrociata sono nulli.

11.4.1 Incorrelazione

Due variabili casuali \(X\) e \(Y\) si dicono incorrelate (o linearmente indipendenti) se la loro covarianza è nulla:

\[ \text{Cov}(X, Y) = \mathbb{E}[(X - \mu_X)(Y - \mu_Y)] = 0. \]

Tale condizione è equivalente a ciascuna delle seguenti:

  • il coefficiente di correlazione \(\rho_{XY}\) è nullo;
  • il valore atteso del prodotto è uguale al prodotto dei valori attesi: \(\mathbb{E}(XY) = \mathbb{E}(X)\mathbb{E}(Y)\).

L’incorrelazione rappresenta una forma di indipendenza statistica più debole rispetto all’indipendenza stocastica. Mentre due variabili indipendenti sono sempre incorrelate, il viceversa non è vero: è possibile che \(X\) e \(Y\) abbiano covarianza nulla pur non essendo stocasticamente indipendenti. In altri termini, l’assenza di correlazione lineare non esclude l’esistenza di altre forme di dipendenza (ad esempio, di tipo non lineare) tra le due variabili.

Esempio 11.1 Consideriamo una distribuzione di probabilità congiunta di due variabili aleatorie, \(X\) e \(Y\), definita come:

\[ f_{XY}(x,y) = \left\{ \begin{array}{ll} \frac{1}{4} & \text{per } (x,y) \in \{(0,0), (1,1), (1, -1), (2,0) \}, \\ 0 & \text{altrimenti.} \end{array} \right. \]

Questo implica che le variabili aleatorie \(X\) e \(Y\) assumono valori specifici con probabilità uniforme solo per determinate coppie \((x, y)\) e zero in tutti gli altri casi.

Riflessioni conclusive

La covarianza e la correlazione forniscono strumenti essenziali per quantificare le relazioni tra variabili casuali. Utilizzare queste misure permette di approfondire la comprensione delle relazioni psicologiche, come quella tra ansia e prestazione, facilitando ulteriori analisi statistiche e interpretazioni teoriche.

Esercizio 1: Distribuzione congiunta di due lanci di dado

Si lancia due volte un dado a sei facce equilibrato. Siano:

  • \(X\) il risultato del primo lancio.
  • \(Y\) il risultato del secondo lancio.
  1. Costruisci la tabella della distribuzione congiunta \(P(X, Y)\), considerando che tutti i risultati possibili hanno la stessa probabilità.
  2. Verifica che la somma delle probabilità sia 1.
  3. Determina la distribuzione marginale di \(X\) e di \(Y\).
  4. Le variabili \(X\) e \(Y\) sono indipendenti? Giustifica la risposta.

Esercizio 2: Somma di due dadi

Si lancia due volte un dado a sei facce. Definiamo:

  • \(S = X + Y\), la somma dei due risultati.
  1. Costruisci la tabella di probabilità congiunta \(P(X, Y)\).
  2. Calcola la distribuzione di probabilità della variabile aleatoria \(S\).
  3. Determina \(P(S = 7)\) e \(P(S \leq 5)\).
  4. Qual è il valore più probabile di \(S\)? E il meno probabile?

Esercizio 3: Lancio di tre monete

Si lanciano tre monete equilibrate. Definiamo:

  • \(X\) il numero di teste ottenute.
  • \(Y\) il risultato del primo lancio (1 se testa, 0 se croce).
  1. Determina lo spazio campionario e associa i valori delle variabili aleatorie \(X\) e \(Y\).
  2. Costruisci la distribuzione congiunta \(P(X, Y)\).
  3. Calcola \(P(X = 2 \mid Y = 1)\) e \(P(Y = 1 \mid X = 2)\).
  4. Le variabili \(X\) e \(Y\) sono indipendenti?

Esercizio 4: Minimo e massimo tra due dadi

Si lancia due volte un dado a sei facce. Definiamo:

  • \(X = \min \{X_1, X_2\}\), il valore minimo tra i due lanci.
  • \(Y = \max \{X_1, X_2\}\), il valore massimo tra i due lanci.
  1. Costruisci la tabella della distribuzione congiunta \(P(X, Y)\).
  2. Calcola \(P(X = 3, Y = 5)\) e \(P(X \geq 3, Y \leq 4)\).
  3. Determina la distribuzione marginale di \(X\) e di \(Y\).
  4. Calcola la covarianza tra \(X\) e \(Y\).

Esercizio 5: Differenza tra due dadi

Si lanciano due dadi a sei facce. Definiamo:

  • \(X\) il risultato del primo lancio.
  • \(Y\) la differenza assoluta tra i due risultati, ovvero \(Y = |X - X_2|\).
  1. Determina la tabella della distribuzione congiunta \(P(X, Y)\).
  2. Calcola la distribuzione marginale di \(Y\).
  3. Determina \(P(Y = 0)\) e \(P(Y = 3)\).
  4. Le variabili \(X\) e \(Y\) sono indipendenti? Giustifica la risposta.

Esercizio 1: Distribuzione congiunta di due lanci di dado

Abbiamo due variabili aleatorie discrete: - \(X\), risultato del primo lancio di un dado a sei facce. - \(Y\), risultato del secondo lancio.

1. Tabella della distribuzione congiunta \(P(X, Y)\) Poiché il dado è equo, ogni coppia di risultati \((x, y)\) ha la stessa probabilità. Esistono \(6 \times 6 = 36\) combinazioni possibili, e ognuna ha probabilità:

\[ P(X = x, Y = y) = \frac{1}{36}, \quad \text{per ogni } x, y \in \{1, 2, 3, 4, 5, 6\} \]

La tabella della distribuzione congiunta è:

\(X\)  \(Y\) 1 2 3 4 5 6
1 1/36 1/36 1/36 1/36 1/36 1/36
2 1/36 1/36 1/36 1/36 1/36 1/36
3 1/36 1/36 1/36 1/36 1/36 1/36
4 1/36 1/36 1/36 1/36 1/36 1/36
5 1/36 1/36 1/36 1/36 1/36 1/36
6 1/36 1/36 1/36 1/36 1/36 1/36

2. Verifica che la somma delle probabilità sia 1 La somma di tutte le probabilità è:

\[ \sum_{x=1}^{6} \sum_{y=1}^{6} P(X = x, Y = y) = 36 \times \frac{1}{36} = 1. \]

3. Distribuzione marginale di \(X\) e \(Y\) Per ottenere la distribuzione marginale di \(X\):

\[ P(X = x) = \sum_{y=1}^{6} P(X = x, Y = y) = 6 \times \frac{1}{36} = \frac{1}{6}, \quad \forall x. \]

Analogamente, per \(Y\):

\[ P(Y = y) = \sum_{x=1}^{6} P(X = x, Y = y) = \frac{1}{6}, \quad \forall y. \]

Entrambe seguono una distribuzione uniforme su \(\{1, 2, 3, 4, 5, 6\}\).

4. Indipendenza di \(X\) e \(Y\) Due variabili sono indipendenti se \(P(X = x, Y = y) = P(X = x) P(Y = y)\).

\[ \frac{1}{36} = \frac{1}{6} \times \frac{1}{6} = \frac{1}{36}, \quad \forall x, y. \]

Poiché questa relazione vale per tutti i valori, \(X\) e \(Y\) sono indipendenti.

Esercizio 2: Somma di due dadi

Abbiamo:

\[ S = X + Y \]

1. Tabella di probabilità congiunta \(P(X, Y)\) È la stessa tabella costruita nel primo esercizio.

2. Distribuzione di probabilità di \(S\) La somma \(S\) assume valori da \(2\) (1+1) a \(12\) (6+6). La probabilità di ogni valore di \(S\) si ottiene contando le coppie \((x, y)\) che lo producono:

\(S\) \(P(S)\)
2 1/36
3 2/36
4 3/36
5 4/36
6 5/36
7 6/36
8 5/36
9 4/36
10 3/36
11 2/36
12 1/36

3. Calcolo di \(P(S = 7)\) e \(P(S \leq 5)\) - \(P(S = 7) = 6/36 = 1/6\). - \(P(S \leq 5) = P(S = 2) + P(S = 3) + P(S = 4) + P(S = 5)\)

\[ \frac{1}{36} + \frac{2}{36} + \frac{3}{36} + \frac{4}{36} = \frac{10}{36} = \frac{5}{18}. \]

4. Valori più probabili e meno probabili - Il valore più probabile è \(S = 7\) (\(P(S=7) = 1/6\)). - I valori meno probabili sono \(S = 2\) e \(S = 12\) (\(P(S) = 1/36\)).

Esercizio 3: Lancio di tre monete

Abbiamo:

  • Tre monete equilibrare.
  • Variabili:
    • \(X\): numero di teste ottenute.
    • \(Y\): risultato del primo lancio (1 se testa, 0 se croce).

1. Spazio campionario e valori di \(X\) e \(Y\)

Lo spazio campionario dei lanci è:

\[ \{ (C, C, C), (C, C, T), (C, T, C), (C, T, T), (T, C, C), (T, C, T), (T, T, C), (T, T, T) \} \]

Ora assegniamo \(X\) e \(Y\):

Lancio \(X\) (num. teste) \(Y\) (primo lancio)
C, C, C 0 0
C, C, T 1 0
C, T, C 1 0
C, T, T 2 0
T, C, C 1 1
T, C, T 2 1
T, T, C 2 1
T, T, T 3 1

2. Distribuzione congiunta \(P(X, Y)\)

Poiché ogni lancio ha probabilità \(\frac{1}{8}\), la tabella di probabilità congiunta è:

\(X\)  \(Y\) 0 1
0 1/8 0
1 2/8 1/8
2 1/8 3/8
3 0 1/8

3. Probabilità condizionate \(P(X = 2 \mid Y = 1)\) \[ P(X = 2 \mid Y = 1) = \frac{P(X = 2, Y = 1)}{P(Y = 1)} = \frac{3/8}{5/8} = \frac{3}{5}. \]

\(P(Y = 1 \mid X = 2)\) \[ P(Y = 1 \mid X = 2) = \frac{P(X = 2, Y = 1)}{P(X = 2)} = \frac{3/8}{4/8} = \frac{3}{4}. \]

4. Indipendenza di \(X\) e \(Y\)

Verifichiamo se \(P(X = x, Y = y) = P(X = x) P(Y = y)\) per ogni coppia.

Esempio: \(P(X = 2, Y = 1) = 3/8\) ma \(P(X=2) P(Y=1) = (4/8)(5/8) = 20/64 = 5/16 \neq 3/8\).

Quindi \(X\) e \(Y\) non sono indipendenti.

Esercizio 4: Minimo e massimo tra due dadi

Abbiamo:

  • \(X = \min(X_1, X_2)\), il minimo tra i due lanci.
  • \(Y = \max(X_1, X_2)\), il massimo tra i due lanci.

1. Tabella della distribuzione congiunta

Poiché i due lanci sono indipendenti e simmetrici, ci sono 36 coppie \((X_1, X_2)\), e ogni coppia ha probabilità \(\frac{1}{36}\).

La tabella congiunta si costruisce considerando che \(X = \min(X_1, X_2)\) e \(Y = \max(X_1, X_2)\):

\(X\)  \(Y\) 1 2 3 4 5 6
1 1/36 2/36 3/36 4/36 5/36 6/36
2 - 1/36 2/36 3/36 4/36 5/36
3 - - 1/36 2/36 3/36 4/36
4 - - - 1/36 2/36 3/36
5 - - - - 1/36 2/36
6 - - - - - 1/36

2. Probabilità richieste

  • \(P(X = 3, Y = 5) = 3/36\).
  • \(P(X \geq 3, Y \leq 4) = P(X = 3, Y = 3) + P(X = 3, Y = 4) + P(X = 4, Y = 4) = 1/36 + 2/36 + 1/36 = 4/36 = 1/9\).

Esercizio 5: Differenza tra due dadi

Abbiamo:

  • \(X\) = primo lancio.
  • \(Y = |X - X_2|\).

1. Tabella della distribuzione congiunta \(P(X, Y)\)

\(Y\) assume valori da 0 a 5, a seconda della differenza tra i due dadi:

\(X\)  \(Y\) 0 1 2 3 4 5
1 1/6 1/6 1/6 1/6 1/6 1/6
2 1/6 2/6 1/6 1/6 1/6 0
3 1/6 2/6 2/6 1/6 0 0
4 1/6 2/6 2/6 1/6 0 0
5 1/6 2/6 1/6 1/6 0 0
6 1/6 1/6 1/6 1/6 0 0

2. Distribuzione marginale di \(Y\)

Sommiamo lungo \(X\):

\(Y\) \(P(Y)\)
0 6/36
1 10/36
2 8/36
3 6/36
4 4/36
5 2/36

3. Probabilità richieste

  • \(P(Y = 0) = 6/36 = 1/6\).
  • \(P(Y = 3) = 6/36 = 1/6\).

4. Indipendenza di \(X\) e \(Y\)

Come nell’esercizio 3, verifichiamo che \(P(X, Y) \neq P(X) P(Y)\) per alcune coppie. Essendo la tabella non simmetrica, \(X\) e \(Y\) non sono indipendenti.

Considera il seguente esperimento casuale: si estrae una pallina da un’urna contenente tre palline numerate con i valori \(1\), \(2\) e \(3\).

Dopo l’estrazione, si definiscono due variabili casuali:

  • \(X\), il valore della pallina estratta.
  • \(Y\), il valore di un’altra variabile definita come \(Y = X^2\).
  1. Costruisci la distribuzione congiunta di \(X\) e \(Y\).
  2. Calcola il valore atteso di \(X\) e \(Y\), ossia \(E[X]\) e \(E[Y]\).
  3. Calcola la covarianza tra \(X\) e \(Y\), ossia \(\text{Cov}(X, Y)\).
  4. Calcola la correlazione tra \(X\) e \(Y\), ossia \(\rho(X, Y)\).
  5. Interpreta il valore della correlazione: cosa indica il segno e il valore ottenuto?

1. Distribuzione congiunta di \(X\) e \(Y\)

Poiché ogni pallina ha la stessa probabilità di essere estratta, la distribuzione congiunta è:

\(X\) \(Y = X^2\) \(P(X, Y)\)
1 1 \(\frac{1}{3}\)
2 4 \(\frac{1}{3}\)
3 9 \(\frac{1}{3}\)

2. Calcolo di \(E[X]\) e \(E[Y]\)

\[ E[X] = \sum_{i} x_i P(X = x_i) = 1 \cdot \frac{1}{3} + 2 \cdot \frac{1}{3} + 3 \cdot \frac{1}{3} = \frac{1 + 2 + 3}{3} = 2 \]

\[ E[Y] = \sum_{i} y_i P(Y = y_i) = 1 \cdot \frac{1}{3} + 4 \cdot \frac{1}{3} + 9 \cdot \frac{1}{3} = \frac{1 + 4 + 9}{3} = \frac{14}{3} \]

3. Calcolo della covarianza \(\text{Cov}(X, Y)\)

La covarianza è definita come:

\[ \text{Cov}(X, Y) = E[XY] - E[X]E[Y] \]

Prima calcoliamo \(E[XY]\):

\[ E[XY] = \sum_{i} x_i y_i P(X = x_i, Y = y_i) = 1 \cdot 1 \cdot \frac{1}{3} + 2 \cdot 4 \cdot \frac{1}{3} + 3 \cdot 9 \cdot \frac{1}{3} \]

\[ = \frac{1 + 8 + 27}{3} = \frac{36}{3} = 12 \]

Ora possiamo calcolare la covarianza:

\[ \text{Cov}(X, Y) = E[XY] - E[X]E[Y] = 12 - \left(2 \cdot \frac{14}{3}\right) = 12 - \frac{28}{3} = \frac{36 - 28}{3} = \frac{8}{3} \]

4. Calcolo della correlazione \(\rho(X, Y)\)

La correlazione è definita come:

\[ \rho(X, Y) = \frac{\text{Cov}(X, Y)}{\sigma_X \cdot \sigma_Y} \]

Calcoliamo prima le varianze:

\[ \text{Var}(X) = E[X^2] - (E[X])^2 \]

\[ E[X^2] = 1^2 \cdot \frac{1}{3} + 2^2 \cdot \frac{1}{3} + 3^2 \cdot \frac{1}{3} = \frac{1 + 4 + 9}{3} = \frac{14}{3} \]

\[ \text{Var}(X) = \frac{14}{3} - 2^2 = \frac{14}{3} - 4 = \frac{14 - 12}{3} = \frac{2}{3} \]

Ora la varianza di \(Y\):

\[ \text{Var}(Y) = E[Y^2] - (E[Y])^2 \]

\[ E[Y^2] = 1^2 \cdot \frac{1}{3} + 4^2 \cdot \frac{1}{3} + 9^2 \cdot \frac{1}{3} = \frac{1 + 16 + 81}{3} = \frac{98}{3} \]

\[ \text{Var}(Y) = \frac{98}{3} - \left(\frac{14}{3}\right)^2 = \frac{98}{3} - \frac{196}{9} = \frac{98 \cdot 3 - 196}{9} = \frac{294 - 196}{9} = \frac{98}{9} \]

Calcoliamo le deviazioni standard:

\[ \sigma_X = \sqrt{\text{Var}(X)} = \sqrt{\frac{2}{3}} = \frac{\sqrt{6}}{3} \]

\[ \sigma_Y = \sqrt{\text{Var}(Y)} = \sqrt{\frac{98}{9}} = \frac{\sqrt{98}}{3} \]

Ora possiamo calcolare la correlazione:

\[ \rho(X, Y) = \frac{\text{Cov}(X, Y)}{\sigma_X \cdot \sigma_Y} = \frac{\frac{8}{3}}{\frac{\sqrt{6}}{3} \cdot \frac{\sqrt{98}}{3}} \]

\[ = \frac{\frac{8}{3}}{\frac{\sqrt{6 \cdot 98}}{9}} = \frac{8 \cdot 9}{3 \cdot \sqrt{6 \cdot 98}} = \frac{24}{\sqrt{588}} \]

Poiché \(\sqrt{588} = \sqrt{4 \cdot 147} = 2\sqrt{147} = 2\sqrt{49 \cdot 3} = 2 \cdot 7 \cdot \sqrt{3} = 14\sqrt{3}\):

\[ \rho(X, Y) = \frac{24}{14\sqrt{3}} = \frac{12}{7\sqrt{3}} = \frac{12\sqrt{3}}{21} \approx 0.995 \]

5. Interpretazione della correlazione

  • Il valore \(\rho(X, Y) \approx 0.995\) è molto vicino a 1, indicando una correlazione positiva quasi perfetta tra \(X\) e \(Y\).
  • Il segno positivo indica che all’aumentare di \(X\), anche \(Y\) tende ad aumentare.
  • L’alto valore (prossimo a 1) indica che la relazione tra \(X\) e \(Y\) è quasi perfettamente lineare, il che è coerente con la definizione \(Y = X^2\) nell’intervallo considerato (piccoli valori positivi di \(X\)).

Esercizi sulla distribuzione di probabilità congiunta sono disponibili sulla seguente pagina web.

sessionInfo()
#> R version 4.5.1 (2025-06-13)
#> Platform: aarch64-apple-darwin20
#> Running under: macOS Tahoe 26.0
#> 
#> Matrix products: default
#> BLAS:   /Library/Frameworks/R.framework/Versions/4.5-arm64/Resources/lib/libRblas.0.dylib 
#> LAPACK: /Library/Frameworks/R.framework/Versions/4.5-arm64/Resources/lib/libRlapack.dylib;  LAPACK version 3.12.1
#> 
#> locale:
#> [1] C.UTF-8/UTF-8/C.UTF-8/C/C.UTF-8/C.UTF-8
#> 
#> time zone: Europe/Rome
#> tzcode source: internal
#> 
#> attached base packages:
#> [1] stats     graphics  grDevices utils     datasets  methods   base     
#> 
#> other attached packages:
#>  [1] pillar_1.11.1         tinytable_0.13.0      patchwork_1.3.2      
#>  [4] ggdist_3.3.3          tidybayes_3.0.7       bayesplot_1.14.0     
#>  [7] ggplot2_4.0.0         reliabilitydiag_0.2.1 priorsense_1.1.1     
#> [10] posterior_1.6.1       loo_2.8.0             rstan_2.32.7         
#> [13] StanHeaders_2.32.10   brms_2.23.0           Rcpp_1.1.0           
#> [16] sessioninfo_1.2.3     conflicted_1.2.0      janitor_2.2.1        
#> [19] matrixStats_1.5.0     modelr_0.1.11         tibble_3.3.0         
#> [22] dplyr_1.1.4           tidyr_1.3.1           rio_1.2.3            
#> [25] here_1.0.2           
#> 
#> loaded via a namespace (and not attached):
#>  [1] svUnit_1.0.8          tidyselect_1.2.1      farver_2.1.2         
#>  [4] S7_0.2.0              fastmap_1.2.0         TH.data_1.1-4        
#>  [7] tensorA_0.36.2.1      digest_0.6.37         timechange_0.3.0     
#> [10] estimability_1.5.1    lifecycle_1.0.4       survival_3.8-3       
#> [13] magrittr_2.0.4        compiler_4.5.1        rlang_1.1.6          
#> [16] tools_4.5.1           knitr_1.50            bridgesampling_1.1-2 
#> [19] htmlwidgets_1.6.4     curl_7.0.0            pkgbuild_1.4.8       
#> [22] RColorBrewer_1.1-3    abind_1.4-8           multcomp_1.4-28      
#> [25] withr_3.0.2           purrr_1.1.0           grid_4.5.1           
#> [28] stats4_4.5.1          colorspace_2.1-1      xtable_1.8-4         
#> [31] inline_0.3.21         emmeans_1.11.2-8      scales_1.4.0         
#> [34] MASS_7.3-65           cli_3.6.5             mvtnorm_1.3-3        
#> [37] rmarkdown_2.29        ragg_1.5.0            generics_0.1.4       
#> [40] RcppParallel_5.1.11-1 cachem_1.1.0          stringr_1.5.2        
#> [43] splines_4.5.1         parallel_4.5.1        vctrs_0.6.5          
#> [46] V8_7.0.0              Matrix_1.7-4          sandwich_3.1-1       
#> [49] jsonlite_2.0.0        arrayhelpers_1.1-0    systemfonts_1.2.3    
#> [52] glue_1.8.0            codetools_0.2-20      distributional_0.5.0 
#> [55] lubridate_1.9.4       stringi_1.8.7         gtable_0.3.6         
#> [58] QuickJSR_1.8.0        htmltools_0.5.8.1     Brobdingnag_1.2-9    
#> [61] R6_2.6.1              textshaping_1.0.3     rprojroot_2.1.1      
#> [64] evaluate_1.0.5        lattice_0.22-7        backports_1.5.0      
#> [67] memoise_2.0.1         broom_1.0.10          snakecase_0.11.1     
#> [70] rstantools_2.5.0      gridExtra_2.3         coda_0.19-4.1        
#> [73] nlme_3.1-168          checkmate_2.3.3       xfun_0.53            
#> [76] zoo_1.8-14            pkgconfig_2.0.3

Bibliografia

Blitzstein, J. K., & Hwang, J. (2019). Introduction to probability. CRC Press.
Chan, J. C. C., & Kroese, D. P. (2025). Statistical Modeling and Computation (2ª ed.). Springer.