36 Covarianza e correlazione
36.1 Introduzione
Quando due variabili casuali non sono indipendenti, diciamo che esse sono associate o dipendenti. È importante non solo stabilire se tale relazione esista, ma anche quantificare la sua intensità e la sua direzione. A tal fine, utilizziamo due misure chiave: la covarianza e la correlazione.
36.2 Covarianza
La covarianza misura il grado e la direzione della relazione lineare tra due variabili casuali. Una covarianza positiva indica che le due variabili tendono ad aumentare o diminuire insieme, mentre una covarianza negativa indica che una variabile tende ad aumentare quando l’altra diminuisce.
36.2.1 Definizione di Covarianza
La covarianza tra due variabili casuali discrete \(X\) e \(Y\) è definita come:
\[ \text{Cov}(X, Y) = \mathbb{E}\left[(X - \mathbb{E}[X])(Y - \mathbb{E}[Y])\right] . \]
Esplicitamente, questa definizione può essere riscritta come:
\[ \text{Cov}(X, Y) = \sum_{x}\sum_{y}(x - \mu_X)(y - \mu_Y)p(x, y) . \]
dove \(\mu_X\) e \(\mu_Y\) sono le medie delle variabili \(X\) e \(Y\) e \(p(x,y)\) è la funzione di massa di probabilità congiunta.
Questa definizione mostra una stretta analogia con la varianza, che è la covarianza di una variabile con se stessa:
\[ \mathbb{V}(X) = Cov(X, X). \]
Inoltre, la covarianza può essere calcolata attraverso la relazione:
\[ Cov(X, Y) = \mathbb{E}(XY) - \mathbb{E}(X)\mathbb{E}(Y). \]
36.2.2 Dimostrazione
La formula alternativa per la covarianza si dimostra come segue.
Per definizione, la covarianza tra due variabili casuali \(X\) e \(Y\) è:
\[ \mathrm{Cov}(X, Y) \;=\; \mathbb{E}\Bigl[\bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr)\Bigr]. \]
Questa è semplicemente la definizione formale, in cui consideriamo la “deviazione” di \(X\) dal proprio valor medio (\(\mathbb{E}[X]\)) e la “deviazione” di \(Y\) dal proprio valor medio (\(\mathbb{E}[Y]\)), e ne calcoliamo l’aspettativa del prodotto.
Consideriamo l’argomento dell’aspettativa: \(\bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr)\).
Per prima cosa espandiamo il prodotto come faremmo con normali variabili algebriche:
\[ \bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr) = X\,Y \;-\; X\,\mathbb{E}[Y] \;-\; \mathbb{E}[X]\,Y \;+\; \mathbb{E}[X]\mathbb{E}[Y]. \]
Adesso prendiamo l’aspettativa (o valore atteso) di ciascun termine che abbiamo ottenuto. Indichiamo con \(\mathbb{E}\) l’operatore di aspettativa:
\[ \mathbb{E}\Bigl[\bigl(X - \mathbb{E}[X]\bigr)\,\bigl(Y - \mathbb{E}[Y]\bigr)\Bigr] = \mathbb{E}[\,X\,Y \;-\; X\,\mathbb{E}[Y] \;-\; \mathbb{E}[X]\,Y \;+\; \mathbb{E}[X]\mathbb{E}[Y]\,]. \]
Grazie alla linearità dell’aspettativa, possiamo scindere questa grande aspettativa in una somma (e differenza) di aspettative di singoli termini:
\[ = \mathbb{E}[XY] \;-\; \mathbb{E}[X\,\mathbb{E}[Y]] \;-\; \mathbb{E}[\mathbb{E}[X]\,Y] \;+\; \mathbb{E}[\mathbb{E}[X]\mathbb{E}[Y]]. \]
Ricordiamo che \(\mathbb{E}[X]\) e \(\mathbb{E}[Y]\) sono numeri (costanti) e non variabili casuali. Dunque, quando nell’aspettativa compare un fattore costante, possiamo estrarlo fuori dall’operatore \(\mathbb{E}[\cdot]\).
\(\mathbb{E}[X\,\mathbb{E}[Y]]\) si semplifica in \(\mathbb{E}[Y]\cdot \mathbb{E}[X]\) perché \(\mathbb{E}[Y]\) è una costante. In formula: \[ \mathbb{E}[X\,\mathbb{E}[Y]] = \mathbb{E}[Y] \,\mathbb{E}[X]. \]
Allo stesso modo, \(\mathbb{E}[\mathbb{E}[X]\,Y]\) si semplifica in \(\mathbb{E}[X]\cdot \mathbb{E}[Y]\).
Infine, \(\mathbb{E}[\mathbb{E}[X]\mathbb{E}[Y]]\) è \(\mathbb{E}[X]\mathbb{E}[Y]\) in quanto \(\mathbb{E}[X]\mathbb{E}[Y]\) è già una costante.
Usando queste regole, riscriviamo i termini:
\[ \mathbb{E}[XY] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;+\; \mathbb{E}[X]\mathbb{E}[Y]. \]
Osserviamo i termini rimanenti:
\[ \mathbb{E}[XY] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;-\; \mathbb{E}[X]\mathbb{E}[Y] \;+\; \mathbb{E}[X]\mathbb{E}[Y]. \]
- Il termine \(\mathbb{E}[X]\mathbb{E}[Y]\) compare due volte in negativo (\(-\,\mathbb{E}[X]\mathbb{E}[Y]\)) e una volta in positivo (\(+\,\mathbb{E}[X]\mathbb{E}[Y]\)).
- Facendo la somma algebrica, ne rimane solo \(-\,\mathbb{E}[X]\mathbb{E}[Y]\) (perché \(-\,1 -\,1 +\,1 = -\,1\)).
Quindi il risultato è:
\[ \mathbb{E}[XY] \;-\; \mathbb{E}[X]\mathbb{E}[Y]. \]
Abbiamo quindi dimostrato in maniera esplicita che:
\[ \mathrm{Cov}(X, Y) = \mathbb{E}\bigl[(X - \mathbb{E}[X]) (Y - \mathbb{E}[Y])\bigr] = \mathbb{E}[XY] - \mathbb{E}[X]\mathbb{E}[Y]. \]
36.2.3 Esempio Psicologico: Covarianza tra Ansia e Prestazione Cognitiva
Riprendendo i dati del capitolo precedente sulla relazione tra ansia (Y) e prestazione cognitiva (X), calcoliamo ora la covarianza.
Medie marginali:
- Prestazione cognitiva \(X\):
\[\mathbb{E}(X)=0\times0.30 + 1\times0.45 + 2\times0.25=0.95\] - Ansia \(Y\):
\[\mathbb{E}(Y)=0\times0.30 + 1\times0.40 + 2\times0.30=1.00\]
Calcoliamo \(\mathbb{E}(XY)\):
\[ \begin{aligned} \mathbb{E}(XY) &= (0\times0\times0.05)+(0\times1\times0.10)+(0\times2\times0.15)+ \notag\\ & \quad (1\times0\times0.15)+(1\times1\times0.20)+(1\times2\times0.10)+ \notag\\ & \quad(2\times0\times0.10)+(2\times1\times0.10)+(2\times2\times0.05) \end{aligned} \]
Simplificando:
\[\mathbb{E}(XY)=0.00+0.00+0.00+0.00+0.20+0.20+0.00+0.20+0.20=0.80\]
Quindi, la covarianza sarà:
\[\text{Cov}(X,Y)=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)=0.80-(0.95\times1.00)=-0.15\]
La covarianza negativa indica che all’aumentare del livello di ansia tende a corrispondere una diminuzione della prestazione cognitiva, coerentemente con quanto spesso riscontrato nella letteratura psicologica.
36.3 Correlazione
La correlazione standardizza la covarianza, rendendola indipendente dalle unità di misura delle variabili. Essa varia tra -1 e 1 ed è definita come:
\[ \rho(X,Y)=\frac{\text{Cov}(X,Y)}{\sqrt{\text{Var}(X)\text{Var}(Y)}} . \]
dove \(\mathbb{V}(X)\) e \(\mathbb{V}(Y)\) rappresentano le varianze di \(X\) e \(Y\), rispettivamente.
Il coefficiente di correlazione \(\rho_{xy}\) è un valore adimensionale, ovvero non dipende dalle unità di misura delle variabili, e varia nell’intervallo \(-1 \leq \rho \leq 1\).
36.3.1 Calcolo della Correlazione
Per calcolare la correlazione tra ansia e prestazione cognitiva, dobbiamo prima ottenere le varianze di ciascuna variabile.
- Varianza di X (prestazione cognitiva):
\[ \begin{aligned} \text{Var}(X) &=\sum_{x}(x-\mu_X)^2p(x) \notag\\ &= (0-0.95)^2\times0.30+(1-0.95)^2\times0.45+(2-0.95)^2\times0.25=0.5475 \notag \end{aligned} \]
- Varianza di Y (ansia):
\[ \begin{aligned} \text{Var}(Y) &=\sum_{y}(y-\mu_Y)^2p(y) \notag\\ &= (0-1.00)^2\times0.30+(1-1.00)^2\times0.40+(2-1.00)^2\times0.30=0.60 \notag \end{aligned} \]
Quindi, il coefficiente di correlazione è:
\[ \rho(X,Y)=\frac{-0.15}{\sqrt{0.5475\times0.60}}=-0.261 \]
Il valore negativo della correlazione conferma che ansia e prestazione cognitiva presentano una relazione inversa: all’aumentare dell’ansia, la prestazione tende a diminuire.
36.4 Interpretazione della Correlazione
Il coefficiente di correlazione è una misura standardizzata e facile da interpretare:
- \(\rho = 1\): perfetta relazione lineare positiva
- \(\rho = -1\): perfetta relazione lineare negativa
- \(\rho = 0\): assenza di relazione lineare
Nel nostro esempio, il valore \(-0.261\) indica una relazione lineare negativa moderata tra ansia e prestazione.
36.5 Proprietà
- Covarianza con una Costante: La covarianza tra una variabile aleatoria \(X\) e una costante \(c\) è sempre nulla: \(Cov(c, X) = 0\).
- Simmetria: La covarianza è simmetrica: \(Cov(X,Y) = Cov(Y,X)\).
- Intervallo di Correlazione: Il coefficiente di correlazione \(\rho\) varia tra -1 e 1: \(-1 \leq \rho(X,Y) \leq 1\).
- Indipendenza dalle Unità di Misura: La correlazione è indipendente dalle unità di misura: \(\rho(aX, bY) = \rho(X,Y)\) per ogni \(a, b > 0\).
- Relazione Lineare Perfetta: Se \(Y = a + bX\) è una funzione lineare di \(X\), allora \(\rho(X,Y) = \pm 1\), a seconda del segno di \(b\).
- Covarianza e Costanti: La covarianza tra \(X\) e \(Y\), ciascuna moltiplicata per una costante, è \(Cov(aX, bY) = ab \, Cov(X,Y)\).
- Varianza della Somma/Differenza: \(\mathbb{V}(X \pm Y) = \mathbb{V}(X) + \mathbb{V}(Y) \pm 2Cov(X,Y)\).
- Covarianza e Somma di Variabili: \(Cov(X + Y, Z) = Cov(X,Z) + Cov(Y,Z)\).
- Varianza di una Somma di Variabili Aleatorie: Per variabili aleatorie \(X_1, \dots, X_n\), si ha \(\mathbb{V}(\sum_{i=1}^n X_i) = \sum_{i=1}^n \mathbb{V}(X_i) + 2\sum_{i<j} Cov(X_i, X_j)\).
- Covarianza e Somme di Prodotti: \(Cov(\sum_{i=1}^n a_i X_i, \sum_{j=1}^m b_j Y_j) = \sum_{i=1}^n \sum_{j=1}^m a_i b_j Cov(X_i, Y_j)\).
- Indipendenza e Covarianza di Somme: Se \(X_1, X_2, \dots, X_n\) sono indipendenti, allora \(Cov(\sum_{i=1}^n a_i X_i, \sum_{j=1}^n b_j X_j) = \sum_{i=1}^n a_i b_i \mathbb{V}(X_i)\).
36.5.1 Incorrelazione
Due variabili casuali \(X\) ed \(Y\) si dicono incorrelate, o linearmente indipendenti, se la loro covarianza è nulla:
\[ Cov(X,Y) = \mathbb{E}[(X - \mu_X)(Y - \mu_Y)] = 0, \]
equivalente a dire che \(\rho_{XY} = 0\) e \(\mathbb{E}(XY) = \mathbb{E}(X)\mathbb{E}(Y)\).
Questa condizione indica una forma di indipendenza più debole rispetto all’indipendenza stocastica. Tuttavia, \(Cov(X, Y) = 0\) non implica necessariamente che \(X\) ed \(Y\) siano stocasticamente indipendenti.
Esempio 36.1 Consideriamo una distribuzione di probabilità congiunta di due variabili aleatorie, \(X\) e \(Y\), definita come:
\[ f_{XY}(x,y) = \left\{ \begin{array}{ll} \frac{1}{4} & \text{per } (x,y) \in \{(0,0), (1,1), (1, -1), (2,0) \}, \\ 0 & \text{altrimenti.} \end{array} \right. \]
Questo implica che le variabili aleatorie \(X\) e \(Y\) assumono valori specifici con probabilità uniforme solo per determinate coppie \((x, y)\) e zero in tutti gli altri casi.
36.6 Conclusioni
La covarianza e la correlazione forniscono strumenti essenziali per quantificare le relazioni tra variabili casuali. Utilizzare queste misure permette di approfondire la comprensione delle relazioni psicologiche, come quella tra ansia e prestazione, facilitando ulteriori analisi statistiche e interpretazioni teoriche.
Esercizi
36.7 Informazioni sull’Ambiente di Sviluppo
sessionInfo()
#> R version 4.5.0 (2025-04-11)
#> Platform: aarch64-apple-darwin20
#> Running under: macOS Sequoia 15.5
#>
#> Matrix products: default
#> BLAS: /Library/Frameworks/R.framework/Versions/4.5-arm64/Resources/lib/libRblas.0.dylib
#> LAPACK: /Library/Frameworks/R.framework/Versions/4.5-arm64/Resources/lib/libRlapack.dylib; LAPACK version 3.12.1
#>
#> locale:
#> [1] C/UTF-8/C/C/C/C
#>
#> time zone: Europe/Rome
#> tzcode source: internal
#>
#> attached base packages:
#> [1] stats graphics grDevices utils datasets methods base
#>
#> other attached packages:
#> [1] thematic_0.1.6 MetBrewer_0.2.0 ggokabeito_0.1.0 see_0.11.0
#> [5] gridExtra_2.3 patchwork_1.3.0 bayesplot_1.12.0 psych_2.5.3
#> [9] scales_1.4.0 markdown_2.0 knitr_1.50 lubridate_1.9.4
#> [13] forcats_1.0.0 stringr_1.5.1 dplyr_1.1.4 purrr_1.0.4
#> [17] readr_2.1.5 tidyr_1.3.1 tibble_3.2.1 ggplot2_3.5.2
#> [21] tidyverse_2.0.0 rio_1.2.3 here_1.0.1
#>
#> loaded via a namespace (and not attached):
#> [1] generics_0.1.4 stringi_1.8.7 lattice_0.22-7
#> [4] hms_1.1.3 digest_0.6.37 magrittr_2.0.3
#> [7] evaluate_1.0.3 grid_4.5.0 timechange_0.3.0
#> [10] RColorBrewer_1.1-3 fastmap_1.2.0 rprojroot_2.0.4
#> [13] jsonlite_2.0.0 mnormt_2.1.1 cli_3.6.5
#> [16] rlang_1.1.6 withr_3.0.2 tools_4.5.0
#> [19] parallel_4.5.0 tzdb_0.5.0 pacman_0.5.1
#> [22] vctrs_0.6.5 R6_2.6.1 lifecycle_1.0.4
#> [25] htmlwidgets_1.6.4 pkgconfig_2.0.3 pillar_1.10.2
#> [28] gtable_0.3.6 glue_1.8.0 xfun_0.52
#> [31] tidyselect_1.2.1 rstudioapi_0.17.1 farver_2.1.2
#> [34] htmltools_0.5.8.1 nlme_3.1-168 rmarkdown_2.29
#> [37] compiler_4.5.0