31  Variabili casuali

In questo capitolo imparerai a:
  • Comprendere le definizioni e le caratteristiche delle variabili casuali discrete e continue, e le relative distribuzioni di probabilità;
  • Calcolare e interpretare il valore atteso di variabili casuali, sia discrete che continue;
  • Determinare e comprendere la varianza e la deviazione standard di variabili casuali, evidenziando come queste misure descrivano la dispersione dei dati.
Prerequisiti

Per seguire al meglio questo capitolo, è consigliato aver letto i seguenti riferimenti:

Preparazione del Notebook
here::here("code", "_common.R") |> 
  source()

31.1 Introduzione

Fino ad ora abbiamo studiato le probabilità associate a eventi, come la possibilità di vincere il gioco di Monty Hall o di avere una rara condizione medica in seguito a un test positivo. Tuttavia, in molte situazioni pratiche vogliamo conoscere aspetti più dettagliati. Ad esempio, potremmo chiederci:

  • Quanti tentativi occorrono affinché, in un gioco simile a Monty Hall, un concorrente vinca?
  • Quanto durerà un determinato evento o condizione?
  • Qual è la perdita attesa giocando d’azzardo con un dado sbilanciato per molte ore?

Per rispondere a tali domande è necessario lavorare con le variabili casuali. In questo capitolo introdurremo il concetto di variabile casuale e ne analizzeremo le proprietà fondamentali.

31.2 Definizione di Variabile Casuale

Una variabile casuale è una funzione che associa ogni elemento di uno spazio campionario a un valore numerico. Questo strumento permette di trasformare esiti qualitativi (ad esempio, il risultato di un lancio di carte, come cuori, quadri, fiori, picche) in valori numerici, facilitando così l’analisi matematica.

Definizione. Sia \(S\) lo spazio campionario di un esperimento aleatorio. Una variabile casuale \(X\) è una funzione
\[ X: S \longrightarrow \mathbb{R}, \] che associa ad ogni esito \(s \in S\) un numero reale \(X(s)\).

Esempio 31.1 Un esempio è la variabile casuale \(X\), che rappresenta la somma dei risultati del lancio di due dadi. Se definiamo \(X\) come la somma dei valori ottenuti dai due dadi, abbiamo trasformato un’osservazione fisica (il lancio dei dadi) in un valore numerico che rappresenta un evento specifico. Ad esempio, se il primo dado mostra 4 e il secondo dado mostra 4, allora \(X = 8\).

La variabile aleatoria \(X\) rappresenta la somma di due dadi (figura tratta da Chan & Kroese, 2025).

Esempio 31.2 Lanciamo due dadi equilibrati e annotiamo la somma dei valori delle loro facce. Se lanciamo i dadi consecutivamente e osserviamo entrambi i risultati, lo spazio campionario è:
\[ \Omega = \{(1, 1), \dots, (6, 6)\}. \]
La funzione \(X\), definita come \(X(i, j) = i + j\), è una variabile aleatoria che associa l’esito \((i, j)\) alla somma \(i + j\), come illustrato nella figura dell’esempio precedente.

Notiamo che cinque esiti nello spazio campionario sono mappati al valore 8. Una notazione naturale per indicare l’insieme di questi esiti è \(\{X = 8\}\). Poiché tutti gli esiti in \(\Omega\) sono equiprobabili, la probabilità di ottenere una somma pari a 8 è:
\[ P(\{X = 8\}) = \frac{5}{36}. \]

31.3 Tipologie di Variabili Casuali

Le variabili casuali si dividono in due categorie principali:

31.3.1 Variabili Casuali Discrete

Una variabile casuale discreta assume un insieme finito o numerabile di valori. Gli esempi includono il numero di teste ottenute in lanci di moneta o la somma dei risultati di due dadi. Per queste variabili, la funzione di massa di probabilità (PMF) assegna a ciascun valore \(x\) la probabilità \(P(X = x)\).

Esempio 31.3 Nel lancio di due dadi, la variabile \(X\) (somma dei punti) può assumere valori interi da 2 a 12. La distribuzione di \(X\) si ottiene contando i casi favorevoli per ciascun valore e dividendo per il numero totale di esiti (36).

31.3.2 Variabili Casuali Continue

Una variabile casuale continua può assumere infiniti valori in un intervallo (ad esempio, l’altezza di una persona). In questo caso non si assegna una probabilità a un singolo valore (che risulterebbe essere zero), ma si definisce una funzione di densità di probabilità (PDF), tale che l’integrale della funzione su un intervallo fornisce la probabilità che la variabile cada in quell’intervallo.

Esempio 31.4 Considera una variabile \(X\) che rappresenta l’altezza in centimetri. Invece di \(P(X = 170)\), calcoliamo probabilità come \(P(170 \leq X \leq 180)\) mediante l’integrale della PDF in quell’intervallo.

31.4 Notazione Convenzionale

Nella letteratura di probabilità si adotta una convenzione per distinguere la variabile casuale dal suo valore specifico:

  • Si utilizza la lettera maiuscola (es. \(X\)) per indicare la variabile casuale.
  • La lettera minuscola (es. \(x\)) rappresenta un particolare valore che \(X\) può assumere.

Questa distinzione aiuta a chiarire quando si parla del concetto generale rispetto a un’osservazione specifica.

31.5 Variabili Casuali Multiple

Spesso si studiano esperimenti in cui più variabili casuali interagiscono. Ad esempio, nel lancio di una moneta per tre volte possiamo definire tre variabili casuali indipendenti \(X_1\), \(X_2\) e \(X_3\), dove:

\[ P(X_n = 1) = 0.5 \quad (\text{testa}), \qquad P(X_n = 0) = 0.5 \quad (\text{croce}), \quad n = 1, 2, 3. \]

Si può poi definire una nuova variabile casuale, ad esempio: \[ Z = X_1 + X_2 + X_3, \] che rappresenta il numero totale di teste ottenute. In questo caso, \(Z\) è una variabile discreta che può assumere i valori 0, 1, 2 o 3.

31.6 Distribuzione di Probabilità

La distribuzione di probabilità di una variabile casuale descrive come le probabilità sono assegnate ai possibili valori (o intervalli di valori) della variabile.

31.6.1 Funzione di Massa di Probabilità (PMF) per Variabili Discrete

Per una variabile discreta \(X\), la distribuzione è definita attraverso la PMF, \(f(x)\), dove: \[ f(x) = P(X = x). \]

Una volta nota la PMF, è possibile calcolare la probabilità di qualsiasi evento correlato a \(X\). Ad esempio, per un insieme \(B\) di valori: \[ P(X \in B) = \sum_{x \in B} f(x). \]

Esempio 31.5 Consideriamo di nuovo il lancio di due dadi con \(X\) definita come la somma dei loro valori. La tabella seguente riassume i casi favorevoli, il numero di occorrenze e la probabilità associata a ciascun valore:

\(X\) Casi Favoriti Numero di Casi \(P(X = x)\)
2 \((1,1)\) 1 \(\frac{1}{36}\)
3 \((1,2), (2,1)\) 2 \(\frac{2}{36} = \frac{1}{18}\)
4 \((1,3), (2,2), (3,1)\) 3 \(\frac{3}{36} = \frac{1}{12}\)
5 \((1,4), (2,3), (3,2), (4,1)\) 4 \(\frac{4}{36} = \frac{1}{9}\)
6 \((1,5), (2,4), (3,3), (4,2), (5,1)\) 5 \(\frac{5}{36}\)
7 \((1,6), (2,5), (3,4), (4,3), (5,2), (6,1)\) 6 \(\frac{6}{36} = \frac{1}{6}\)
8 \((2,6), (3,5), (4,4), (5,3), (6,2)\) 5 \(\frac{5}{36}\)
9 \((3,6), (4,5), (5,4), (6,3)\) 4 \(\frac{4}{36} = \frac{1}{9}\)
10 \((4,6), (5,5), (6,4)\) 3 \(\frac{3}{36} = \frac{1}{12}\)
11 \((5,6), (6,5)\) 2 \(\frac{2}{36} = \frac{1}{18}\)
12 \((6,6)\) 1 \(\frac{1}{36}\)

Questa tabella descrive in maniera completa la distribuzione di \(X\): ad esempio, la probabilità di ottenere una somma pari a 7 è \(\frac{1}{6}\) perché esistono 6 combinazioni favorevoli su 36 possibili.

31.6.2 Funzione di Distribuzione Cumulativa (CDF)

La funzione di distribuzione cumulativa (CDF) di una variabile casuale \(X\) è definita da: \[ F(x) = P(X \leq x). \] Questa funzione fornisce la probabilità che \(X\) assuma un valore minore o uguale a \(x\). In altre parole, la CDF rappresenta la probabilità cumulata dalla parte inferiore dello spazio di probabilità fino al punto \(x\).

31.6.2.1 Proprietà della CDF

  1. Monotonia non decrescente:
    Se \(x_1 < x_2\), allora \(F(x_1) \leq F(x_2)\). La funzione non diminuisce mai al crescere di \(x\).

  2. Normalizzazione:
    \[ \lim_{x \to -\infty} F(x) = 0 \quad \text{e} \quad \lim_{x \to +\infty} F(x) = 1. \] Questo significa che la probabilità cumulata parte da 0 e, all’infinito, raggiunge 1.

  3. Continuità a destra:
    Per ogni \(x\), vale \(F(x) = \lim_{h \downarrow 0} F(x+h)\).

Per una variabile discreta, la CDF si calcola sommando le probabilità dei valori minori o uguali a \(x\): \[ F(x) = \sum_{x_i \le x} P(X = x_i). \]

Esempio 31.6 Utilizzando la variabile casuale \(Z\) definita come la somma dei due dadi, possiamo costruire una tabella che riassuma sia la PMF che la CDF:

\(z\) \(P(Z = z)\) \(F(z)\)
2 \(\frac{1}{36}\) \(\frac{1}{36}\)
3 \(\frac{2}{36}\) \(\frac{1+2}{36} = \frac{3}{36}\)
4 \(\frac{3}{36}\) \(\frac{1+2+3}{36} = \frac{6}{36}\)
5 \(\frac{4}{36}\) \(\frac{10}{36}\)
6 \(\frac{5}{36}\) \(\frac{15}{36}\)
7 \(\frac{6}{36}\) \(\frac{21}{36}\)
8 \(\frac{5}{36}\) \(\frac{26}{36}\)
9 \(\frac{4}{36}\) \(\frac{30}{36}\)
10 \(\frac{3}{36}\) \(\frac{33}{36}\)
11 \(\frac{2}{36}\) \(\frac{35}{36}\)
12 \(\frac{1}{36}\) \(\frac{36}{36} = 1\)

Ad esempio, \(F(7) = \frac{21}{36}\) significa che la probabilità di ottenere una somma minore o uguale a 7 è \(\frac{21}{36}\).

31.7 Distribuzioni per Variabili Continue

Per le variabili casuali continue, non si usa la PMF ma la funzione di densità di probabilità (PDF). Una variabile casuale \(X\) si dice avere una distribuzione continua se esiste una funzione \(f\) positiva, tale che:

  1. L’integrale totale di \(f\) risulta pari a 1: \[ \int_{-\infty}^{+\infty} f(x) \, dx = 1. \]
  2. La probabilità che \(X\) cada in un intervallo \((a, b]\) è data da: \[ P(a < X \leq b) = \int_a^b f(x) \, dx. \]

Anche se usiamo lo stesso simbolo \(f\) per indicare la funzione di probabilità sia nel caso discreto che in quello continuo, il significato è adattato al contesto. Nel caso continuo la probabilità di un valore specifico è zero, mentre è l’integrale della PDF su un intervallo a fornire la probabilità.

31.8 Simulazione della Distribuzione di Probabilità

Spesso, anche se è possibile calcolare analiticamente la distribuzione di probabilità (come nel caso dei due dadi), può essere utile ottenere una stima empirica attraverso la simulazione. Questo approccio prevede di ripetere l’esperimento molte volte e di analizzare le frequenze relative dei risultati ottenuti.

31.8.1 Esempio di Simulazione in R

Vediamo come implementare in R una simulazione per il lancio di due dadi e ottenere la distribuzione empirica della somma dei loro valori.

  1. Definire una funzione per il lancio di un dado:

    # Funzione per simulare il lancio di un dado a sei facce
    roll_die <- function() {
      sample(1:6, size = 1)
    }
  2. Definire una funzione per simulare il lancio di due dadi:

    # Funzione per simulare il lancio di due dadi per n volte
    roll_two_dice <- function(n) {
      purrr::map_dbl(1:n, ~ roll_die() + roll_die())
    }
  3. Simulare 100,000 lanci e visualizzare i primi 20 risultati:

    # Numero di simulazioni
    nrolls <- 100000
    
    # Simula i risultati del lancio di due dadi
    res <- roll_two_dice(nrolls)
    
    # Visualizza i primi 20 risultati
    cat(res[1:20], "\n")
    #> 6 2 6 4 5 6 10 4 4 4 9 10 6 7 3 8 9 6 10 7
  4. Calcolare la distribuzione empirica:

    Utilizzando il pacchetto tidyverse, creiamo un DataFrame e calcoliamo le frequenze relative per ciascun valore (da 2 a 12):

    # Converti i risultati in un DataFrame (tibble)
    df <- tibble(y = res)
    
    # Calcola la distribuzione empirica delle probabilità
    empirical_probs <- df |> 
      count(y) |> # Calcola le frequenze assolute
      complete(y = 2:12, fill = list(n = 0)) |> # Assicura che siano presenti tutti i valori
      mutate(prob = n / nrolls)  # Calcola le probabilità relative
    
    # Visualizza la distribuzione empirica
    empirical_probs |> 
      dplyr::select(y, prob)
    #> # A tibble: 11 × 2
    #>        y   prob
    #>    <dbl>  <dbl>
    #>  1     2 0.0282
    #>  2     3 0.0566
    #>  3     4 0.0849
    #>  4     5 0.111 
    #>  5     6 0.139 
    #>  6     7 0.165 
    #>  7     8 0.138 
    #>  8     9 0.110 
    #>  9    10 0.0830
    #> 10    11 0.0546
    #> 11    12 0.0285

Il risultato finale è una tabella che mostra per ogni valore (da 2 a 12) la frequenza relativa stimata. Con un numero elevato di simulazioni, questa distribuzione empirica convergerà a quella teorica, confermando la validità del modello analitico.

31.9 Conclusioni

Il concetto di variabile casuale ci consente di rappresentare numericamente i risultati di processi aleatori, trasformando osservazioni qualitative in dati quantitativi.

  • Le variabili discrete utilizzano la funzione di massa di probabilità (PMF) per assegnare una probabilità a ciascun valore possibile.
  • Le variabili continue sono descritte attraverso la funzione di densità di probabilità (PDF), e le probabilità sono calcolate integrando su intervalli.

La funzione di distribuzione cumulativa (CDF) è un ulteriore strumento che consente di esprimere in forma cumulata la probabilità di ottenere valori minori o uguali a un certo punto.
Infine, le simulazioni numeriche rappresentano un metodo pratico per verificare le distribuzioni teoriche, rendendo questi concetti più tangibili e applicabili anche in situazioni complesse.

31.10 Informazioni sull’Ambiente di Sviluppo

sessionInfo()
#> R version 4.4.2 (2024-10-31)
#> Platform: aarch64-apple-darwin20
#> Running under: macOS Sequoia 15.3.1
#> 
#> Matrix products: default
#> BLAS:   /Library/Frameworks/R.framework/Versions/4.4-arm64/Resources/lib/libRblas.0.dylib 
#> LAPACK: /Library/Frameworks/R.framework/Versions/4.4-arm64/Resources/lib/libRlapack.dylib;  LAPACK version 3.12.0
#> 
#> locale:
#> [1] C/UTF-8/C/C/C/C
#> 
#> time zone: Europe/Rome
#> tzcode source: internal
#> 
#> attached base packages:
#> [1] stats     graphics  grDevices utils     datasets  methods   base     
#> 
#> other attached packages:
#>  [1] thematic_0.1.6   MetBrewer_0.2.0  ggokabeito_0.1.0 see_0.10.0      
#>  [5] gridExtra_2.3    patchwork_1.3.0  bayesplot_1.11.1 psych_2.4.12    
#>  [9] scales_1.3.0     markdown_1.13    knitr_1.49       lubridate_1.9.4 
#> [13] forcats_1.0.0    stringr_1.5.1    dplyr_1.1.4      purrr_1.0.4     
#> [17] readr_2.1.5      tidyr_1.3.1      tibble_3.2.1     ggplot2_3.5.1   
#> [21] tidyverse_2.0.0  rio_1.2.3        here_1.0.1      
#> 
#> loaded via a namespace (and not attached):
#>  [1] generics_0.1.3    stringi_1.8.4     lattice_0.22-6    hms_1.1.3        
#>  [5] digest_0.6.37     magrittr_2.0.3    evaluate_1.0.3    grid_4.4.2       
#>  [9] timechange_0.3.0  fastmap_1.2.0     rprojroot_2.0.4   jsonlite_1.9.1   
#> [13] mnormt_2.1.1      cli_3.6.4         rlang_1.1.5       munsell_0.5.1    
#> [17] withr_3.0.2       tools_4.4.2       parallel_4.4.2    tzdb_0.4.0       
#> [21] colorspace_2.1-1  pacman_0.5.1      vctrs_0.6.5       R6_2.6.1         
#> [25] lifecycle_1.0.4   htmlwidgets_1.6.4 pkgconfig_2.0.3   pillar_1.10.1    
#> [29] gtable_0.3.6      glue_1.8.0        xfun_0.51         tidyselect_1.2.1 
#> [33] rstudioapi_0.17.1 farver_2.1.2      htmltools_0.5.8.1 nlme_3.1-167     
#> [37] rmarkdown_2.29    compiler_4.4.2

Bibliografia

Blitzstein, J. K., & Hwang, J. (2019). Introduction to probability. CRC Press.
Chan, J. C. C., & Kroese, D. P. (2025). Statistical Modeling and Computation (2ª ed.). Springer.
Schervish, M. J., & DeGroot, M. H. (2014). Probability and statistics (Vol. 563). Pearson Education London, UK: