11.1 Il paradosso di Kelley

Negli anni ’20, Kelly ha dimostrato come sia possibile stimare il punteggio vero del rispondente utilizzando il modello di regressione. La formula di Kelley si basa sull’equivalenza algebrica secondo cui l’attendibilità è uguale al quadrato del coefficiente di correlazione tra i punteggi osservati e i punteggi veri. Quindi, sulla base della formula di Kelley, il punteggio vero di un rispondente può essere stimato nel seguente modo:

\[ \hat{T} = \mu_x + \rho (X - \mu_x), \tag{11.1} \] laddove \(X\) è il punteggio osservato, \(\mu_x\) è la media dei punteggi ottenuti da tutti i rispondenti di un campione e \(\rho\) è l’attendibilità del test.

Quando l’attendibilità è perfetta (\(\rho = 1\)), il punteggio vero è uguale al punteggio osservato. Quando l’attendibilità è zero (tutta la varianza è dovuta all’errore della misurazione), allora la stima migliore del punteggio vero è data dalla media del campione. Quando \(0 < \rho < 1\), la stima del punteggio vero corrisponde ad un valore che si discosta dal punteggio osservato nella direzione della media del campione. La stima del punteggio vero, dunque, esibisce la proprietà della regressione verso la media del punteggio osservato, in funzione dell’attendibilità del test.

La formula del punteggio vero (11.1) può essere spiegata come segue: per stimare il punteggio vero di un rispondente, si parte dalla media della distribuzione della popolazione dei rispondenti e si si sposta in direzione del punteggio osservato. Tuttavia, il valore del punteggio osservato non viene raggiunto, ma la quantità di spostamento è proporzionale all’attendibilità. Ciò significa che, a seconda della dimensione di \(\rho\), la stima del punteggio vero dell’individuo dipende anche dalla sua posizione relativa al gruppo di appartenenza. Se l’individuo si trova al di sotto della media del gruppo, la stima del punteggio vero sarà spostata verso l’alto e viceversa. Questo effetto è noto come il “paradosso di Kelley”.

È importante sottolineare che l’interpretazione precedente evidenzia una contraddizione tra la formula di Kelley e la nozione intuitiva secondo cui il punteggio osservato può essere utilizzato come stima del punteggio vero (ovvero \(\hat{T} = X\)). Questo ragionamento sarebbe corretto solo se l’attendibilità del test fosse perfetta (\(\rho = 1\)). Al contrario, quando \(\rho = 0\), la formula di Kelley suggerisce di utilizzare la media dei punteggi osservati come stima del punteggio vero, il che equivale ad affermare che il punteggio osservato non ha alcuna utilità. Tuttavia, è altamente improbabile che \(\rho = 0\) nella pratica. Invece, se \(\rho\) si trova tra 0 e 1, la stima del punteggio vero sarà compresa tra il punteggio osservato e la media della popolazione. Per comprendere cosa questa stima rappresenti, possiamo citare Kelley (1947), che ha osservato:

This is an interesting equation in that it expresses the estimate of true ability as the weighted sum of two separate estimates, – one based upon the individual’s observed score, \(X_1\) (\(X\) nella notazione corrente) and the other based upon the mean of the group to which he belongs, \(M_1\) (\(\mu_x\) nella notazione corrente). If the test is highly reliable, much weight is given to the test score and little to the group mean, and vice versa.

Dimostrazione. Per comprendere l’equazione di Kelley, dobbiamo partire dal modello di regressione lineare semplice che mette in relazione il punteggio osservato \(X\) con il punteggio vero. Abbiamo visto in precedenza il modello di regressione che mette in relazione il punteggio osservato, \(X = 0 + 1 \cdot T + E\). In questo caso, però, il problema è diverso, in quanto noi vogliamo predire il punteggio vero sulla base del punteggio osservato per mezzo di un modello di regressione (Nunnally, 1978).

Avendo quale scopo quello di “predire” il punteggio vero \(T\) sulla base del punteggio osservato \(X\), il modello di regressione diventa

\[ T = \alpha + \beta X + \varepsilon. \]

Se esprimiamo le variabili come deviazioni dalla media, \(x = X - \bar{X}\) e \(\tau = T - \mathbb{E}(T)\), allora l’intercetta diventa uguale a zero e il modello diventa \(\tau = \beta x + \varepsilon\), ovvero \(\hat{\tau} = \beta x.\) Il problema è quello di calcolare il coefficiente \(\beta\).

Nel modello \(\hat{\tau} = \beta x\), la pendenza della retta di regressione è uguale a \(\beta = \frac{\sigma_{\tau x}}{\sigma^2_x}\). Possiamo dunque scrivere il modello di regressione nel modo seguente:

\[\begin{equation} \hat{\tau} = \frac{\sigma_{\tau x}}{\sigma^2_x} x. \tag{11.2} \end{equation}\]

La correlazione tra \(x\) (o \(X\)) e \(\tau\) (o \(T\)) è uguale a \(\rho_{\tau x} = \frac{\sigma_{\tau x}}{\sigma_x \sigma_{\tau}}\). Dunque \(\sigma_{\tau x} = \rho_{\tau x}\sigma_x \sigma_{\tau}\) e l’equazione precedente diventa

\[ \begin{equation} \begin{aligned} \hat{\tau} &= \frac{\sigma_{TX}}{\sigma^2_X} X \notag\\ &= \frac{\rho_{\tau x}\sigma_x \sigma_{\tau}}{\sigma^2_x} x \notag\\ &= \rho_{\tau x}\frac{\sigma_{\tau}}{\sigma_x} x. \notag \end{aligned} \end{equation} \]

In base alla definizione di attendibilità, la varianza del punteggio vero è \(\sigma^2_{\tau} = \sigma^2_x \rho_{xx^\prime}\). Dunque, la deviazione standard del punteggio vero diventa \(\sigma_{\tau} = \sigma_x \sqrt{\rho_{xx^\prime}}\). Sostituendo questo risultato nell’equazione precedente otteniamo

\[ \begin{equation} \begin{aligned} \hat{\tau} &= \rho_{\tau x}\frac{\sigma_x \sqrt{\rho_{xx^\prime}}}{\sigma_x} x \notag\\ &= \rho_{\tau x} \sqrt{\rho_{xx^\prime}} x. \notag \end{aligned} \end{equation} \]

In precedenza abbiamo visto che \(\rho^2_{\tau x} = \rho_{xx^\prime}\), dunque

\[ \begin{equation} \begin{aligned} \hat{\tau} &= \rho_{\tau x} \sqrt{\rho_{xx^\prime}} x \notag\\ &= \sqrt{\rho_{xx^\prime}} \sqrt{\rho_{xx^\prime}} x \notag\\ &= \rho_{xx^\prime} x.\notag \end{aligned} \end{equation} \]

In conclusione, una stima del punteggio vero si ottiene moltiplicando il punteggio osservato, espresso come deviazione dalla media, per il coefficiente di attendibilità.

Riscriviamo ora la formula appena ottenuta nei termini del punteggio grezzo \(X\) (non in termini di deviazioni dalla media. Per fare ciò, sommiamo \(\bar{X}\) così da ottenere

\[ \hat{T} = \rho_{XX^\prime} (X - \bar{X}) + \bar{X}, \]

laddove \(\hat{T}^\prime\) è la stima del punteggio vero grezzo. Sviluppando otteniamo

\[ \begin{equation} \begin{aligned} \hat{T} &= \rho_{XX^\prime} (X - \bar{X}) + \bar{X}\notag\\ &= X\rho_{XX^\prime} - \bar{X} \rho_{XX^\prime} + \bar{X}\notag\\ &= \bar{X} (1 - \rho_{XX^\prime}) + X\rho_{XX^\prime}\notag\\ &= \bar{X} - \bar{X}\rho_{XX'} + X\rho_{XX^\prime}\notag\\ &= \bar{X} + \rho_{XX'} (X - \bar{X}).\notag \end{aligned} \end{equation} \]

Per i dati campionari, la formula diventa:

\[ \hat{T} = \bar{X} + r_{XX^\prime} (X - \bar{X}), \]

dove \(X\) è il punteggio (grezzo) osservato, \(\bar{X}\) è la media dei punteggi osservati di un campione di rispondenti e \(r_{XX^\prime}\) è il coefficiente di attendibilità.

Esercizio 11.1 Posto un coefficiente di attendibilità pari a 0.80 e una media del test pari a \(\bar{X} = 100\), si trovi una stima del punteggio vero per un rispondente con un punteggio osservato uguale a \(X\) = 115.

La stima del punteggio vero \(\hat{T}\) è uguale a

\[ \begin{equation} \begin{aligned} \hat{T} &= \bar{X} + r_{XX^\prime} (X - \bar{X})\notag\\ &= 100 + 0.80 \cdot (115 - 100) = 112. \end{aligned} \end{equation} \] In alternativa, possiamo usare la funzione Est.true del pacchetto psychometric.

suppressWarnings(suppressMessages(library("psychometric")))

Est.true(115, 100, .8)
#> [1] 112