16. ✏️ Esercizi#

L’obiettivo di questo tutorial è condurre analisi di affidabilità su un questionario composto da item dicotomici, e imparare come calcolare l’errore standard di misura e gli intervalli di confidenza attorno al punteggio osservato.

source("../_common.R")
library("psych")

16.1. Questionario di Personalità di Eysenck#

Il Questionario di Personalità di Eysenck (EPQ) è un’inventario della personalità progettato per misurare l’Estroversione (E), la Neuroticismo/Ansia (N), la Psicotismo (P), e include una scala di Desiderabilità Sociale (L) (Eysenck e Eysenck, 1976).

L’EPQ include 90 item, ai quali i partecipanti rispondono con “SI” o “NO” (fornendo quindi risposte dicotomiche o binarie). Questo è relativamente insolito per i questionari di personalità, che tipicamente impiegano scale Likert per aumentare la quantità di informazioni da ciascun item individuale, e quindi ridurre il numero totale di item. Al contrario, le scale dell’EPQ sono misurate da molti item, garantendo una buona copertura di tutti i domini coinvolti. L’uso di item binari evita problemi legati ai bias di risposta come la “tendenza centrale” (tendenza a scegliere opzioni di risposta centrali) e la “risposta estrema” (tendenza a scegliere opzioni di risposta estreme).

I dati sono stati raccolti negli Stati Uniti nel 1997 come parte di uno studio interculturale più ampio (Barrett, Petrides, Eysenck & Eysenck, 1998). Si trattava di uno studio di ampia portata, N = 1381 (63.2% donne e 36.8% uomini). La maggior parte dei partecipanti erano giovani, con un’età mediana di 20.5 anni; tuttavia, erano presenti adulti di tutte le età (intervallo 16 - 89 anni).

16.1.1. Analisi dell’affidabilità della scala Neuroticismo/Ansia (N) dell’EPQ#

Il focus della nostra analisi in questo tutorial sarà la scala Neuroticismo/Ansia (N), misurata da 23 item:

N_3 Il tuo umore oscilla spesso? N_7 Ti senti mai “solo miserabile” senza motivo? N_12 Ti preoccupi spesso di cose che non avresti dovuto fare o dire? N_15 Sei una persona irritabile? N_19 I tuoi sentimenti sono facilmente feriti? N_23 Ti senti spesso “spossato”? N_27 Sei spesso tormentato dai sentimenti di colpa? N_31 Ti definiresti una persona nervosa? N_34 Sei una persona che si preoccupa molto? N_38 Ti preoccupi di cose terribili che potrebbero accadere? N_41 Ti definiresti teso o “nervoso”? N_47 Ti preoccupi della tua salute? N_54 Soffri di insonnia? N_58 Ti sei spesso sentito svogliato e stanco senza motivo? N_62 Ti sembra spesso che la vita sia molto noiosa? N_66 Ti preoccupi molto del tuo aspetto? N_68 Hai mai desiderato di essere morto? N_72 Ti preoccupi troppo a lungo dopo un’esperienza imbarazzante? N_75 Soffri di “nervi”? N_77 Ti senti spesso solo? N_80 Sei facilmente ferito quando le persone trovano difetti in te o nel lavoro che fai? N_84 A volte ti senti pieno di energia e altre volte molto fiacco? N_88 Sei suscettibile su alcune cose? Si noti che tutti gli item indicano “Neuroticismo” invece che “Stabilità Emotiva” (cioè non ci sono item controindicativi).

16.1.2. Esame preliminare dei dati#

Importiamo i dati in un nuovo data frame chiamato EPQ:

EPQ <- rio::import(file = "../data/data_epq/EPQ_N_demo.txt")
glimpse(EPQ)
Rows: 1,381
Columns: 26
$ id   <int> 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19…
$ age  <int> NA, NA, NA, 40, NA, 40, NA, NA, 40, NA, 22, 29, 44, 35, 46, 26, 3…
$ sex  <int> 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,…
$ N_3  <int> 1, 1, 1, 1, 1, 0, 0, 1, 1, 1, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 1,…
$ N_7  <int> 0, 0, 0, 0, 0, NA, 0, 0, 1, 1, 0, 0, 0, 1, 1, 1, 1, 1, 0, 1, 0, 1…
$ N_12 <int> 0, 0, 0, 0, 0, 1, 1, 0, 1, 1, 1, 1, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1,…
$ N_15 <int> 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 1, 0, 0, 0, 0,…
$ N_19 <int> 1, 1, 1, 1, 1, NA, 1, 0, 0, 1, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1…
$ N_23 <int> 0, 1, 0, 0, 1, 0, 0, 0, 0, 0, 0, 1, 0, 1, 1, 1, 0, 1, 1, 0, 0, 1,…
$ N_27 <int> 1, 1, 1, NA, 1, 0, 0, 0, 0, 0, 1, 0, 0, 0, 1, 1, 0, 1, 0, 0, 1, 1…
$ N_31 <int> 1, 0, 1, 1, 0, 0, 0, 0, 1, 1, 0, 0, 0, 1, 1, 0, 0, 1, 0, 0, 0, 1,…
$ N_34 <int> 1, 1, 0, 1, 1, 1, 0, 0, 1, 0, 0, 1, 0, 1, 1, 1, 0, 1, 0, 0, 1, 1,…
$ N_38 <int> 1, 1, 0, 1, 0, NA, 0, 0, 0, 0, 0, 1, 0, 1, 1, 1, 0, 1, 1, 0, 1, 0…
$ N_41 <int> 1, 1, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 1, 1, 0, 1, 0, 1, 0,…
$ N_47 <int> 0, 0, 0, 0, 0, 1, 0, 0, 0, 1, 1, 1, 0, 1, 0, 0, 0, 0, 0, 1, 1, 0,…
$ N_54 <int> 0, 1, 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, 1, 1, 0, 0, 1, 1, 1, 1, 0,…
$ N_58 <int> 0, 1, 0, 0, 1, 0, 0, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 1, 0, 1, 1, 0,…
$ N_62 <int> 1, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 0, 1, 1, 0, 0, 0, 1,…
$ N_66 <int> 0, 0, 1, 0, 0, 1, 0, 0, 0, 0, 1, 1, 0, 1, 1, 1, 0, 1, 1, 1, 1, 1,…
$ N_68 <int> 0, 1, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 1, 1, 0, 0, 1,…
$ N_72 <int> 1, 0, 0, 0, 1, 1, 1, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 1,…
$ N_75 <int> 0, 0, 0, 1, 1, NA, 0, 0, 1, 0, 0, 0, 0, 1, 0, 1, 0, 1, 0, 0, 0, 0…
$ N_77 <int> 1, 0, 0, 1, 1, 0, 0, 0, 1, 0, 0, 0, 0, 1, 0, 0, 1, 1, 0, 0, 0, 0,…
$ N_80 <int> 1, 1, 1, 1, 1, 0, 1, 0, 1, 1, 1, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1,…
$ N_84 <int> 1, 1, 1, 1, 1, 1, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,…
$ N_88 <int> NA, 1, 0, 0, 0, 1, 1, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 1, 1, 1, 1…

Ci sono 26 variabili in questo data frame, che iniziano con l’id del partecipante, l’età e il sesso (0 = femmina; 1 = maschio). Queste variabili demografiche sono seguite da 23 risposte agli item, che sono o 0 (per “NO”) o 1 (per “SI”). Ci sono anche alcune risposte mancanti, contrassegnate con NA.

describe(EPQ[4:26])
A psych: 23 × 13
varsnmeansdmediantrimmedmadminmaxrangeskewkurtosisse
<int><dbl><dbl><dbl><dbl><dbl><dbl><dbl><dbl><dbl><dbl><dbl><dbl>
N_3 113790.63814360.480711910.67239820011-0.57432906-1.67135660.012945020
N_7 213790.54459750.498187810.55565610011-0.17890923-1.96941810.013415625
N_12 313810.79652430.402729210.87058820011-1.47150761 0.16545600.010837180
N_15 413750.28872730.453335700.23614900011 0.93140272-1.13331160.012225556
N_19 513770.57734200.494161510.59655490011-0.31279607-1.90353940.013316862
N_23 613770.51416120.499981010.51767910011-0.05660589-1.99824530.013473689
N_27 713770.47349310.499478300.46690840011 0.10606126-1.99019470.013460142
N_31 813780.33454280.472001700.29347830011 0.70057849-1.51028420.012715075
N_34 913780.59941940.490194010.62409420011-0.40533871-1.83703210.013205151
N_381013780.53193030.499160610.53985510011-0.12784328-1.98509510.013446698
N_411113700.30729930.461543000.25912410011 0.83441882-1.30469600.012469581
N_471213800.58260870.493307410.60326090011-0.33467506-1.88936010.013279388
N_541313780.31349780.464083200.26721010011 0.80316128-1.35591440.012501763
N_581413810.65821870.474478510.69773760011-0.66643317-1.55699270.012767907
N_621513800.27318840.445758300.21648550011 1.01690635-0.96660030.011999411
N_661613780.58272860.493287510.60326090011-0.33517393-1.88902770.013288486
N_681713790.43582310.496044100.41990950011 0.25856733-1.93454420.013357899
N_721813790.60913710.488120810.63619910011-0.44684808-1.80163170.013144533
N_751913750.35927270.479961800.32425070011 0.58598377-1.65782710.012943608
N_772013760.41351740.492643000.39201450011 0.35084109-1.87827400.013280766
N_802113750.60872730.488212810.63578560011-0.44508543-1.80320880.013166120
N_842213760.80959300.392764910.88656990011-1.57533438 0.48203030.010588232
N_882313760.89098840.311767110.98820330011-2.50638512 4.28508210.008404678

Dall’output precedente, possiamo dedurre la difficoltà degli item. La media rappresenta la difficoltà dell’item. In questo set di item, le difficoltà variano ampiamente. L’item più “facile” da accettare è N_88 (“Sei suscettibile su alcune cose?”), con la media più alta (0,89). Poiché i dati sono codificati binari 0/1, la media può essere interpretata come il 89% del campione che ha accettato l’item. L’item più difficile da accettare in questo set è N_62, con il valore medio più basso (0,27). N_62 è formulato come “Ti sembra spesso che la vita sia molto noiosa?”, e solo il 27% del campione è stato d’accordo con questo. Questo item indica un grado più elevato di Neuroticismo (forse persino un sintomo di depressione) rispetto all’item N_88, ed è quindi più difficile da accettare.

Ora calcoliamo le correlazioni di momento-prodotto (Pearson) tra gli item dell’EPQ utilizzando la funzione lowerCor() del pacchetto psych. Questa funzione è molto conveniente perché, a differenza della funzione di base cor() di R, mostra solo il triangolo inferiore della matrice delle correlazioni, il che la rende più compatta e più facile da leggere. Se richiami l’aiuto su questa funzione, vedrai che per impostazione predefinita le correlazioni verranno stampate con 2 cifre decimali (digits=2), e i valori mancanti verranno trattati in modo pairwise (use=”pairwise”).

lowerCor(EPQ[4:26])
     N_3  N_7  N_12 N_15 N_19 N_23 N_27 N_31 N_34 N_38 N_41
N_3  1.00                                                  
N_7  0.36 1.00                                             
N_12 0.26 0.28 1.00                                        
N_15 0.31 0.21 0.12 1.00                                   
N_19 0.33 0.30 0.32 0.18 1.00                              
N_23 0.36 0.30 0.24 0.28 0.28 1.00                         
N_27 0.28 0.28 0.31 0.24 0.32 0.29 1.00                    
N_31 0.24 0.20 0.18 0.22 0.31 0.24 0.26 1.00               
N_34 0.30 0.33 0.34 0.20 0.41 0.32 0.36 0.45 1.00          
N_38 0.26 0.24 0.28 0.21 0.29 0.27 0.33 0.28 0.41 1.00     
N_41 0.23 0.21 0.16 0.29 0.27 0.26 0.23 0.43 0.35 0.27 1.00
N_47 0.17 0.13 0.19 0.09 0.16 0.20 0.20 0.18 0.20 0.29 0.14
N_54 0.20 0.19 0.11 0.20 0.15 0.16 0.15 0.20 0.18 0.16 0.21
N_58 0.36 0.34 0.22 0.19 0.24 0.35 0.24 0.18 0.22 0.20 0.16
N_62 0.26 0.23 0.14 0.23 0.20 0.29 0.20 0.20 0.23 0.19 0.24
N_66 0.20 0.16 0.27 0.12 0.25 0.24 0.22 0.17 0.24 0.25 0.13
N_68 0.22 0.29 0.15 0.19 0.22 0.21 0.22 0.14 0.21 0.19 0.15
N_72 0.24 0.32 0.32 0.13 0.42 0.24 0.34 0.29 0.41 0.29 0.26
N_75 0.26 0.29 0.21 0.25 0.31 0.27 0.25 0.53 0.38 0.28 0.40
N_77 0.33 0.30 0.18 0.23 0.29 0.37 0.31 0.26 0.29 0.25 0.25
N_80 0.23 0.23 0.27 0.10 0.56 0.19 0.29 0.28 0.35 0.24 0.25
N_84 0.25 0.22 0.15 0.08 0.14 0.18 0.16 0.10 0.15 0.13 0.09
N_88 0.19 0.17 0.12 0.12 0.19 0.17 0.13 0.05 0.17 0.15 0.11
     N_47 N_54 N_58 N_62 N_66 N_68 N_72 N_75 N_77 N_80 N_84
N_47 1.00                                                  
N_54 0.09 1.00                                             
N_58 0.16 0.20 1.00                                        
N_62 0.07 0.16 0.20 1.00                                   
N_66 0.21 0.11 0.16 0.15 1.00                              
N_68 0.05 0.17 0.21 0.24 0.14 1.00                         
N_72 0.18 0.08 0.21 0.19 0.27 0.22 1.00                    
N_75 0.19 0.25 0.24 0.23 0.19 0.16 0.30 1.00               
N_77 0.11 0.23 0.27 0.41 0.24 0.28 0.27 0.29 1.00          
N_80 0.11 0.13 0.18 0.14 0.25 0.21 0.40 0.30 0.26 1.00     
N_84 0.12 0.12 0.29 0.14 0.11 0.16 0.13 0.12 0.17 0.13 1.00
N_88 0.09 0.07 0.16 0.07 0.12 0.09 0.11 0.12 0.12 0.17 0.15
[1] 1.00

Ora calcoliamo le correlazioni tetracoriche per gli stessi item. Queste sarebbero più appropriate per item binari su cui è stata imposta una dicotomia NO/YES (anche se l’entità sottostante dell’accordo è in realtà continua). Le correlazioni tetracoriche sono un tipo di correlazione utilizzato specificamente per variabili dicotomiche (binarie), come quelle presenti nel questionario EPQ dove le risposte sono solo “SI” o “NO”. Questo tipo di correlazione è più appropriato per tali item perché tiene conto del fatto che la scala di misura sottostante è teoricamente continua, nonostante le risposte siano state forzate in una dicotomia. La funzione tetrachoric() esegue il calcolo di queste correlazioni e gestisce automaticamente i valori mancanti utilizzando la cancellazione pairwise, il che significa che vengono considerati solo i dati disponibili per ciascuna coppia di item nel calcolo della correlazione. La funzione tetrachoric() ha per impostazione predefinita la cancellazione pairwise per i valori mancanti.

tetrachoric(EPQ[4:26])

Call: tetrachoric(x = EPQ[4:26])
tetrachoric correlation 
     N_3  N_7  N_12 N_15 N_19 N_23 N_27 N_31 N_34 N_38 N_41
N_3  1.00                                                  
N_7  0.54 1.00                                             
N_12 0.44 0.48 1.00                                        
N_15 0.55 0.35 0.23 1.00                                   
N_19 0.51 0.46 0.53 0.30 1.00                              
N_23 0.55 0.46 0.42 0.46 0.42 1.00                         
N_27 0.44 0.43 0.55 0.38 0.49 0.45 1.00                    
N_31 0.40 0.33 0.35 0.35 0.51 0.38 0.41 1.00               
N_34 0.46 0.50 0.56 0.34 0.61 0.49 0.55 0.72 1.00          
N_38 0.40 0.37 0.48 0.35 0.45 0.42 0.49 0.45 0.60 1.00     
N_41 0.39 0.34 0.31 0.46 0.45 0.42 0.37 0.64 0.58 0.43 1.00
N_47 0.26 0.20 0.33 0.16 0.25 0.31 0.31 0.30 0.31 0.44 0.23
N_54 0.33 0.31 0.22 0.33 0.26 0.27 0.25 0.32 0.31 0.26 0.35
N_58 0.54 0.52 0.38 0.33 0.38 0.55 0.39 0.31 0.35 0.31 0.28
N_62 0.47 0.38 0.30 0.38 0.34 0.48 0.34 0.33 0.39 0.32 0.39
N_66 0.31 0.25 0.46 0.21 0.39 0.38 0.35 0.28 0.38 0.38 0.23
N_68 0.36 0.44 0.28 0.30 0.34 0.32 0.35 0.23 0.33 0.30 0.25
N_72 0.38 0.48 0.54 0.23 0.62 0.38 0.52 0.48 0.61 0.44 0.43
N_75 0.43 0.45 0.41 0.41 0.49 0.42 0.40 0.75 0.61 0.44 0.61
N_77 0.53 0.46 0.34 0.37 0.46 0.56 0.47 0.41 0.46 0.38 0.40
N_80 0.37 0.36 0.46 0.16 0.78 0.30 0.44 0.46 0.53 0.38 0.43
N_84 0.43 0.39 0.29 0.17 0.24 0.32 0.30 0.19 0.27 0.24 0.19
N_88 0.37 0.36 0.25 0.30 0.40 0.35 0.27 0.11 0.34 0.31 0.27
     N_47 N_54 N_58 N_62 N_66 N_68 N_72 N_75 N_77 N_80 N_84
N_47 1.00                                                  
N_54 0.15 1.00                                             
N_58 0.26 0.35 1.00                                        
N_62 0.12 0.27 0.36 1.00                                   
N_66 0.33 0.18 0.25 0.26 1.00                              
N_68 0.07 0.28 0.34 0.39 0.23 1.00                         
N_72 0.28 0.13 0.33 0.32 0.42 0.35 1.00                    
N_75 0.31 0.40 0.40 0.38 0.30 0.26 0.48 1.00               
N_77 0.18 0.37 0.44 0.63 0.37 0.43 0.43 0.44 1.00          
N_80 0.17 0.23 0.29 0.24 0.38 0.33 0.59 0.49 0.42 1.00     
N_84 0.21 0.24 0.49 0.29 0.19 0.30 0.24 0.22 0.33 0.23 1.00
N_88 0.19 0.15 0.32 0.16 0.24 0.20 0.22 0.27 0.26 0.34 0.31
[1] 1.00

 with tau of 
   N_3    N_7   N_12   N_15   N_19   N_23   N_27   N_31   N_34   N_38   N_41 
-0.354 -0.112 -0.829  0.557 -0.195 -0.036  0.066  0.427 -0.252 -0.080  0.504 
  N_47   N_54   N_58   N_62   N_66   N_68   N_72   N_75   N_77   N_80   N_84 
-0.209  0.486 -0.408  0.603 -0.209  0.162 -0.277  0.360  0.219 -0.276 -0.876 
  N_88 
-1.232 

Si noti che le correlazioni tetracoriche sono sostanzialmente più elevate rispetto alle correlazioni di Pearson. Questo non è sorprendente dato che i dati sono binari e le correlazioni di Pearson sono state sviluppate per dati continui. Le correlazioni di Pearson sottostimano la forza delle relazioni tra gli item binari.

16.2. Calcolo del punteggio totale della scala#

Possiamo calcolare il punteggio della scala di Neuroticismo (come somma dei punteggi dei suoi item). Si noti che non ci sono item reverse nella scala di Neuroticismo, quindi non c’è bisogno di codificare inversamente alcun item.

In presenza di dati mancanti, sommare i punteggi degli item non è consigliabile perché qualsiasi risposta mancante sarà essenzialmente trattata come zero, il che non è corretto perché non rispondere a una domanda non è la stessa cosa che dire “NO”.

Invece, utilizzeremo la funzione di base di R rowMeans() per calcolare il punteggio medio dalle risposte agli item non mancanti (rimuovendo i valori “NA” dal calcolo, na.rm=TRUE), e quindi moltiplicheremo il risultato per 23 (il numero di item nella scala di Neuroticismo). Questo sostanzialmente sostituirà qualsiasi risposta mancante con la media per quel singolo individuo, producendo quindi una stima equa del punteggio totale.

neuro_score <- rowMeans(EPQ[4:26], na.rm = TRUE) * 23
describe(neuro_score)
A psych: 1 × 13
varsnmeansdmediantrimmedmadminmaxrangeskewkurtosisse
<dbl><dbl><dbl><dbl><dbl><dbl><dbl><dbl><dbl><dbl><dbl><dbl><dbl>
X11138112.147355.5311461212.171725.930402323-0.02607193-0.88865670.1488395
hist(neuro_score)
../_images/113803ee77acee125d85adf7fb3f719405854c2f1184ae66787c2da4f8765169.png

La distribuzione sembra simmetrica, senza alcun evidente skew. Non ci sono effetti di soffitto o di fondo, quindi la difficoltà del test sembra appropriata per la popolazione.

Ora procediamo a stimare l’affidabilità come consistenza interna (alfa di Cronbach) del punteggio totale. Applichiamo la funzione alpha() del pacchetto psych a tutti e 23 gli item del data frame SDQ.

alpha(EPQ[4:26], cumulative = TRUE)
Reliability analysis   
Call: alpha(x = EPQ[4:26], cumulative = TRUE)

  raw_alpha std.alpha G6(smc) average_r S/N    ase mean  sd median_r
      0.87      0.87    0.88      0.22 6.7 0.0049   12 5.5     0.22

    95% confidence boundaries 
         lower alpha upper
Feldt     0.86  0.87  0.88
Duhachek  0.86  0.87  0.88

 Reliability if an item is dropped:
     raw_alpha std.alpha G6(smc) average_r S/N alpha se  var.r med.r
N_3       0.86      0.86    0.87      0.22 6.2   0.0052 0.0075  0.21
N_7       0.86      0.86    0.87      0.22 6.3   0.0052 0.0075  0.21
N_12      0.87      0.86    0.87      0.22 6.4   0.0051 0.0075  0.22
N_15      0.87      0.87    0.87      0.23 6.5   0.0050 0.0074  0.22
N_19      0.86      0.86    0.87      0.22 6.2   0.0053 0.0067  0.21
N_23      0.86      0.86    0.87      0.22 6.2   0.0052 0.0075  0.21
N_27      0.86      0.86    0.87      0.22 6.3   0.0052 0.0075  0.21
N_31      0.86      0.86    0.87      0.22 6.3   0.0052 0.0068  0.22
N_34      0.86      0.86    0.87      0.22 6.1   0.0053 0.0067  0.21
N_38      0.86      0.86    0.87      0.22 6.3   0.0052 0.0075  0.21
N_41      0.87      0.86    0.87      0.22 6.3   0.0051 0.0072  0.22
N_47      0.87      0.87    0.88      0.23 6.6   0.0049 0.0071  0.23
N_54      0.87      0.87    0.88      0.23 6.6   0.0050 0.0073  0.23
N_58      0.87      0.86    0.87      0.22 6.4   0.0051 0.0076  0.22
N_62      0.87      0.87    0.87      0.23 6.4   0.0051 0.0074  0.22
N_66      0.87      0.87    0.87      0.23 6.5   0.0050 0.0075  0.22
N_68      0.87      0.87    0.87      0.23 6.5   0.0050 0.0075  0.23
N_72      0.86      0.86    0.87      0.22 6.3   0.0052 0.0070  0.21
N_75      0.86      0.86    0.87      0.22 6.2   0.0052 0.0070  0.21
N_77      0.86      0.86    0.87      0.22 6.2   0.0052 0.0074  0.21
N_80      0.87      0.86    0.87      0.22 6.3   0.0052 0.0069  0.22
N_84      0.87      0.87    0.88      0.23 6.6   0.0050 0.0071  0.23
N_88      0.87      0.87    0.88      0.23 6.7   0.0050 0.0068  0.23

 Item statistics 
        n raw.r std.r r.cor r.drop mean   sd
N_3  1379  0.58  0.58  0.56   0.52 0.64 0.48
N_7  1379  0.56  0.56  0.54   0.50 0.54 0.50
N_12 1381  0.49  0.50  0.46   0.43 0.80 0.40
N_15 1375  0.44  0.44  0.40   0.37 0.29 0.45
N_19 1377  0.61  0.61  0.60   0.56 0.58 0.49
N_23 1377  0.58  0.58  0.55   0.51 0.51 0.50
N_27 1377  0.57  0.57  0.54   0.51 0.47 0.50
N_31 1378  0.55  0.55  0.53   0.49 0.33 0.47
N_34 1378  0.64  0.64  0.63   0.59 0.60 0.49
N_38 1378  0.56  0.55  0.52   0.49 0.53 0.50
N_41 1370  0.52  0.52  0.49   0.46 0.31 0.46
N_47 1380  0.37  0.37  0.32   0.29 0.58 0.49
N_54 1378  0.39  0.39  0.34   0.31 0.31 0.46
N_58 1381  0.51  0.51  0.48   0.44 0.66 0.47
N_62 1380  0.46  0.46  0.43   0.40 0.27 0.45
N_66 1378  0.45  0.44  0.40   0.37 0.58 0.49
N_68 1379  0.44  0.44  0.39   0.37 0.44 0.50
N_72 1379  0.57  0.57  0.54   0.51 0.61 0.49
N_75 1375  0.59  0.58  0.57   0.52 0.36 0.48
N_77 1376  0.58  0.58  0.55   0.52 0.41 0.49
N_80 1375  0.54  0.54  0.52   0.47 0.61 0.49
N_84 1376  0.35  0.37  0.31   0.29 0.81 0.39
N_88 1376  0.30  0.33  0.27   0.25 0.89 0.31

Non missing response frequency for each item
        0    1 miss
N_3  0.36 0.64 0.00
N_7  0.46 0.54 0.00
N_12 0.20 0.80 0.00
N_15 0.71 0.29 0.00
N_19 0.42 0.58 0.00
N_23 0.49 0.51 0.00
N_27 0.53 0.47 0.00
N_31 0.67 0.33 0.00
N_34 0.40 0.60 0.00
N_38 0.47 0.53 0.00
N_41 0.69 0.31 0.01
N_47 0.42 0.58 0.00
N_54 0.69 0.31 0.00
N_58 0.34 0.66 0.00
N_62 0.73 0.27 0.00
N_66 0.42 0.58 0.00
N_68 0.56 0.44 0.00
N_72 0.39 0.61 0.00
N_75 0.64 0.36 0.00
N_77 0.59 0.41 0.00
N_80 0.39 0.61 0.00
N_84 0.19 0.81 0.00
N_88 0.11 0.89 0.00

Per questi dati, \(\alpha\) = 0.87.

Una statistica riassuntiva importante è average_r, che rappresenta la correlazione media tra gli item. Altre utili statistiche riassuntive sono la media (mean) e la deviazione standard (sd), che sono rispettivamente la media e la deviazione standard del punteggio del test.