28.8 Un esempio concreto

Consideriamo nuovamente i dati discussi da Brown (2015) relativi al modello di misurazione per la depressione maggiore così come è definita nel DSM-IV. Ignoriamo qui le differenze di genere – si veda il Capitolo 27.

Leggiamo i dati in \(\mathsf{R}\):

d <- readRDS(
  here::here("data", "mdd_sex.RDS")
)

Consideriamo il seguente modello:

model_mdd <- "
  MDD =~ mdd1 + mdd2 + mdd3 + mdd4 + mdd5 + mdd6 + mdd7 + mdd8 + mdd9
"

Adattiamo il modello ai dati.

fit <- cfa(
  model_mdd,
  data = d
)

Esaminiamo gli indici di bontà di adattamento.

effectsize::interpret(fit)
#>     Name      Value Threshold Interpretation
#> 1    GFI 0.96402909      0.95   satisfactory
#> 2   AGFI 0.94004848      0.90   satisfactory
#> 3    NFI 0.91501936      0.90   satisfactory
#> 4   NNFI 0.91199406      0.90   satisfactory
#> 5    CFI 0.93399554      0.90   satisfactory
#> 6  RMSEA 0.06412658      0.05           poor
#> 7   SRMR 0.04448302      0.08   satisfactory
#> 8    RFI 0.88669248      0.90           poor
#> 9   PNFI 0.68626452      0.50   satisfactory
#> 10   IFI 0.93446306      0.90   satisfactory

Il rapporto \(\chi^2 / df\) è adeguato.

110.272 / 27
#> [1] 4.084148

Gli indici Comparative Fit Index (CFI) = 0.934 e Tucker-Lewis Index (TLI) = 0.912 sono superiori a 0.9, dunque sono almeno sufficienti per gli standard correnti. L’indice RMSEA = 0.064 è appena superiore alla soglia di 0.06. L’indice SRMR = 0.044 è inferiore alla soglia 0.05. Dunque, complessivamente, il modello sembra adeguato.

Adattiamo ora il modello con la modifica proposta da Brown (2015), ovvero

model2_mdd <- "
  MDD =~ mdd1 + mdd2 + mdd3 + mdd4 + mdd5 + mdd6 + mdd7 + mdd8 +  mdd9
  mdd1 ~~ mdd2
"

fit2 <- cfa(
  model2_mdd,
  data = d
)

Esaminiamo gli indici di bontà di adattamento.

effectsize::interpret(fit2)
#>     Name      Value Threshold Interpretation
#> 1    GFI 0.97807123      0.95   satisfactory
#> 2   AGFI 0.96204635      0.90   satisfactory
#> 3    NFI 0.94793648      0.90   satisfactory
#> 4   NNFI 0.95438982      0.90   satisfactory
#> 5    CFI 0.96705932      0.90   satisfactory
#> 6  RMSEA 0.04616501      0.05   satisfactory
#> 7   SRMR 0.03675390      0.08   satisfactory
#> 8    RFI 0.92791205      0.90   satisfactory
#> 9   PNFI 0.68462079      0.50   satisfactory
#> 10   IFI 0.96731836      0.90   satisfactory

In questa seconda versione, l’adattamento del modello è molto migliorato. Il rapporto \(\chi^2 / df\) è pari a

67.559 / 26
#> [1] 2.598423

Gli indici Comparative Fit Index (CFI) = 0.967 e Tucker-Lewis Index (TLI) = 0.954 sono superiori a 0.95. L’indice RMSEA = 0.046. L’indice SRMR = 0.037.

Il “costo” che si paga per questo miglioramento dell’adattamento è che indici di adattamento così buoni, probabilmente, non si replicheranno in un altro campione di dati, a meno che venga introdotto un qualche altro aggiustamento che, sicuramente, sarà diverso da quello usato nel campione corrente. Personalmente, non avrei introdotto il “miglioramento” proposto da Brown (2015) in quanto, anche senza un tale aggiustamento post-hoc, il modello produce un adattamento accettabile.

References

Brown, Timothy A. 2015. Confirmatory Factor Analysis for Applied Research. Guilford publications.