23.3 Metodo dei fattori principali

Il metodo dei fattori principali (principal factor method, anche detto principal axis method) è uno dei metodi maggiormente usati per la stima delle saturazioni fattoriali e delle comunalità. Il metodo delle componenti principali trascura la specificità \(\boldsymbol{\Psi}\) e si limita a fattorializzare le covarianze di S o le correlazioni di R. Il metodo dei fattori principali utilizza una procedura simile al metodo delle componenti principali, utilizzando però una matrice ridotta di varianze-covarianze \(\textbf{S} - \hat{\boldsymbol{\Psi}}\) in cui una stima delle comunalità viene sostituita alle varianze presenti sulla diagonale principale. Nel caso della matrice ridotta di correlazioni \(\textbf{R} - \hat{\boldsymbol{\Psi}}\), per la comunalità \(i\)-esima \(\sum_{j}\lambda_{ij}^2\) si sceglie il quadrato del coefficiente di correlazione multipla tra \(Y_i\) e tutte le altre \(p-1\) variabili. Tale valore si può trovare nel modo seguente:

\[\hat{h}^2_i=R^2_i=1-\frac{1}{r^{ii}}\]

dove \(r^{ii}\) è l’elemento diagonale \(i\)-esimo di \(\textbf{R}^{-1}\). Nel caso di una matrice ridotta di varianze-covarianze \(\textbf{S} - \hat{\boldsymbol{\Psi}}\), le comunalità possono essere stimate calcolando

\[\hat{h}_i^2=s_{ii}-\frac{1}{r^{ii}}\]

dove \(s_{ii}\) è l’elemento diagonale \(i\)-esimo di \(\textbf{S}\).

Affinché le stime comunalità possano essere calcolate come descritto sopra, la matrice \(\textbf{R}\) deve essere non singolare. Nel caso in cui \(\textbf{R}\) sia singolare, per la stima della comunalità \(i\)-esima, \(\hat{h}^2_i\), si utilizza il valore assoluto del più elevato coefficiente di correlazione lineare tra \(Y_i\) e le altre variabili.

Scelta la stima della comunalità, la matrice ridotta di varianze-covarianze si ottiene sostituendo alle varianze sulla diagonale principale le stime delle comunalità:

\[ \textbf{S} - \hat{\boldsymbol{\Psi}} = \left[ \begin{array}{ c c c c } \hat{h}^2_1 & s_{12} & \dots & s_{1p} \\ s_{21} & \hat{h}^2_2 & \dots & s_{2p} \\ \dots & \dots & & \dots\\ s_{p1} & s_{p2} & \dots & \hat{h}^2_p \end{array} \right] \]

In maniera equivalente, la matrice ridotta di correlazioni si ottiene nel modo seguente:

\[ \textbf{R} - \hat{\boldsymbol{\Psi}} = \left[ \begin{array}{ c c c c } \hat{h}^2_1 & r_{12} & \dots & r_{1p} \\ r_{21} & \hat{h}^2_2 & \dots & r_{2p} \\ \dots & \dots & & \dots\\ r_{p1} & r_{p2} & \dots & \hat{h}^2_p \end{array} \right] \]

Verranno ora svolti i calcoli necessari per la stima dei coefficienti di saturazione con il metodo dei fattori principali utilizzando la matrice di correlazione dell’esempio precedente. Quale stima della comunalità \(i\)-esima, verrà utilizzato il valore assoluto più elevato nella riga \(i\)-esima della matrice R. Per i dati dell’esempio, le stime delle comunalità sono dunque pari a \(0.995\), \(0.837\), \(0.881\), \(0.995\) e \(0.837\).

Inserendo tali valori nella diagonale principale, otteniamo la matrice ridotta delle correlazioni \(\textbf{R} - \hat{\boldsymbol{\Psi}}\):

R1 <- R
h.hat <- c(.995, .837, .881, .995, .837)
R1[cbind(1:5, 1:5)] <- h.hat
R1
#>       K      I      H     L     J
#> K 0.995  0.296  0.881 0.995 0.545
#> I 0.296  0.837 -0.022 0.326 0.837
#> H 0.881 -0.022  0.881 0.867 0.130
#> L 0.995  0.326  0.867 0.995 0.544
#> J 0.545  0.837  0.130 0.544 0.837

Gli autovalori della matrice ridotta di correlazioni \(\textbf{R} - \hat{\boldsymbol{\Psi}}\) sono:

ee <- eigen(R1)
round(ee$values, 3)
#> [1]  3.202  1.394  0.029  0.000 -0.080

La somma degli autovalori è uguale a

sum(ee$values)
#> [1] 4.545

I primi due autovalori di \(\textbf{R} - \hat{\boldsymbol{\Psi}}\) sono:

round(ee$vectors[, 1:2], 3)
#>        [,1]   [,2]
#> [1,] -0.548 -0.177
#> [2,] -0.272  0.656
#> [3,] -0.431 -0.461
#> [4,] -0.549 -0.159
#> [5,] -0.373  0.549

Moltiplicando tali valori per la radice quadrata dei rispettivi autovalori si ottengono le stime delle saturazioni fattoriali:

round(ee$vectors[, 1:2] %*% sqrt(diag(ee$values[1:2])), 3)
#>        [,1]   [,2]
#> [1,] -0.981 -0.209
#> [2,] -0.487  0.774
#> [3,] -0.772 -0.544
#> [4,] -0.982 -0.187
#> [5,] -0.667  0.648

Tale risultato replica quello riportato da Rencher (2002).