{ "cells": [ { "attachments": {}, "cell_type": "markdown", "id": "b713b0d9", "metadata": {}, "source": [ "(extraction-notebook)=\n", "# L'estrazione dei fattori " ] }, { "cell_type": "code", "execution_count": 1, "id": "aca74a73", "metadata": { "tags": [ "remove_cell" ], "vscode": { "languageId": "r" } }, "outputs": [], "source": [ "source(\"_common.R\")\n", "suppressPackageStartupMessages(library(\"psych\"))\n", "options(repr.plot.width=6, repr.plot.height=6)\n" ] }, { "attachments": {}, "cell_type": "markdown", "id": "18ca9c2f", "metadata": {}, "source": [ "L’analisi fattoriale mira a descrivere in modo parsimonioso le relazioni tra un grande numero di item. L’obiettivo è identificare un piccolo numero di variabili latenti che, quando controllate, rendono uguali a zero le correlazioni parziali tra gli item. Una volta determinato il numero dei fattori comuni, è possibile stimare le saturazioni fattoriali, che corrispondono alle correlazioni o covarianze tra gli item e i fattori.\n", "\n", "In termini matriciali, il modello multifattoriale si scrive\n", "\n", "$$\n", "\\boldsymbol{\\Sigma} =\\boldsymbol{\\Lambda} \\boldsymbol{\\Phi} \\boldsymbol{\\Lambda}^{\\mathsf{T}} + \\boldsymbol{\\Psi} \n", "$$\n", "\n", "dove $\\boldsymbol{\\Phi}$ è la matrice di ordine $m \\times m$ di varianze\n", "e covarianze tra i fattori comuni e $\\boldsymbol{\\Psi}$ è una matrice\n", "diagonale di ordine $p$ con le unicità delle variabili. \n", "\n", "In questo capitolo descriveremo alcuni dei metodi che possono essere usati per stimare $\\boldsymbol{\\Lambda}$. Esamineremo il metodo delle componenti principali, il metodo dei fattori principali, il metodo dei fattori principali iterato e il metodo di massima verosimiglianza.\n", "\n", "## Metodo delle componenti principali\n", "\n", "L'analisi fattoriale eseguita mediante il metodo delle componenti\n", "principali, nonostante il nome, non è un'analisi delle componenti\n", "principali. Il metodo delle componenti principali costituisce invece\n", "un'applicazione del teorema di scomposizione spettrale di una matrice.\n", "Il *teorema spettrale* afferma che, data la matrice simmetrica\n", "$\\textbf{S}_{p \\times p}$, è sempre possibile trovare una matrice\n", "$\\textbf{C}_{p \\times p}$ ortogonale tale che\n", "$\n", "\\textbf{S} = \\textbf{C}\\textbf{D}\\textbf{C}^{\\mathsf{T}}\n", "$\n", "con **D** diagonale. Il teorema specifica inoltre che gli elementi presenti sulla diagonale di **D** sono gli autovalori di **S**, mentre le colonne di **C** rappresentano i rispettivi autovettori normalizzati associati agli autovalori di **S**.\n", "\n", "Facciamo un esempio numerico utilizzando i dati discussi da\n", "Rencher(2002). Brown, Williams e Barlow (1984) hanno raccolto le\n", "valutazioni di una ragazza dodicenne relativamente a sette persone di\n", "sua conoscenza. Ciascuna persona veniva valutata su una scala a nove\n", "punti rispetto a cinque variabili: *kind*, *intelligent*, *happy*,\n", "*likeable* e *just*. La matrice di correlazione per tali variabili è\n", "riportata di seguito:" ] }, { "cell_type": "code", "execution_count": 4, "id": "b1076ab4", "metadata": { "vscode": { "languageId": "r" } }, "outputs": [ { "data": { "text/html": [ "
K | I | H | L | J | |
---|---|---|---|---|---|
K | 1.000 | 0.296 | 0.881 | 0.995 | 0.545 |
I | 0.296 | 1.000 | -0.022 | 0.326 | 0.837 |
H | 0.881 | -0.022 | 1.000 | 0.867 | 0.130 |
L | 0.995 | 0.326 | 0.867 | 1.000 | 0.544 |
J | 0.545 | 0.837 | 0.130 | 0.544 | 1.000 |