José-María Montero
$^{a}$Universidad de Castilla-La Mancha
Según el trabajo pionero de @harman1976, el objeto del Análisis Factorial\index{análisis!factorial} (AF) es la representación de una variable
- La captura de la mayor cantidad posible de la varianza de dichas variables (o "explicación" de su varianza).
- La mejor reproducción (o "explicación") de sus correlaciones observadas.
A modo introductorio, supónganse dos variables politómicas que surgen de las respuestas de
Cada variable tiene su varianza (nula si todos los futbolistas opinasen igual y máxima si la mitad marcase el 1 y la otra mitad el 5). Esta varianza puede ser común o compartida por las dos variables, o no. Lo normal es que cuanto más a gusto estén los futbolistas en su club mayor sea su deseo de permanecer en él la siguiente temporada, por lo que gran parte de la variabilidad \index{variabilidad} de cada una de las variables sería compartida (ya que la relación --lineal-- entre ellas es positiva). El resto de la variabilidad sería específica de cada variable (puede que un futbolista esté muy bien en el club, pero quiera ir a otro más prestigioso; o que esté mal, pero a su familia le encante la ciudad) o residual (normalmente debida a factores de medida). El porcentaje de varianza compartida se mide a través del coeficiente de determinación lineal,
\index{varianza! común} \index{varianza! compartida} \index{varianza! específica} \index{varianza! residual} \index{varianza! única}
De acuerdo con @santiagodelafuente2011, en el AF caben dos enfoques:3
- El análisis de toda la varianza (común y no común).
- El análisis, únicamente, de la varianza común. \index{varianza! común}
Ambos caben bajo el paraguas genérico del AF; ambos se basan en las relaciones entre las variables para identificar grupos de ellas asociadas entre sí. Sin embargo, del primero se ocupa el ACP (Cap. @ref(acp)) y, si se parte de la matriz de correlaciones (cuyas entradas fuera de la diagonal principal, al cuadrado, indican la proporción de varianza compartida por las variables que se cruzan en dicha entrada), esta lleva unos en la diagonal principal. Al segundo se le aplica la denominación de AF y en la matriz de correlaciones \index{matriz! de correlaciones} se sustituyen los unos de la diagonal principal por la varianza que cada variable comparte con las demás (su comunalidad). Por eso se dice que el objetivo del AF es la explicación de la varianza compartida \index{varianza! compartida} o común de las variables en estudio mediante una serie de factores comunes latentes.4
\index{comunalidad} \index{factores! comunes}
El AF puede ser exploratorio o confirmatorio. En el primero no se establecen consideraciones a priori sobre el número de factores comunes a extraer, sino que este se determina a lo largo del análisis. Por el contrario, en el segundo se trata de contrastar hipótesis relativas al número de factores comunes, así como sobre qué variables serán agrupadas o tendrán más peso en cada factor. Una práctica habitual es validar mediante el análisis factorial confirmatorio\index{análisis!factorial} los modelos teóricos basados en los resultados del análisis factorial exploratorio. Sin embargo, @rodriguez2000validez alertan de los peligros de esta práctica. Este capítulo considera la versión exploratoria del AF.
\index{análisis!factorial!exploratorio}
\index{análisis!factorial!confirmatorio}
A efectos prácticos, se utilizará la base de datos TIC2021
del paquete CDR
, ya trabajada en el Cap. @ref(acp) para el ACP, relativa al uso (por empresas e individuos) y equipación (de los hogares) de las TIC en los países de la UE-27, así como la librería psych
[@Revelle2022] de R.
library("psych")
library("CDR")
data("TIC2021")
Considérense
donde el primer subíndice indica la variable y el segundo, el elemento.
Mientras que el enfoque de componentes principales está representado por:
\begin{equation} Z_{j}=a_{j1}F_1+a_{j2}F_2+ \cdots +a_{jp}F_p, \quad j=1,2,\cdots,p,
(#eq:eqaf1)
\end{equation}
en el enfoque AF clásico el modelo teórico es:
\begin{equation}
Z_{j}=a_{j1}F_1+a_{j2}F_2+ \cdots +a_{jk}F_k + b_jSP_j+c_jE_j, \quad j=1,2,\cdots,p,
(#eq:eqaf2)
\end{equation}
donde
\index{componentes principales} \index{cargas! factoriales} \index{factores! específicos} \index{varianza! no compartida} \index{factores! únicos}
\begin{equation} Z_{j}=a_{j1}F_1+a_{j2}F_2+ \cdots +a_{jk}F_k + d_jU_j, \quad j=1,2,\cdots,p. (#eq:eqaf3) \end{equation}
Los supuestos del modelo @ref(eq:eqaf3) son los siguientes:
- Como en la práctica los factores comunes y únicos son desconocidos, sin pérdida de generalidad pueden suponerse con media cero y varianza unitaria;
- los factores únicos se suponen independientes entre sí y de los factores comunes; \index{factores! comunes}
- y dado que los factores involucrados en el modelo se consideran variables aleatorias, si se asume normalidad, e independencia de los factores comunes,
${F_{1},F_{2},\cdots, F_k}$ sigue una distribución normal multivariante y$Z_{j},\hspace{0,1cm} j=1,2,\cdots,p,$ una distribución normal.
En términos de valores observados, el modelo AF @ref(eq:eqaf3) viene dado por:5 \begin{equation} z_{ji}=a_{j1}f_{1i}+a_{j2}f_{2i}+ \cdots +a_{jk}f_{ki} + d_ju_{ji}, \quad i=1,2,\cdots,N; \hspace{0.1cm} j=1,2,\cdots,p. (#eq:eqaf4) \end{equation} El modelo AF es muy parecido al de regresión lineal: una variable se describe como una combinación lineal de otro conjunto de variables más un residuo. Sin embargo, en el análisis de regresión las variables son observables, mientras que en el AF son construcciones hipotéticas que solo pueden estimarse a partir de los datos observados. Los propios factores se estiman en una etapa posterior del análisis.
En términos matriciales, y considerando:
$$\bf z=\left(\begin{matrix}Z_{1}\
Z_{2}\
\vdots\
Z_{p}\
\end{matrix}\right),\quad \bf f=\left(\begin{matrix}
F_{1}\
F_{2}\
\vdots\
F_{k}\
\end{matrix}\right),\quad \bf u=\left(\begin{matrix} U_{1}\
U_{2}\
\vdots\
U_{p}\
\end{matrix}\right),$$
$$\bf A=\left(\begin{matrix} a_{11} & a_{12} & \cdots &a_{1k}\
a_{21}&a_{22}&\cdots&a_{2k}\
\vdots&\vdots&\ddots &\vdots\
a_{p1}&a_{p2}&\cdots&a_{pk}\
\end {matrix}\right),\quad \bf D=\left(\begin{matrix} d_{1} & 0 & \cdots &0\
0&d_{2}&\cdots&0\
\vdots&\vdots&\ddots &\vdots\
0&0&\cdots&d_{p}\
\end {matrix}\right),$$
el modelo @ref(eq:eqaf3) puede expresarse como
Centrándonos en el modelo @ref(eq:eqaf3), la varianza de
De la expresión @ref(eq:eqaf4b) surgen las siguientes definiciones:
-
$a_{jm}^2$ es la contribución de$F_m$ a la varianza de$Z_j$ . -
$V_m=\sum_{j=1}^{p}a_{jm}^2$ es la contribución de$F_m$ a la suma de las varianzas de todas las variables$Z_j,\hspace{0,1cm} j=1,2,\cdots,p$ . -
$V=\sum_{m=1}^{k}V_m$ es la contribución de todos los factores comunes a la varianza de todas las variables$Z_j,\hspace{0,1cm} j=1,2,\cdots,p$ . -
$\frac{V} {p}$ es un indicador de la completitud del análisis factorial. \index{análisis!factorial} -
$h_j^2=a_{j1}^2+a_{j2}^2+\cdots+a_{jk}^2$ es la comunalidad \index{comunalidad} de$Z_j,\hspace{0,1cm} j=1,2,\cdots,p$ , es decir la contribución de los factores comunes \index{factores! comunes} a la variabilidad \index{variabilidad} de$Z_j$ . -
$d_j^2$ es la unicidad (o varianza única) de$Z_j,\hspace{0,1cm} j=1,2,\cdots,p$ , o contribución de$U_j$ a la varianza de$Z_j$ . Es un indicador de la medida en la que los factores comunes fracasan a la hora de representar la varianza (unitaria) de$Z_j$ . \index{unicidad} \index{varianza! única} - Cuando se descompone el factor único \index{factores! únicos} en sus dos componentes, modelo @ref(eq:eqaf2),
$b_j^2$ se denomina especificidad (o varianza específica) de$Z_j$ y es la varianza de$Z_j$ debida a la particular selección de las variables en el estudio, mientras que$c_j^2$ es la que se debe al error (normalmente de medida), que mide la "falta de fiabilidad". \index{unicidad} \index{especificidad} \index{completitud}
Se denomina patrón factorial \index{patrón factorial} a la siguiente expansión del modelo @ref(eq:eqaf3),
\begin{equation}
\begin{split}
Z_{1}= a_{11}F_{1}+ a_{12}F_{2}+ \dotsb + a_{1k}F_{k}+ d_1U_1\
Z_{2}= a_{21}F_{1} + a_{22}F_{2}+ \dotsb + a_{2k}F_{k}+d_2U_2 \
\ \ \ \ \vdots \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ \ \ \ddots \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \vdots \ \ \ \
Z_{p}= a_{p1}F_{1}+ a_{p2}F_{2}+ \dotsb + a_{pk}F_{k}+ d_pU_p\
\end{split}
(#eq:eqaf5)
\end{equation}
o simplemente a la tabla, o matriz, con los coeficientes
Se denomina estructura factorial \index{estructura!factorial} al siguiente conglomerado de
\begin{equation}
\begin{split}
r_{Z_jF_1} & = a_{j1}r_{F_1F_1}+ a_{j2}r_{F_1F_2}+ \dotsb +a_{jm}r_{F_1F_m}+\dotsb + a_{jk}r_{F_1F_k}\
\ \ \ & \vdots \ \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ddots \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ddots\ \ \ \ \ \ \ \ \vdots \ \ \ \
r_{Z_jF_m} & = a_{j1}r_{F_mF_1}+ a_{j2}r_{F_mF_2}+ \dotsb +a_{jm}r_{F_mF_m}+\dotsb + a_{jk}r_{F_mF_k}\
\ \ \ & \vdots \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ddots \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ \ \ddots\ \ \ \ \ \ \ \vdots \ \ \ \
r_{Z_jF_k} & = a_{j1}r_{F_kF_1}+ a_{j2}r_{F_kF_2}+ \dotsb +a_{jm}r_{F_kF_m}+\dotsb + a_{jk}r_{F_kF_k}\ \
\ \ \ & \vdots \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ddots \ \ \ \ \ \ \ \ \ \ \vdots \ \ \ \ \ \ \ \ \ \ddots \ \ \ \ \ \ \ \vdots \ \ \ \
r_{Z_jU_j} & = d_j\
\ \ \ \ \ \ \ \ \ \ \ \ & \vdots
\end{split}
(#eq:eqaf6)
\end{equation}
En la práctica, viene dada por una tabla, o matriz,
El conjunto patrón factorial más estructura factorial \index{estructura!factorial} se denomina solución factorial completa. \index{solución factorial! completa} El patrón factorial muestra la relación lineal de las variables en términos de los factores, como si de una regresión lineal se tratase, y puede usarse para reproducir la correlación entre las variables (y, por tanto, para determinar la bondad de la solución). La estructura factorial es útil para la identificación de los factores \index{identificación de los factores} y la posterior estimación de las puntuaciones factoriales.
En términos matriciales, denominando
$$\bf F=\left(\begin{matrix} f_{11} & f_{12} & \cdots &f_{1N}\
f_{21}&f_{22}&\cdots&f_{2N}\
\vdots&\vdots&\ddots &\vdots\
f_{k1}&f_{k2}&\cdots&f_{kN}\
\end {matrix}\right),\quad \bf \Gamma=\left(\begin{matrix} r_{Z_1F_1} & r_{Z_1F_2} & \cdots &r_{Z_1F_k}\
r_{Z_2F_1}&r_{Z_2F_2}&\cdots&r_{Z_2F_k}\
\vdots&\vdots&\ddots &\vdots\
r_{Z_pF_1}&r_{Z_pF_2}&\cdots&r_{Z_pF_k}\
\end {matrix}\right),$$
el patrón factorial \index{patrón factorial} viene dado por
Por último, conviene resaltar que el AF es indeterminado, es decir, dado un conjunto de correlaciones, los coeficientes del patrón factorial \index{patrón factorial} no son únicos (dado
\index{análisis!factorial}
Antes de comenzar con el AF conviene determinar si procede o no; es decir, determinar si las variables se encuentran fuertemente intercorrelacionadas o no. En caso negativo, el AF no tendría sentido. Para ello, se pueden utilizar procedimientos sencillos como observar si el determinante de
\index{matriz! de correlaciones} \index{matriz! de correlaciones! anti-imagen}
Otras alternativas más sofisticadas incluyen las dos siguientes:
Contraste de esfericidad de Bartlett\index{contraste!de esfericidad de Bartlett}
Exige normalidad multivariante. Contrasta la incorrelación de las variables, es decir,
-
$H_0:\bf R=\bf I$ frente a -
$H_1:\bf R\neq \bf I,$
(o
n <- dim(TIC2021)[1]
cortest.bartlett(cor(TIC2021), n)$chisq
#> [1] 149.7113
cortest.bartlett(cor(TIC2021), n)$p.value
#> [1] 1.992514e-21
Medida de adecuación muestral de Kaiser, Meyer y Olkin (KMO)
\index{indice@índice!KMO} \index{medida de adecuación muestral}
Se basa en la idea de que, entre cada par de variables, el coeficiente de correlación parcial (que mide la correlación existente entre cada par de ellas eliminando el efecto que el resto de variables tiene sobre las dos consideradas), debe ser cercano a cero, puesto que es una estimación de la correlación entre sus factores específicos, que se suponen incorrelacionados. Por tanto, si el número de coeficientes de correlación parcial no nulos es elevado, la solución factorial no es compatible con los datos.
\index{coeficiente!de correlación!parcial}
En otros términos, cuando las variables incluidas en el análisis comparten gran cantidad de información debido a la presencia de factores comunes, la correlación parcial entre cualquier par de variables debe ser reducida. Por el contrario, cuando dos variables comparten gran cantidad de información entre ellas, pero no la comparten con las restantes variables (ni, consecuentemente, con los factores comunes), la correlación parcial entre ellas será elevada, lo cual es un mal síntoma de cara a la idoneidad del AF. \index{factores! comunes}
El índice KMO \index{indice@índice!KMO} se define como $KMO=\frac{\displaystyle\sum_{j}\displaystyle\sum_{s \neq j} r_{js}^2}{\displaystyle\sum_{j}\displaystyle\sum_{s \neq j} r_{js}^2+\displaystyle\sum_{j}\displaystyle\sum_{s \neq j}r_{js}^{2}}$, donde $r_{js}^{}$ es el coeficiente de correlación parcial \index{coeficiente!de correlación parcial} entre las variables
Las
La interpretación es similar a la de KMO, pero mide la adecuación de cada variable para realizar un AF, lo que permite no considerar aquellas variables con menor MSA de cara a mejorar el índice KMO. \index{indice@índice!KMO} No obstante, para eliminar una variable del estudio es aconsejable tener en cuenta también las comunalidades \index{comunalidad} de cada variable, los residuos del modelo e interpretar los factores obtenidos.
round(KMO(TIC2021)$MSA, 3)
#> [1] 0.83
round(KMO(TIC2021)$MSAi, 3)
#> ebroad esales esocmedia eweb hbroad hiacc iuse
#> 0.850 0.671 0.934 0.856 0.808 0.764 0.875
Como puede apreciarse en las dos últimas salidas, en el ejemplo TIC tanto el test de Barlett como el índice KMO \index{indice@índice!KMO} y las
\index{comunalidad} \index{factores! comunes}
El objetivo del AF es encontrar una matriz de correlaciones reproducida \index{matriz! de correlaciones! reproducida} a partir de los resultados obtenidos,
-
Se parte de un
$k$ prefijado, se lleva a cabo el AF y se contrasta la hipótesis$H_0$ : número\hspace{0,1cm} de factores\hspace{0,1cm} comunes =$k$ . -
Se estiman las comunalidades y se obtienen los factores comunes. \index{factores! comunes}
En cuanto a prefijar un número
\index{grafico{gráfico}!de sedimentación} \index{criterio! de Kaiser}
En cuanto a la estimación de las comunalidades, de las múltiples posibilidades existentes, las siguientes son interesantes por su sencillez y buenos resultados: \index{comunalidad}
- Una de las más sencillas, si el número de variables es grande, es aproximar la comunalidad de una variable por su correlación más alta con las demás variables: $\hat {h}j^2=max(r{j1},r_{j2},\cdots,r_{j(j-1)},r_{j(j+1)},\cdots, r_{jp})$.
- Otra posibilidad es $\hat{h}j^2=\frac{r{js}r_{jt}}{r_{ts}}$, donde
$Z_{s}$ y$Z_{t}$ son, por este orden, las dos variables más correlacionadas con$Z_{j}$ . Este procedimiento modera el efecto que tendría en el anterior una correlación excepcionalmente elevada. - En la misma línea, otra posibilidad es el promedio de los coeficientes de correlación entre la variable en cuestión y las restantes: $\hat{h}j^2=\frac{\sum{j \neq s}r_{js}}{p-1}$.
- Otra alternativa es realizar un ACP y tomar como comunalidad de cada variable la varianza explicada por los factores retenidos con el criterio de autovalor \index{autovalor} mayor que la unidad.
- También se puede utilizar el coeficiente de determinación lineal múltiple de cada variable con las demás como estimación de la cota inferior de sus comunalidades: $\hat {h}j^2 \geq r^2{{Z_j};(Z_{1},\cdots Z_{j-1},Z_{j+1},\cdots, Z_{p})}=1-\frac{1}{r^{jj}}$, donde
$r^{jj}$ es el$j$ -ésimo elemento de la diagonal de${\bf R}^{-1}$ .
Un valor alto de la comunalidad, próximo a
\index{análisis!factorial}
Método de componentes principales \index{metodo@método! de componentes principales}
Su objetivo es el análisis de toda la varianza, común \index{varianza! común} y no común, (modelo @ref(eq:eqaf1)). Por consiguiente, las entradas de la diagonal de TIC2021
del paquete CDR
, se remite al lector al Cap. @ref(acp). Aunque en el Cap. @ref(acp) se utilizó la función PCA()
de la librería FactoMineR
, también se puede utilizar la función principal()
de la librería psych
. \index{factores! comunes}
Este método tiene la ventaja de que siempre proporciona una solución. Sin embargo, al no estar basado en el modelo @ref(eq:eqaf3), puede dar estimaciones de las cargas factoriales \index{cargas! factoriales} muy sesgadas, sobre todo cuando hay variables con comunalidades \index{comunalidad} pequeñas.
Método de los factores principales\index{metodo@método! de los factores principales}
Es la aplicación del método de componentes principales \index{metodo@método! de componentes principales} a la matriz de correlaciones reducida,
\index{matriz! de correlaciones! reducida}
-
Cálculo de la matriz de correlaciones muestrales.
-
Estimación inicial de las comunalidades \index{comunalidad} utilizando el coeficiente de determinación lineal múltiple de cada variable con las demás.10
-
Cálculo de la matriz de correlaciones reducida:
$$\mathbf{R}^* =\begin{pmatrix} \hat{h}{1(0)}^2 & r{12} & \dotsb & r_{1p}\ r_{21} & \hat{h}{2(0)}^2 & \dotsb & r{2p}\ \vdots & \vdots & \dotsb & \vdots \ r_{p1} & r_{p2} & \dotsb & \hat{h}_{p(0)}^2\ \end{pmatrix}$$.
-
Cálculo de los autovalores \index{autovalor} y autovectores asociados a
$\mathbf{R}^*$ (matriz no necesariamente semidefinida positiva) y, a partir de ellos, obtención de las estimaciones de la matriz de cargas factoriales$\bf{A}_{(0)}$ . En este paso hay que determinar el número de factores utilizando los criterios del ACP. -
A partir de la estimación de $\bf{A}{(0)}$, obtención de una nueva estimación de las comunalidades: \index{comunalidad} $\hat{h}{j(1)}^2= \hat{a}{j1(1)}^2+\hat{a}{j2(1)}^2+ \dotsb +\hat{a}{jk(1)}^2$ y, por tanto, de una nueva estimación de la varianza única (o unicidad) $\hat{d}{j(1)}^2 =1 - \hat{h}_{j(1)}^2$. \index{unicidad} \index{varianza! única}
-
Comparación de $\hat{h}{j(1)}^2$ con $\hat{h}{j(0)}^2$,
$j=1,2,\cdots,p$ . Si hay diferencia significativa se vuelve al paso 3, y si la discrepancia no supera una cantidad prefijada se aceptan como válidas las últimas estimaciones disponibles.
En el software R, el método de los factores principales \index{metodo@método! de los factores principales} se implementa con la función fa()
de la librería psych
, que parte de ${\bf R}^$. @harman1976 muestra el procedimiento iterativo y @Revelle2022 los detalles sobre la manera como fa()
parte de ${\bf R}^$ y lleva a cabo la extracción de los factores.
af_facprin <- fa(cor(TIC2021), nfactors = 2, rotate = "none", fm = "pa")
print(af_facprin, digits = 3)
#> Factor Analysis using method = pa
#> Call: fa(r = cor(TIC2021), nfactors = 2, rotate = "none", fm = "pa")
#> Standardized loadings (pattern matrix) based upon correlation matrix
#> PA1 PA2 h2 u2 com
#> ebroad 0.678 0.189 0.495 0.5050 1.16
#> esales 0.503 0.547 0.553 0.4474 1.99
#> esocmedia 0.796 0.212 0.678 0.3218 1.14
#> eweb 0.872 0.239 0.818 0.1822 1.15
#> hbroad 0.816 -0.452 0.869 0.1306 1.56
#> hiacc 0.888 -0.439 0.982 0.0181 1.46
#> iuse 0.935 -0.023 0.875 0.1248 1.00
#>
#> PA1 PA2
#> SS loadings 4.435 0.835
#> Proportion Var 0.634 0.119
#> Cumulative Var 0.634 0.753
\index{autovector}
\index{matriz! de cargas}
En la salida anterior,
Las comunalidades y unicidades son: \index{comunalidad} \index{unicidad}
round(af_facprin2$communality, 3)
#> ebroad esales esocmedia eweb hbroad hiacc iuse
#> 0.495 0.553 0.678 0.818 0.869 0.982 0.875
round(af_facprin2$uniquenesses, 3)
#> ebroad esales esocmedia eweb hbroad hiacc iuse
#> 0.505 0.447 0.322 0.182 0.131 0.018 0.125
\index{estructura!simple}
Nótese que con el método de los factores principales, al aplicar ACP sobre
Los resultados son, en signo, aunque no tanto en valor, similares a los obtenidos por el método de componentes principales. Además, como era de esperar, no permiten una interpretación clara de los factores comunes. Para facilitar dicha interpretación, esos factores deberán ser rotados (véase Sec. @ref(rotaciones)). \index{metodo@método! de componentes principales} \index{factores! comunes}
Método de máxima verosimilitud \index{metodo@método! de máxima verosimilitud}
Exige normalidad multivariante y la determinación a priori del número de factores comunes, pero no la estimación de las comunalidades. \index{comunalidad} Obedece al modelo @ref(eq:eqaf3) y consiste en obtener las estimaciones máximo verosímiles de
La decisión sobre el número de factores comunes \index{factores! comunes},
El método máximo verosímil se puede implementar en R con la librería pysch
y la función fa()
(con fm=ml
). Otra posibilidad es utilizar la función factanal()
. En ambos casos hay que comprobar el cumplimiento de la hipótesis de normalidad. En el ejemplo TIC
no procede su implementación al no cumplirse tal hipótesis.
Otros métodos
Razones de espacio impiden comentar otros procedimientos de extracción de los factores. No obstante, hay que señalar que la función fa()
de la librería psych
también permite implementar los métodos minres
(mínimo residuo), que estima las cargas factoriales \index{cargas! factoriales} minimizando (sin ponderaciones) los cuadrados de los residuos no diagonales de alpha
, que maximiza el alfa de Cronbach \index{alfa de Cronbach} para los factores. Aunque fa()
también proporciona el método del centroide \index{metodo@método! del centroide} y la descomposición triangular (que exigen la estimación de las comunalidades), así como el análisis imagen \index{análisis!imagen}(que requiere el número de factores), en la actualidad están en desuso. \index{metodo@método! alpha} \index{metodo@método! del centroide} \index{comunalidad} \index{metodo@método! de la descomposición triangular} \index{metodo@método! del análisis imagen} \index{metodo@método! minres}
Otros métodos de extracción de los factores son los métodos de mínimos cuadrados no ponderados \index{metodo@método! de mínimos cuadrados!no ponderados} y mínimos cuadrados generalizados, \index{metodo@método! de mínimos cuadrados!generalizados} que minimizan la suma de las diferencias cuadráticas entre las matrices de correlación observada y reproducida, en el último caso ponderando los coeficientes de correlación inversamente a la unicidad \index{unicidad} de las variables (alta unicidad supone baja comunalidad). Ambos son proporcionados por fa()
y FAiR
, que también es una librería muy recomendable.
\index{análisis!factorial}
La interpretación de los factores \index{interpretación de los factores} se lleva a cabo a través de la estructura factorial, \index{estructura!factorial} que, si los factores comunes están incorrelacionados, coincide con el patrón factorial. \index{patrón factorial} Sin embargo, aunque el modelo obtenido sea representativo de la realidad, en ocasiones la interpretación de los factores es harto dificultosa porque presentan correlaciones similares con un gran número de variables. Como la solución AF no es única (si
Geométricamente, la
Sea
- Cada fila tiene al menos un cero.
- Cada columna tiene, al menos, tantos ceros como factores comunes \index{factores! comunes} (
$k$ ). - Cada par de columnas debe ser tal que, para varias variables, una tenga cargas despreciables y la otra no.
- Si
$k\geq 4$ , cada par de columnas debe tener un número elevado de variables cuyas cargas sean nulas en ambas variables. - Para cada par de columnas, el número de variables con cargas no nulas en ambas columnas debe ser muy pequeño.
Como se avanzó, se trata de que las variables se aglomeren lo más posible en torno a los factores comunes, y de la manera más discriminatoria posible. Así mejora la interpretación de estos y, por lo general, aumenta su significado teórico. \index{factores! comunes}
Las rotaciones pueden ser ortogonales \index{rotaciones!ortogonales} u oblicuas, \index{rotaciones!oblicuas} dependiendo de si los nuevos factores siguen estando incorrelacionados (ejes perpendiculares) o no (ejes oblicuos).
Preservan la perpendicularidad de los ejes y no varían las comunalidades, pues
Las rotaciones ortogonales \index{rotaciones!ortogonales} más usadas son:
Rotación VARIMAX \index{rotacion@rotación! VARIMAX}
Se define simplicidad del factor
Dicho lo anterior, la rotación VARIMAX \index{rotacion@rotación! VARIMAX} consiste en la obtención de una
Sin embargo, las variables con mayor comunalidad, y por tanto con mayores cargas factoriales, tendrán mayor influencia en la solución final porque la comunalidad no se ve afectada por la rotación ortogonal. Para evitar esto, Kaiser propuso la rotación VARIMAX normalizada,12 donde las cargas se dividen entre la raíz cuadrada de la comunalidad de la variable correspondiente. Los valores obtenidos son los elementos de
El procedimiento de cálculo de las cargas \index{cargas! factoriales} de los factores rotados es iterativo, rotándose los factores por parejas hasta que se consigue maximizar la suma de simplicidades normalizadas.
\index{rotacion@rotación! VARIMAX normalizada}
La rotación VARIMAX \index{rotacion@rotación! VARIMAX} es muy popular por la robustez de sus resultados, si bien se recomienda para un número no muy elevado de factores comunes. \index{factores! comunes}
Rotación QUARTIMAX
Su objetivo es maximizar la varianza de los cuadrados de todas las cargas factoriales, es decir, maximizar: $$Q=\frac{\sum_{j=1}^{p}\sum_{m=1}^{k}{b}{jm}^4}{pk}-\left( \frac {\sum{j=1}^{p}\sum_{m=1}^{k}{b}_{jm}^2}{pk} \right)^2.$$
\index{cargas! factoriales}
Nótese que, como la rotación ortogonal no modifica las comunalidades \index{comunalidad}, ${h}{j}^2=\sum{m=1}^{k} b_{jm}^2$, el segundo término de la expresión anterior no se verá modificado, por lo que el criterio anterior equivale a maximizar
QUARTIMAX \index{rotacion@rotación! QUARTIMAX} es recomendable cuando el número de factores es elevado. Tiende a generar un factor general, el primero, sobre el que la mayor parte de las variables tienen cargas elevadas, lo cual contradice los objetivos que persigue la rotación.
Rotación ORTOMAX
\index{rotacion@rotación! ORTOMAX}
Es una clase general de los métodos de rotación ortogonal que se construye como una composición ponderada de las dos rotaciones anteriores:
Si
Nótese que QUARTIMAX \index{rotacion@rotación! QUARTIMAX} pone el énfasis en la simplificación de la descripción por filas (variables) de la matriz factorial, mientras que VARIMAX \index{rotacion@rotación! VARIMAX} lo pone en la simplificación por columnas (factores) para satisfacer los requisitos de estructura simple; \index{estructura!simple} así, aunque se pueda conseguir la simplicidad de cada variable y que, a la vez, las cargas respecto del mismo factor sean grandes, tal factor queda excluido por la restricción impuesta por la simplificación sobre cada factor [@harman1976].
\hspace{0px} Superan la incorrelación u ortogonalidad de los factores y se suelen aplicar cuando:
Los procedimientos que proporcionan soluciones con estructura simple oblicua emanan de los mismos criterios objetivos que los que proporcionan soluciones con estructura simple ortogonal. De hecho, si se relajan las condiciones de ortogonalidad, algunos procedimientos de rotación ortogonal pueden adaptarse al caso oblicuo (tal es el caso, por ejemplo, del método OBLIMAX,\index{rotacion@rotación! OBLIMAX} a partir del criterio QUARTIMAX). Por otra parte, los métodos de rotación oblicua no solo son directos, sino que también pueden introducir los principios de estructura simple que se requieren para la solución factorial primaria de forma indirecta (métodos indirectos). Las rotaciones oblicuas \index{rotaciones!oblicuas} exigen nuevos conceptos y nueva nomenclatura:
\index{estructura!simple} \index{rotaciones!directas} \index{rotaciones!indirectas} \index{estructura!simple!ortogonal} \index{estructura!simple!oblicua}
-
Factores de referencia,
${G}_m$ ,$m=1, 2,\cdots, k$ : para cada factor rotado se puede encontrar un nuevo factor incorrelacionado con los rotados. A esos nuevos factores se les llama factores de referencia. En caso de rotación ortogonal, los factores de referencia coinciden con los primeros. \index{factores! de referencia} -
Estructura factorial de referencia: hasta ahora, se denominaba estructura factorial \index{estructura!factorial} a la matriz de correlaciones entre las variables
$Z_j$ ,${j=1,2, \cdots, p}$ y los factores rotados, que en el caso ortogonal coincide con la matriz de cargas factoriales \index{cargas! factoriales} rotadas. Pues bien, se denomina estructura factorial de referencia a la matriz de correlaciones entre las variables$Z_j$ y los factores de referencia. Si la rotación es ortogonal, coincide con la estructura factorial. \index{estructura!factorial!de referencia} -
Matriz de transformación: \index{matriz! de transformación} en el caso oblicuo se representa por
$\bf\Lambda$ . -
Estructura factorial oblicua:
$\bf V$ , tal que$\bf V= \bf A \bf \Lambda$ ; sus elementos son$v_{jm}$ . \index{estructura!factorial!oblicua} -
Cargas: en el caso oblicuo el término "carga" \index{cargas! factoriales} se utiliza para denotar la correlación de la variable con el eje de referencia:
$v_{jm}=r_{Z_j;\Lambda_m}$ .
Mientras las rotaciones ortogonales \index{rotaciones!ortogonales} intentan encontrar la estructura factorial más simple, las oblicuas \index{rotaciones!oblicuas} hacen lo mismo pero con la estructura de referencia.
El método (directo) OBLIMAX maximiza la expresión:
Nótese que se trata del criterio QUARTIMAX ortogonal, pero incorporando el denominador, puesto que en la rotación oblicua ya no es constante. \index{rotacion@rotación! OBLIMAX}
El QUARTIMIN directo, también derivado del QUARTIMAX ortogonal, minimiza el criterio:
La generalización del criterio "minimizar $H=\sum_{j=1}^{p}\sum {m<q=1}^k b{jm}^2b_{jq}^2$" para factores oblicuos se denomina OBLIMIN, \index{rotacion@rotación! OBLIMIN} \index{rotacion@rotación! COVARIMIN} y da lugar a métodos indirectos. Entre ellos, destaca el COVARIMIN, que se obtiene relajando la condición de ortogonalidad en el VARIMAX, \index{rotacion@rotación! VARIMAX} minimizando las covarianzas de los cuadrados de los elementos de:
Se ha comprobado empíricamente que QUARTIMIN tiende a ser demasiado oblicuo y COVARIMIN demasiado ortogonal. Una solución intermedia es la rotación BIQUARTIMIN, que consiste en minimizar $B^=H+\frac{C^}{p}$, donde $\frac{C^}{p}$ es la expresión completa del COVARIMIN. Una generalización de la rotación BIQUARTIMIN es $B^=\alpha H+\beta \frac{C^}{p}$. Sencillas operaciones aritméticas llevan a:
$$B^=\sum_{m< q=1}^{k}\left(p \sum_{j=1}^{p} v_{jm}^2 v_{jq}^2-\gamma \sum {j=1}^{p}v{jm}^2 \sum_{j=1}^{p}v_{jq}^2\right),$$
con
\index{rotacion@rotación! BIQUARTIMIN} \index{rotacion@rotación! BINORMALMIN} \index{rotacion@rotación! COVARIMIN}
El criterio BINORMALMIN (normalizado) es una alternativa al BIQUARTIMIN para corregir el sesgo de oblicuidad del criterio COVARIMIN. Minimiza: $$D=\sum_{m< q=1}^{k}\left( \frac{\sum_{j=1}^{p} \frac {v_{jm}^2}{h_j^2} \frac {v_{jq}^2}{h_j^2}} {\sum {j=1}^{p} \frac{v{jm}^2}{h_j^2}\sum {j=1}^{p} \frac{v{jq}^2}{h_j^2}}\right).$$
BINORMALMIN suele ser mejor con datos muy simples o muy complejos; BIQUARTIMIN es más recomendable con datos moderadamente complejos.
El método de rotación OBLIMIN \index{rotacion@rotación! OBLIMIN} directo, en vez de proceder como
Hay otros tipos de transformaciones oblicuas, pero únicamente se mencionarán
\index{rotaciones!oblicuas} \index{rotacion@rotación! PROMAX} \index{rotaciones!ortogonales}
\hspace{0px}La selección del método de rotación, ortogonal u oblicua, depende del objetivo perseguido. Si se pretende reducir el número de variables originales a un conjunto mucho menor de variables incorrelacionadas para su uso posterior en otra técnica, por ejemplo, regresión, la rotación debe ser ortogonal. Si el objetivo es obtener unos factores teóricos significativos, puede resultar apropiada la aplicación de una rotación oblicua.
En R es muy sencillo implementar una rotación ortogonal u oblicua. Basta, por ejemplo, con utilizar la librería GPArotation
[@Coen2005] e indicarlo en el argumento rotate
de la función fa
. A modo de ejemplo, extrayendo los factores por el método de los factores principales \index{metodo@método! de los factores principales} y utilizando una rotación VARIMAX normalizada, \index{rotacion@rotación! VARIMAX normalizada} sería:
library("GPArotation")
af_facprin2 <- fa(cor(TIC2021), nfactors = 2, rotate = "varimax", fm = "pa", digits = 3)
af_facprin2 # el objeto contiene información adicional no relevante en estos momentos
#> Factor Analysis using method = pa
#> Standardized loadings (pattern matrix) based upon correlation matrix
#> PA1 PA2 h2 u2 com
#> ebroad 0.38 0.59 0.50 0.505 1.7
#> esales 0.02 0.74 0.55 0.447 1.0
#> esocmedia 0.46 0.68 0.68 0.322 1.7
#> eweb 0.50 0.75 0.82 0.182 1.7
#> hbroad 0.91 0.20 0.87 0.131 1.1
#> hiacc 0.96 0.26 0.98 0.018 1.1
#> iuse 0.72 0.60 0.88 0.125 1.9
#>
#> PA1 PA2
#> SS loadings 2.87 2.40
#> Proportion Var 0.41 0.34
#> Cumulative Var 0.41 0.75
Nótese que la salida por defecto es la normalizada. También se puede utilizar la libería stats
indicando T
o F
en el argumento normalize
, dependiendo de que se quiera o no, respectivamente, una rotación VARIMAX (u otra) normalizada \index{rotacion@rotación! VARIMAX normalizada} .
library("stats")
varimax(loadings(af_facprin), normalize = T)
En el ejemplo del uso las TIC en los países de la UE-27, la rotación VARIMAX \index{rotacion@rotación! VARIMAX} ha conseguido facilitar la interpretación de los factores comunes, \index{factores! comunes} ya que, tras la rotación, las variables relacionadas con el uso de las TIC a escala individual y de hogar cargan en el primer factor, mientras que las relacionadas con el uso de las TIC a nivel empresarial cargan en el segundo. Por tanto, ambos factores pueden considerarse indicadores de la dotación y uso de las TIC en los ámbitos familiar y empresarial, respectivamente. El lector puede probar (y comparar) con otras rotaciones sin más que incluirlas en el argumento rotate
.
Realizado el AF, los siguientes procedimientos permiten comprobar la bondad del modelo obtenido: \index{interpretación de los factores} \index{matriz! de correlaciones} Análisis de las correlaciones residuales
Se entiende por bondad de la solución factorial la medida del grado en que los factores del modelo explican las correlaciones entre las variables. Por ello, parece natural que tal medida se base en la comparación entre las correlaciones observadas y las que se derivan del modelo factorial (reproducidas) o, en términos matriciales, en la magnitud de las entradas de la matriz de correlaciones residuales
Ahora bien, ¿cuál es el criterio apropiado para concluir si una solución factorial es aceptable o no? Para que sea aceptable, los elementos (los residuos) de
- Si
$S_{r_{res}}\gg\frac{1}{\sqrt{N-1}}$ , es razonable pensar que existen relaciones adicionales significativas entre las variables y hay que modificar la solución factorial. \index{solución factorial} - Si
$S_{r_{res}}\ll\frac{1}{\sqrt{N-1}}$ , es razonable pensar que la solución factorial incluye relaciones que no están justificadas. - Si
$S_{r_{res}}\leq pero \hspace{0,07cm} no\ll \frac{1}{\sqrt{N-1}}$ , la solución es aceptable.
Otra posibilidad, también muy sencilla, propuesta por @Revelle2022, es utilizar
En el ejemplo TIC seguido en este capítulo el ajuste realizado es muy bueno:
round(af_facprin2$residual, 3)
#> ebroad esales esocmedia eweb hbroad hiacc iuse
#> ebroad 0.505 -0.068 0.008 0.068 -0.045 0.002 0.003
#> esales -0.068 0.447 0.026 0.015 0.004 -0.012 0.021
#> esocmedia 0.008 0.026 0.322 -0.047 0.014 -0.005 0.017
#> eweb 0.068 0.015 -0.047 0.182 0.012 0.015 -0.042
#> hbroad -0.045 0.004 0.014 0.012 0.131 -0.005 0.010
#> hiacc 0.002 -0.012 -0.005 0.015 -0.005 0.018 0.002
#> iuse 0.003 0.021 0.017 -0.042 0.010 0.002 0.125
af_facprin2$rms
#> [1] 0.02907475
af_facprin2$fit
#> [1] 0.9715865
::: {.infobox data-latex=""} Nota
Como se avanzó en la introducción, el AF está enfocado al ajuste de las correlaciones entre las variables observadas mediante el patrón factorial \index{patrón factorial} correspondiente al modelo @ref(eq:eqaf2) (con los factores comunes \index{factores! comunes} y el factor único). Pues bien, si en el proceso reproductivo se utiliza el modelo solo con los factores comunes, la matriz de correlaciones que se reproduce es
:::
Test de bondad de ajuste
Se trata de un contraste de razón de verosimilitudes que se puede llevar a cabo cuando se extraigan los factores por el método de máxima verosimilitud. \index{metodo@método! de máxima verosimilitud} La hipótesis nula es la suficiencia de
El estadístico del contraste es
Este test se aplica de manera secuencial: se formula como hipótesis nula
Las puntuaciones factoriales son las estimaciones de los valores de los factores aleatorios no observados, es decir, de los elementos de ${\bf F}{mxm}$. Así, $\hat{f}{im}$ será la estimación del valor del
Estas estimaciones pueden ser usadas como inputs para posteriores análisis (regresión, clúster, etc.) en los que se trabaje con los mismos elementos o individuos, sustituyendo las variables originales por los nuevos factores obtenidos. La cuestión es: ¿cómo calcular estas puntuaciones?, porque tanto los factores como los errores no son observables sino aleatorios.
Los métodos más populares para obtener la estimación de las puntuaciones factoriales \index{puntuaciones factoriales} son los siguientes:
-
El de regresión por mínimos cuadrados ordinarios (MCO), donde
$\hat{\bf F}=\left (\bf A^{\prime} \bf A \right)^{-1}\bf A^{\prime}\bf Z$ . -
El de Bartlett, basado en el método de estimación por mínimos cuadrados generalizados (MCG), \index{metodo@método! de Bartlett} con
$\hat{\bf F}=\left (\bf A^{\prime} \bf \Psi ^{-1}\bf A \right)^{-1}\bf A^{\prime}\Psi ^{-1}\bf Z$ . El mismo estimador se puede obtener por máxima verosimilitud asumiendo normalidad multivariante. -
El de Thompson (con un enfoque bayesiano), donde
$\hat{\bf F}=\left (\bf I+\bf A^{\prime} \bf \Psi ^{-1}\bf A \right)^{-1}\bf A^{\prime}\Psi ^{-1}\bf Z$ . \index{metodo@método! de Thompson} -
El de Anderson-Rubin (que obtiene estimaciones MCG imponiendo la condición
$\bf F^{\prime}F =I$ ($\hat{\bf F}=\left (\bf A^{\prime} \bf \Psi ^{-1}\bf R \bf \Psi ^{-1}\bf A \right)^{-1}\bf A^{\prime}\Psi ^{-1}\bf Z$ ). \index{metodo@método! de Anderson-Rubin}
Las ventajas y desventajas de cada uno de ellos pueden verse en @mardiaetal1979 y @santiagodelafuente2011.
En el ejemplo de las TIC, las puntuaciones de los dos factores extraídos con el método de los factores principales \index{metodo@método! de los factores principales} y rotados con \index{rotacion@rotación! VARIMAX} VARIMAX (la rotación no afecta a las puntuaciones), calculadas por el método de regresión, para los países de la UE-27 (se muestran los de Bélgica, Bulgaria y la República Checa), se obtienen en R como sigue:
af_facprin3 <- fa(cor(TIC2021), nfactors = 2, rotate = "VARIMAX", fm = "pa", scores = "regression")
factor.scores(TIC2021, af_facprin3)$scores[1:3, ]
#> PA1 PA2
#> BE 0.6256359 1.01289866
#> BG -2.1820404 -0.03439974
#> CZ -0.2189723 1.08635525
\index{matriz! de correlaciones}
ACF y AF son aparentemente muy similares, pero en realidad son muy diferentes. Tanto ACP como AF son técnicas de reducción de la dimensionalidad que aparecen juntas en los paquetes estadísticos y persiguen objetivos muy similares, lo cual, en determinadas ocasiones, lleva al lector a pensar que son intercambiables entre sí, cuando eso no es cierto. Por ello, este capítulo finaliza con un breve comentario sobre las diferencias más relevantes entre ambos enfoques.
La primera es que ACP es una mera transformación de los datos en la que no se hace ningún supuesto sobre la matriz de covarianzas o de correlaciones. Sin embargo, AF asume que los datos proceden de un modelo bien definido, el modelo @ref(eq:eqaf3), en el que los factores subyacentes \index{factores! subyacentes} satisfacen unos supuestos bien definidos.
En segundo lugar, en ACP el énfasis se pone en el paso desde las variables observadas a las componentes principales, \index{componentes principales} mientras que en AF se pone en el paso desde los factores latentes a las variables observadas. Es cierto que en ACP se pueden retener
Una tercera diferencia es que, mientras que ACP obtiene componentes en función de las variables originales (los valores de las variables pueden ser estimados a posteriori en función de dichas componentes o factores), en AF las variables son, ellas mismas, combinaciones lineales de factores desconocidos. Es decir, mientras que en ACP la solución viene de la mano de la descomposición en valores singulares, en AF requiere procedimientos de estimación, normalmente iterativos.
La cuarta es que ACF es un procedimiento cerrado, mientras que AF es abierto, en el sentido de que explica la varianza común \index{varianza! común} y no toda la varianza.
Finalmente, como pudo verse en la Sec. @ref(metodosdeextraccion), cuando las varianzas de los factores únicos son prácticamente nulas, el método de los factores principales \index{metodo@método! de los factores principales} es equivalente a ACP, y cuando son pequeñas ambos dan resultados similares. Sin embargo, cuando son grandes, en ACP las componentes principales \index{componentes principales} (tanto las retenidas como las que no se retienen) las absorben, mientras que el AF las considera y les da su lugar. \index{matriz! de covarianzas}
::: {.infobox_resume data-latex=""}
-
El análisis factorial es una técnica de reducción de la dimensionalidad que trata de dar una explicación de la varianza compartida, o común, de las variables objeto de estudio (no de toda la varianza, como hace el análisis de componentes principales) mediante un número mucho menor de factores comunes latentes. Por consiguiente, solo tiene sentido implementarlo si dichas variables se encuentran fuertemente correlacionadas.
-
Tras introducir al lector en los principales elementos teóricos del análisis factorial (el modelo básico y la solución factorial completa), se abordan las distintas etapas del procedimiento en su vertiente práctica:
$(i)$ el preanálisis factorial, que responde a la pregunta de si procede o no llevarlo a cabo;$(ii)$ el análisis factorial propiamente dicho, prestando especial atención a los métodos de extracción de los factores y a las rotaciones de los mismos para facilitar su interpretación; y$(iii)$ el postanálisis factorial, que incluye una serie de procedimientos para determinar si la solución factorial obtenida es o no aceptable. -
Posteriormente, se aborda la cuestión de cómo estimar los valores de los factores obtenidos para cada elemento o individuo involucrado en el análisis, pues estas estimaciones pueden usarse como inputs en análisis posteriores (regresión, clúster, etc.) sustituyendo las variables originales por los factores obtenidos. El capítulo finaliza con algunos comentarios sobre las diferencias entre el análisis factorial y el de componentes principales, aparentemente muy similares, pero en realidad muy diferentes. :::
Footnotes
-
Se asumirá la representación lineal, por sencillez, pero puede ser cualquier otra. ↩
-
Por las mismas razones que en el análisis de componentes principales (ACP), se trabaja con las \index{variable! estandarizada} variables estandarizadas; véase Cap. @ref(acp). ↩
-
No son los únicos. ↩
-
Ambos enfoques dan resultados similares cuando hay más de 30 variables y las comunalidades (véase Sec. @ref(modelobasicoaf)) son superiores a 0,70, y se interpretan de manera casi idéntica. ↩
-
Aunque en el modelo figuran explícitamente los valores de los factores, en la práctica hay que estimarlos. En otras versiones del AF estos valores se estiman conjuntamente con los parámetros. ↩
-
En caso de variables dicotómicas se utiliza el coeficiente $\phi$ (véase @ref(medidas)) como medida de correlación momento-producto. ↩
-
La historia es más larga: el AF es indeterminado porque dada una matriz ${\bf {C}}_{kxk}$ no singular, si se define otro vector de factores comunes $\bf f^=\bf C^{-1}\bf f$ y otra matriz $\bf A^=\bf A\bf C$, entonces $\bf Z=\bf A \bf f+\bf D \bf u=\bf A^\bf C^{-1}\bf C\bf f^+\bf D \bf u=\bf A^\bf f\bf^+ D \bf u$ y ambos son equivalentes. Una solución es exigir la incorrelación de los factores comunes ($\bf \Phi=\bf I$), con lo que la indeterminación se reduciría solo a cuando $\bf C$ sea ortogonal. En este caso, la solución será única salvo rotaciones ortogonales. \index{rotaciones!ortogonales} ↩
-
Una solución determina el espacio $k$-dimensional que contiene los $k$ factores comunes, pero no su posición exacta. ↩
-
Cuando se utiliza este método, se debe utilizar $\bf R$, porque, de otra forma, los factores comunes no tendrían media cero y varianza unitaria. ↩
-
Una estimación inicial de las comunalidades equivale a una estimación inicial de las varianzas únicas: $\hat{d}{j(0)}^2=\hat{\sigma}{j}^2-\hat{h}{j(0)}^2$; y si las variables originales están tipificadas: $\hat{d}{j(0)}^2=1-\hat{h}_{j(0)}^2$. ↩
-
Este criterio es compatible con el hecho de que en cada fila uno de los elementos esté próximo a cero y los demás a uno, porque la suma de los cuadrados de los elementos de una fila es la comunalidad fija de la variable correspondiente. ↩
-
La normalización Kaiser se aplica también en los demás tipos de rotación. ↩
-
Este criterio tiene como ventaja la simplicidad. Sin embargo, sería conveniente que tuviese en cuenta, al menos, el número de variables. ↩
-
$df$ indica la medida en que el modelo factorial ofrece una interpretación más simple que $\bf \Sigma$. ↩