You are on page 1of 18

ECONOMETRÍA

“Método Análisis Factorial”






Yeniffer Alejandra Cantillana Navarrete
Juan Carlos Hurtado Salas
Enzon Yimmy Santana Estay

RÉGIMEN DE ESTUDIOS VESPERTINO

Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

2

INDICE
N° Pag.
I.
Introducción

……………………………………………………………………………. 3
II.
¿Qué es al análisis factorial?

……………………………………………………………………………. 4
III.
Formulación del problema

……………………………………………………………………………. 4
IV.
El modelo del análisis factorial

……………………………………………………………………………. 5
V.
Condiciones del modelo

……………………………………………………………………………. 6
VI.
Estudio de la matriz de correlación

……………………………………………………………………………. 7
VII.
Extracción de los factores

……………………………………………………………………………. 8
VIII.
Rotación de los factores

……………………………………………………………………………. 9
IX.
Tipos de rotación ortogonales

……………………………………………………………………………. 10
X.
Tipos de rotaciones no ortogonales

……………………………………………………………………………. 11
XI.
Calculo de puntuación factorial

……………………………………………………………………………. 11
XII.
Validación del modelo

……………………………………………………………………………. 13

XIII.
Ejemplo

……………………………………………………………………………. 15
XIV.
Conclusión

……………………………………………………………………………. 17
XV.
Bibliografía

……………………………………………………………………………. 18









Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

3

I. INTRODUCCIÓN

El Análisis Factorial es una técnica de reducción de datos que sirve para encontrar grupos
homogéneos de variables a partir de un conjunto numeroso de variables.
Los grupos homogéneos se forman con las variables que correlacionan mucho entre sí y
procurando, inicialmente, que unos grupos sean independientes de otros.
Cuando se recogen un gran número de variables de forma simultánea (por ejemplo, en un
cuestionario de satisfacción laboral) se puede estar interesado en averiguar si las
preguntas del cuestionario se agrupan de alguna forma característica. Aplicando un
análisis factorial a las respuestas de los sujetos se pueden encontrar grupos de variables
con significado común y conseguir de este modo reducir el número de dimensiones
necesarias para explicar las respuestas de los sujetos.
El Análisis Factorial es, por tanto, una técnica de reducción de la dimensión de los datos,
su último propósito consiste en buscar el número mínimo de dimensiones capaces de
explicar el máximo de información contenida en los datos.
A diferencia de lo que ocurre en otras técnicas como el análisis de varianza o el de
regresión, en el análisis factorial todas las variables del análisis cumplen el mismo papel:
todas ellas son independientes en el sentido de que no existe a priori una dependencia
conceptual de unas variables sobre otras.
Fundamentalmente lo que se pretende con el Análisis Factorial (Análisis de Componentes
Principales o de Factores Comunes) es simplificar la información que nos da una matriz de
correlaciones para hacerla más fácilmente interpretable.
Se pretende encontrar una respuesta al preguntarnos ¿Por qué unas variables se
relacionan más entre sí y menos con otras? Hipotéticamente es porque existen otras
variables, otras dimensiones o factores que explican por qué unos ítems se relacionan más
con unos que con otros.
En definitiva, ¿se trata de un análisis de la estructura subyacente a una serie de variables?



Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

4

II. ¿QUÉ ES AL ANÁLISIS FACTORIAL?
El Análisis Factorial es una técnica estadística multivariante cuyo principal propósito es
sintetizar las interrelaciones observadas entre un conjunto de variables en una forma
concisa y segura, como una ayuda a la construcción de nuevos conceptos y teorías. Para
ello utiliza un conjunto de variables aleatorias inobservables, que llamaremos factores
comunes, de forma que todas las covarianzas o correlaciones son explicadas por dichos
factores y cualquier porción de la varianza inexplicada por los factores comunes se asigna
a términos de error residuales que llamaremos factores únicos o específicos.
El Análisis Factorial puede ser exploratorio o confirmatorio:
 El análisis exploratorio se caracteriza porque no se conocen a priori el número de
factores y es la aplicación empírica donde se determina este número.
 El análisis de tipo confirmatorio los factores están fijados a priori, utilizándose
contrastes de hipótesis para su corroboración.
En esta lección nos centraremos en el Análisis Factorial Exploratorio dado que el Análisis
Factorial Confirmatorio se suele estudiar como un caso particular de los Modelos de
Ecuaciones Estructurales.
III. FORMULACIÓN DEL PROBLEMA
En esta etapa debe abordarse la selección de las variables a analizar así como la de los
elementos de la población en la que dichas variables van a ser observadas.
Aunque pueden realizarse análisis factoriales con variables discretas (Cuantitativas, son
finitas o infinitas) y/o ordinales (Cualitativas, toma distintos valores ordenados) lo habitual
será que las variables sean Cuantitativas Continuas (pueden asumir infinitos valores) y en
lo que sigue nos ceñiremos a estas. Es importante, en todo caso, que dichas variables
recojan los aspectos más esenciales de la temática que se desea investigar y su selección
deberá estar marcada por la teoría subyacente al problema. No tiene sentido incluir
variables que no vengan fundamentadas por los aspectos teóricos del problema porque se
corre el riesgo de que los resultados obtenidos ofrezcan una estructura factorial difícil de
entender y con escaso contenido teórico relevante.
Es muy aconsejable en este paso que el analista tenga una idea más o menos clara de
cuáles son los factores comunes que quiere medir y que elija las variables de acuerdo con
ellos y no al revés porque se corre el riesgo de encontrar factores espúreos (no auténticos)
o que los factores queden mal estimados por una mala selección de las variables.
Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

5

Así mismo, la muestra debe ser representativa de la población objeto de estudio y del
mayor tamaño posible. Como regla general deberán existir por lo menos cuatro o cinco
veces más observaciones (tamaño de la muestra) que variables. Si el tamaño de la
muestra es pequeño y esta relación es menor, los resultados deben interpretarse con
precaución.
Conviene hacer notar, finalmente, que los resultados del análisis no tienen por qué ser
invariantes a cambios de origen y escala por lo que se aconseja, si las unidades de medida
de las variables no son comparables, estandarizar los datos antes de realizar el análisis.

IV. EL MODELO DEL ANÁLISIS FACTORIAL

Sean X1, X2,…, Xp las p variables objeto de análisis que supondremos en todo lo que sigue
que están tipificadas. Si no lo estuvieran el análisis se realizaría de forma similar pero la
matriz utilizada para calcular los factores no sería la matriz de correlación sino la de
varianzas y covarianzas. El investigador mide estas variables sobre n individuos,
obteniéndose la siguiente matriz de datos:

Sujetos

Variables
X1 X2… Xp
1
X11X12 … X1p
2
X21X22 … X2p
… ………..
N
Xn1Xn2 … Xnp

El modelo del Análisis Factorial viene dado habitualmente por las ecuaciones:


Donde:
• X- µ: vector (n×1).
• F: vector (p×1) de factores comunes linealmente independientes.
• A: matriz (n×p) cuyos elementos se conocen como cargas factoriales.
• U: vector (n×1) de factores únicos o errores. (N filas por una columna).

Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

6

V. CONDICIONES DEL MODELO

Las condiciones que tenemos que exigirle a este modelo son:

1. Los factores comunes, tienen media 0. Representación matemática E(F) = 0.
2. los factores comunes, varianza 1 y no están correlacionados entre sí.
Representación matemática E(FFt) = p×p.
3. Los factores únicos, tienen media 0 y varianzaδ²µi. Representación matemática
E(U) = 0 y E(UU) = ᶲ n×n. (ᶲ n×n es una matriz diagonal, donde los elementos de la
diagonal principal son δ²µi )
4. Los factores comunes, no están correlacionados con los factores únicos.
Representación matemática E(UF) = 0.

Si se dan todas estas suposiciones la matriz de covarianzas de X se puede expresar de la
forma:


Si utilizamos esta expresión, la varianza de cada variable Xi se puede escribir como:




Si X está estandarizada, es decir, E(X) = 0 y Var(X) = 1, entonces los elementos de A
representan la correlación existente entre las variables y los factores ( N(0;1²)).
En este caso (variables estandarizadas), el modelo nos queda de la forma:


Por lo tanto se cumplen estas propiedades importantes que nos dan una interpretación
semántica de los coeficientes que aparecen en un análisis factorial:
 µ= 0, σi² = 1= 1 y ∑ es la matriz de correlación R, por ser variables normalizadas.

 Las cargas factoriales son las correlaciones entre las variables y los factores.






Representa la proporción de varianza explicada por los factores
comunes.
Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

7

VI. ESTUDIO DE LA MATRIZ DE CORRELACIÓN

Dado que el análisis factorial se basa en el estudio de la matriz de correlaciones hay que
ver si se dan las condiciones adecuadas para poder aplicar un análisis de este tipo.
¿Cuáles son las condiciones adecuadas para poder aplicar un análisis factorial?
La respuesta a esta pregunta la podemos tener en la siguiente afirmación:



La comprobación de esta condición se puede hacer utilizando las siguientes técnicas:
 Mediante la visualización de la matriz de correlaciones. Este método es un poco
primitivo pero nos puede dar una idea inicial de por dónde podemos movernos. La
dificultad principal estriba en que si el número de variables del modelo es alto es
difícil extraer conclusiones ya que la matriz de correlaciones será muy grande y,
por lo tanto, difícil de visualizar en su conjunto.
 Mediante el estudio de unos determinados coeficientes como, por ejemplo, el
Determinante de la matriz de correlaciones: Valor bajo ⇒ alta adecuación del AF.
 Test de esfericidad de Barlett H0: R= I frente a H1: R ≠I.
 La medida de Kaiser-Meyer-Olkin (KMO), basada en estudios de coeficientes de
correlación parcial: KMO alto alta adecuación del AF (por debajo de 0.5 no es
aceptable el AF).
 Coeficiente de correlación múltiple: Valor alto ⇒ alta adecuación del AF. Este
coeficiente coincide con la comunalidad (se calcula matricialmente) inicial cuando
el método de extracción no es el de Componentes principales.
 La matriz de correlación anti-imagen: Esta matriz está formada por los negativos
de los coeficientes de correlación parcial: Elementos no diagonales pequeños ⇒
alta adecuación del AF. (La diagonal principal de esta matriz es la medida de
adecuación muestral (MSA): Si estos coeficientes son bajos es desaconsejable el
AF. Se puede considerar eliminar variables con MSA bajo, siempre que estos
valores sean bajos en unas pocas variables.)
De las técnicas antes mencionadas, las que quedan son capaces de explicar el modelo
factorial.





Las variables han de estar altamente correlacionadas (Modelo Factorial)
y la matriz de correlación ha de tener una cierta estructura.
Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

8

VII. EXTRACCIÓN DE LOS FACTORES

Como ya hemos comentado, el objetivo del Análisis Factorial consiste en determinar un
número reducido de factores que puedan representar a las variables originales. Por tanto,
una vez que se ha determinado que el Análisis Factorial es una técnica apropiada para
analizar los datos, debe seleccionarse el método adecuado para la extracción de los
factores. Existen diversos métodos cada uno de ellos con sus ventajas e inconvenientes.

Los métodos de extracción de factores usualmente incluidos en los paquetes estadísticos
son:
 Componentes principales.
 Ejes principales.
 Mínimos cuadrados.
 Análisis Alfa.
 Análisis Imagen.
 Máxima verosimilitud.

En este momento se plantea la cuestión de cuál de estos métodos es el mejor.
Realmente no hay una respuesta convincente a esta pregunta por lo que la táctica usual
es probar con todos y ver qué método explica mejor nuestro problema. El método más
popular y el que todos los paquetes traen por defecto es el de componentes principales. Si
sabemos que nuestros datos se han extraído de una población normal multivariado
deberemos elegir el método de máxima verosimilitud.

Una vez que hemos decidido el método de extracción de los factores debemos decidir
también el número de factores con el que nos vamos a quedar. Esta elección es
importante ya que nuestro objetivo es la reducción de la dimensión del problema sin
demasiada pérdida de información.

El modelo factorial en forma matricial viene dado por X= FA’+ U y el problema consiste en
cuantificar la matriz A de cargas factoriales que explica X en función de los factores.
A partir de esta expresión se deduce la llamada identidad fundamental del Análisis
Factorial:
Rρ= AA’+ ψ

Donde Rρ es la matriz de correlación poblacional de las variables X1, ..., Xpy Ψ= diag(ψi) es
la matriz diagonal de las especificidades.
Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

9

VIII. ROTACIÓN DE LOS FACTORES

El análisis factorial es inútil si no se pueden interpretar los factores. Esto es importante ya
que los factores son variables no observables y si no los podemos interpretar, no podemos
extraer conclusiones sobre entes que no sabemos lo que significan.
Para facilitar la interpretación vamos a utilizar la siguiente propiedad que tienen las cargas
factoriales:

















Es decir, la descomposición de la matriz de regresión es invariante frente a las
transformaciones ortogonales.

Es importante hacer notar que si se aplica una rotación ortogonal los factores siguen
estando no correlacionados.

Esta propiedad nos indica que la solución al problema no es única (en este sentido) por lo
que debemos escoger la mejor.





La estructura del problema no cambia sí se le aplica una rotación
ortogonal (transformación rígida que respeta los ángulos).
ROTACIÓN
En efecto, si tenemos una matriz ortogonal T, es decir, TT´= T´T= I, entonces
X= AF+ U ⇒ X= ATT´F+ U
(X = BG + U donde B = AT y G = T’F).

La descomposición de matriz de regresión asociada al modelo antes de aplicarle la
rotación es:
R= AA+ Φ
Y la descomposición asociada al modelo después de efectuar la rotación es:
R= BB´+ Φ = AT(AT)´ + U= ATT´A´+ Φ = AA´+ Φ

Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

10

¿En qué sentido podremos hablar de mejor solución?
Para el investigador la mejor solución será aquella que mejor explique su problema.
Debemos escoger la solución en la que las cargas factoriales sean altas en algunas
variables y bajas en otras.

De forma gráfica lo podemos ver a continuación:

Rotación Ortogonal

Ejemplo:

(1, 3, 1)* = (3, 3, 3)


Al rotar la solución puntos que tenían valores intermedios en ambos factores pasan a
tener valores altos en uno y bajos en otro. Puesto que las cargas factoriales representan la
correlación entre las variables y los factores, este hecho nos permitirá “explicar'' el
significado semántico de los factores.

IX. TIPOS DE ROTACIÓN ORTOGONALES

Hay diversos métodos para la realización de rotaciones ortogonales. Cada uno de estos
métodos prima la maximización de las cargas en un sentido.

 Varimax Este método, minimiza el número de variables con cargas altas en un
factor, mejorando así la interpretación de factores.
 Quartimax el objetivo es que cada variable tenga correlaciones elevadas con un
pequeño número de factores. Para ello busca maximizar la varianza de las cargas
factoriales al cuadrado de cada variable en los factores, es decir, el método trata
de maximizar la función.
 Equimax Es un híbrido de las anteriores en intentar optimizar a la vez por variables
y por factores.

3
1
3
Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

11

X. TIPOS DE ROTACIONES NO ORTOGONALES
Hay otro tipo de rotaciones que no son ortogonales y que se conocen como rotaciones
oblicuas. Estos métodos se utilizan si las rotaciones ortogonales no producen resultados
satisfactorios.

Los más utilizados son los métodos oblimin y promax.

En este caso después de rotar los factores sí están correlacionados y las cargas no se
pueden interpretar como la correlación entre variables y factores. Por lo tanto habrá que
considerar la matriz de correlación entre los factores para comprobar lo que nos alejamos
de la no correlación entre factores.

XI. CALCULO DE PUNTUACIÓN FACTORIAL

Una vez determinados los factores rotados el siguiente paso es calcular la matriz de
puntuaciones factoriales F. Las posibilidades de analizar las puntuaciones factoriales de los
sujetos son muy variadas según lo que se pretenda:

 Conocer qué sujetos son los más raros o extremos, es decir, la representación
gráfica de las puntuaciones factoriales para cada par de ejes factoriales puede
ayudar a detectar casos atípicos.
 Conocer dónde se ubican ciertos grupos o subcolectivos de la muestra (los jóvenes
frente a los mayores, los de clase alta frente a los de baja, los más católicos frente
a los no católicos, los de una provincia frente a los de otras provincias, etc).
 Conocer en qué factor sobresalen unos sujetos y en qué factor no, etc.
 Explicar, analizando las informaciones anteriores, por qué han aparecido dichos
factores en el análisis realizado.

En otras ocasiones un paso previo a otros análisis, como por ejemplo, Regresión Múltiple
o Análisis Cluster, en los que se sustituye el conjunto de variables originales por los
factores obtenidos. Por ello, es necesario conocer los valores que toman los factores en
cada observación.





Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

12

Métodos de cálculo de las puntuaciones: Existen diversos métodos de estimación de la
matriz F. Las propiedades deseables que verificasen los factores estimados son:

 Cada factor estimado tenga correlación alta con el verdadero factor.
 Cada factor estimado tenga correlación nula con los demás factores verdaderos.
 Los factores estimados sean incorrelacionados dos a dos, es decir, mutuamente
ortogonales si son ortogonales.
 Los factores estimados sean estimadores insesgados de los verdaderos factores.

Sin embargo, por la propia naturaleza de los factores comunes, el problema de su
estimación es complejo. Se puede demostrar que los factores no son, en general,
combinación lineal de las variables originales. Además, en la mayoría de las situaciones, no
existirá una solución exacta ni siquiera será única.

Todos los métodos de obtención de puntaciones factoriales parten de la expresión:

X = FΑ’ + U con E*U+=0, Var*U+ = Ψ
a partir de la cual buscan estimar el valor de F.

Tres de los métodos de estimación más utilizados son los siguientes:

Método de regresión: Estima F mediante el método de los mínimos cuadrados

Fˆ= (Α’Α)ˉ¹ Α’X

Método de Barlett: Utiliza el método de los mínimos cuadrados generalizados estimando
las puntuaciones factoriales mediante:

Fˆ= (Α’ Ψˉ¹ Α) ˉ¹ Α’Ψˉ¹ X

Método de Anderson-Rubin: Estima F mediante el método de los mínimos cuadrados
generalizados pero imponiendo la condición adicional F’F = I

Fˆ= (Α’ Ψˉ¹RΨˉ¹Α) ˉ¹Α’Ψˉ¹X
Comparación de los tres métodos

Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

13

 El método de regresión da lugar a puntuaciones con máxima correlación con las
puntuaciones teóricas. Sin embargo, el estimador no es insesgado, ni unívoco y, en
el caso de que los factores sean ortogonales, puede dar lugar a puntuaciones
correlacionadas.
 El método de Bartlett da lugar a puntuaciones correlacionadas con las
puntuaciones teóricas, insesgadas y unívocas. Sin embargo, en el caso de que los
factores sean ortogonales, puede dar lugar a puntuaciones correlacionadas.
 El método de Anderson-Rubin da lugar a puntuaciones ortogonales que están
correlacionadas con las puntuaciones teóricas. Sin embargo, el estimador no es
insesgado ni es unívoco.

XII. VALIDACIÓN DEL MODELO
El último paso en el Análisis Factorial es estudiar la validez del modelo. Dicha validación
debe hacerse en dos direcciones: analizando la bondad de ajuste del mismo y la
generabilidad de sus conclusiones.

Bondad de ajuste

Una suposición básica subyacente al Análisis Factorial es que la correlación observada
entre las variables puede atribuirse a factores comunes. Por consiguiente, las
correlaciones entre variables pueden deducirse o reproducirse a partir de las
correlaciones estimadas entre las variables y los factores. A fin de determinar el ajuste del
modelo, pueden estudiarse las diferencias entre las correlaciones observadas (como se
dan en la matriz de correlación de entrada) y las correlaciones reproducidas (como se
estiman a partir de la matriz factorial). Estas diferencias se conocen como residuos. Si el
modelo factorial es adecuado entonces estos residuos deben ser pequeños. Si existe un
porcentaje elevado de residuos superiores a una cantidad pequeña prefijada (por
ejemplo, 0.05), esto será indicativo de que el modelo factorial estimado no se ajusta a los
datos. Se sabe además que hay más estabilidad en los resultados si el número de casos
por variable es alto.


Generalidad de los resultados

También es adecuado refrendar los resultados del primer análisis factorial realizando
nuevos análisis factoriales sobre nuevas muestras extraídas de la población objeto de
estudio y, caso de no ser posible esto último, sobre submuestras de la muestra original. En
Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

14

cada caso se estudiaría qué factores de los calculados son replicados en los distintos
análisis llevados a cabo. Otra posibilidad es realizar nuevos análisis factoriales modificando
las variables consideradas bien sea eliminando aquellas variables que no tienen relación
con ningún factor o eliminando las variables con relaciones más fuertes tratando de
descubrir cómo se comporta el resto de ellas sin su presencia.
Otro de los procedimientos metodológicos y estadísticos que complementan y
profundizan las interpretaciones que se deducen del análisis factorial consiste en la
realización de otros análisis factoriales en base, no al conjunto total de la muestra o
población, sino referido a subcolectivos o grupos que están presentes en esa muestra y
que pueden formarse utilizando las categorías de las variables primarias: sexo, clase
social, tipo de centro, tipo de metodología pedagógica, tipos sociológicos, tipos de actitud,
etc. Lo que se desprende de los trabajos e investigaciones que han utilizado este
procedimiento es que normalmente la interpretación que se da y que es válida para el
conjunto total de sujetos debe modificarse, en algunos casos sustancialmente, cuando se
refiere a esos subcolectivos. En caso de ser así, se deriva en una doble conclusión:
 Las variables se comportan en el Análisis Factorial de distinta forma según de qué
muestra se trate.
 No existe el sujeto «tipo» sino que existen diferentes «tipos» de sujetos en la
muestra global.
Finalmente se debería plantear un Análisis Factorial Confirmatorio para comprobar los
resultados obtenidos en la versión Exploratoria.
















Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

15


XIII. EJEMPLO

Unos estudiantes son sometidos a diversos test en distintas materias para medir sus
actitudes intelectuales. Como consecuencia, se obtienen una serie de puntuaciones
estandarizadas en Matemáticas (Ma), Física (Fi), Química (Qu), Inglés (In), Historia (Hi) y
Dibujo (Di).

El modelo factorial viene dado por las ecuaciones

Los factores comunes están estandarizados e incorrelacionados


Los factores específicos tienen media 0 e incorrelacionados

Ambos tipos de factores están incorrelacionados


La matriz de cargas factoriales

Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

16



Comunalidad y Especificidad:

La Comunalidad en Matemáticas es h2MA 0,68 y la Especificidad ψ MA 0,32


La Comunalidad en Dibujo es h²DI 0,785 y la Especificidad ψ DI 0,215

Análogamente,


Como las puntuaciones están estandarizadas, la matriz de varianzas y covarianzas coincide
con la matriz de correlaciones:

Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

17




XIV. CONCLUSIÓN

El análisis factorial es una técnica de reducción de datos que ayuda a expresar la
información encontrada en un conjunto de datos con un número menor de variables sin
cambiar la información, esto facilita el análisis de la misma.

Es importante realizar un buen planteamiento del problema en la selección de las
variables y en la de los objetos sobre las que deben ser evaluados. De igual manera
conocer qué factores queremos medir y elegir las variables con relación a estas es vital
para este método. Realizando esto, el análisis factorial va a arrojarnos datos precisos y los
esperados.

Sin embargo, es necesario tener en cuenta que los datos obtenidos no siempre serán los
reales ya que como cualquiera de los otros métodos tiene un margen de error, por esto la
utilización de un segundo método será de gran ayuda para que los resultados finales sean
totalmente confiables.

Conviene insistir, finalmente, en la importancia que tiene realizar un buen planteamiento
del problema tanto en la selección de las variables a analizar como en la de los objetos
sobre las que deben ser medidos. Es muy conveniente tener un conocimiento previo de
qué factores queremos medir y elegir las variables de acuerdo con los mismos. Actuando
de esta manera el análisis gana en potencia y generalidad aumentando significativamente
el grado de inteligibilidad de los resultados obtenidos.


Universidad Iberoamericana


Facultad de Administración y Negocios
Ingeniería Comercial

18
















XV. BIBLIOGRAFIA


 www.aniorte-nic.net/apunt_metod_investigac4_5.htm
 www.ciberconta.unizar.es/LECCION/factorial/FACTORIALEC.pdf
 www.cienciaytrabajo.cl/pdfs/35/pagina276.pdf
 www.eumed.net/libros/2006c/203/2f.htm
 www.eumed.net/libros/2011c/986/Analisis%20factorial%20sobre%20la%20satisfaccion.htm
 www.ingenieria.peru-v.com/analisis_factorial/uso_de_analisis_factorial.html
 www.lluisvives.com/servlet/SirveObras/46860175104026839600080/006458_6.pdf
 www.mitecnologico.com/Main/ConceptosBasicosDise%F1osFactoriales