You are on page 1of 5

library(openxlsx) #Librería que interactúa con MSExcel library(corrplot) #Librería para el

gráfico de correlaciones library(corrr) #Otra opción de librería para el cálculo y gráfico de


correlaciones

Loading required package: dplyr

Attaching package: ‘dplyr’


library(readxl)
datos <- read_excel(“E:/MULTI/datos.xlsx”) View(datos)
class(datos) datos#Visualización de la tabla summary(datos)

categorizar como NA los 88 y 99 (NS/NR)


datos[datos==99]<-NA base [datos==88]<-NA

matriz de correlaciones (denominado objeto #“RCOR”) y


determinante

de la matriz
Rcor<- cor(datos,use = “pairwise.complete.obs”) Rcor det(Rcor)
corrplot(cor(datos), order = “hclust”, tl.col=‘black’, tl.cex=1) #Gráfico de las correlaciones
datos_correlaciones <- correlate(datos) #Cálculo de un objeto de correlaciones
rplot(datos_correlaciones, legend = TRUE, colours = c(“firebrick1”, “black”, “darkcyan”),
print_cor = TRUE) #Opción gráfica de las correlaciones
PROCESO DEL ANÁLISIS FACTORIAL:

Se puede conocere la presencia de multicolinealidad al evaluar la

Determinante de la matriz de correlaciones de las variables ingresadas


al

estudio:

Un determinante bajo, es decir, cercano a 0, indica alta


multicolinealidad

entre las variables. De ser igual a cero (matriz no singular), esto


indicaría

que algunas de las variables son linealmente dependientes y no se


podrían realizar

ciertos cálculos necesarios para los procedimientos multivariados.

En este caso observamos

que es muy cercano a 0, lo que sugiere un alto nivel de colinealidad en


el conjunto de variables involucradas en la matriz}

supuesto de colinealidad
det(Rcor) .
Ahora bien la explicación del Test de Bartlett es muy similar a la
prueba Chi Cuadrado,

es decir a valores pequeños de K-squared expresa que existe una


homogeneidad en las varianzas

y por lo consiguiente existen un buen número de correlaciones


positivas entre las variables y

el p-valor y se puede corroborarlo fijando un

H0: Las varianzas son homogéneas (correlaciones aceptables),

con un alfa=0.05.

Otra explicación es que dicho

test proporciona la probabilidad de que la matriz de correlación de las


variables sea una matriz identidad

Por consiguiente vamos a ubicar el cálculo de los estimadores del Test


de Bartlett y el MSA(KMO):
bartlett.test(datos)
print(cortest.bartlett(Rcor,n = nrow(datos)))
Test MSA o KMO - PRUEBA DE multicolinealidad

contrasta si las correlaciones parciales entre las variables son


suficientemente pequeñas. El estadístico KMO varía entre 0 y 1.

Los valores pequeños indican que el análisis factorial puede no ser


una buena idea,

dado que las correlaciones entre los pares de variables no pueden ser
explicadas por otras variables.

Los menores que 0.5 indican que no debe utilizarse el AF con la matriz
de datos que se están analizando
library(psych) KMO(datos)
library(stats) #Librería del sistema base # Por consiguiente vamos a ubicar el cálculo de los
estimadores del Test de # Bartlett y el MSA(KMO)

AQUI CALCULAMOS LOS FACTORES


factanal(datos, factors = 1, rotation = “none”)

CÁLCULO DE LAS PUNTUACIONES:

Ahora es importante saber que existen puntuaciones o pesos que son


considerados

como las saturaciones por cada observación de las variables


ingresadas al cálculo del AF:
factanal(datos, factors = 1, rotation = “none”, scores = “regression”)$scores
puntuaciones <- factanal(datos, factors = 1, rotation = “none”, scores =
“regression”)𝑠𝑐𝑜𝑟𝑒𝑠𝑑𝑎𝑡𝑜𝑠 < −𝑐𝑏𝑖𝑛𝑑(𝑑𝑎𝑡𝑜𝑠, 𝑝𝑢𝑛𝑡𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠)𝑑𝑎𝑡𝑜𝑠Factor1 <-
round(((datos𝐹𝑎𝑐𝑡𝑜𝑟1 − 𝑚𝑖𝑛(𝑑𝑎𝑡𝑜𝑠Factor1))/(max(datos𝐹𝑎𝑐𝑡𝑜𝑟1) −
𝑚𝑖𝑛(𝑑𝑎𝑡𝑜𝑠Factor1))), 2) datos
hist(datos$Factor1, freq = TRUE, main = “Gráfico de la Distribución del Factor 1”, xlab =
“Factor 1”, ylab = “Frecuencia”, col = “#009ACD”)

DETERMINAR EL NUMERO DE FACTORES


library(nFactors)