You are on page 1of 6

Universidad Nacional Pedro

Ruiz Gallo
Facultad de ciencias histórico, sociales y de la educación

LA MEDICIÓN DE LA REALIDAD SOCIAL,


APORTES DE LA ESTADÍSTICA

METODOLOGÍA CUANTITATIVA.

Frederick Yelsin Diaz Mejía | Métodos Cuantitativos |Profesor: Benites Morales Isidoro

Correo: frederickyelsin@gmail.com
Fecha 25/07/20

1. INTRODUCCION

En el siguiente ensayo se hablara de los principales problemas que tiene un investigador al


afrontarse a la selección de herramientas estadísticas adecuadas, para su interpretación de
dichos datos obtenidos de diferentes formas ya se por experimentación por el contacto
directo del entrevistados con el entrevistado, o trabajo de campo.
Este texto es gran ayuda para un investigador ya que nos brinda información como se debe
proceder al tratamiento de datos haciendo uso de la estadística para facilitar el análisis de los
datos, además tener información más certera y confiable
En este tema hay diferentes capítulos que se ha tomado, en el cual resaltar la estadística
descriptiva, que trata de la representación de los datos en gráficos, y diferentes relaciones de
variables, la distribución, los intervalos de confianza.

2. Desarrollo

2.1.Representación de datos
Antes de realizar cualquier tratamiento de datos es representar los datos gráficamente. Esto es
necesario por muchos motivos: para ver el tipo de relación que existe entre dos variables; para
identificar posibles «outliers»; para ver el tipo de distribución y variabilidad de los datos, etc.
Existen muchos tipos de gráficas que permiten hacer representaciones, que son de uso común,
pero en este caso hablaremos sobre un gráfico poco conocido, el gráfico de coordenadas polares.
Un problema frecuente que surge a la hora de mostrar gráficamente los resultados obtenidos es
que es necesario representar más de dos ejes de coordenadas. En cambio, las coordenadas
polares permiten representar en un gráfico bidimensional cualquier número de ejes de
coordenadas, lo cual le permite darle solución a este problema.
2.2.Estadística descriptiva
En la estadística descriptiva se analiza la variancia, que se basa en la comparación de la media
y dispersión de los datos. A la hora de trazar datos pues con esto se busca algún tipo de medida
en la cual nos permitirá diferenciar y distinguir la series de datos. Para realizar el tratamiento de
datos se utilizará la estadística descriptiva donde se incluyen medidas de posición como las
medias aritmética, geométrica, armónica, ponderada, la moda y la mediana, y medidas de
dispersión o variabilidad de la muestra, la cual tienen como finalidad estudiar hasta qué punto,
para una determinada distribución de datos, las medidas de posición representan bien el conjunto

PÁGINA 1
de datos de la distribución, entre las medidas de dispersión se encuentran la varianza, la
desviación típica y el coeficiente de variación.

2.2.1.Distribución

Para estudiar la distribución de una variable, e incluso comparar medias y varianzas entre variables,
lo que se hace es comparar las frecuencias de los valores de la variable con las probabilidades
resultantes de modelos teóricos de distribuciones. El modelo teórico de distribución que se llegue a
utilizar variará en función del tipo de variable con la que estemos trabajando. Existen básicamente
dos tipos de variables:

a) Las variables cualitativas, no se expresan numéricamente como sexo, especie a la que


pertenece un individuo, provincia de nacimiento, aunque se podría utilizar códigos
numéricos para representar sus valores.
b) Las variables cuantitativas, se expresan directamente en términos numéricos, por ejemplo,
número de hojas de una planta, edad, longitud, temperatura, etc. Las variables cuantitativas
también pueden ser discretas y continuas. (Guisande, C. at. p. 32)

Discretas, cuando solo pueden tomar valores específicos, y no es posible ningún valor entre dos
consecutivos, por ejemplo, número de hijos que puede tener una familia, número de hojas de una
planta, etc. Existen diversas distribuciones para las variables discretas, entre las cuales está la
distribución poisson, la distribución binomial; la distribución hipergeométrica; estas dos últimas
distribuciones son similares, pero la diferencia está en que, en la distribución hipergeométrica, el
resultado de cada prueba es dependiente del resultado de las demás pruebas. (Guisande, C. at. p. 43-
45)

Continuas, son aquellas que pueden tomar cualquier valor a lo largo de un continuo, de modo que
no hay valores consecutivos ya que entre dos valores siguen existiendo infinitos valores posibles
como en la temperatura o longitud

Para determinar si las variables se ajustan a alguna de las distribuciones de las que se han descrito
anteriormente, es necesario cuantificar si los resultados obtenidos se ajustan a ese modelo o las
diferencias son debidas al azar. Los contrastes estadísticos utilizados con este fin se denominan
pruebas de bondad de ajuste.

2.3.Intervalos de confianza

PÁGINA 2
El intervalo de confianza de un parámetro al nivel 1 - α es aquel que cumple la propiedad de
que la probabilidad de que sus extremos tomen valores tales que el parámetro esté
comprendido entre ellos es igual a 1 - α (Viedma 1989). Los extremos del intervalo de
confianza de un parámetro se denominan límites de confianza. Lo más frecuente es que
estemos trabajando con unos cuantos elementos del total que forman la población. Esto quiere
decir que no conocemos la desviación típica del conjunto de toda la población. En este tipo de
situación, el intervalo de confianza se calcula de dos formas diferentes dependiendo del
tamaño de la muestra. (Guisande, C. at. p. 60)
2.4.Contraste de hipótesis

El contraste de hipótesis se define como el procedimiento estadístico que permite determinar la


verdad o falsedad de una afirmación acerca de uno o más parámetros. La base de los planteamientos
de contraste es formular una hipótesis y determinar si es verdadera o falsa. Existen dos tipos de
hipótesis:

1.1.1. La hipótesis nula (H): Es la hipótesis básica que se formula y se quiere contrastar y, por
tanto, es la hipótesis que se acepta o se rechaza.
1.1.2. La hipótesis alternativa (H). Es distinta de H e incompatible con ella. Puede haber varias
hipótesis alternativas, y se elige la más adecuada a partir de la información disponible.

Una vez que planteada la hipótesis se tiene que elegir el estadístico de contraste más apropiado, el
cual es una variable aleatoria que seguirá una función de probabilidad y para cada muestra de datos
tomará un determinado valor, que, al compararlo con los valores críticos de esa función de
probabilidad, nos permitirá aceptar o rechazar la hipótesis nula. Existen dos tipos de errores:

 El error tipo I es el que cometemos cuando rechazamos la hipótesis nula siendo verdadera.
Su probabilidad se representa generalmente por α y se conoce como nivel de significación.
El error tipo II es el que cometemos cuando aceptamos la hipótesis nula siendo falsa. Su
probabilidad se representa por β. Este error se tiene en cuenta determinando el tamaño de
muestra necesario para garantizar el valor de β prefijado.

2.5.Análisis multivariante

Es una situación de gran cantidad de variables debido a esto es complicado la manera de su


interpretación con otros análisis uni y bidireccionales, en este análisis esta la aplicación de
herramientas más complejas, para esto se necesitara una variedad de fórmulas para transformar
dicha información. Nos permite estudiar matrices de datos en las que tenemos más variables que
observaciones y cuando contamos con variables de entrada que no son estadísticamente

PÁGINA 3
independientes. Se pueden utilizar varias técnicas para poder organizar la información de
nuestras variables, entre ellas se encuentran:
2.5.1 Análisis Cluster
Esta técnica estadística permite organizar la información de nuestras variables para formar
grupos homogéneos, denominados clusters (grupos, clases). Con el método de cluster
podemos incluir objetos en grupos según su grado de asociación, que será máximo si
pertenecen al mismo grupo o mínimo si son de grupos diferentes. Existen diversos para
llevar a cabo los agrupamientos o clusters, los más empleados son el árbol jerárquico, el
conglomerado de K-medias y el agrupamiento de dos vías. (Guisande, C. at. p. 207 -208)

2.5.2. Análisis Discriminante


El análisis define las características para pertenecer a un grupo o a otros. En este caso
se decide previamente el grupo de pertenencia de cada caso y el número de grupos.
(Guisande, C. at. p. 221)
2.5.3. Análisis Factorial y Análisis de Componentes Principales.
Estas herramientas estadísticas permiten reducir el número de variables, aunque
ambas técnicas son muy parecidas, es necesario aclarar las diferencias entre ambas
para poder utilizarlas de una mejor manera.
2.5.4. Correlación Canónica
El análisis de correlación canónica es una generalización de las regresiones. Este
método consiste en encontrar dos variables entre las cuales la correlación sea
máxima. Estas variables compuestas se llamarán variables canónicas. (Guisande, C.
at. p. 253)
2.5.5. Análisis de Correspondencias:
Este análisis se usa principalmente para estudiar la distribución de unos determinados
«caracteres» entre «poblaciones». Así estas poblaciones pueden ser diferentes grupos
de seres humanos de varias nacionalidades y los «caracteres» los diferentes colores
de los ojos.
2.6. Modelos de simulación
Los modelos se crean por la necesidad de expresar en lenguaje matemático cualquier tipo de
razonamiento con el cual pretendamos analizar las propiedades de un sistema. El lenguaje
matemático es preciso y sus elementos son manipulables, de manera que un modelo nos
permite analizar particularmente todas las propiedades y componentes del sistema, y a la vez
observarlo también como un todo. (Guisande, C. at. p. 275)

PÁGINA 4
Los modelos deben ser capaces de predecir con solvencia en ciertos niveles de generalidad, lo
que significa que no pueden ser útiles solamente para el caso concreto que fueron
desarrollados.
Para considerar el desarrollo de un modelo se deben seguir los siguientes pasos como la
contextualización, conformación de diagramas, establecimiento de unidades, ecuaciones y
parámetros, y por último la verificación del modelo. (Guisande, C. at. p. 276)

PÁGINA 5