Professional Documents
Culture Documents
La investigación
científica es en esencia como cualquier otra investigación, sólo que más rigurosa, organizada y
cuidadosamente llevada a cabo. Es “sistemática” porque existe una disciplina para hacer
investigación científica y n se dejan los hechos a la casualidad. Es “empírica” porque se recolectan
y analizan datos. Es “critica” porque se está evaluando y renovando de manera constante.
La investigación puede cumplir dos propósitos fundamentales:
a) producir conocimientos y teorías (Investigación básica)
b) Resolver problemas prácticos (Investigación aplicada)
La investigación científica se concibe como un proceso, término que significa dinámico, cambiante
y evolutivo. Un proceso compuesto por múltiples etapas estrechamente vinculadas entre sí, que se
da o no de manera secuencial o que involucra actividades que cualquier persona puede realizar. Al
hacer investigación, siempre iniciamos con una idea y un planteamiento, y concluimos con la
recolección de datos, el análisis de datos y un reporte de estudio.
Con la aplicación del proceso de investigación científica se generan nuevos conocimientos, los
cuales a su vez producen nuevas ideas e interrogantes para investigar. Es así como avanzan las
ciencias y la tecnología.
La base del divorcio entre los dos enfoques se ha centrado en la idea de que un estudio con un
enfoque puede neutralizar al otro. La triangulación añade profundidad a un estudio y, aunque
llegan a surgir contradicciones entre los resultados de ambos enfoques, se agrega una perspectiva
más completa de lo que estamos investigando.
Por ello, la mezcla de los modelos potencia el desarrollo del conocimiento, la construcción de
teorías y la resolución de problemas. Se plantean diferentes modalidades en las que es posible
mezclar los dos enfoques:
- Modelo en dos etapas: Cuando dentro de una misma investigación, se aplica primero un enfoque
y luego otro de forma casi independiente.
- Modelo de enfoque dominante: Se lleva a cabo bajo la perspectiva de alguno de los dos
enfoques, el cual prevalece y el estudio conserva componente/s del otro enfoque.
- Modelo mixto: Constituye el mayor nivel de integración entre ambos enfoques, donde se
combinan durante todo el proceso de la investigación.
Enfoque cuantitativo:
Utiliza la recolección de datos y el análisis de datos para contestar las preguntas de investigación y
probar hipótesis establecidas previamente y confía en la medición numérica, el conteo y la
estadística. Elige una idea y la transforma en una o varia preguntas de investigación; luego, de
estas deriva hipótesis y variables; desarrolla un plan parar probarlas; mide las variables en un
determinado contexto; analiza las mediciones obtenidas, y establece una serie de conclusiones
respecto de la/s hipótesis. Proponen relaciones entre variables con la finalidad de arribar a
proposiciones precisas y hacer recomendaciones. Pretende “atacar” la información. Para generar
conocimiento, se fundamenta en el método hipotético-deductivo, tales estudios pretenden
cuantificar y aportar evidencia a una teoría que se tiene para explicar algo; la teoría se mantiene
hasta que se refute o se alcance una mejor explicación. Estos estudios se asocian con los
experimentos, las encuestas con preguntas cerradas o estudios que emplean instrumentos de
medición estandarizados. El proceso se aplica secuencialmente: se comienza con una idea que va
acotándose, y una vez delimitada, se establecen objetivos y preguntas de investigación, se revisa
la literatura y se construye una marca o una perspectiva teórica. Después se analizan los objetivos
y preguntas, cuyas respuestas tentativas se traducen (no siempre) en hipótesis; se elabora o
selecciona un plan para probar las hipótesis (diseño de investigación) y se determina una muestra.
Por último, se recolectan datos utilizando uno o más instrumentos de medición, los cuales se
estudian , y se reportan los resultados.
Enfoque cualitativo:
Se utiliza para descubrir y refinar preguntas de investigación. A veces se prueban hipótesis. Por lo
común, se basa en métodos de recolección de datos sin medición numérica, como las
descripciones y las observaciones. Las preguntas e hipótesis surgen como parte del proceso de
investigación y éste es flexible, se mueve entre los eventos y su interpretación, entre las
respuestas y el desarrollo de la teoría. Su propósito consiste en “reconstruir” la realidad; a
menudo, se lo llama “holístico” porque considera el “todo” sin reducirlo al estudio de sus partes.
Se pueden desarrollar preguntas e hipótesis antes, durante y después de la recolección y el
análisis. Su alcance final consiste en comprender un fenómeno social complejo. El énfasis no está
en medir las variables del fenómeno sino en entenderlo. Busca principalmente “dispersión o
expansión” de los datos o la información. Se fundamenta más en un proceso inductivo (exploran y
describen, luego generan perspectivas teóricas). Van de lo particular a lo general. El proceso no
necesariamente se aplica de manera secuencial. El planteamiento del problema (objetivos del
estudio, preguntas de investigación y la justificación) y las hipótesis consecuentes surgen en
cualquier parte del proceso: desde que la idea se ha desarrollado hasta, incluso, al elaborar el
reporte de investigación. Y, al igual que en la investigación cuantitativa, tal planteamiento es
susceptible de modificarse. Las técnicas de recolección de datos pueden ser múltiples, en esta fase
de recolección de información se suele llevar un diario personal donde se registran hechos,
interpretaciones, reflexiones; así mismo, se anexan documentos y discusiones.
Cap. 6: Hipótesis
Son guías para una investigación, indican lo que estamos buscando o lo que estamos tratando de
probar y se definen con explicaciones tentativas del fenómeno investigado. Luego se investiga si se
aceptan o se rechazan.
Tipos de hipótesis
1) Hipótesis de investigación
Las hipótesis de investigación pueden ser:
- Hipótesis descriptivas del valor de las variables en un contexto: Las hipótesis de este tipo se
utilizan a veces en estudios descriptivos. Pero cabe comentar que no en todas las investigaciones
descriptivas se formulan hipótesis o que estas son afirmaciones generales.
- Hipótesis correlacionales: Especifican la relación entre dos o más variables. Alcanzan un nivel
predictivo y parcialmente explicativo. En una hipótesis de correlación, el orden en que
coloquemos las variables no es importante porque ninguna antecede a la otra.
- Hipótesis de la diferencia de grupos: Algunos investigadores consideran las hipótesis de
diferencias de grupo como un tipo de hipótesis correlaciónales, porque relacionan dos o más
variables. La diferencia estriba en que normalmente en las hipótesis de diferencia de grupos una
de las variables adquiere un número más limitado de valores que los valores que adquieren las
variables de las hipótesis correlacionales.
- Hipótesis que establecen relaciones de casualidad: Estas hipótesis establecen relaciones causa-
efecto. Correlación y causalidad son conceptos asociados pero distintos. Si dos variables están
correlacionadas, ello no necesariamente implica que una sea causa de la otra.
A las supuestas causas se las conoce como “variables independientes” y a los efectos como
“variables dependientes”
2) Hipótesis nulas
Estas son el reverso de las hipótesis de investigación. También constituyen proposiciones acerca
de la relación entre variables, solo que sirven para refutar o negar lo que afirma la hipótesis de
investigación. Hay tantas clases de hipótesis nulas como hipótesis de investigación.
3) Hipótesis alternativas
Son posibilidades alternas ante als hipótesis de investigación y las nulas: ofrecen otra descripción o
explicación distinta de las que proporcionan las anteriores. Solo pueden formularse cuando
efectivamente hay otras posibilidades.
4) Hipótesis estadísticas
Son exclusivas del enfoque cuantitativo y representan la transformación de las hipótesis de
investigación, nulas y alternativas en símbolos estadísticos. Hay tres tipos:
De estimación: Corresponden a las que al hablar de hipótesis de investigación, fueron nominadas
“hipótesis descriptiva de una variable que se va a observar en un contexto”
De correlación: Tienen por objetivo traducir en términos estadísticos una correlación entre dos o
más variables
De diferencia de medias: En esta hipótesis se compara una estadística entre dos o más grupos
Definición conceptual
Se trata de definiciones de diccionario o libros especializados. Tales definiciones son necesarias
pero insuficientes para definir las variables de la investigación, porque no nos relacionan
directamente con “la realidad” o “el fenómeno, contexto, expresión, comunidad o situación”.
Después de todo siguen siendo conceptos.
Definiciones operacionales
Una definición de este tipo constituye el conjunto de procedimientos que describe las actividades
que un observador debe realizar para recibir las impresiones sensoriales, las cuales indican las
existencia de un concepto teórico en mayor o menor grado. En otras palabras, especifica qué
actividades u operaciones deben realizarse para medir una variable o recolectar datos o
información respecto a esta.
Los criterios para evaluar una definición operacional son básicamente cuatro: adecuación al texto
capacidad para captar los componentes de la variable en interés, confiabilidad y validez.
En el enfoque cuantitativo, el investigador utiliza su o sus diseños para analizar la certeza de las
hipótesis formuladas en un contexto en particular o para aportar evidencia respecto de los
lineamientos de la investigación.
Tipos de diseños
Diseños experimentales
Diseños cuasiexperimentales
Diseños no experimentales
Diseños experimentales
Se utilizan cuando el investigador pretende establecer el posible efecto de una causa que se
manipula. Para establecer influencias, se deben cubrir varios requisitos:
Existe otra forma de manipular la variable independiente que consiste en exponer a los
grupos experimentales a diferentes modalidades de la variable. No se manipula la presencia-
ausencia ni las cantidades de la variable independiente sino que los grupos se exponen a
modalidades, no a intensidades.
o Segundo requisito: medir el efecto que la variable independiente tiene en la variable
dependiente.
o Tercer requisito: control o validez interna de la situación experimental. Lograr control es
contener la influencia de otras variables extrañas en las variables dependientes, para así saber
en realidad si las variables independientes que nos interesan tienen o no efecto en las
dependientes.
o Diseño con posprueba únicamente y grupo de control: incluye dos grupos, uno experimental
y otro de control. Cuando concluye la manipulación, a ambos grupos se les administra una
medición sobre la variable dependiente en estudio. La posprueba se aplica de manera simultánea
a ambos grupos. La comparación entre las pospruebas nos indica si hubo o no efecto de la
manipulación. Si ambas difieren, sí hubo; si no difieren, no hubo (hipótesis nula).
o Diseño con preprueba-posprueba y grupo de control: incorpora la administración de
prepruebas a los grupos. Las puntuaciones de las prepruebas sirven para fines de control en el
experimento, pues al compararse las prepruebas de los grupos se evalúa qué tan adecuada fue la
asignación aleatoria.
o Diseño de cuatro grupos de Solomon: mezcla de los dos anteriores. La suma de estos dos
diseños origina cuatro grupos: dos experimentales y dos de control, los primeros reciben el mismo
tratamiento experimental y los segundos no reciben tratamiento. Solo a uno de los grupos
experimentales y a uno de los grupos de control se les administra la preprueba; a los cuatro
grupos se les aplica la posprueba. Los efectos se determinan comparando las cuatro pospruebas.
Los grupos uno y tres son experimentales y los grupos dos y cuatro son de control. La ventaja de
este diseño es que el experimentador puede verificar los posibles efectos de la preprueba sobre la
posprueba, puesto que a unos grupos se les administra preprueba y a otros no.
o Diseños experimentales de series cronológicas múltiples: los tres diseños que se han
comentado sirven más bien para analizar efectos inmediatos o a corto plazo. En ocasiones el
experimentador estará interesado en analizar efectos en el mediano o largo plazo porque tiene
bases para suponer que la influencia de la variable independiente sobre la dependiente tarda en
manifestarse. También, en ocasiones la aplicación del estímulo por una sola vez no tiene efectos.
En tales casos es conveniente adoptar diseños con varias pospruebas, o diversas prepruebas y
pospruebas.
o Diseños factoriales: en ocasiones, el investigador pretende analizar experimentalmente el
efecto que sobre la o las variables dependientes tiene la manipulación de más de una variable
independiente. Los diseños de cuatro variables independientes son los diseños factoriales.
Manipulan dos o más variables independientes e incluye dos o más niveles o modalidades de
presencia en cada una de las variables independientes.
Diseños cuasiexperimentales
Los preexperimentos se llaman así porque su grado de control es mínimo.
Los sujetos no se asignan al azar a los grupos sino que dichos grupos ya están formados antes
del experimento; son grupos intactos.
o Estudio de caso con una sola medición: consiste en administrar un estímulo o tratamiento
a un grupo y después aplicar una medición de una o más variables para observar cuál es el
nivel del grupo en estas variables.
o Diseño de preprueba-posprueba con un solo grupo: a un grupo se le aplica una prueba
previa al estímulo o tratamiento experimental, después se le administra el tratamiento y
finalmente se le aplica una prueba posterior al estímulo. Hay un seguimiento del grupo.
Diseños no experimentales
La investigación no experimental se realiza sin manipular deliberadamente variables. Se trata
de estudios donde no hacemos variar en forma intencional las variables independientes para ver
su efecto sobre otras variables. Lo que hacemos en la investigación no experimental es observar
fenómenos tal como se dan en su contexto natural, para después analizarlos.
Los experimentos de laboratorio generalmente logran un control más riguroso que los
experimentos de campo. Pero estos últimos suelen tener mayor validez externa.
Grupos de comparación: si solo se tiene un grupo no es posible saber con certeza si influyeron
las fuentes de invalidación interna o no.
Equivalencia de los grupos: para tener el control no basta con tener dos o más grupos sino que
éstos deben ser similares en todo, menos en la manipulación de la o las variables independientes.
El control implica que todo permanece constante, salvo tal manipulación.
Los grupos deben ser equivalente al iniciar y durante todo el desarrollo del experimento.
Existen dos métodos para alcanzar la equivalencia inicial:
Validez externa
Un experimento debe buscar, ante todo, validez interna, es decir, confianza en los resultados.
Pero la validez interno es solo una parte de la validez de un experimento. La validez externa se
refiere a qué tan generalizables son los resultados de un experimento a situaciones no
experimentales, así como a otros participantes o poblaciones.
El sobre qué o quiénes se van a recolectar los datos depende del enfoque elegido (cuantitativo,
cualitativo o mixto), del planteamiento del problema y de los alcances del estudio. Estas acciones
nos llevarán al siguiente paso, que consiste en delimitar una población.
En los estudios cualitativos por lo común la población o el universo no se delimita a priori. En los
cuantitativos casi siempre sí. En los enfoques mixtos ello depende de la situación de investigación.
Para el enfoque cuantitativo una población es el conjunto de todos los casos que concuerdan con
una serie de especificaciones. Es preferible establecer con claridad las características de la
población, con la finalidad de delimitar cuáles serán los parámetros muestrales. Las poblaciones
deben situarse en torno a sus características de contenido, de lugar y de tiempo.
Elegir entre una muestra probabilística o una no probabilística depende de los objetivos del
estudio, del esquema de investigación y de la contribución que se piensa hacer con ella.
Probabilísticas
Las muestras probabilísticas son esenciales en los diseños de investigación transeccionales
cuantitativos, donde se pretende hacer estimaciones de variables en la población. Estas variables
se analizan con pruebas estadísticas para el análisis de datos, donde se presupone que la muestra
es probabilística y todos los elementos de la población tienen una misma probabilidad de ser
elegidos.
Para una muestra probabilística se necesitan dos cosas: determinar el tamaño de la muestra y
seleccionar los elementos muestrales:
Muestra probabilística estratificada: cuando no basta que cada uno de los elementos muestrales
tenga la misma probabilidad de ser escogidos, sino que además es necesario estratificar la
muestra en relación con estratos o categorías que se presentan en la población, y que además
son relevantes para los objetivos del estudio, se diseña una muestra probabilística estratificada.
Lo que aquí se hace es dividir a la población en subpoblaciones o estratos, y se selecciona una
muestra para cada estrato. La estratificación aumenta la precisión de la muestra e implica el uso
deliberado de diferentes tamaños de muestra para cada estrato a fin de lograr reducir la
varianza de cada unidad de la media muestral.
Muestra probabilística por racimos: se reducen costos, tiempo y energía, al considerar que
muchas veces las unidades de análisis se encuentran encapsuladas o encerradas en
determinados lugares físicos o geográficos, a los que se denomina racimos. Muestrar por
racimos implica diferenciar entre la unidad de análisis y la unidad muestral. La unidad de análisis
indica quiénes van a ser medidos, o sea, el sujeto o los sujetos a quienes en última instancia
vamos a aplicar el instrumento de medición. La unidad muestral se refiere al racimo a través del
cual se logra el acceso a la unidad de análisis. El muestreo por racimos supone una selección en
dos etapas, ambas con procedimientos probabilísticos. En la primera, se seleccionan los racimos,
siguiendo los pasos ya señalados de una muestra probabilística simple o estratificada. En la
segunda, y dentro de estos racimos, se selecciona a los sujetos u objetos que van a medirse.
Las unidades de análisis o los elementos muestrales se eligen siempre aleatoriamente para
asegurarnos de que cada elemento tenga la misma probabilidad de ser elegido. Se utilizan tres
procedimientos de selección:
Tómbola: muy simple y no muy rápido. Consiste en numerar todos los elementos muestrales
del 1 al X. Hacer fichas, una por cada elemento, revolverlas en una caja, e ir sacando fichas, según
el tamaño de la muestra. Los números elegidos al azar conformarán la muestra.
Números random o números aleatorios: utiliza un cuadro de números que implica un
mecanismo de probabilidad muy bien diseñado. Puede ser por ejemplo una ruleta electrónica. Se
eligen aquellos casos que se dictaminen en el cuadro de números random, hasta completar el
tamaño de la muestra.
Selección sistemática de elementos muestrales: es muy útil y fácil de aplicar e implica
seleccionar dentro de una población un número X de elementos a partir de un intervalo (K). K se
determina por el tamaño de la población y el tamaño de la muestra.
Otros marcos muestrales son: listados, archivos, mapas, volúmenes, horas de transmisión,
períodos registrados.
No probabilísticas
Las muestras no probabilísticas, también llamadas muestras dirigidas, suponen un procedimiento
de selección informal.
La muestra de sujetos voluntarios se trata de muestras fortuitas donde el investigador elabora
conclusiones sobre especímenes que llegan a sus manos de forma casual.
La muestra de expertos está formada por un grupo de expertos a quienes se acude en ciertos
estudios para obtener su opinión sobre un tema.
Los sujetos-tipo son una muestra cuyo objetivo es la riqueza, profanidad y calidad de la
información, no la cantidad ni la estandarización.
La muestra por cuotas consiste en que los encuestadores reciben instrucciones de administrar
cuestionarios con sujetos en la calle, y al hacerlo van conformando o llenando cuotas de acuerdo
con la proporción de ciertas variables demográficas en la población.
Confiabilidad
Se refiere al grado en que la aplicación repetida, de un instrumento de medición, al mismo
sujeto u objeto produce resultados iguales.
Validez
Se refiere al grado en que un instrumento realmente mide la variable que pretende medir.
Se pueden tener diferentes tipos de evidencia del concepto de validez:
Evidencia relacionada con el contenido: se refiere al grado en que un instrumento refleja un
dominio específico de contenido de lo que se mide. Es el grado en el que la medición representa al
concepto o variable medida.
Evidencia relacionada con el criterio: establece la validez de un instrumento de medición al
compararla con algún criterio externo que pretende medir lo mismo. Cuanto más se relacionen los
resultados del instrumento de medición con el criterio, la validez de criterio será mayor.
Objetividad
Se refiere al grado en que éste es permeable a la influencia de los sesgos y tendencias del
investigador que lo administra, califica e interpreta.
La objetividad se refuerza mediante la estandarización en la aplicación del instrumento
(mismas instrucciones y condiciones para todos los participantes) y en la evaluación de los
resultados.
Fase 1: redefiniciones fundamentales: debemos tener claridad sobre los conceptos o variables
de la investigación. Sin embargo, al comenzar a desarrollar los instrumentos de medición, vale la
pena una última reflexión para cerciorarnos de cuáles son las variables.
Fase 2: revisión enfocada en la literatura: al evaluar los diferentes instrumentos utilizados en
estudios previos, conviene identificar el propósito del instrumento tal como fue concebido por el
investigador y analizar si su propósito es similar al nuestro.
Fase 3: identificación del dominio de las variables a medir y sus indicadores: se refiere a la
definición del dominio de las variables que habremos de medir. Es decir, señalar con precisión los
componentes, dimensiones o factores que teóricamente integran a la variable. Asimismo,
establecer los indicadores de cada dimensión.
Fase 4: decisiones clave: una vez evaluados varios instrumentos utilizados previamente, es
necesario tomar una serie de decisiones: 1) utilizar un instrumento de medición ya elaborado,
adaptarlo o desarrollar uno nuevo; 2) resolver el tipo de instrumento y formato; 3) determinar el
contexto de administración.
Fase 5: construcción del instrumento: al final de esta etapa el producto es una primer versión
del instrumento. Una parte muy importante de esta versión es cómo vamos a registrar los daos y
el valor que les habremos de otorgar. Esto es la codificación. Codificar los datos significa asignarles
un valor numérico o simbólico que los represente, para analizar cuantitativamente los datos.
Fase 6: prueba piloto: consiste en administrar el instrumento a personas con características
semejantes a las de la muestra objetivo de la investigación. Se somete a prueba no solo el
instrumento de medición sino también las condiciones de aplicación y los procedimientos
involucrados. La prueba piloto se realiza con una muestra inferior a la muestra definitiva.
Fase 7: versión final: con los resultado de la prueba, el instrumento de medición preliminar se
modifica, ajusta y mejor. Se tiene la versión final para administrar, la cual incluye un diseño gráfico
atractivo.
Fase 8: entrenamiento del personal
Fase 9: autorizaciones
Fase 10: administración del instrumento
Tipos de instrumentos de medición o recolección de datos
Cuestionarios
Consiste en un conjunto de preguntas respecto de una o más variables a medir.
Hay dos tipos de preguntas: cerradas y abiertas.
Las preguntas cerradas contienen categorías u opciones de respuesta que han sido
previamente delimitadas. Es decir, se presentan a los participantes las posibilidades de respuesta,
quienes deben acotarse a estas. Pueden ser dicotómicas (dos posibilidades) o incluir varias
opciones. En ocasiones, el encuestado tiene que jerarquizar opciones (primer lugar, segundo lugar,
etc.). O designar un puntaje a una o diversas cuestiones. En otras, se anota una cifra dentro de un
rango predeterminado.
Las preguntas abiertas no delimitan de antemano las alternativas de respuesta, por lo cual el
número de categorías de respuesta es muy elevado y variante.
Las preguntas cerradas son más fáciles de codificar y preparar para su análisis. Requieren un
menor esfuerzo por parte de los encuestados. Toma menos tiempo. La principal desventaja es que
limitan las respuestas de la muestra y, en ocasiones, ninguna de las categorías describe con
exactitud lo que las personas tienen en mente.
Las preguntas abiertas proporcionan una información más amplia. También sirven en
situaciones donde se desea profundizar una opinión o los motivos de un comportamiento. Su
mayor desventaja es que son más difíciles de codificar, clasificar y preparar para el análisis.
Las preguntas abiertas se codifican una vez que conocemos todas las respuestas de los sujetos
o al menos las principales tendencias de respuesta. Esta actividad es similar a cerrar una pregunta
abierta. Se da nombre a los patrones generales de respuesta, se hace una lista y se asigna un valor
numérico o un símbolo a cada patrón. Así, un patrón constituirá una categoría de respuesta.
Las puntuaciones se obtienen sumando los valores alcanzados respecto de cada frase. Por ello
se denomina escala aditiva.
Análisis de contenido
Es una técnica para estudiar y analizar la comunicación de una manera objetiva, sistemática y
cuantitativa.
Se efectúa por medio de la codificación, es decir, el proceso en virtud del cual las
características relevantes del contenido de un mensaje se transforman a unidades que permitan
su descripción y análisis precisos.
Los pasos para llevar a cabo el análisis de contenido son: 1) definir el universo y extraer una
muestra representativa; 2) establecer y definir las unidades de análisis; 3) establecer y definir las
categorías y subcategorías.
Observación
Consiste en el registro sistemático, valido y confiable de comportamientos o conductas que se
manifiestan.
Jorgersen habla de participante activo (el observador que interactúa con los observados);
participante privilegiado (no es un miembro del grupo pero tiene acceso a información amplia y
privada); observador limitado (no tiene más que el papel de observador externo).
Bouey clasifica a los observadores en: participante completo (total interacción. Su rol primario
es participar y generar la interacción); participante observador (su rol primario es participar, pero
casi a la par observa); observador participante (su rol primario es observar, aunque tiene ciertas
participaciones); observador completo (nula participación. Se limita a observar).
Universo
Es el contexto de la unidad, el cuerpo más largo del contenido que puede examinarse al
caracterizar una o más unidades de registro.
Unidades de análisis o registro
Constituyen segmentos del contenido de los mensajes que son caracterizados para ubicarlos
dentro de las categorías. Es el cuerpo de contenido más pequeño en que se cuenta la aparición
de una referencia.
Las unidades de análisis más importantes son: las palabras, el tema, el ítem, el personaje, las
medidas de espacio-tiempo.
Las unidades se insertan en categorías y/o subcategorías.
Categorías
Son los niveles donde serán caracterizadas las unidades de análisis. Son las casillas o cajones
en las cuales se clasifican las unidades de análisis. Son las características o aspectos que
presenta la comunicación con la que estamos trabajando.
Análisis paramétricos
- Coeficiente de correlación Pearson y regresión lineal
- Prueba T
- Prueba de contraste de la diferencia de proporciones
- Análisis de varianza unidireccional
- Análisis de varianza factorial
- Análisis de covarianza
Análisis no paramétricos
- La ji cuadrada
- Los coeficientes de correlación e independencia para tabulaciones cruzadas
- Los coeficientes de correlación por rangos ordenados de Spearman y Kendall
Análisis cualitativo
En los estudios cualitativos , el análisis no está determinado completamente, sino que
“prefigurado, coreografiado o esbozado”. Es decir, se comienza a efectuar bajo un plan
general, pero su desarrollo va sufriendo modificaciones de acuerdo con los resultados. Los
propósitos centrales de este análisis son:
- Darle orden a los datos
- Organizar las unidades, las categorías, los temas y los patrones
- Comprender en profundidad el contexto que rodea los datos
- Describir las experiencias de las personas estudiadas bajo su óptica , en su lenguaje y con sus
expresiones
- Interpretar y evaluar unidades, categorías, temas y patrones
- Explicar contextos, situaciones, hechos, fenómenos
- Generar preguntas de investigación e hipótesis
- Reconstruir historias
- Relacionar resultados del análisis con la teoría fundamentada o construir teorías