You are on page 1of 129

Universidad de Granada

Encuestas por Muestreo

2005
Tema 1: Fases de una Encuesta por
Muestreo
1.- Introducción
La investigación por encuestas consiste en establecer reglas que permitan acceder de forma
científica a lo que las personas opinan (León y Montero, 1993). Con esta metodología se
presentan cuestiones a un conjunto de individuos, de los que se presume que son
representativos de su grupo de referencia, para conocer sus actitudes con respecto al tema o
temas objeto de estudio. Por tanto, una encuesta no es más que un proceso de recogida de
información. No obstante, como dicha recogida de datos conforma una investigación, debe
ajustarse a una sistemática que garantice la objetividad de los datos recogidos.

Para recabar la información pertinente de un grupo más o menos numeroso de personas,


una forma de proceder puede ser entrevistar a todos y cada uno de los componentes del
grupo que se desea estudiar. Sin embargo, resulta obvio que cuando las poblaciones que se
quieren estudiar tienen un tamaño medio o grande, obtener información de cada uno de los
miembros del grupo resulta inviable, tanto por los costos que conlleva un estudio de tales
características, como por el tiempo que requiere recabar una cantidad tan importante de
información. Por ello, se entrevista a un subgrupo representativo del colectivo que sea el
objetivo de este estudio. Es decir, extraemos la información de una parte de ese grupo, lo
que se denomina una muestra, y tales resultados los extrapolamos al resto de la población.

En un planteamiento de investigación de este tipo es conveniente tener presente que la


utilización de muestras no supone un procedimiento menos adecuado que si se encuestara a
la población total. Existen varias razones que hacen preferible un estudio sobre una muestra
en lugar de tomar toda la población:
a) Encuestar al total de la población puede resultar del todo inviable por razones de
esfuerzo y de costes.
b) El estudio de una muestra es más rápido que si se intentara realizar para toda la
población.
c) El estudio exhaustivo de una población puede acumular muchos más errores que si se
toma sólo una muestra.

A modo de resumen, se puede decir que la utilización de una muestra frente a la población
total será adecuada en relación a la razón coste / beneficio. Es evidente que si la población
es muy pequeña, puede no merecer la pena extraer una muestra de ella. Otra razón que hace
poco conveniente la utilización de muestra, es en el caso en que la población sea
excesivamente heterogénea; de ser así, la elección de una muestra representativa será muy
problemática, con lo cual los resultados obtenidos serán, cuanto menos, cuestionables.
La investigación mediante encuestas se plantea para objetivos de investigación diversos,
entre los que se encuentran estudios sobre grupos y organizaciones, cultura y socialización,
estructura social, población y familia, medio ambiente, economía y trabajo, política,
problemas y servicios sociales, y un largo etcétera. Es sin lugar a dudas el método de
investigación más difundido, lo que justifica que los métodos y técnicas de encuestación
sean un contenido frecuente en multitud de planes de estudio universitarios y no
universitarios.

2.- Elementos de la Investigación por Encuestas


En la investigación mediante encuestas habremos de tener en cuenta algunos aspectos
básicos, para que los objetivos planteados se alcancen de una forma eficiente y sistemática.
Algunos de éstos son:
• Definición del objetivo primario, esto es, precisar claramente cuál es el objetivo de
la investigación, y determinar si éste es alcanzable. Si lo es, debemos ternerlo
presente para no dispersar esfuerzos de tiempo y coste en otros objetivos menos
importantes.
• Delimitación de la población y selección de unidades, es decir, qué elementos
formarán parte de nuestro estudio, como componentes de una muestra que es
representativa de la población. Más concretamente:
o El procedimiento seguido para la elección de encuestados determinará la
validez de la investigación. Los métodos de muestreo probabilístico nos
proporcionan un procedimiento científico para obtener estas muestras
(aunque hay que decir que ciertos métodos de muestreo no probabilístico
proporcionan también muestras representativas, cuyo déficit fundamental
estriba en que no es posible obtener con ellas, estimadores de los parámetros
poblacionales de los que se conozca ciertas propiedades que garanticen su
eficiencia).
o Al ser el encuestado la base de los datos, es preciso asegurar que sus
respuestas carezcan de sesgos. De su implicación personal en el tema
depende la sinceridad de las respuestas y, por tanto, la fiabilidad de los datos
obtenidos. Este último aspecto ha de tenerse en cuenta a la hora de elaborar
el cuestionario.
• Diseño del cuestionario: es el instrumento con el que se obtienen datos sobre la
característica en estudio. Por medio del cuestionario homogeneizamos las posibles
respuestas, permitiendo que éstas sean comparables, y se facilita el tratamiento
informático de los datos.
• Medios y coste: con qué elementos técnicos y personales contamos para que el
objetivo de la investigación sea realizable en tiempo y forma. Este factor es crítico
en cualquier investigación, pero lo es más en el caso de una investigación por
encuestas, ya que, por ejemplo, el no disponer de una Red de Campo que cubra toda
la población, imposibilita per sé que ésta se pueda llevar a cabo, sin estar libre de
sesgos en las estimaciones.
• Modo de administración: la forma en la que se obtienen los datos (p.e. mediante una
entrevista personal) tendrá incidencia tanto en la calidad de los datos obtenidos,
como en el coste y tiempo necesarios.
• Información relevante: es conveniente, en la mayor parte de las investigaciones por
encuestas, conocer qué estudios previos hay sobre la cuestión investigada, qué
dificultades se encuentran en estudios similares, qué metodología es más idónea
para emplearse en la cuestión, y qué fuentes de información alternativas podemos
usar para mejorar los datos obtenidos. Todo ello redundará en la eficiencia del
estudio planteado.

3.- Fases de una Encuesta por Muestreo

Hemos comentado que la investigación por encuestas proporciona una forma sistemática de
obtener datos sobre cierta característica de interés. Pues bien, a continuación expondremos
los pasos que secuencialmente habremos de seguir desde la concepción hasta la publicación
de los resultados de una encuesta. Éstos son:
• Diseño teórico, en el que se tendrá en cuenta:
o El análisis del problema o definición de los objetivos de la investigación.
o Ámbito de la investigación: población estudiada, periodo de tiempo del
estudio y zona geográfica en que se desenvuelve, entre otros aspectos.
o Definición de las unidades básicas de las que se obtiene la información:
hogares, empresas, personas, etc.
o Delimitación de las características objeto de estudio: p.e. ingresos, opiniones
políticas, preferencias, dolencias físicas, etc.
o Características generales del cuestionario: extensión, necesidad de pretest.
o Procedimiento de muestreo: tipo de éste y tamaño de la muestra a
considerar.
Por último, también a nivel teórico es conveniente fijar la metodología de recogida,
depuración y tratamiento estadístico de la información. También es importante saber si
hay encuestas previas igual a la que vamos a realizar.

• Diseño del cuestionario: en el que se tratarán de implementar las líneas básicas de


las que se habla en la fase anterior, con especial atención al tipo y número de
preguntas que contendrá, así como a la necesidad de un pretest que contraste la
adecuación del mismo a la situación en que se lleva a cabo.

• Diseño de la muestra y puesta en práctica del tipo de muestreo ya decidido. Para


ello se formará el marco en que se realizará el muestreo o actualizarlo si se dispone
de uno anterior. Se establecerá la jerarquía de las unidades de muestreo, si hay que
estratificar la población, así como determinar el tamaño de la muestra y el
procedimiento de selección. En esta fase también se evaluará la conveniencia de
efectuar diseños más complejos que los previamente establecidos, o por el contrario,
en el menor número de casos, simplificar éste, debido entre otros motivos a la
homogeneidad de las unidades en estudio.

• Entrenamiento de los encuestadores, asegurando de esta forma que los datos


recabados por ellos sean fiables. Este entrenamiento supone, por una parte, la
familiarización con el cuestionario que se va a utilizar, el establecimiento de una
forma de entrevistar homogénea, que garantice la igualdad de las respuestas, así
como el aprender a manejar situaciones más o menos difíciles.

• Recogida de la información: Ésta se podrá efectuar mediante diversos métodos,


entre los que encontramos:
o La entrevista clásica, o sobre papel (PAPI: acrónimo de Paper Assisted
Personal Interviewing).
o Las encuestas por correo.
o Las entrevistas personales asistidas por ordenador (CAPI: acrónimo de
Computer Assisted Personal Interviewing).
o Las entrevistas telefónicas asistidas por ordenador (CATI: acrónimo de
Computer Assisted Telephone Interviewing).
o Las auto-entrevistas asistidas por ordenador.

• Depuración de datos: en la que se pretende por una parte, mejorar la calidad de los
datos (corrigiendo errores, detectando valores anómalos, etc) y por otra, evaluar la
calidad de los datos, con el objeto de asegurar que la toma de éstos o el
procedimiento de muestreo ha sido adecuado.

• Chequeo y validación de la muestra: en el que se estudiará el cumplimiento de la


encuesta en cuanto a cobertura, calidad, número de entrevistas obtenidas, etc., así
como a implementar acciones que mejoren ésta como la post-estratificación.

• Análisis estadístico primario. Por éste entendemos la obtención de tablas del plan de
explotación, estadísticas descriptivas de variables simples, regresiones simples, un
análisis exploratorio de datos que muestre la necesidad de transformación de
variables, etc.

• Evaluación de errores: ya que antes de obtener conclusiones definitivas del análisis


primario debemos estudiar la fiabilidad de las estimaciones obtenidas y que factores
no determinados han podido afectar a tales estimaciones. Para ello se hará un
estudio de los errores muestrales, el efecto del diseño de muestreo, y si es necesario
utilizar métodos de remuestreo (Bootstrap y Jackknife).

• Análisis estadístico secundario: en el que tendrán su lugar las técnicas habituales del
Análisis Multivariante (bien clásico, bien de datos), así como análisis más
particulares como modelos log-lineales, métodos de reducción de la dimensión,
modelos dinámicos como series temporales, etc.
• Interpretación, presentación y publicación de los resultados: cuyo aspecto más
importante es la presentación del informe de resultados junto con las tablas y
gráficos obtenidos, si bien éstas últimas, si se desea, se pueden presentar en un
apéndice propio.

Una vez realizadas estas fases, la información obtenida en su conjunto debe ser almacenada
en bases de datos para facilitar su posterior reexplotación y/o tratamiento. Esta acción, que
se puede obviar en encuestas de propósito reducido, es ineludible en otro tipo de encuestas
específicas como son los paneles (de la investigación sociológica y comercial), y en otras
que en su metodología tengan implícitos análisis estadísticos dinámicos.

4.- Muestreo
En la investigación mediante encuestas es preciso tomar decisiones en diversas etapas.
Henry (1990) habla de tres tipos de decisiones: previas al muestreo, decisiones de muestreo
y decisiones posteriores.
• Las decisiones pre-muestreo se encuadran en algunas de las fases descritas
anteriormente, sobre todo en la fase de diseño teórico.
• Las decisiones de muestreo se refieren a:
o El listado de la población a utilizar.
o El error tolerable o tamaño del efecto esperado.
o El tipo de técnica de muestreo a utilizar.
o Determinar si la probabilidad de selección de sujetos es igual o no.
o Evaluar el tamaño de la muestra.
• En cuanto a las decisiones post-muestreo, tendremos que observar:
o Cómo evaluar la ausencia de respuesta.
o Necesidad de reponderación.
o Estimación de errores típicos e intervalos de confianza.

En resumen, podríamos señalar tres objetivos básicos que se deben cubrir en un buen
diseño cuando se lleva a cabo una investigación mediante encuestas: elegir adecuadamente
a los sujetos a encuestar, seleccionar las preguntas para la elaboración de un cuestionario
acorde con los fines para abordar el problema planteado en la investigación y, finalmente,
organizar las preguntas para su análisis.

Aunque en la actualidad algunos métodos de muestreo no aleatorio como el muestreo por


cuotas se están aplicando para la toma de datos en encuestas preferentemente comerciales,
en las encuestas por muestreo la toma de datos se realiza a través de algunos de los métodos
del muestreo probabilísticos. Si bien no es objeto de este curso desarrollar los diversos
aspectos de la Teoría del Muestreo en Poblaciones Finitas, se recordarán algunas
definiciones, se establecerán comparaciones entre éstos, y se citarán algunos de los métodos
habituales de muestreo en la práctica de las encuestas. Los libros de Cochran (1971),
Sánchez-Crespo (1984), Azorín y Sánchez-Crespo (1986), Kish (1967), constituyen la
bibliografía básica sobre esta materia.
4.1.- Terminología Básica de Muestreo
Como hemos visto en el apartado anterior, en la investigación por encuestas es
primordial entender los conceptos básicos del muestreo, que definimos a continuación.

• Población: conjunto de unidades del que se desea obtener cierta información. Las
unidades pueden ser personas, viviendas, escuelas, etc. y la información deseada, el
consumo medio por familia, número de personas en paro, numero medio de
escolares por aula, etc.

Kish (1987) y Henry (1990) distinguen entre diversos tipos de población, de


acuerdo con su papel en la investigación:
o Población objetivo: aquel conjunto de individuos al que queremos
generalizar los hallazgos obtenidos, excluyendo los elementos a los que sea
imposible o costoso acceder.
o Población de estudio o población marco: la población que realmente
estudiamos, con la que se puede operar, de la que hay algún listado o alguna
forma de acceder a los sujetos que la conforman.
o Población inferencial: población a la que el investigador desea hacer
inferencias.
o Población de la encuesta: conjunto de individuos que contestó a la encuesta.

• Muestreo: es la disciplina que trata con el conjunto de técnicas para tomar u


obtener una muestra.
• Muestra: conjunto de elementos de la población que permiten obtener datos más
precisos de las características de dicha población.
• Muestra representativa: subconjunto de una población que tiene las mismas
características generales que la población.
• Marco: conjunto muestral a partir del cual se selecciona la muestra. Para
determinar el marco muestral es necesario contar con Bases de datos ó Mapas.
• Elemento: unidad básica de la que se busca información y que proporciona los
datos para el análisis.
• Unidades de muestreo: Colecciones no solapadas de elementos de la población
que cubren la población marco completamente.
• Subclase: Subdivisiones o particiones de la muestra.
• Dominio: Subdivisión de la población para la que se han planificado, diseñado y
seleccionado muestras separadas.

4.2.- Tipos de Muestreo


Entendemos por muestreo al procedimiento mediante el cual se extrae una muestra de una
población dada. Genéricamente, existen dos tipos de muestreo: el muestreo probabilístico y
muestreo no probabilístico.
En el primero es posible calcular de antemano la probabilidad de cada una de las muestras
que pueden extraerse de la población, para lo cual el procedimiento de elección de la
muestra ha de ser aleatorio, y debe asegurar que la selección de cada unidad en la muestra
es independiente de la selección de otra unidad; dicho con otras palabras, la selección de
cualquier miembro de la población no afecta a la probabilidad de ningún otro miembro para
ser seleccionado. Este tipo de muestreo, con la base en la Estadística Matemática, permite
evaluar y controlar tanto la precisión como los errores cometidos.

El segundo tipo se puede definir como aquel en el que no hay forma de estimar la
probabilidad de que cada elemento sea incluido en la muestra, ya que no se garantiza que
cualquier individuo de la muestra tenga alguna probabilidad conocida de ser incluido en la
misma. Hay muchos procedimientos de selección no aleatoria de unidades muestrales, que
difieren en cuanto a la precisión de los datos que aportan. No obstante, como característica
general en todos los casos, al no ser muestras representativas, no se pueden generalizar los
resultados a la población. La selección de los sujetos se puede realizar sin seguir ninguna
norma, como en el caso de las muestras de conveniencia, o bien es el investigador quien
determina la forma de elección de los sujetos y la composición muestral, en las
denominadas muestras a propósito.

En el caso probabilístico, a la selección aleatoria de los sujetos que se van a incluir en la


muestra presenta algunas ventajas importantes:
1. Elimina el juicio subjetivo en la selección de la muestra y aumenta la credibilidad
de los resultados, permitiendo además su generalización.
2. Permite calcular la variabilidad de la muestra, apresando así los posibles errores
debidos a tal variabilidad. Puesto que la precisión disminuye conforme aumenta la
variabilidad, la teoría muestral facilita el conocimiento de los factores que
contribuyen a dicha variabilidad, pudiendo, de esta forma, reducirla y aumentar la
precisión.
3. Se trabaja con un margen de error conocido y establecido por el investigador,
reduciendo de esta forma la incertidumbre.

En la práctica de las encuestas, los modelos de muestreo empleados son bastante


complicados ya que suelen consistir en la aplicación simultánea de varios de los tipos de
muestreo básicos que describiremos. Además se establecerá lo que se denomina como
esquema de muestreo en el que se describe el proceso multietápico del muestreo. En
cualquier caso, como es natural la base la constituirán los diversos tipos de muestreo
básicos sobre los que también pasamos a hacer un breve recordatorio:

• Muestreo aleatorio con reemplazamiento: todas las posibles muestras tienen la


misma probabilidad y, por tanto, también todas las unidades de la población tienen
la misma probabilidad de ser escogidas.
• Muestreo aleatorio simple (sin reemplazamiento): en éste todas las unidades
tienen igual probabilidad de ser extraídas, aunque al no reintegrar el elemento a la
población, la probabilidad de obtener un elemento determinado en sucesivas
extracciones, depende de las extracciones anteriores en el caso de que la población
sea finita.
• Muestreo sistemático: consiste en ir eligiendo las unidades muestrales de K en K
unidades, tomando como origen una de ellas elegida a su vez de forma aleatoria de
entre el primer elemento y el K-ésimo.
• Muestreo estratificado aleatorio: los elementos se clasifican en grupos de
unidades con características homogéneas que se denominan estratos. Sobre cada
estrato se seleccionarán muestras aleatorias con una tamaño dado según cierto
criterio denominado afijación , entre los que están:
o Igual tamaño en cada estrato (afijación uniforme).
o Tamaño proporcional al tamaño del estrato en la población que se muestrea
(afijación proporcional).
o Afijación proporcional corregida por la varianza del estrato, esto es,
seleccionando más muestras de los estratos con más variabilidad (afijación
óptima).
• Muestreo por conglomerados: se denomina así debido a que las unidades objeto
de estudio se agrupan en conglomerados o áreas ocupadas por los elementos de la
población. Se trata por tanto de seleccionar aquellos conglomerados más
representativos de la población, de forma que estén compuestos de unidades lo más
heterogéneas posibles.
• Muestreo bietápico o polietápico: Cuando se realiza un muestreo por
conglomerados pero no se recogen observaciones de todos los elementos, sino que
se realiza un muestreo de éstos.
• Muestreo doble o bifásico: Se extrae una muestra grande que sirve de base para
otra más pequeña. Se utiliza generalmente para muestrear poblaciones raras: en la
primera fase se identifican los elementos que pertenecen a la población objetivo y
en la segunda se recoge información de la encuesta.
• Muestras interpenetrantes: División aleatoria de una muestra aleatoria en un
número de subgrupos con el mismo número de elementos. Se usa para determinar
sesgos debidos al entrevistador.
• Otros tipos de muestreo probabilístico:
o Muestreo de recaptura de elementos marcados: utilizado en la estimación
del número de elementos de una población animal móvil.
o Muestreo de eliminación, utilizado para estimar el tamaño de una
población cerrada.
o Muestreo de posiciones de elementos en el espacio: conocer si los
elementos aparecen en posiciones aleatorias dentro del área de estudio.

Los tipos de muestreo probabilístico usados más frecuentemente son: muestreo aleatorio
simple, muestreo estratificado y muestreo por conglomerados.

En cuanto a los tipos de muestreo no probabilístico, los más conocidos utilizados en la


práctica de las encuestas son:
• Muestras de conveniencia o accidentales: Se forman con un grupo de individuos
que se encuentran disponibles para participar en el estudio. Los grupos de alumnos
que se presentan voluntarios para participar en un experimento constituyen un
ejemplo de las muestras de conveniencia.
• Muestreo de casos típicos: Selección de casos que se conoce de antemano que son
normales o usuales, eliminando aquellos sujetos que puedan ser considerados únicos
o especiales. El método de selección de las unidades muestrales centra la atención
en cada caso individual, con un fino escrutinio de la muestra, tratando de asegurarse
que no se han incluido casos extremos. Este tipo de selección se utiliza cuando
problemas de tiempo y recursos hacen inviables el muestreo probabilístico.
• Muestreo de casos críticos: Selección de casos que son esenciales para la
aceptación general o para la evaluación. Esto es, la selección de casos se hace en
función de que, por conocimiento previo o por lógica, permitan la generalización a
la población. Es un procedimiento similar al anterior, con la salvedad de que se
elige un grupo dado, que se considera similar, en pequeña escala, a la población con
la que se desea comparar.
• Muestreo de “bola de nieve”: Se basa en grupos previamente identificados para
extraer otros miembros de la población. Se suele utilizar cuando no hay listado de
población disponible. Se utiliza en estudios sociológicos, para la determinación de
grupos de los que no se tiene censo ni posibilidades de tener un listado, como puede
ser el caso, por ejemplo, de consumidores de drogas no permitidas. El
procedimiento supone que los mismos miembros que conforman el grupo de interés
identifican a otros individuos pertenecientes a la población.
• Muestreo por cuotas: También denominado método empírico (Martínez
Arias,1995). Los entrevistadores seleccionan la muestra en la misma proporción que
está en la población en variables fácilmente identificables. Este tipo de selección de
la muestra es en alguna medida una especie de muestra estratificada, y suelen ser
muy utilizadas por algunas agencias de investigación de mercado. A los
encuestadores se les fija una cuota de individuos que deben entrevistar,
especificándoles sus características, como por ejemplo “varones, casados,
propietarios de automóviles, con edades entre 25 y 50 años”. Cada entrevistador
selecciona por su cuenta a los sujetos basándose en estos criterios, hasta completar
la cuota. Este procedimiento es muy popular, y presenta como ventaja principal que
se puede obtener la muestra de forma rápida y barata. No es preciso contar con listas
de la población, ya que sólo basta con tener información sobre las características de
la población con las que definir las cuotas. Sin embargo, se pueden cometer sesgos
de muy diverso tipo, como puede ser encuestar sólo a aquellas personas que estén
disponibles; por ejemplo, si se realiza una encuesta en horas laborales en los
hogares, será mucho más probable encontrar varones en paro que en situación
laboral activa.

Las muestras no aleatorias presentan diversos problemas, de difícil solución. El problema


principal que cabe destacar es la subjetividad, lo que impide el desarrollo de un marco
referencial teórico para ellos. La subjetividad que caracteriza el proceso de selección no
ofrece ninguna garantía de representatividad de la muestra, con lo que los sesgos
potenciales son muchísimos, siendo muy factible la existencia de variables encubiertas que
expliquen alternativamente los resultados obtenidos, puesto que si las características de la
muestra utilizada difieren de las de la población de referencia, esas variables distintas
pueden producir efectos sobre las variables de estudio inadvertidamente, amenazando con
ello la validez interna de la investigación. Por otra parte, en muestras no aleatorias no se
puede determinar de ninguna manera el margen de error con el que se está trabajando
(margen de error que si es posible determinar matemáticamente cuando la muestra se ha
seleccionado aleatoriamente) por lo que el grado de incertidumbre de los resultados es total.

El siguiente problema que se deriva de la falta de representatividad de la muestra es que los


resultados así obtenidos son difícilmente extrapolables, impidiendo la generalización de los
hallazgos a la población, por lo que la investigación carece también de validez externa. En
presencia de muestras no aleatorias sólo es posible generalizar a una población hipotética,
nunca a una población real, acotada y definida.

En suma, pues, los procedimientos de muestreo no aleatorios amenazan la validez interna y


externa de la investigación, lo que limita de forma considerable la credibilidad de los
resultados obtenidos. No obstante, se pueden producir situaciones en las que las muestras
no aleatorias resulten adecuadas en la investigación. Así, en ocasiones, es el único método
disponible con el que cuenta el investigador para acceder a la información que le interesa.

Finalmente, este tipo de muestras resultan útiles en investigaciones exploratorias, donde el


interés reside en determinar si existe o no un problema concreto, delimitarlo y estudiar las
variables relevantes, e incluso las relaciones que pueden haber entre ellas. Toda vez que se
ha hecho esta investigación previa y bajo el supuesto que el tema en estudio es importante,
será preciso que se lleve a cabo un estudio en profundidad, donde la elección de una
muestra representativa (obviamente, enmarcado en un diseño de investigación cuidadoso)
es el principal garante de los resultados obtenidos.

4.3.- Marcos Muestrales


Para la selección de la muestra es preciso contar con un marco, a partir del cual se puedan
extraer las unidades muestrales. Cuando hablamos de marco estamos haciendo referencia a
listas, censos, mapas de ciudad, etc. Dado que el Marco muestral es el conjunto a partir del
que se selecciona la muestra:
• Debe proporcionar el medio para identificar y localizar las unidades de muestreo.
• Debe proporcionar la información para permitir estratificación y otros
agrupamientos.
• Representa el primer paso para determinar las probabilidades de inclusión en la
muestra de las diferentes unidades.

Podemos considerar varios tipos de marcos en términos de su contenido:


- Listas de sujetos: censos, listas electorales.
- Listas de viviendas: realizadas a partir de los censos.
- Listas administrativas: listas de colegios, hospitales, etc.
- Mapas o planos: se subdividen en áreas que serán las unidades de muestreo.
- Guías telefónicas
- Random Digit Dialing (RDD): generación aleatoria de alguno de los dígitos del
teléfono.

En cuanto a la calidad del marco, podemos distinguir tres tipos. El marco ideal es el marco
perfecto, esto es, aquel donde cada elemento ocurre una sola vez, no aparecen unidades
muestrales que no pertenezcan a la población que se desee estudiar y la información
suministrada es correcta. Sin embargo, tal tipo de marcos no son demasiados comunes. Una
segunda categoría corresponde a los marcos útiles, en los cuales se debe poder calcular la
probabilidad de seleccionar las unidades muestrales. Tal probabilidad debe ser distinta de
cero. Por último, estarían los marcos imperfectos, en los que aparecen cuestiones tales
como unidades extrañas, incorrecciones, duplicaciones, etc.

Como hemos dicho, los marcos para seleccionar a los sujetos pueden ser listas o censos de
los mismos. La selección basada en listas presentan la ventaja de que permiten un gran
margen de selección. Además, la existencia de un listado posibilita la realización de
encuestas por correo. No obstante, como mayor desventaja cabe destacar que suelen
contener grandes errores.

Por su parte, la calidad de un marco viene determinada por:


- Su exhaustividad.
- Que se identifique de manera no ambigua a los elementos incluidos en las unidades
de muestreo.
- Que exista una regla de asociación determinable entre las unidades del marco
muestral y los elementos de la población.
- Que cada unidad tenga la misma o una probabilidad conocida de ser seleccionada.
- No incluya personas que no pertenezcan a la población objetivo.
- No contenga repeticiones.
- Ser fácil de usar.
- Que esté organizado de forma sistemática.
- Contener información auxiliar que pueda usarse en el diseño.

Respecto a las limitaciones que podemos encontrar, citaremos:

- Faltas de cobertura:
o Inadecuado: no intenta incluir a toda la población.
o Incompleto: no incluye algunos elementos que se supone debería incluir.
Como solución podemos considerar el uso de marcos complementarios, eliminando
duplicaciones o procedimientos enlazados, ligando los elementos que faltan a
listados especificados de forma claramente definida.

- Vinculación a conglomerados: cuando los listados se refieren a grupos de elementos


y no a elementos individuales.

- Blancos o elementos extraños: cuando alguno de los elementos no son de la


población actual (fallecidos, emigrantes, etc.) o hay elementos que están fuera del
objetivo del estudio. Este problema se puede paliar ignorándolos cuando son
extraídos, aunque si son muy numerosos conviene utilizar un diseño muestral en dos
fases, para identificar los elementos de la población objetivo.

- Duplicaciones o repeticiones, cuando los elementos son listados más de una vez.
Puesto que los elementos duplicados tienen mayor probabilidad de ser
seleccionados, habremos de hacer un esfuerzo previo para eliminarlos del marco.

4.4.- Apéndice: tamaño de la muestra en el m.a.s.


El cálculo del tamaño de la muestra es uno de los aspectos más delicados en el diseño de
muestreo. Obviamente, el diseño de muestreo condiciona el tamaño muestral, pero también
el coste de la investigación, y el error máximo admisible, serán factores que determinen el
tamaño final en la investigación. A continuación proporcionamos las fórmulas necesarias
para obtener el número mínimo de sujetos que debe formar parte de una muestra aleatoria
simple para estimar los parámetros habituales: proporción, media y total de una población.

Para diseños más complejos, se recomienda la lectura del citado libro de Sánchez-Crespo o
la monografía de Pascual et al. “Tamaño de Muestra y Precisión Estadística” del Servicio
de Publicaciones de la Universidad de Almería.

Denotando por:

- n = tamaño de la muestra.
- N = tamaño de la población.
- 1-α = el nivel de confianza elegido.
- z1−α = el valor de z (con z una variable N(0,1)), que deja fuera del intervalo ±
z1−α una proporción α de los individuos.
- p = proporción en que la variable estudiada se da en la población.
- q = 1 - p.
- e = error de la estimación.

El tamaño de muestra para una población infinita:

pq
n = z12−α , siempre que: np ≥ 5 y nq ≥ 5
e2

En el caso de poblaciones muy grandes (superiores a 10.000) y con las condiciones


establecidas (nivel de confianza = 0,95; z1−α = 1,96 ≈ 2; p = q = 0,5), aplicando la fórmula
anterior, tenemos que, para un margen de error e, el tamaño de la muestra es el que se
especifica a continuación:
Para una población finita:

z12−α pqN
n= 2 , siempre que: np ≥ 5 y nq ≥ 5
e ( N − 1) + z12−α pq

En este caso de poblaciones finitas, con mismas condiciones establecidas para el caso
anterior, los tamaños muestrales son:

NOTA: Los espacios que quedan en blanco del cuadro anterior, proporcionan valores
superiores a la mitad de la población. Cuando esto ocurre lo más aconsejable es tomar toda
la población directamente, a no ser que existan razones de otra índole que aconsejen no
trabajar con su totalidad.

En la aplicación de las fórmulas para el cálculo del tamaño de la muestra suele presentarse
el problema de determinar el valor de p. Esta dificultad se puede solventar de una de las
siguientes formas:

- Si existen estudios anteriores sobre la misma temática, podemos obtener, a través de


ellos, una idea aproximada del valor de p.
- Se puede realizar un sondeo previo, con una muestra pequeña, para estimar el valor
de p.
Tema 2: El Cuestionario. Diseño del
Cuestionario
1.- Introducción
Una de los elementos básicos en el diseño de la encuesta es la elaboración del
cuestionario ya que, en gran medida, los resultados obtenidos estarán condicionados a lo
adecuado que sea el diseño de las preguntas. Sin embargo tendremos que tener en
cuenta que no existen principios básicos que garanticen la elaboración de un
cuestionario efectivo y eficiente. Esto quiere decir que las pautas seguidas en la
elaboración de un cuestionario válido son técnicas aprendidas por el investigador a
través de la experiencia y será realmente de esta experiencia acumulada de donde
surgirán una serie de reglas que nos pueden ser de gran utilidad a la hora de diseñar un
cuestionario “efectivo” y “eficiente”. Estas reglas harán referencia, por ejemplo, al tipo
o formato de preguntas a utilizar, a su redacción y al orden o secuencia de las mismas.
De ahí el conocido tópico que la realización del cuestionario es más un arte que una
técnica.

Podemos definir por cuestionario al “... medio de estructurar la entrevista de forma


ordenada, para garantizar que se van a plantear las mismas preguntas y con el mismo
orden a las personas encuestadas” (Miquel y cols.). Parasuraman (1986) lo define como
“un conjunto de preguntas diseñadas para generar los datos necesarios para lograr los
objetivos propuestos en un proyecto de investigación”. Para Dillon, Madden y Firtle
(1994) es un “instrumento para la recolección de datos, que ordena de manera formal
las cuestiones diseñadas para extraer la información requerida”. Las definiciones
conectan con los objetivos que se pretenden lograr con un cuestionario.

En resumen, podemos definir el cuestionario como el entorno físico utilizado para


recopilar la información de los encuestados, estructurado en preguntas y sus
correspondientes lugares destinados a las respuestas, con informaciones adicionales
referentes a normas y comentarios a seguir por los entrevistadores.

2.- Elaboración. Consideraciones Previas


Como ya hemos comentado, la elaboración de un cuestionario es una compleja tarea
donde se funden arte y ciencia, ya que no existen leyes que establezcan pautas de cómo
hacerlo, sino que para ello es preciso contar con una mezcla de sentido común, la propia
experiencia y los resultados de otros trabajos. El proceso de elaboración del cuestionario
es fundamental en el desarrollo de la investigación ya que contribuye de forma notoria
a la calidad de la misma. Hay que tener en cuenta que un cuestionario mal diseñado nos
proporcionará preguntas erróneas que posteriormente producirán sesgos o errores en la
interpretación de los resultados. A su vez, un cuestionario bien realizado asegurará una
recogida de información adecuada.
La necesidad de rigor, de comparabilidad y de replicación, que caracterizan la
investigación científica, hacen que sea necesario el contar con un instrumento que
permita estandarizar las variables objeto de estudio y, con ello, posibilitar que el
mensaje llegue por igual a todos los sujetos, es aquí donde aparece el cuestionario.

Un factor que determina la efectividad del cuestionario es la clara definición de


objetivos en la concepción teórica de la encuesta, ya que la formulación del cuestionario
resultará más simple y fácil de realizar. Dicho de otro modo, no debe haber preguntas de
más, sin fundamento, sino que, por el contrario, cada una de ellas debe estar ligada con
algún aspecto del problema planteado en la investigación. La inclusión de preguntas
irrelevantes en el cuestionario ocasionará el aumento de los costes de la investigación,
sin que, por otro lado, aporten algo a la investigación. Con respecto a ésto, Dillon,
Madden y Firtle (1994) señalan las siguientes directrices para la redacción de los ítems
de un cuestionario:

1. Redactar cada ítem después de una reflexión en profundidad sobre el problema


que sustenta la investigación. Tal problema generará una serie de preguntas, que
deben corresponderse con los ítems del cuestionario.
2. Realizar el cuestionario teniendo siempre presentes las preguntas que se han
planteado en la investigación.
3. Para cada uno de los ítems del cuestionario, es preciso poder explicar de que
forma la información obtenida se relaciona con las cuestiones planteadas en la
investigación.

Todo este complicado proceso de formulación de un cuestionario hace que algunos


autores (entre ellos, Azorín y Sánchez-Crespo) consideren que éste deba ser realizado
tomando en cuenta la actuación de especialistas de diversos campos, con el objetivo de
que en el diseño queden reflejados los siguientes aspectos:

• La materia en cuestión, tomando en cuenta factores tales como la población a


estudiar, las definiciones conceptuales y el error máximo tolerable para las
estimaciones.
• Muestreo, determinando el tamaño muestral en función de los parámetros a
estimar, su nivel de medida y las clasificaciones cruzadas que se vayan a
realizar.
• La evaluación de resultados, realizándose una elaboración cuidadosa de las
preguntas que evite una elevada tasa de ausencia de respuestas, o que estas
lleven a errores en la comprensión.
• Aspectos del trabajo de campo, realizándose las preguntas de forma precisa. El
orden de presentación de las preguntas también resulta relevante.
• Tratamiento informático, de tal manera que las preguntas y su codificación se
hagan de forma racional. Es importante, además, respetar las definiciones y
códigos que se hayan realizado en otras encuestas para conceptos análogos.

La recogida de información en una investigación mediante encuestas se puede llevar a


cabo de diversas maneras, y de hecho se contemplan diversos grados de estructuración
en la forma de recoger la información. Por ejemplo, se podría tener un guión más o
menos elaborado, que guiase la entrevista, recabando la información pertinente. Sin
embargo, tal forma de proceder, cuando se quiere acceder a un número grande de
personas, produciría gran cantidad de sesgos, pues no se garantiza que el investigador
logre transmitir el foco de interés en igualdad de condiciones a todos los encuestados.
Además, no hay que olvidar las dificultades inherentes al tratamiento de información
poco estructurada.

Hay tres tipos de cuestionarios, en función de su grado de estructuración: no


estructurados, semiestructurados y estructurados.

• No estructurados: El encuestador posee simplemente un guión que permite


organizar y guiar la información que se va recabando, realizando preguntas
generales. El encuestador posee una gran libertad tanto para hacer otras
preguntas que crea pertinentes como para el orden en el que realice el
cuestionario.
• Estructurados: toda la información que se desea recabar se presenta de forma
explícita y estandarizada.
• Semiestructurados, que suponen una mezcla entre ambos.

La elección entre un procedimiento u otro de cuestionario viene dado por el momento


de la investigación en la que nos encontremos. En una primera fase, en estudios
exploratorios o en temas de los que se posea poca información, el cuestionario no
estructurado permite al investigador tener una idea más concreta de la información que
precisará recabar, evitándose que en la elaboración definitiva de la investigación se
incurran en incorrecciones tanto por exceso como por defecto. Una vez que se conoce
cuáles son los puntos de interés para el problema que nos ocupa, el cuestionario
estructurado es el procedimiento más adecuado para la obtención de datos de forma
fiable.

Previo al diseño del cuestionario es necesario recabar la mayor información posible en


torno al tema objeto de estudio, ya que esta información condicionará el diseño.
Además, el investigador debe plantearse otras consideraciones previas como son:

• Temas a tratar. Se trata de seleccionar los temas más importantes relacionados


con el tema de la investigación.
• Duración máxima. Se fijará de antemano, aunque posteriormente pueda
corregirse en alguna medida, el tiempo máximo que ocupará el tema, sobre todo
de cara a considerar el tipo de entrevista a realizar.
• Cabecera e información sobre el entrevistado. Es necesario saber que datos
generales del entrevistado se van a utilizar, principalmente para el cruce con las
variables objeto del estudio, y que permitan establecer una clasificación del
mismo. No obstante, se deberá a usar el menor número de datos personales
posible evitando información superflua, para que no se dé lugar a suspicacias
por parte del entrevistado.
• Instrucciones al entrevistador. Esta es una cuestión fundamental que
frecuentemente es olvidada. Sin embargo, si todos los entrevistadores no pasan
el cuestionario en las mismas condiciones se pueden acumular sesgos que
invaliden los resultados posteriores.
• Material auxiliar a utilizar. Diagramas explicativos, dibujos, fotografías, etc.
• Impresión, papel y diseño final. De importancia principal en encuestas por
correo, determina que el entrevistado pierda interés o que se vea inducido a
errores.
Adicionalmente, se aconseja contar con un guión previo a la elaboración del
cuestionario que contemple algunos aspectos adicionales como:
• El orden en el que se van a presentar las preguntas, y los tipos de preguntas y las
formas técnicas que se van a utilizar.
• Datos de identificación del encuestado: se puede incluir fecha y hora de la
entrevista, nombre del entrevistador.
• Petición de colaboración, dónde se incluye el nombre de quien hace la encuesta
y los objetivos que se persiguen y el tiempo necesario para completar la
encuesta.

3.- Orden, diseño y otros aspectos importantes


3.1.- Orden
El orden en que se coloquen las preguntas es también un tema de gran relevancia. Hay
una serie de convenciones aceptadas en lo que se refiere al ordenamiento de los ítems,
que pasamos a comentar:

• El comienzo: se debe empezar con un breve mensaje de presentación, donde se


diga claramente quién realiza la encuesta, siguiendo con una exposición de los
objetivos perseguidos en la investigación, el tipo de información que se precisa y
el procedimiento seguido para la selección de la muestra, motivando al
encuestado con los beneficios que puede reportar su participación. Además, en
esta presentación debe asegurarse la salvaguarda de su intimidad, garantizando
el anonimato de sus opiniones. La clarificación de objetivos de la investigación
ayuda a evitar suspicacias del entrevistado, contribuyendo también a mejorar el
clima de colaboración. Si bien esta presentación preliminar es conveniente para
cualquier procedimiento de recogida de información mediante encuesta, es
absolutamente imprescindible en el caso de cuestionarios autoadministrados,
como los postales y los de acceso electrónico (internet).

• Cuidado con la primera pregunta: ya hemos comentado anteriormente la


importancia de las primeras preguntas para la creación de un clima que ayude a
la cumplimentación del cuestionario. No hay que olvidar que las primeras
preguntas marcan el tono del cuestionario, por lo que el objetivo de esta primera
parte del cuestionario es motivar lo suficiente al encuestado como para asegurar
su colaboración. La utilización de preguntas que sean tanto cortas como
interesantes provoca este efecto. En cualquier caso se debe evitar incluir ítems
delicados al empezar el cuestionario. Por el contrario, las preguntas más fáciles
deben de situarse lo antes posible, para que se agilice la respuesta y el
encuestado se sienta motivado a colaborar.

• Orden lógico: el flujo del cuestionario debe seguir un orden lógico. Un


ordenamiento caótico produce en el encuestado frustración e indecisión, por lo
que acaba afectando a su interés y a su cooperación. Las preguntas relativas a un
mismo tema deben presentarse juntas, formando una batería de preguntas
comunes, ya que si se sitúan de forma azarosa y son una fuente posible de error.
Una vez finalizado un bloque de temas, se aconseja introducir alguna frase o
alguna pregunta que haga de puente con el siguiente.
• Pasar de lo general a lo específico. Este tipo de ordenamiento se conoce como
de embudo. En él se asume que el encuestado tiene conocimientos de un tema
dado. Si bien este procedimiento suele ser útil siempre, pero es esencial cuando
la respuesta a una pregunta específica previa puede sesgar la respuesta a una
cuestión formulada posteriormente. No se aconseja su uso en cuestionarios
autoadministrados, ya que como el encuestado tiene opción a leer los ítems
posteriores sin contestar los precedentes, nadie asegura que siga el orden que se
pretende.

La secuenciación contraria, de embudo invertido, que exige empezar con una


pregunta específica, pasando posteriormente a las más generales, es
recomendable en dos circunstancias:

- El encuestado no tiene demasiado conocimiento o carece de opinión o de


sentimientos claros sobre un tema.
- Se pretende aportar un marco de referencia que sea común a todos los
encuestados, facilitando la memoria o dando un conjunto de criterios que
sean comunes para fundamentar sus opiniones.

• Se deben introducir preguntas de tipo control. Con estas se pretende


verificar, en la medida de lo posible, la consistencia de las respuestas que se van
obteniendo. Se definirán más adelante.

• Situación de algunas preguntas. Las preguntas clave, esto es, las que se
consideren de especial relevancia para la investigación, deben situarse en la
mitad del cuestionario, de tal forma que ya se haya despertado el interés del
encuestado pero antes de que esté demasiado cansado.

En cuanto a la disposición de las preguntas más comprometidas,


experimentalmente se ha comprobado que es conveniente que se sitúen entre los
dos tercios y tres cuartas partes de la longitud total del cuestionario, y no será
aconsejable situarlas al final de éste para evitar que el cansancio del entrevistado
influya en su respuesta

Por su parte, los datos de identificación se situarán al final, ya que pueden


producir rechazo por parte del encuestado. No obstante, en ocasiones algunos
datos personales puede interesar preguntarlos antes, por ejemplo cuando van a
servir como filtro. Los datos de control deben incluir el número de orden del
encuestado, nombre, dirección y teléfono, el nombre del entrevistador y la fecha
y hora de la entrevista. Se debe consignar también si hubo sustitución del
entrevistado.

Se recomienda también hacer algunas preguntas de relax antes de llegar al final


de la entrevista, para disminuir la tensión que haya podido producirse. Al final
de la entrevista, se debe agradecer la colaboración prestada.
Recapitulando, un orden genérico en un cuestionario será:
1. Presentación y justificación del estudio.
2. Preguntas introductorias.
3. Preguntas clave o centrales para los objetivos de la investigación.
4. Preguntas difíciles
5. Preguntas delicadas.
6. Datos personales.
7. Agradecimiento por la colaboración prestada.

Hay que poner especial cuidado al ordenar las preguntas, tratando de evitar que se
produzca un sesgo que se denomina irradiación, esto es, la calidad de la respuesta
puede verse afectada por el contexto inmediato en que se encuentra la pregunta, así
como en su ubicación en el cuestionario. Se han dado varias soluciones: la
secuenciación de embudo, o bien variar la posición de ítems que puedan verse afectados
por este problema en el estudio piloto, tratando de analizar su efecto. Sin embargo,
resulta absolutamente desaconsejable aleatorizar los ítems como solución a la
irradiación, ya que esto produciría efectos indeseables (Babbie, 1996):

- El cuestionario parecerá caótico.


- A los encuestados les resultará más difícil contestar, al tener que saltar de un
tema a otro.
- El efecto seguirá existiendo, pero ya no se podrá calibrar qué resultados
produce.

Otro sesgo se produce por el orden, pero esta vez no el de los ítems en los cuestionarios
sino de las categorías de respuesta. La recomendación que dan los diversos autores es
alternar el orden de presentación en los diversos cuestionarios, en unos presentándolos
en orden creciente y en otros decreciente, o, si el nivel de medida de la variable es
nominal, aleatorizar las categorías de respuesta. Esto puede hacerse en el estudio piloto,
determinando allí su influencia.

3.2.- Diseño
El diseño del cuestionario es también de una gran importancia en la elaboración del
mismo. Un formato inadecuado puede ser también fuente de errores, ya que puede
llevar a que se salten preguntas, confundir sobre la información que se pide, etc. Esto es
especialmente importante en los cuestionarios autoadministrados, pero también lo es
cuando la encuesta se realiza por medio de entrevistadores. En un caso u otro,
obviamente, el diseño del cuestionario será distinto. No obstante, de cualquier forma, el
diseño debe hacerse de forma que facilite tanto la lectura de las preguntas como el
registro de las respuestas a la misma. Además, debe parecer limpio, atractivo y
ordenado.

Dillon y cols. (1994) y Sudman y Bradburn (1987) aconsejan la utilización del formato
de folleto, por varias razones:

- Evita que se pierdan o que se desorganicen las páginas.


- Permiten moverse de una página a otra más fácilmente.
- Su formato profesional los hace más atractivos, y resultan preferibles para
autoadministración. Una buena presentación aumenta la probabilidad de
respuesta.

Resulta desaconsejado utilizar procedimientos que hagan parecer el cuestionario más


pequeño, tales como tamaño de letra pequeña o poco espacio entre preguntas. Produce
un efecto contraproducente, pues de una parte hace más difícil la lectura, a la vez que se
incrementan los errores por la falta de espacio en el registro de las respuestas. Los
cuestionarios excesivamente condensados son inadecuados también a la hora de su
vertido al ordenador, dando también lugar a errores si el registro de las respuestas no ha
sido posible que quede nítido.
Cuando se quieren realizar varias preguntas que tienen el mismo conjunto de categorías
de respuesta, Babbie (1995) aconseja presentarlas en un formato que denomina
preguntas matriz: las preguntas comparten el mismo conjunto de respuestas, como se
presenta en el ejemplo siguiente:

¿Cómo valoras los siguientes elementos del mobiliario de acuerdo a su grado de


adecuación?
Adecuados Inadecuados
Mesas
Sillas
Archivos
Estanterías

Entre las ventajas de este tipo de formato, se pueden citar:

- Una mayor eficiencia en la utilización del espacio del cuestionario.


- A los encuestados les resultará más fácil responder
- Facilita la comparabilidad de las respuestas.

La principal desventaja de este formato es que puede facilitar sesgos de respuesta en los
sujetos, puesto que puede producir que se responda de forma maquinal, no prestando los
encuestados la atención necesaria. Babbie (1996) aconseja la utilización de dos formatos
de respuesta: o bien dejar el espacio para responder marcado mediante corchete o
paréntesis, o bien acompañar cada categoría de respuesta con un número. Este último
procedimiento tiene la ventaja de facilitar la codificación de respuestas.

Otra cuestión relativa al procedimiento de realización de las preguntas es la utilización


de tarjetas auxiliares. Se aconseja su uso cuando se hacen preguntas con diversas
opciones de respuesta, de tal manera que resulta difícil la memorización de todas ellas.
En este caso, a la vez que se pregunta en voz alta al encuestado la cuestión, se le
presenta una tarjeta dónde él puede visualizar las distintas opciones. El objetivo de la
presentación de la tarjeta es impedir que unas categorías de respuesta tengan más
probabilidad de ser elegidas que otras.

Se sugieren también otras recomendaciones en el diseño del cuestionario:


- Intentar que ni las preguntas ni el conjunto de sus categorías de respuesta queden
separados entre páginas.
- El espacio entre ítems deberá ser el adecuado, ni tan pequeño que dificulte su
lectura ni tan grande que incremente el número de páginas.
- No se debe incluir una pregunta breve al final de una página, tras una pregunta
larga y con diversos apartados, pues es bastante probable que se omita
inadvertidamente la pregunta final.
- Dejar espacio suficiente para responder en preguntas abiertas. Hay que tener en
cuenta que la amplitud del espacio condiciona la longitud de la respuesta, por lo
que el investigador debe prever si desea una respuesta breve o más detallada,
dejando el espacio en función de un propósito u otro.
- Se deben numerar las preguntas, por dos razones:
o Previene que se salten preguntas.
o Ayuda al entrevistador a guiarse, sobre todo si se usan saltos o filtros.
- Se debe utilizar tanto una buena calidad tipográfica como buen papel. En
cuestionarios autoadministrados, el formato es fundamental, siendo
imprescindible que parezca fácil de leer y de cumplimentar.

Aparte de los consejos generales, es también importante prestar atención a otros


aspectos específicos. Así, Cea (1996) aconseja incluir una cubierta donde aparezca el
título del estudio, y el nombre y la dirección de los investigadores. En la contraportada
es interesante que se deje un espacio para aportar sugerencias, se agradezca la
colaboración y, si se piensa enviar copias de resultados, incluir las instrucciones
precisas para solicitarlos.

En un trabajo reciente, Díaz, Díaz y Manzano (2002) encontraron que, utilizando


diversos formatos (grande/pequeño; color/blanco; con portada/sin portada) los que
daban mejores resultados en cuanto a porcentaje de cuestionarios completados y
devueltos resultaron ser los blancos, pequeños y con portada.

Una mención especial merece la utilización de instrucciones para el entrevistador.


Deben de ir en caracteres tipográficos que permitan su diferenciación del resto del texto,
evitando así que se le lean al encuestado. Estas instrucciones deben preceder al ítem si
se refieren a la manera de hacer la pregunta, mientras que deben situarse detrás si tienen
que ver con la forma de registrar la respuesta. Cuando se trata de preguntas filtro, se
debe explicitar cuál será la próxima pregunta. Tal instrucción debe ir inmediatamente
después de la respuesta, para evitar su omisión. También es conveniente incluir todas
las clarificaciones que puedan ayudar al trabajo de campo. Por último, se debe dejar
espacio para que el entrevistador pueda anotar todas las incidencias que considere
oportunas.

El uso del color en el diseño del cuestionario puede facilitar la codificación y el


tratamiento posterior de la información. Por ejemplo, se pueden asignar colores
diferentes a bloques de preguntas. También se puede emplear para diferenciar entre
submuestras.

La longitud del cuestionario es otro aspecto importante. Se debe evitar que su extensión
fatigue al encuestado, eliminando los ítems repetitivos o que no tengan relación con los
objetivos de la investigación. Ahora bien, aunque generalmente se desaconseja el
superar una hora de entrevista, no hay que olvidar que lo que hace amena una entrevista
no es tanto su duración como el interés que despierte en el encuestado.

Un último aspecto a considerar en el diseño del cuestionario es la codificación de las


preguntas. Consiste en asignar un código numérico a cada pregunta, así como a cada
categoría de respuesta. Aparte de las ventajas ya mencionadas en la numeración de
ítems, la codificación facilita el posterior vertido de los datos al ordenador, a la vez que
evita que se cometan errores en este proceso. Otra ventaja adicional es que permite que
se quede constancia en el protocolo de respuesta la codificación hecha para cada
categoría de respuesta, lo cual es importante si se reutilizan los datos un tiempo
después.

La codificación debe ser lo más extensa posible, tratando de que no se elimine


información que puede resultar necesaria. Asimismo, en la codificación de medidas o
cantidades es preferible pedir la respuesta exacta, con lo cual el nivel de medida de la
variable será de intervalo o de razón.

4.- Las preguntas


4.1.- Características deseables
Las preguntas, que son en definitiva los componentes del cuestionario, deben tener
ciertas características deseables:

• Deben formularse en un lenguaje entendible. Salvo que la encuesta sea de


propósito limitado y esté orientada a profesionales o técnicos que usen argot
específico, las preguntas deben ser fáciles de comprensión para cualquier
persona de formación elemental. Esto evitará sesgos por falta de respuesta, si
bien en entrevistas personales es tarea del entrevistador tener la preparación
suficiente como para aclarar conceptos que no queden claros. Evidentemente en
encuestas por correo, autoentrevistas y encuestas telefónicas (debido el factor
tiempo), no existe o es mínima la posibilidad anterior. En la práctica, como
veremos, es conveniente estudiar el efecto de preguntas más “oscuras”, aunque
necesarias, en el pretest.

• Han de ser lo más cortas posibles: los textos largos suelen aburrir al
entrevistado, por lo que es recomendable que no se incluyan preguntas cuya
lectura dure más de un minuto y, sobre todo, que repita conceptos. Incluso las
preguntas indirectas o las que introduzcan al entrevistado en un tema difícil, se
deben formular de forma lo más concisa posible.

• Deben ser neutras. La pregunta no debe tomar partido por tal o cual opción, lo
que aumentará la credibilidad del estudio ya que los resultados serán lo más
imparciales posibles. Por tanto, habrá que evitar:

- Juicios de valor o preguntas tendenciosas: p.e. preguntas del tipo “La


Educación del país exige contar con un presupuesto adecuado. ¿Está usted
de acuerdo con que se destinen más fondos de los Presupuestos del Estado a
la mejora del Sistema Educativo? Está claro que la primera parte de la
pregunta conlleva una respuesta positiva por parte de los encuestados.

- Utilización de personas de autoridad o de consenso (“La mayoría de las


personas opina que...”) encabezando una pregunta.

- Presentación parcial del aspecto de la cuestión que se quiere estudiar. Es una


forma más sutil de sesgar la pregunta. Por ejemplo, la siguiente pregunta
incita a la contestación en postivo: ¿Considera usted que la empresa X
ofrece un buen servicio post-venta?
Si ____
No ____
No sabe/ no contesta_____________

Si la redacción hubiese sido: ¿Cómo encuentra usted el servicio post-venta


de la empresa X?
Bueno _________
Regular ________
Malo ___________
No sabe/ no contesta __________

se permite al entrevistado que gradúe su respuesta, sin primar la parte


positiva.

• Hay que evitar la ambigüedad, de tal manera que el encuestado sepa siempre
qué se le está preguntando. La ambigüedad se puede producir por dos razones.
En primer lugar, por la redacción de la pregunta, utilizando términos que carecen
de un significado uniforme. Otra forma de producir ambigüedad es la inclusión
de preguntas dobles, como por ejemplo:
¿Has tenido alguna experiencia de acoso en el trabajo o sabes de
alguien que la haya tenido?

Si se responde que sí, no es posible saber si ha sido el encuestado el que ha


tenido la experiencia o alguien a quién conoce. Obviamente, desdoblando la
pregunta se evitará el problema.

• La redacción de las preguntas será de forma personal y directa, evitando


generalizaciones en lo posible. Véase, por ejemplo, como una pregunta del tipo
¿Qué sentiría si le robaran?, exige que el encuestado haga una inferencia,
mientras que si se desdobla la pregunta:
- ¿Le han robado alguna vez?
- En caso afirmativo ¿qué sintió?,
la información que se obtiene es mucho más veraz.

• La preguntas de contenido íntimo se deben hacer de forma indirecta.


Habitualmente las cuestiones más comprometidas se formulan en baterías de
preguntas, con distintas posibles elecciones en cada pregunta, de forma que se le
quite trascendencia a la cuestión que se persigue. Otro método consiste en hacer
que el entrevistado responda a través de un código de forma que la hipotética
violencia de la cuestión disminuya considerablemente.
• No deben incluir temas difíciles o en los que hayan de realizarse cálculos.
Salvo en cuestionarios industriales, de empresas o específicos de otro tipo, es
conveniente que el individuo no realice cálculos innecesarios (p.e. cuanto dinero
gasta al año en ocio) que le harán perder el tiempo innecesariamente. Por otra
parte, en cuanto a los temas difíciles, no es adecuado que el individuo se
esfuerce en considerar una actitud si no sabe del tema en cuestión.

• Deben excluir palabras que tengan connotaciones no deseables. Se deben


evitar términos discriminatorios o con un significado negativo. Además, es
preferible evitar la redacción de preguntas negativas, ya que se comprenden peor
que las formuladas de forma positiva.

• Su redacción debe invitar a la colaboración. La secuencia de preguntas debe


ser amena y despertar interés, de forma que el entrevistado no parezca sometido
a un examen.

• Hay que asegurar que el encuestado puede y quiere responder a la


pregunta. En ocasiones, la exactitud de la respuesta se ve comprometida porque
el encuestado no puede responder a la pregunta. Ello puede darse por dos
razones:
o El encuestado no conoce la respuesta. En este caso se sabe que hay
tendencia por parte del encuestado a proporcionar una respuesta, tal vez
por que no desea confesar su ignorancia: los encuestados tienden a
inventar en lugar de no opinar. Así Babbie (1995), en una encuesta
política, preguntaba si conocían 15 figuras políticas de la comunidad,
incluyendo un nombre de un personaje inventado, encontrando que un
9% de los sujetos entrevistados afirmó conocerlo. Para solucionar este
problema, se debe ofrecer la alternativa No sabe/No contesta, plantear
unas cuestiones previas sobre el conocimiento del individuo sobre el
tema en cuestión, o bien facilitar toda la información que parezca
pertinente antes de hacer la pregunta en cuestión.

o El encuestado no sabe cuál será su conducta, sobre todo si es cuestionado


sobre situaciones hipotéticas: Si fuera probable que el Partido X ganara
las elecciones, ¿les votaría usted?, la respuesta dependerá de que al
encuestado le parezca razonable que el mencionado partido gane las
elecciones.

o El encuestado ha olvidado la respuesta, por ejemplo en preguntas que


exijan hacer cálculos o ejercicios de memoria. Para este tipo de
preguntas, varios autores (Converse y Presser, 1994; Sudman y
Bradburn, 1987, citados por Cea, 1997) proponen empezar preguntando
por hechos recientes, tales como los que han ocurrido en el pasado más
inmediato, como por ejemplo lo que ha pasado en la última semana. Una
vez que el encuestado ha respondido y se ha anclado en el tiempo, se
puede preguntar por sucesos anteriores. En cuanto a los cálculos, deben
ser sencillos. Por ejemplo, es más fácil que un ama de casa pueda estimar
el consumo de un producto en un mes que a lo largo de un año.
Las preguntas que conformarán el cuestionario pueden extraerse de diversas fuentes. Es
preciso que se realice una indagación previa al diseño del cuestionario. Esto incluye
consultar a expertos, revisar la bibliografía y los archivos de datos de encuesta. Un
procedimiento habitual para recabar la información precisa es realizar grupos de
discusión o entrevistas en profundidad. Esto es especialmente importante en aquellos
temas en los que el investigador tenga escasa información sobre el tema de estudio y/o
sobre la población a estudiar.

En ocasiones, el investigador puede recurrir a preguntas ya realizadas en cuestionarios


anteriores sobre temas afines. Cea (1996) señala algunas de las ventajas de tal forma de
proceder:

1. Permite replicar los hallazgos de estudios anteriores en una población distinta o


en una fecha posterior.
2. Es posible estimar la fiabilidad de las respuestas, contrastándolas con las
recogidas en estudios realizados con poblaciones y contextos similares.
3. Posibilita analizar la tendencia de los datos si se observan cambios en los
resultados obtenidos con respecto a los estudios anteriores.

Ahora bien, cuando se adopten estas preguntas, el investigador se verá obligado a


realizar una comprobación en un pretest, puesto que el lenguaje cambia constantemente.
Además, el significado de las preguntas puede verse afectado por la presencia de otras
adyacentes en el nuevo cuestionario. Esta contaminación es un sesgo potencial en
cualesquiera de los ítems de un cuestionario y el hecho de utilizar preguntas que han
demostrado su utilidad en estudios previos no previene de este error potencial en el
nuevo estudio. La redacción del cuestionario exige ser muy cuidadosos. En la literatura
se dan diversos consejos para una adecuada elaboración. Es bastante frecuente que se
produzcan sesgos en la redacción, por motivos diversos. Frente a ello, Weiers (1986)
aconseja esperar lo inesperado, planeando estrategias que o bien impidan tales
eventualidades o bien, si llegan a darse, que sea posible resolverlas.

Veamos a continuación algunos aspectos a tener en cuenta en la redacción del


cuestionario:

a) Lenguaje a utilizar. El vocabulario empleado debe ser común al investigador y al


encuestado. Se recomienda el uso de un lenguaje popular y comprensible. No
hay que olvidar que, en general, las encuestas van dirigidas a personas de las
más diversas clases y condiciones.

b) Longitud de los ítems. Es conveniente que las preguntas sean cortas. Una
pregunta demasiado larga aburre tanto al entrevistador como al encuestado.
Además, una pregunta larga puede producir más errores, ya que si el
entrevistado pierde interés y contesta sin prestar demasiada atención, puede
emitir respuestas inexactas, ya que es posible que el encuestado pierda el sentido
concreto de lo que se le está preguntando.

4.2.-Tipos de Preguntas
Las preguntas se pueden clasificar en función del grado de libertad de la respuesta o en
función de los objetivos precisos que se persigan. En el primer caso, existen dos grandes
grupos: preguntas abiertas, en las que dentro del marco de una pregunta formulada, se
puede contestar libremente, tanto en extensión como en contenido, y preguntas cerradas,
en las que el entrevistado seleccionará sólo puede seleccionar un número de respuestas
prefijadas. La utilización de uno u otro tipo de preguntas en los cuestionarios ha
suscitado más de una controversia que actualmente están superadas. Ello se ha debido
sobre todo al desarrollo de la técnica estadística denominada Análisis de Datos
Textuales (Lebart et al.), en la que, entre otras cosas, proporciona una metodología para
la construcción de preguntas cerradas (de más fácil tratamiento), a partir de preguntas
abiertas.

En cuanto a los objetivos que se persiguen, se pueden establecer dos grandes grupos: los
que persiguen objetivos en el desarrollo de la encuesta, tales como preguntas filtro,
alivio, etc., y los que van dirigidos a recabar información concreta.

Pasemos a describir con más detenimiento cada uno de estos tipos:

4.2.1.- Preguntas según su Objetivo

Hay dos grandes grupos de preguntas en función de los objetivos que se persiguen: las
preguntas orientadas a recabar directamente información y las que tienen finalidades de
facilitar el desarrollo de la encuesta.

Preguntas orientadas a recabar directamente información, relativa a la


investigación. Son a su vez de dos tipos:
• Información sobre conductas: preguntas orientadas a conocer comportamientos
presentes, pasados o futuros, intentando también, en ocasiones, averiguar las
motivaciones o las pautas de tales comportamientos.
• Preguntas destinadas a la detección de actitudes, las cuales persiguen cuantificar
el sentido y la intensidad de las actitudes objeto de estudio. Suelen presentarse
mediante escalas.

Preguntas relativas al desarrollo de la encuesta, en el sentido de presentar la


información de la forma más adecuada, con objeto de asegurar la exactitud de las
respuestas. Algunos de los tipos más importantes son:

• Preguntas introductorias o de contacto. Son las que se sitúan al principio del


cuestionario, con el objetivo de crear un clima de confianza e interés que facilite
la cumplimentación del cuestionario. Resultan aconsejables aquí preguntas
abiertas, que ayudan a que el encuestado pueda expresar su opinión. Incluso no
es preciso que se pregunte del tema objeto de estudio, basta con que ayude a
interesar al encuestado, de forma que reciba las restantes cuestiones de la mejor
forma posible. Por el mismo motivo, en estas preguntas introductorias nunca se
deben incluir cuestiones complicadas, controvertidas o delicadas. Conviene
recordar que estas primeras preguntas son las que marcan el tono del
cuestionario.
• Preguntas de control. Su objetivo es contrastar la información que se está
recabando. El control es doble; por una parte, sirve para estimar si el encuestado
responde de forma sincera; por otra, sirve para corroborar que el entrevistador
está realizando bien su trabajo, sin falsear resultados y ajustándose al guión del
cuestionario. Son muy útiles para eliminar cuestionarios incoherentes. Estas
preguntas de control son, fundamentalmente de dos tipos:
o Repetición de una misma pregunta o una parte de esta a lo largo del
cuestionario, tratando de determinar si hay coherencia en las respuestas
sucesivas.
o Incluir información falsa. Por ejemplo, se puede preguntar si vio en una
fecha concreta un programa de televisión que no existe o que ya no se
encuentra en antena, o bien pedir su opinión sobre una figura pública
inventada.

• Preguntas de cambio de tema. Son preguntas que hacen el papel de puente,


con la finalidad de cambiar de un tema al siguiente. También sirven de
distensión, funcionando como alivio tras un grupo de preguntas difíciles.

• Preguntas de recuerdo. Son convenientes cuando se van a realizar preguntas


que requieran hacer uso de la memoria, o bien cuando se va a preguntar sobre
hechos ocurridos hace tiempo, con lo que este tipo de preguntas ayuda a fijar el
recuerdo. Las hay de dos tipos: de recuerdo espontáneo, dónde simplemente el
encuestador responde sin ninguna guía, o bien sugerido, en cuyo caso se
presentan algunas alternativas de respuesta entre las que tiene que optar.

• Preguntas filtro. En ocasiones, algunas preguntas de la encuesta tienen sentido


sólo para una submuestra, mientras que no resultan relevantes para los restantes
encuestados. En ese caso, la respuesta afirmativa o negativa a una cuestión
conduce o excluye la siguiente pregunta, o una serie de preguntas. En ocasiones,
una alternativa de respuesta sirve de filtro, sin otras preguntas que le sigan,
como por ejemplo:
¿Cuántos hijos tiene vd.?
No tiene hijos
Nº de hijos _______

Las preguntas filtro han de usarse con precaución, pues se corre el riesgo de
alargar demasiado el cuestionario si se utilizan mucho. Las preguntas filtro sólo
se deben usar cuando las preguntas siguientes son embarazosas o puedan carecer
de significado para el encuestado.

• Preguntas delicadas. Hay determinadas cuestiones que son embarazosas de


responder o que comprometen el prestigio del encuestado. Se trata de temas de
tabú social, entre los que cabe citar sanidad e higiene personal, incumplimiento
de normas legales, comportamientos sexuales, ideologías políticas o religiosas e
ingresos personales.

4.2.2.- Tratamiento de Preguntas Delicadas


Si bien Breakwell, Hammond y Fife-Shaw (1995) aconsejan abordar estas preguntas tan
directamente como sea posible o, si no se obtiene la información deseada, diseñar otro
procedimiento de investigación distinto de la encuesta, otros autores aconsejan
procedimientos indirectos para recabar esta información (Miquel, 1997; Weiers, 1986,
Cea, 1996; Sudman y Bradburn (1987); Kinneart y Taylor, 1987, entre otros). Ello evita
que se den respuestas muy poco acordes con la realidad o que, en el mejor de los casos,
los encuestados opten por no responder, lo que incrementaría el sesgo por ausencia de
respuesta.

Algunos de estos métodos indirectos son:

1. Empleo de terceras personas (p.e. sus amigos, familiares, etc.): ¿Alguno de sus
amigos acostumbra a fumar marihuana? Posteriormente, se pueden incluir
preguntas indirectas que permitan estimar si el encuestado también lo hace.
2. Minimizar la gravedad del hecho, por medio de complicidad o de
generalizaciones que dan a entender que es muy común: todo el mundo ha
fumado alguna vez un porro, ¿usted lo ha hecho también?
3. Incluir la pregunta en el contexto de otras más inofensivas, aprovechando que el
encuestado se ha acostumbrado a contestar (Weiers, 1986).
4. Uso de la autoridad para justificar la conducta: La Justicia contempla el uso de
la violencia en autodefensa, ¿en qué otras ocasiones la justifica usted?
5. Aportar razones que justifiquen una conducta inadecuada, como por ejemplo:
“Es bastante incómodo el uso de casco cuando se conduce una motocicleta,
sobre todo en verano; ¿acostumbra usted a conducir su motocicleta sin ponerse
el casco?”
6. Tarjetas de respuesta (Kinnear y Taylor, 1987). Se le presentan al encuestado la
pregunta delicada en una tarjeta, donde figuran las diversas alternativas de
respuesta numeradas. El encuestado simplemente tiene que dar al entrevistador
el número de la respuesta que resulte más adecuada.
7. Técnica de respuesta al azar, que permite estimar la probabilidad de ocurrencia
de un tema que resulta tabú socialmente. Se le presentan al encuestado dos
preguntas, a las cuales debe responder sí o no. Se le pide que lance una moneda
al aire y que, tras haber asignado el mismo cara a una de las preguntas y cruz a
la otra, responda a la que corresponda. Una de las preguntas es la pregunta
conflictiva que se desea conocer, mientras que la otra es una pregunta inocua.
Este modo de proceder no permite conocer la respuesta individualmente, pero
deja la posibilidad de realizar una estimación de respuestas positivas a preguntas
delicadas, basado en la probabilidad para emitir las respuestas. Consideremos
como ejemplo la siguiente pregunta:

A continuación le vamos a plantear dos preguntas. Ud. debe asociar una de las
preguntas a la cara de la moneda y otra a la cruz, sin indicárselo al
entrevistador. Después, lance la moneda al aire y responda a la pregunta
correspondiente, sin decir a cual de las dos ha contestado:

A) ¿Ha estado usted encarcelado?


B) ¿El número de su vivienda acaba en dos?
Respuesta: Sí _____ No _______
Haciendo uso de la fórmula de Bayes, podemos conocer el porcentaje de
respuestas afirmativas. Supongamos que hemos entrevistado a 320 personas,
obteniendo 62 respuestas afirmativas. La probabilidad de responder a una u otra
cuestión se conoce y es de 0,5, ya que la probabilidad de obtener cara en una
moneda es de 0,5. Por otra parte, la respuesta inocua debe tener también una
probabilidad conocida, en este caso 1/10, ya que son 10 las posibles
terminaciones de la numeración, todas con igual probabilidad (otras
posibilidades de plantear la respuesta inocua pueden ser la terminación de su
DNI, el mes de nacimiento (1/12), etc.

En la tabla siguiente se presenta la forma de proceder para estimar el porcentaje


de respuestas afirmativas.

Tamaño de la Probabilidad
PREGUNTA Respuestas
muestra a priori de Sí
Responde a A
160 ¿? X
Responde a B
160 1/10
Total
320 62

La proporción de respuestas positivas a la cuestión planteada la podremos


estimar mediante la siguiente fórmula:

P ( )
sí =
( )
P(sí ) − P(B ) ⋅ P sí
B
A P ( A)
dónde P(sí) es la probabilidad de dar una respuesta afirmativa. Este dato se
conoce ya, pues 62 encuestados de los 320 han respondido afirmativamente, lo
que hace una probabilidad de 0,19375. La probabilidad de responder a la opción
B es 0,5, al igual que responder A; la probabilidad de dar una respuesta
afirmativa a B es 1/10=0.1. Por tanto, la probabilidad que buscamos será:

( A ) = 0,193750,−50, 5 ⋅ 0,1 = 0, 2875


P sí

Esto quiere decir que podemos estimar que un 28 % de los encuestados han
estado en prisión. Evidentemente, es una estimación, y tiene como inconveniente
añadido que no permite cruzar esta información con otras obtenidas en el
cuestionario, lo que imposibilita identificar el perfil de aquellos que han
respondido afirmativamente a la pregunta delicada. No obstante, es más
apropiado que plantear la pregunta directa ¿Ha estado usted encarcelado?, ya
que es dudoso que se hubieran primando sólo la parte positiva obtenido
respuestas veraces.

4.2.2.- Preguntas según la información obtenida: Preguntas Abiertas

Son aquellas que dejan en total libertad al encuestado para responder lo que estime
pertinente. El entrevistador se limita a reproducir con la mayor precisión la respuesta
dada por el entrevistado. Son especialmente útiles en las primeras fases de una
investigación, cuando aún no se tienen muy claras las posibles opciones de respuesta. Es
también recomendable su uso cuando se entrevista a personas que puedan aportar una
información rica en matices.

Otra situación dónde resulta conveniente es en el caso que sea inadecuado listar todas
las posibles opciones. Por ejemplo, es más fácil dejar abierta una pregunta como
profesión que realizar una lista exhaustiva que las incluya todas. También resultan las
más idóneas cuando se quiere obtener una respuesta numérica, exacta, como por
ejemplo la edad. Dillon y cols. (1994) señalan estas otras razones para su uso:

• Para corroborar los resultados de un estudio cuantitativo.


• Para obtener comparaciones directas y áreas más específicas de preferencia o
rechazo cuando dos o más estímulos forman el test
• Se puede usar para determinar si un vehículo de comunicación está de acuerdo a
sus objetivos.
• Sirve para determinar las reacciones afectivas o los sentimientos del encuestado
como resultado de la pregunta formulada.

Además utilizaremos preguntas abiertas en estas otras situaciones:

• Cuestiones introductorias. Tienen como principal utilidad fundamentar la


realización posterior de preguntas más específicas.
• Para la obtención de argumentos. Con la finalidad de emplear tales argumentos
en preguntas posteriores.
• Como tests de conocimientos o de memoria. Se suelen usar para clasificar a los
entrevistados según el nivel de información de que disponen.
• Para obtener informaciones necesarias para el estudio de la encuesta. Se tratará
de recabar información difícil de obtener mediante preguntas cerradas.

Las preguntas abiertas tienen una serie de ventajas:

- Las respuestas que se obtienen son más variadas y más ricas.


- Permiten interpretar otras cuestiones.
- Son cómodas para los entrevistados: son útiles para aportar un clima adecuado
en la entrevista, situándolas al principio de la misma, de tal forma que permitan
al encuestado dar sus opiniones sin trabas.
- Permite descubrir nuevas opiniones que no habían sido tenidas en cuenta por el
investigador.
- Evita que las respuestas aportadas por el investigador vengan sesgadas por una
hipótesis de trabajo errónea.
- Su formulación es más sencilla que la de las preguntas cerradas y ocupan menos
espacio en el cuestionario.
- Las respuestas reflejan la verdadera opinión de los entrevistados. Son poco
influenciables.
- Ayuda a descargar los sentimientos negativos de los entrevistados.

No obstante, las preguntas abiertas presentan importantes inconvenientes.


- Dificultad de codificar las respuestas obtenidas (más adelante se describirá su
proceso de codificación).
- Es tedioso y complicado el registro de las respuestas. Además, se corre el riesgo
de que el entrevistador sesgue la respuesta al transcribirla.
- Son inadecuadas para personas con poca capacidad verbal, ya que requiere una
cierta riqueza verbal por parte de los encuestados.
- Se corre el riesgo de que el entrevistado responda en una línea que tenga poco o
nada que ver con lo que el investigador pretende estudiar.
- No es conveniente su uso en cuestionarios autoadministrados, ya que la mayoría
de los encuestados no suelen aportar respuestas muy elaboradas.
- Se corre el riesgo de muestre más la capacidad de responder del encuestado que
su conocimiento del tema.
- No consiguen uniformidad en las respuestas.
- No recoge de forma estricta las respuestas.
- No usan las mismas palabras para expresar las mismas ideas.

4.2.2.- Preguntas según la información obtenida: Preguntas Cerradas

Fuerzan al encuestado a optar entre un conjunto de alternativas. Estas opciones vienen


dadas en el cuestionario. Requieren, por tanto, que el investigador tenga una
información clara y precisa de las distintas alternativas que puede provocar la respuesta.
Las diversas categorías de respuesta deben ser exhaustivas, de forma que no se omita
ningún aspecto relevante, excluyentes y precisas, en el sentido que permitan realizar el
mayor número de distinciones posibles (Cea, 1996). Pueden ser:
• Cuestiones de dos vías. También llamadas dicotomías, son del tipo SI/NO,
Acuerdo/Desacuerdo, A Favor/En Contra, y tienen como característica
fundamental que discriminan exactamente la posición del sujeto. Sin embargo,
no permiten matizar o cualificar las respuestas con lo que en muchas ocasiones
se perderá bastante información. Además hay que decir que en la mayoría de las
ocasiones estas cuestiones pueden ser realmente de tres vías, si se contempla el
caso No sabe/No contesta.

• Cuestiones de elección simple. El encuestado seleccionará una opción entre un


número limitado. Se caracterizan como las anteriores por ser de fácil
codificación y tratamiento informático. Un ejemplo de éstas son las referidas a
establecer grados de intensidad sobre cierta característica (Mucho-Bastante-
Regular-Poco-Nada). Otras se refieren a la elección pura sobre una cuestión: p.e.
Marque, entre los siguientes, el deporte que practica con más frecuencia:
Fútbol
Tenis
Baloncesto
Atletismo

Como en el caso anterior, es muy común que el conjunto de respuestas no


complete el total de las mismas, por lo que se suele incluir una categoría “Otro.
Especifique cuál __________”, lo que convierte a la cuestión en un tipo mixto
conocido como semicerrado.
• Cuestiones de elección múltiple. En éstas el encuestado puede seleccionar más
de una opción entre un número limitado. Obviamente no son aplicables para
establecer grados de intensidad, ya que éstos han de ser excluyentes. Siguiendo
el ejemplo anterior, podríamos formular la pregunta como sigue: Marque, entre
los siguientes, los deportes que practica:
Fútbol
Tenis
Baloncesto
Atletismo

También en este tipo de cuestiones se suele incluir la categoría “Otro.


Especifique cuál __________”. Tienen como ventaja que aportan más
información que las cuestiones de elección simple, pero son de mayor dificultad
de codificación y tratamiento informático.

En general son varias las ventajas de las preguntas de respuestas cerradas:

- Facilidad tanto en el registro como en la tabulación de las respuestas debido


a la uniformidad de las mismas. Permite una cumplimentación más rápida
del cuestionario y una mayor facilidad en el vertido de los datos a un soporte
informático.
- Eliminación de la posible tendenciosidad o subjetividad del entrevistador, así
como de los posibles errores en la transcripción de las respuestas.
- Es especialmente adecuado para cuestionarios autoadministrados o para
aquellos que han de responderse con rapidez: encuestas postales o
telefónicas.
- Permite centrar las respuestas del encuestado sólo a los aspectos que sean
relevantes para la investigación en curso.
- Permite la comparación de las respuestas y elimina la ambigüedad.
- El número limitado de respuestas posibles da cierta concentración de
repuestas.
- Es relativamente fácil su tratamiento estadístico.
- Son beneficiosas para los procedimientos de codificación y necesarias en los
de depuración e imputación.
- Disminuyen el tiempo de la entrevista.
- Los entrevistadores anotan homogéneamente.

No obstante, las preguntas cerradas no se hallan libres de problemas. En general, tienen


como inconvenientes las ventajas que ofrecen las cuestiones abiertas. Algunos de los
más importantes son:

- Pueden forzar artificialmente las respuestas, no reflejando de forma adecuada la


forma de pensar del encuestado, lo que produciría obtener una información
inexacta.
- El diseño de una respuesta cerrada es más laborioso que el de la pregunta
abierta. El investigador debe hacer un esfuerzo mayor para asegurar que las
alternativas de respuesta se entenderán y que quedarán incluidas todas las
posibles categorías.
- No están libres de ambigüedades, ya que es posible que se den interpretaciones
diversas a una misma opción de respuesta
La utilización de preguntas cerradas presenta más ventajas que las abiertas, lo que hace
que sea preferible su uso en general. La elección de un tipo u otro de preguntas
dependerá de diversas cuestiones (Cea, 1996):

1. El tiempo y los recursos que el investigador quiera o pueda dedicar a la


codificación de respuestas.
2. El grado de exactitud que se quiera obtener con las respuestas.
3. El conocimiento previo del tema de investigación.

En general, los ítems con respuestas abiertas parecen más adecuados para las primeras
etapas de una investigación, con objeto de poder apresar las diversas categorías de
respuesta. Sin embargo, la redacción final del cuestionario deberá incluir la mayoría de
las preguntas cerradas, en ocasiones con una última opción de respuesta abierta.

Gallup propone una serie de consejos en cuanto a la composición de un cuestionario en


términos de preguntas abiertas y cerradas:
• Cuestiones filtros o discriminantes, relativas al conocimiento sobre la materia
objento de la encuesta. Estas podrían articularse mediante cuestiones abiertas o
bien de elecciones múltiples.
• Una o varias preguntas abiertas sobre la actitud inicial de los entrevistados frente
al tema que se trate en la encuesta.
• Un grupo de cuestiones cerradas de tipo dicotómico o de vías múltiples, para
medir la reacción de los entrevistados frente a propuestas concretas.
• Cuestiones abiertas sobre las razones de dichas actitudes.
• Cuestiones cerradas de vías múltiples sobre la intensidad de estas opiniones

4.3.- Precodificación
Debido a los grandes volúmenes de información que pueden ser manejados durante el
desarrollo de una investigación mediante encuestas, se hace ineludible una fase previa a
la grabación de los datos. Nos referimos a la fase de codificación que consiste en la
asignación de claves o códigos que faciliten el tratamiento de los datos.

La precodificación es el paso previo a la codificación misma, que se suele llevar a cabo


en la fase de diseño y creación del cuestionario. Se trata de incorporar las claves
iniciales a las preguntas propuestas en el cuestionario, de acuerdo a ciertas
recomendaciones. La adecuación de dichas claves redundará en un mejor tratamiento de
los datos y hará posible localizar con más facilidad ciertos errores.

Es evidente que este proceso se refiere a las cuestiones cerradas, ya que las preguntas
abiertas solo se codificarán una vez que se hayan obtenidos las respuestas de los
encuestados. El siguiente esquema muestra el proceso de codificación en su totalidad:
Revisar respuestas a Asignar claves a
preguntas cerradas preguntas cerradas

Iniciar captura
Definir claves para
cada pregunta
cerrada del Integrar el catálogo
cuestionario vacío. de claves
Revisar respuestas a Integrar por Asignar claves a
preguntas abiertas separado claves preguntas abiertas
para preguntas
abiertas

Procedimiento para la codificación.

Volviendo al caso previo en la definición del cuestionario, tendremos presentes las


siguientes recomendaciones para la precodificación:

• Precodificación de cuestiones de dos vías y de elección simple: se creará una


variable numérica cuyos valores serán números naturales para cada una de las
categorías presentes en la pregunta. Por ejemplo, Sí (1) No (2). En el caso de
incluir la categoría No sabe/No contesta, le asignaremos el código siguiente a los
asignados a las respuestas propias de la pregunta: en el ejemplo, código (3). Si
sólo necesitamos un dígito para asignar códigos, reservaremos los códigos
finales 8 y 9 para los valores perdidos por el sistema y perdidos por el usuario
respectivamente. En el caso de que incluyamos la opción “Otro. Indique cuál
______”, crearemos una nueva variable, categórica en este caso, que

Intentaremos clarificar el procedimiento con el siguiente ejemplo, teniendo a la


derecha de la opción su código:

Marque, entre los siguientes, el deporte que practica con más frecuencia:
Fútbol (1)
Tenis (2)
Baloncesto (3)
Atletismo (4)
Otro. Indique cuál_____________________________ (5)

Adicionalmente

Valor perdido (en blanco) (8)


Valor perdido por el sistema (9)

+ Una variable adicional categórica si se marca “Otro” en esta pregunta.


El aspecto que tendrá la hoja de datos asociada a las respuestas obtenidas será:

Entrevistado Deporte Deporte_si_otro


1 2
2 5 Natación
... ... ...
N 3

• Precodificación de cuestiones de elección múltiple: asignaremos códigos


numéricos a cada una de las opciones de la pregunta (normalmente SI-NO, y por
tanto, 1-2), por lo que se creará una variable para cada opción. De esta forma se
obtiene una matriz e datos para cada pregunta. Ilustraremos lo dicho
anteriormente considerando la siguiente pregunta:

Marque, entre los siguientes, los deportes que practica:


Fútbol
Tenis
Baloncesto
Atletismo
Otro. Indique cuál_____________________________

El aspecto que tendrá la hoja de datos asociada a las respuestas obtenidas será (el
código si se marca será 1 y si no se marca 2):

Entrevistado Fútbol Tenis Balonc. Atlet. Otro Deporte_si_otro


1 1 2 1 2 2
2 1 1 2 2 1 Natación
... ... ...
N 2 2 2 1 2

En los dos casos anteriores, al asignar claves numéricas, se recomienda ser


consistentes su uso, es decir, si por ejemplo se usa el 1 y el 2 en preguntas
dicotómicas (Sí o No), es conveniente usar siempre (en todas las preguntas con
respuestas iguales) el 1 para el Sí y el 2 para el No, o al revés.

• Precodificación de cuestiones abiertas: no trata de dar un procedimiento


formal sino una estrategia para facilitar los futuros procesos de codificación. El
proceso sería el siguiente: se transcriben literalmente las respuestas de un
número suficiente de cuestionarios, obtenidos mediante una encuesta piloto. A
continuación se analiza el contenido y se anotan las categorías, conceptos o
términos que son comunes a varias respuestas. Cuando ya no aparecen nuevas
respuestas que precisen más categorías se cierra el proceso.

Una vez realizada esta precodificación, en el proceso de toma de datos el


entrevistador se limitará a hacer la pregunta al encuestado, sin indicarle las
respuestas, aunque tratará de ajustar la respuesta obtenida a las alternativas
precodificadas existentes. Queda un espacio en blanco por si la respuesta no se
ajusta a las existentes.
Finalmente, aunque ha quedado implícito, diremos que hemos de reservar al menos una
variable de la hoja de datos para cada una de las preguntas formuladas.

5.- Realización de Pretest


Una vez estructurado y diseñado el cuestionario con la base de las reglas anteriores, es
conveniente contrastar el buen funcionamiento de tal diseño en una submuestra
pequeña, con el objeto de evitar posibles anomalías en la aplicación general del
cuestionario. Estas anomalías pueden detectarse de forma rápida observando por
ejemplo la proporción de preguntas contestadas como “no sabe - no contesta”, la
proporción de preguntas contestadas en blanco, o el número de preguntas que,
disponiendo de más de cuatro categorías, son contestadas exclusivamente en sus
categorías extremas.

En total estas proporciones no deben superar el 10 % del total del cuestionario, en caso
contrario se impondrá una revisión del mismo y una reformulación de las preguntas.
Con las nueva reformulación se pasará otro pretest a otra submuestra para asegurar que
se han corregido los errores anteriores. En cualquier caso, hay que hacer notar que es
muy raro que un cuestionario no se modifique al realizar el pretest, por lo que esta fase
debe considerarse no como un acto único, sino como un procedimiento multietápico.

El estudio piloto es de vital importancia para el desarrollo de la encuesta. Cumple varios


objetivos, en aspectos diversos de la investigación:

• De cara a la muestra a utilizar, permite comprobar la idoneidad de la misma en


función de los objetivos de la investigación. Se puede también estudiar la
variabilidad de la muestra, con lo que ello supone en la determinación de la
exactitud de los datos recogidos.
• En cuanto al trabajo de campo, sirve como entrenamiento a los entrevistadores y
permite calcular costes.
• Sirve para calcular algunos índices estadísticos imprescindibles para la
determinación del tamaño muestral necesario.
• Ayuda a estimar el porcentaje de “no respuesta” que puede darse.

En lo que se refiera al cuestionario, el estudio piloto cubre diversos objetivos:

• Permite comprobar si las preguntas tienen sentido y provocan las respuestas que
se espera obtener.
• Se puede observar si la categorización de las preguntas cerradas y su
codificación es correcta.
• Permite establecer las categorías de respuesta de las preguntas abiertas, con lo
que se convierten en preguntas cerradas en la elaboración definitiva.
• Se puede comprobar si se comprenden bien las instrucciones y si la duración del
cuestionario no cansa al encuestado.
• Ayuda a depurar el cuestionario, ya que permite eliminar ambigüedades,
preguntas superfluas, así como incluir otras que parezcan relevantes o modificar
el flujo de preguntas.
• Permite saber si el cuestionario funciona como se esperaba. Las siguientes
variables sirven como diagnóstico: número de negativas a responder, alto
número de “no sabe/ no contesta” o alto porcentaje de respuestas en blanco.

En suma, el pretest del cuestionario ofrece una información muy valiosa, ya que permite
depurar el instrumento para que la investigación logre sus objetivos. Otras ventajas del
pretest son:
• Se puede comprobar la reacción que el cuestionario produce en los encuestados,
permitiendo así determinar si se establece la relación deseada.
• Permite ensayar diversas formas de preguntar sobre un tema de interés.
• Se puede detectar los posibles efectos debidos al orden de las preguntas.
• Esto puede hacerse incluyendo ordenamientos alternativos tanto en la
presentación de las preguntas como en las distintas categorías de respuesta,
comparando luego los resultados obtenidos.

Tras realizar el estudio piloto, se revisan los resultados para comprobar que es
concordante con los objetivos previstos. La información que se obtiene es fundamental
de cara a asegurar una investigación con las garantías de calidad necesarias. Sin
embargo, Weiers (1986) alerta contra estudios piloto que requieran demasiado tiempo o
esfuerzo, pues el objetivo de la investigación por encuesta no es realizar un cuestionario
perfecto, sino estudiar una muestra extraída de una población. Además, pese a su
importancia, conviene no considerar el estudio piloto como un sustituto de una
redacción cuidadosa del cuestionario. Parasuraman (1986) afirma que el investigador
debe intentar extraer la información sobre las preguntas más dudosas de forma más
clara, sin esperar que sean los sujetos del estudio piloto los que detecten los problemas
del cuestionario.

6.- Sesgos en la Elaboración del Cuestionario


A lo largo del tema hemos ido mencionando los posibles errores que se pueden cometer
en el cuestionario y cómo esto redunda en la información obtenida. Dado que la
existencia de tales errores compromete de manera fundamental la exactitud de la
información obtenida y, por ende, la bondad de la investigación, parece interesante
recapitular las posibles fuentes de error relativas al cuestionario, esto es, los errores de
respuesta.

Green y Tull (1978) señalan que las fuentes de error de respuesta son de dos tipos. En
primer lugar, la obtención de la información requiere que se formule la pregunta. Este es
un primer nivel de errores potenciales, y tienen que ver con inexactitudes. En segundo
lugar, la información debe ser transmitida, momento en el que se producen errores, en
este caso de ambigüedad.

Los sesgos relacionados con la inexactitud de la respuesta corresponden a la capacidad


del sujeto para responder. Ya hemos hablado de este punto, recomendando al
investigador que se asegure cuando redacta el cuestionario que el encuestado está en
condiciones de emitir la respuesta pedida, esto es, que puede y quiere responder al
mismo. La imposibilidad de responder, como ya dijimos, está producida porque el
encuestado desconoce o ha olvidado la respuesta. Sin embargo, en ocasiones no desea
responder, y esto puede darse por diversas razones:
• Temor a arriesgar su prestigio. Esto se relaciona con la redacción de preguntas
delicadas, con lo que la solución pasa por una redacción conveniente de tales
ítems, como ya se dijo en el apartado dedicado a ello.
• Costo de tiempo. El encuestado puede desear abreviar el tiempo dedicado a la
cumplimentación del cuestionario, dando respuestas breves que, en ocasiones,
pueden resultar inexactas. Frente a ello, la recomendación es doble: redacción
cuidadosa y precisa, evitando alargar de forma tediosa tanto los ítems como el
total del cuestionario, así como hacer los esfuerzos que parezcan convenientes
para asegurar la motivación del encuestado.
• Deseabilidad social o deseo de dar una imagen acorde con lo que espera el
entrevistador. En tal caso, la adecuada motivación del encuestado y una
presentación donde queden claros los objetivos de la investigación, pueden
evitar este tipo de sesgos.

Por otra parte, la ambigüedad se produce en la recogida de la información y aquí son


también varias las fuentes posibles de error:
• En la redacción del cuestionario: preguntas de comprensión dudosa, preguntas
dobles.
• En el orden de las preguntas o de las categorías de respuesta, produciéndose
problemas de irradiación de respuesta.
• En el diseño del cuestionario, cuando el formato impide un registro adecuado de
la información.
• Sesgos de aprendizaje (Ortega, 1990). En una entrevista, como en cualquier
comunicación entre seres humanos, también se produce aprendizaje, de tal
manera que el entrevistado aprende a responder, por ejemplo, haciendo uso de
los conocimientos que adquirió en una fase previa del cuestionario,
comprometiendo con ello la exactitud de la respuesta. Conviene tener en cuenta
este efecto sobre todo cuando se realizan preguntas tediosas o que requieren
mucho tiempo o mucho esfuerzo al entrevistado.

Hemos dejado de lado los sesgos producidos intencionalmente por el investigador, tales
como la realización de preguntas direccionales, tendentes a obtener la información que
el investigador desea, pues consideramos que estos sesgos se relacionan con la ética y
su análisis tiene cabida, por tanto, en otro apartado. Nuestro interés se centra en la
evitación de cometer errores que lleven a la obtención de información exacta, dando por
supuesto la buena fe del investigador. Como hemos visto a lo largo del tema, los sesgos
posibles son muy variados, por los que el investigador debe estar alerta al respecto, y
poner los medios a su alcance para evitarlos. Estos son dos:
• Una cuidadosa elaboración del cuestionario, teniendo siempre presente las
fuentes de error.
• Estudios pilotos y pretests que ayuden a la realización de la mejor investigación
posible con los medios y los conocimientos de los que se dispone en ese
momento dado.

7.- Software de Diseño de Cuestionarios


Como puede deducirse de los apartados anteriores, el diseño de un cuestionario no es un
trabajo inmediato, si se realiza con el cuidado mínimo exigible para que los resultados
sean aceptables. Hoy en día el uso de ordenadores facilita esta tarea, almacenando el
cuestionario de forma que la información que contiene, sea susceptible de ser usada en
las fases posteriores de la encuesta. Existen diversos programas que permiten describir
el cuestionario en términos de preguntas cerradas. Entre ellos encontramos a un nivel
básico de programa QFAST, y a un nivel más elevado BLAISE, QUANTIME e ISSA,
que son los más conocidos, aunque existen otros específicos para sistemas medios o
grandes como Digital o Hewlett Packard.

Más recientemente, algunas empresas de software estadístico han desarrollado algunas


aplicaciones específicas para el diseño de cuestionarios como es el caso de SPSS con su
módulo Data Entry Builder, si bien lo más usual en la mayor parte de las empresas
dedicadas a tareas de encuestación y en los Institutos Oficiales de Estadística, se tiende
a la creación de programas ad hoc, en lenguajes de programación de alto nivel como
Visual-Basic. Este es el caso del programa QUESTPOT (acrónimo de QUESTionarios
POTenciados) v.1.2, desarrollado por el Grupo de Estadística Computacional del
Dpto.de Estadística e I.O. de la Universidad de Granada, y que ha sido utilizado por el
Instituto de Estadística de Andalucía y por el Centro Andaluz de Prospectiva para la
elaboración de diversas encuestas oficiales.

La ventaja en el uso de estos programas estriba obviamente en la facilidad de adquisión


y gestión de datos de los cuestionarios, como se pondrá de manifiesto en el epigrafe
dedicado a los sistemas CAPI-CATI. No obstante, de forma somera, enumeramos
algunas de las utilidades de estos programas:
• Permiten incluir de controles de validación, de forma que su incumplimiento
obligue a no grabar, hasta su corrección, los cuestionarios afectados.
• Permiten incluir controles de rango de cada campo, en los campos cerrados con
los valores explícitos en el cuestionario y en los abiertos con los determinados
en el libro de códigos.
• Automatizan el proceso de grabación de los datos, evitando errores de confusión
de campos.
• Respetan el flujo del cuestionario, de forma que el salto a cierto lugar del
cuestionario si se contesta de cierto modo a una pregunta, está garantizado.
• Permite incorporar información adicional que permita interpretar ciertas
preguntas.

En un tema posterior, se describe el programa SPSS Data Entry v4.0, de gran difusión
en la gestión de cuestionarios.
Tema 3: Escalas de Medida. Validación
de Cuestionarios
1.- Introducción. Escalas Básicas
El cuestionario, como hemos dicho, es un instrumento diseñado para recabar
información. Hemos desarrollado en los apartados anteriores diversos aspectos de su
elaboración. En este tema trataremos los procedimientos para medir o cuantificar las
respuestas obtenidas en una encuesta. El objetivo último de la medida es poder
distinguir hasta qué punto un individuo posee una característica determinada.
Dependiendo de la variable que esté siendo medida, los números que se le asignen
tendrán propiedades diferentes.

Babbie (1996) distingue entre inventario y escala en la forma en que se asignan las
puntuaciones. Ambos procedimientos suponen instrumentos eficientes para la reducción
de datos. Dicho de otra manera, cuando una variable precisa más de un ítem para su
medición, realiza medidas compuestas, inventarios o escalas. Para dicho autor, un
inventario se construye acumulando las puntuaciones que se asignan a atributos
individuales, mientras que una escala asigna puntuaciones a patrones de respuesta,
teniendo en cuenta la intensidad.

Muchos son los autores que han definido lo que es medición, como por ejemplo:
• Para Campbell (1928) es una asignación de números para representar
propiedades de sistemas materiales no numéricos, en virtud de leyes que
gobiernan esas propiedades.
• Para Stevens (1951, pág. 1) es una 'asignación de números a objetos o eventos
según ciertas reglas’.
• Para Torgerson (1958, pág. 15) consiste en asignar números a sistemas que
representan la propiedad objeto de medición.
• Scott y Suppes (1958) lo definen como una asignación de números a objetos de
modo que las relaciones reciban una interpretación numérica, exacta y
razonable.
• Lord y Novick (1968, pág. 16) lo definen como un procedimiento para asignar
números a propiedades específicas de unidades experimentales de forma que
caracteriza y preserva las relaciones específicas en el dominio conductual.

En resumen, medir es cuantificar observaciones empíricas, consiste en definir el


conjunto de números o valores posibles (sistema numérico) que se pueden asignar a un
conjunto de objetos (sistema empírico) y en establecer la regla de asignación que hace
corresponder sistema empírico y numérico.

1.1.- Clasificación de Stevens


El objetivo último de una investigación social, comercial o e cualquier otra índole, que
se apoye en el uso de cuestionarios es la medida de una serie de variables de interés para
el investigador. En la inmensa mayoría de las ocasiones las variables de interés se
medirán mediante escalas.
Es bien conocida la clasificación de Stevens (1951) entre escalas nominales, ordinales,
de intervalo y de razón. La escala nominal sólo precisa la relación clara entre
acontecimientos y categorías, ya que sólo sirven para nombrarlas o diferenciarlas. Las
escalas ordinales permiten establecer relaciones de orden. En las escalas de intervalo
hay equidistancia entre los valores consecutivos de la escala. Por último, la escala de
razón exige la existencia de un cero absoluto, permitiendo basado en ello, la
comparación entre razones. Más precisamente:

• Escala Nominal: es el nivel elemental de medida. Este tipo de escala consiste


en clasificar en categorías a las personas, empresas, marcas, es decir, a los
elementos que se estén estudiando o que son objeto de medida. Posteriormente,
se asigna un número a cada una de las categorías y se considera que todos los
elementos a los que se ha asignado el mismo número son cualitativamente
idénticos en la variable de medida. Con las escalas nominales sólo se puede
saber si un elemento es igual o distinto a otros elementos de la muestra. Las
categorías tienen que cumplir dos requisitos para que estén bien diseñadas:
o Que sean exhaustivas: esto significa que no puede haber ningún
elemento que quede sin clasificar en alguna de las categorías que se han
fijado.
o Que sean mútuamente excluyentes: lo que significa que sólo se puede
estar en una y sólo una de las categorías.

Las escalas nominales son, especialmente, útiles en el caso de las variables


cualitativas, funcionando los números asignados únicamente como etiquetas
identificativas. Algunos ejemplos de variables cualitativas a las que se podría
aplicar esta escala son las siguientes: profesión, nivel de estudios, sexo, edad,
ingresos, comunidad autónoma del que procede el encuestado, estado civil, si
una persona conoce o no una determinada marca, etc.

• Escala Ordinal: Este tipo de escala consiste en asignar a los elementos medidos
un número que permita ordenarlos según la cantidad de variable que poseen
desde el punto de vista del encuestado. Las escalas ordinales son útiles
principalmente para variables cualitativas y aquí los números permiten afirmar si
la cantidad de variable que posee un elemento es mayor o menor que la de otro,
pero no dice cuanto mayor o cuanto menor, además de saber si un elemento es
igual o distinto a otros elementos de la muestra.

Un ejemplo típico es el de indicar el orden de preferencia de las marcas, la


ordenación de las asignaturas de un curso por dificultad, por interés del alumno,
de unos productos, etc. Con los números se va a poder decir que una marca es
más o menos preferible a otra, pero no cuanto más o menos preferida. Otro
ejemplo son los rankings de preferencia.

• Escalas de Intervalo: Las escalas de intervalo consisten en definir una unidad


de medida y después asignar a cada elemento medido un número indicativo de la
cantidad de variable que posee según la unidad de medida establecida. En las
escalas de intervalo no existe el cero absoluto de forma que la diferencia entre
los elementos no son constantes. Esta escala se utiliza para medir el grado de
satisfacción y el grado de acuerdo o desacuerdo con unas determinadas
afirmaciones. Este tipo de escala es adecuada para variables cuantitativas y se
utiliza en gran medida para la evaluación de actitudes. En esta escala los
números permiten afirmar si un elemento es igual o distinto a otros elementos de
la muestra, si la cantidad de variable que posee un elemento es mayor o menor
que la de otro, pero en este caso si nos dice cuanto mayor o cuanto menor.

• Escalas de Razón: son las escalas de intervalos en las que existe propiamente
un cero absoluto, es decir, la ausencia total de cantidad de variable. Este tipo de
escalas están indicadas para variables cuantitativas. En esta escala los números
permiten afirmar si un elemento es igual o distinto a otros elementos de la
muestra, si la cantidad de variable que posee un elemento es mayor o menor que
la de otro, pudiendo decir cuanto mayor o cuanto menor. La diferencia entre los
elementos medidos son constantes y, además, se puede afirmar si la cantidad de
uno es el doble, el triple, etc. que la cantidad de otro elemento. Algunos
ejemplos de elementos a los que se podría aplicar escalas de razón son: los
ingresos, la edad, los volúmenes de venta, etc.

La información sobre una misma variable se podría obtener mediante cualquiera de las
cuatro escalas vistas, si bien unas serán más adecuadas para algunos casos que para
otros. Por su parte, la escala de medida determina qué tipo de análisis estadísticos son
los apropiados.

1.2.- Otras escalas. Escalas comparativas


Aparte de las escalas básicas, existe una gran diversidad de escalas que se usan
fundamentalmente en las Ciencias Sociales y del Comportamiento, que describimos a
continuación clasificándolas en escalas comparativas y no comparativas (Barbero,
1993; Dillon y cols., 1994; Miquel y cols., 1996).

En las escalas comparativas, se pide al sujeto que compare un conjunto de estímulos con
un punto de referencia dado. Un ejemplo de escala comparativa es la escala de
Guttman: en ella, se aporta un patrón ideal, suponiendo que el que responde al nivel
superior también ha respondido a los anteriores. Por su parte, las escalas no
comparativas no se basan en la contrastación de los estímulos presentados. El sujeto
asigna la puntuación que considera más adecuada. Varios son los procedimientos en la
elaboración de escalas no comparativas. Los más relevantes son las escalas Likert, el
diferencial semántico y la escala Thurstone.

Como decimos, en las escalas comparativas se pide al entrevistado que compare objetos
respecto de uno o varios estímulos ( por ejemplo compara marcas de coches respecto a
ciertas características como diseño deportivo, fiabilidad, seguridad, etc.) Los resultados
son de tipo nominal u ordinal, por lo que en ocasiones se les denomina escalas no
métricas. Algunos tipos de estas escalas son:

• Escalas de comparación por pares: En ésta el entrevistado ha de comparar dos


objetos de acuerdo a alguna característica, obteniéndose en una primera
instancia un orden en los objetos. Como ejemplo se dan los datos de la
comparación por pares de cuatro marcas de coches en cuanto a su acabado. La
tabla siguiente muestra el número de individuos de entre 20 que prefieren el
primer coche al segundo del par mostrado.


C1 C2 C3 C4 SUMA NIVEL

C1 - 4 3 1 8 4
C2 16 - 16 2 34 2
C3 17 4 - 5 26 3
C4 19 18 15 - 52 1

A la vista de los datos podemos concluir que se prefiere e coche C4 sobre los
demás, a continuación el C2, etc. Por otra parte, es notorio que la suma total de
puntuaciones es de 120 ( =20×(4×3)/2, siendo n=4 el número de objetos a
comparar), lo que quiere decir que en este tipo de escalas es conveniente no
incluir demasiados objetos a comparar. Por ejemplo con n=10 se tendrían 45
comparaciones por individuo, que en la mayoría de las ocasiones provocará
cansancio o rechazo a la respuesta.

• Escalas de orden: En éstas se le pide a los individuos que ordenen el conjunto


de objetos de acuerdo a una cierta característica. Siguiendo con ejemplo anterior,
supóngase que los 20 individuos dan los siguientes órdenes de los coches con
respecto a la característica “seguridad”.

Marca
C1 C2 C3 C4
Individuo
1 1 4 2 3
2 1 3 2 4
3 2 3 1 4
4 1 4 3 2
5 3 1 2 4
6 1 4 3 2
7 3 4 1 2
8 1 2 3 4
9 3 4 2 1
10 2 4 3 1
11 2 4 1 3
12 2 3 1 4
13 1 3 4 2
14 1 2 4 3
15 1 3 2 4
16 4 2 3 1
17 1 4 3 2
18 1 2 3 4
19 1 4 2 3
20 2 3 1 4
Con base a estos datos, se efectúa un conteo del número de veces que cada
marca aparece en un orden determinado. A continuación se obtiene una
puntuación global para cada marca, la cual se calcula ponderando con mayor
puntuación los órdenes primeros (4) que los segundos (3) y así sucesivamente.
La tabla resultante es:

Marca
C1 C2 C3 C4
Orden
1º 11 1 5 3
2º 5 4 6 5
3º 3 6 7 4
4º 1 9 2 8
Total 60 49 48 31

Por lo que podemos decir que según la segunda característica de ordenación, C1


se prefiere a C2, ésta a C3, y esta última a C4. En cualquier caso, se observa
también que a medida que el número de objetos aumenta, la escala se hace poco
manejable en la práctica.

• Escala de sumas constantes: En esta escala se trata de que los individuos


repartan una cantidad determinada (usualmente 100), entre distintas
características sobre un mismo objeto, de forma que podamos determinar cierta
graduación entre dichas características, de acuerdo a las observaciones para
varios individuos. Consideremos como ejemplo la puntuación otorgada por
cinco responsables de una investigación estadística a ciertas características
deseables de los entrevistadores:

R1 R2 R3 R4 R5 Total

Presencia física 20 10 15 20 25 90
Formación Académica 10 5 10 15 5 45
Formación específica 10 5 10 15 5 45
Dispone vehículo propio 5 15 15 5 15 55
Experiencia 55 65 50 45 50 265

Total 100 100 100 100 100

Por lo que parece que los responsables prefieren la experiencia y la presencia


física.

• Escala de Guttman: Es un modelo para el escalamiento conjunto de sujetos y


estímulos: funciona asignando valores escalares a ambos:
o El modelo se basa en la idea de que si un sujeto responde favorablemente
a un estímulo determinado lo hará también a todos aquellos que estén por
debajo de él en la escala resultante.
o Para la obtención de la escala utiliza el método del escalograma.
o Se obtiene una escala de entrelazamiento. Nivel ordinal.
o Para averiguar el grado de ajuste de unos datos al modelo se suele
utilizar el Coeficiente de Reproductividad o el de Escalabilidad.
o A veces el análisis del escalograma se utiliza como técnica para el
análisis de elementos.
o Se puede emplear para comprobar la unidimensionalidad de los datos.

Los pasos para llevar a cabo el análisis del escalograma son:

1. Establecer una forma para medir la cuantía del error en las distintas
ordenaciones de filas y columnas.
2. Ordenar los datos de manera que se ajusten lo más posible a una escala
perfecta.
3. Ante dos posibles ordenaciones se elige la que proporcione menos
errores.
4. Evaluar el grado de aproximación de los datos empíricos al modelo.
5. Si el coeficiente de reproductividad es menor que 0,90, se considera que
no hay un buen ajuste.
6. Asignación de puntuaciones a los sujetos y a los estímulos.
7. Elaborar la escala definitiva.

1.3.- Escalas no comparativas


En este tipo de escalas no se establecen comparaciones, sino que cada objeto se
clasificará de acuerdo a una graduación que se establecerá. Estas escalas también se
denominan métricas puesto que en dicha graduación se establecerá una medida sobre el
objeto. Las escalas de este tipo más utilizadas en la práctica son:
• Escalas continuas: Para cierta característica de un objeto, se trata de determinar
una posición entre dos extremos antagónicos, que están unidos por una línea.
Por ejemplo, sobre la cuestión ¿Es fiable la marca del coche X?, establecer una
posición en la escala:

Acuerdo Desacuerdo

O bien

Acuerdo

Desacuerdo
• Escalas de ítemes. Estas escalas son muy comunes en la práctica de las
encuestas y se construyen por medio de un número limitado de respuestas, que
se muestran mediante números o palabras, que generalmente marcan cierto
orden o graduación. Por ejemplo:

Acuerdo 1 2 3 4 5 6 7 Desacuerdo

• Escalas multi-ítems. El objeto de estas escalas es la medición simultánea de


varias características sobre un mismo objeto. Como ejemplo podríamos
plantearnos medir el ambiente profesional en el que desenvuelven los
trabajadores de una empresa. Para ello, habremos de medir varias características
simultáneamente como pueden ser: “satisfacción con el trabajo desempeñado”,
“disposición de los medios para el desarrollo del trabajo”, “relación con los
compañeros”, etc. Las escalas multi-ítemes más conocidas son:
o Escala de Likert: Se construye con un conjunto de proposiciones
positivas o negativas en las que los sujetos han de enjuiciar cierta
característica o aspecto de un tema. Para ello han de indicar su grado de
acuerdo o desacuerdo en una escala graduada con 5 a 9 categorías,
siendo lo habitual de 5 a 7. El que el número de categorías sea impar
permite al entrevistado una opción central que se interpreta como
indiferencia, o bien que éste no tome partido. Sobre este tipo de escala
volveremos en el siguiente punto, analizando el procedimiento de
construcción de la misma ya que es una de las más utilizadas en la
práctica.
o Escala de Osgood: También denominada de diferencias semánticas, se
construye primariamente por medio de adjetivos “bipolares”, de forma
que el sujeto seleccione una posición entre unas siete (normalmente entre
5 y 9) que se dejan entre cada polo. Para su confección se suelen atender
las siguientes fases:
ƒ Generar los adjetivos bipolares con sus posiciones intermedias,
teniendo cuidado en que la secuencia de adjetivos no tengan
siempre la misma dirección para no condicionar la respuesta. Por
ejemplo en una investigación sobre el profesorado:

Es No es
--- --- --- --- --- --- --- -
puntual puntual
Es
No es
cordial
--- --- --- --- --- --- --- cordial en
en el
el trato
trato
No
fomenta Fomenta
--- --- --- --- --- --- ---
la la crítica
crítica
Atiende Atiende
a pocas --- --- --- --- --- --- --- todas las
dudas dudas

ƒ A continuación los individuos marcarán una posición en la escala


según su parecer.
ƒ Puesto que todas las posiciones centrales tienen carácter neutro,
se irán eliminando del conjunto aquellos ítemes que tengan un
número de puntuaciones centrales muy elevado. También se
eliminarán los que tengan una correlación muy baja con el resto.
ƒ Si se establece la escala para la comparación de varios sujetos se
pueden establecer “perfiles” entre éstos, de acuerdo con el
siguiente ejemplo:
Es No es
-A- --- --- --- --- -B- ---
puntual puntual
Es No es
cordial cordial
--- -B- --- --- --- -A- ---
en el en el
trato trato
No
fomenta Fomenta
--- -A- --- --- -B- --- ---
la la crítica
crítica
Atiende Atiende
a pocas -B- --- --- --- --- -A- --- todas las
dudas dudas

Según el ejemplo, aunque el profesor A atiende las dudas y es puntual, es


menos cordial en el trato que el profesor B. Por otra parte, atendiendo a
las puntuaciones en las que el polo negativo es (-3) y el positivo (+3),
tenemos:
Profesor A: (+3) + (-2) + (-2) + (+2) = 1
Profesor B: (-2) + (+2) + (+1) + (-3) = -2

o Escala de Stapel: Es parecida a las anteriores, salvo que las escalas se


expresan con números y se suelen establecer 10 categorías en vez de 7 lo
que hace que el individuo tome partido por la opción positiva o negativa.
Por otra parte, la escala se construye sólo con un adjetivo y no con una
frase bipolar. Siguiendo con el ejemplo:

-5 -4 -3 -2 -1 Puntualidad +1 +2 +3 +4 +5
e igual con el resto.

3.- Análisis de items


3.1.- Análisis Primarios
Como hemos visto, los ítems son definiciones diversas de una característica que
queremos medir. Es evidente que debemos comprobar que cada ítem mide lo mismo
que los demás, y que por lo tanto es “sumable” en una puntuación total que
supuestamente mide dicha característica.

Básicamente lo que se comprueba es que las puntuaciones obtenidas en los distintos


ítems referentes a una misma característica, tienen una alta correlación entre ellos, y por
tanto se refieren a lo mismo, y si por otra parte, éstos pueden diferenciar a los sujetos, es
decir, si discriminan adecuadamente.

Los procedimientos más utilizados para abordar estos análisis son:


• Contraste de medias en cada ítem de los dos grupos con puntuaciones totales
más altas y más bajas.
• La correlación ítem-total.

Hoy en día la correlación ítem-total es el método más sencillo puesto que se encuentra
ya programada en paquetes informáticos como SPSS. Con ambos métodos se obtendrán
resultados parecidos.

El proceso de análisis de una escala no se ciñe exclusivamente en localizar y eliminar


items con poco poder discriminador. También aborda otros aspectos como la posible
división de la escala en subescalas que miden aspectos diferenciados de la escala
general y de uso e interpretación independientes. Para esto último, se pueden aplicar
otras técnicas, como el análisis factorial, que pueden revelar estructuras subyacentes en
la escala general.

El siguiente diagrama muestra el proceso de análisis de ítems:



1º 3º Análisis
Cálculo de la
Análisis de Escala adicionales:
fiabilidad
ítems provisional -Cualitativos
desechando
(fiabilidad -Cuantitativos
ítems
aceptable) (Análisis
progresivamente
factorial)

5º Nuevas versiones modificadas

6º Versión definitiva

7º Otros análisis posteriores (validez)


A continuación pasamos a describir las técnicas comentadas, haciendo mención de que
en un específico se describirá como se realiza con el programa SPSS.

• Contraste de medias en cada ítem de los dos grupos con puntuaciones


mayores y menores en el total de la escala:
o Ordenamos a los sujetos de mayor a menor, según el total obtenido en
toda la escala, y seleccionamos dos subgrupos: grupo superior, el 25%
con total más alto, y grupo inferior, el 25% con puntuación total más
bajo (el 50% central no se usa en este análisis).
o Calculamos la media y la desviación típica en cada ítem de cada uno de
los dos grupos, superior e inferior.
o Contrastamos las medias de estos dos grupos mediante una t-Student.

Esperaremos de todo este proceso que el 25% superior tenga una media
significativamente más alta en cada ítem que el 25% inferior. Podremos concluir
que los ítems que simultáneamente diferencian a los mismos sujetos están
midiendo lo mismo. Prescindiremos de los ítems que no discriminan (al menos
aquellos con valores desde no significativos), y si son muchos o demasiados los
que discriminan (y esto sucede con frecuencia), podemos quedarnos con los mas
discriminantes.

En la elección definitiva de los ítems pueden intervenir además otros criterios,


pero en cualquier caso debe estar claro su poder discriminatorio que a su vez nos
confirma que los ítems miden básicamente lo mismo.

• Correlación ítem-total: se trata de la correlación de cada ítem con la suma de


todos los demás (o correlación de cada ítem con el total menos el ítem; suele
denominarse correlación ítem- total corregida). Lo que deseamos comprobar es
en que medida el puntuar el puntuar alto en un ítem supone de hecho obtener un
total alto en el resto de la escala en todos los demás ítems.

Estos coeficientes deben de ser al menos estadísticamente significativos (o


distintos de cero en la población). Los ítems con una mayor correlación con el
total (es decir, con la suma de todos los demás) son los que tienen más en común
y por lo tanto podemos pensar que miden lo mismo que los demás. Los ítems
con correlaciones no significativas o muy bajas (p.e. r<0.250) con respecto a las
de otros ítems, los eliminaremos de nuestra escala.

Lo que realmente nos interesa no es la correlación de cada ítem con e total, sino
la correlación de cada ítem con la suma de todos los demás, lo que es bastante
laborioso, a menos que se utilice un programa como SPSS. En el módulo
correspondiente, el programa calcula:

1. La correlación de cada ítem con el total.


2. Se aplica después una formula correctora que convierte esta correlación
ítem-total en la correlación ítem-total en la correlación ítem-total menos
el ítem, que es la que nos interesa, de acuerdo a la expresión:
riT σ t − σ i
ri (T −i ) = , con
σ T + σ i2 − 2riT σ T σ i
2
ri (T −i ) = Correlación entre un ítem y el total menos ese ítem
riT = Correlación ítem-total
σ i y σ T = Desviaciones típicas del ítem y el total

Es importante aplicar esta fórmula correctora sobre todo cuando se trata de


pocos ítems, porque en este caso la correlación ítem-total sobreestima la
correlación ítem-total menos el ítem; si los ítems son muchos la diferencia entre
aplicarla o no aplicarla suele ser muy pequeña.

En la práctica es preferible utilizar este último procedimiento ya que ambos


aportan una información semejante, y éste utiliza toda la información muestral,
además de ser más cómodo (en el supuesto de que se utiliza un programa para su
cálculo).

3.2.- Fiabilidad

Se dice que una medida es fiable cuando está libre de error aleatorio. También se dice
que es fiable cuando al ser aplicada sobre la misma característica en distintos momentos
es capaz de obtener la misma medida. La fiabilidad es una característica necesaria pero
no suficiente para que una medida sea válida, es decir, una medida puede ser fiable pero
no válida.

En la comprobación de la fiabilidad de la escala vamos a fijarnos en cuatro puntos de


importancia desigual, siendo los más importantes los dos primeros:
1. Búsqueda de una fiabilidad óptima eliminando los peores ítems (esto va a ser
lo más importante).
2. Valoraciones sobre la magnitud del coeficiente de fiabilidad.
3. Estimaciones de la fiabilidad modificando el número de ítems (normalmente
redactando nuevos ítems)
4. Fiabilidad y número de respuestas.

Para evaluar la fiabilidad hay distintos métodos:

• Técnica de Test-Retest o de Pruebas Repetidas. Se trata de analizar la medida de


la escala aplicada en momentos diferentes:

MOMENTO1 MOMENTO2
Item1 Item1
Item2 Item2
Item3 Item3
. .
. .
. .
Item n ítem n
Dentro de la encuesta se selecciona un grupo al cual se le pasa dos veces la
encuesta. En este tipo de en hay un problema de aprendizaje, como
recomendación se requiere un tiempo de tres semanas.

• Consistencia Interna. Se trata de determinar si en conjunto los items se refieren a


la misma cuestión. Para ello se utiliza el coeficiente α de Cronbach (si se trata de
datos dicotómicos es equivalente al coeficiente KR20 de Kuder-Richardson). El
coeficiente se define como:
⎛ k ⎞
K ⎜
⎜ ∑σ i
2

⎟ , con
α= 1− i =1

K −1⎜ k k ⎟
⎜⎜ ∑ σ i + 2 ∑ σ ij ⎟⎟
2

⎝ i =1 i, j ⎠

K = número de ítems

∑σ i
2
= suma de las varianzas de todos los ítems

σ t2 = varianza del las puntuaciones totales

El coeficiente debe tomar valores mayores de 0,6 (o 0,8 para escalas ya usadas
en la práctica, y adaptadas a nuevos estudios) para escalas con un número bajo
de ítems. A continuación calcularemos el coeficiente eliminando cada uno de los
ítems de la escala, para observar como se modifica el valor α global. Si el valor
aumenta ostensiblemente eliminando algún valor, procederíamos a quitarlo de la
escala.

Hay que tener en cuenta que el coeficiente depende del número de ítems, de tal
forma que será artificialmente mayor cuanto mayor sea el número de ítems, por
lo que habrá que usarlo con cautela en estos casos. En definitiva, el proceso para
evaluar la consistencia interna de la escala, será:
1. Calcular el coeficiente de α inicial con todos los ítems.
2. Eliminar los peores ítems y volver a calcular α . Repetir el proceso hasta
quedarnos con el conjunto de los ítems que nos dan mayor fiabilidad.
3. Si al eliminar ítems baja el valor α, damos por terminado el trabajo. Al
final nos quedaremos con el conjunto de ítems que forme una escala con
una consistencia interna óptima.

Como resumen, un coeficiente razonablemente alto de fiabilidad es una


condición necesaria pero no suficiente para afirmar que la escala construida
mide un único rasgo bien definido (unidimensionalidad de la escala). En un
apartado posterior usaremos otras técnicas para estudiar la unidimensionalidad
de las escalas.

3.3.- Validez
Un instrumento de medida se dice válido cuando mide lo que debe medir. La validez
está relacionada con el error sistemático en el sentido de que a menor error sistemático
más válida es la medida. No obstante hay otras definiciones y consideraciones en cuanto
a la validez, por ejemplo:
• Validez de contenido: también se llama Validez Facial y se refiere a si la
medida recoge todos los aspectos de la característica. Por ejemplo: un examen
de 20 temas y se pregunta únicamente uno.
• Validez de constructo: se trata de saber si los indicadores diseñados (ítemes)
representan bien al fenómeno en estudio, por ejemplo, en la construcción de una
escala.
• Validez de criterio: se trata de determinar si la escala es capaz de reflejar las
relaciones entre las medidas de una variable y otras anticipadas por la teoría.

Es conveniente tener en cuenta que no existe una prueba de validez en sentido estricto,
pero si podemos tener datos y análisis que apoyen una determinada interpretación,
avalen la utilidad del instrumento, etc. Con los estudios de validación pretendemos,
sobre todo, dos finalidades que se apoyan mutuamente:
• Confirmar el significado previsto de la variable que pretendemos medir: se trata
de verificar que la interpretación es correcta (si por ejemplo queremos medir la
actitud frente al estudio, hemos de verificar que realmente es eso lo que
medimos y no la inteligencia o el deseo de dar una buena imagen). Ester tipo de
validez se denomina validez de constructo (o de rasgo). Confirmamos el
significado comprobando hipótesis basadas en el mismo significado; podemos
utilizar dos tipos de estrategias que se complementan:
o Validez convergente, por ejemplo comprobando relaciones esperadas y
plausibles ( positivas o negativas) con otras medidas referidas a dos tipos
de variables:
ƒ Unas relaciones pueden ser con variables medidas por otros
instrumentos que pretendidamente miden lo mismo ( si hacemos
una escala de autoconcepto esperamos una correlación
significativa con otras escalas de autoconcepto).
ƒ Otras relaciones pueden ser con instrumentos que miden otras
cosas pero con las que esperamos (como hipótesis plausibles) que
haya relación positiva ( como entre actitud hacia el estudio y
calificaciones escolares) o negativa (como entre actitud hacia el
estudio y ansiedad ante los exámenes).
o Validez divergente: comprobando que el rasgo no tiene relación con
otros con los que no esperamos que la tenga o que se diferencia de otros
del mismo ámbito.

COMO COMPROBAMOS EL SIGNIFICADO Y LA


UTILIDAD
Las interpretaciones se Analizando el contenido: Con métodos
pueden reducir a dos experimentales
grandes tipos:
Validez de constructo:
interpretaciones sobre el
significado de lo que
medimos
Validez de predictiva:
interpretaciones sobre la
utilidad del instrumento

4.- Escalamiento Multidimensional (MDS)


4.1.- Conceptos Básicos. Similaridades
El escalamiento multidimensional, más conocido como MultiDimensional Scaling
(MDS), tiene sus orígenes a principios de siglo XX en el campo de la Psicología. Surge
al estudiar la relación que existía entre la intensidad física de ciertos estímulos con su
intensidad subjetiva. El MDS es una técnica de representación espacial que trata de
visualizar sobre un mapa un conjunto de estímulos (firmas, productos, candidatos
políticos, ideas u otros artículos) cuya posición relativa se desea analizar. El propósito
del MDS es transformar los juicios de similitud o preferencia llevados a cabo por una
serie de individuos sobre un conjunto de objetos o estímulos en distancias susceptibles
de ser representadas en un espacio multidimensional. El MDS está basado en la
comparación de objetos o de estímulos, de forma que si un individuo juzga a los objetos
A y B como los más similares entonces las técnicas de MDS colocarán a los objetos A y
B en el gráfico de forma que la distancia entre ellos sea más pequeña que la distancia
entre cualquier otro par de objetos.

En la actualidad, el MDS puede ser apto para gran cantidad de tipos diferentes de datos
de entrada (tablas de contingencia, matrices de proximidad, datos de perfil,
correlaciones, etc.). El MDS puede ayudar a determinar:
• Qué dimensiones utilizan los encuestados a la hora de evaluar a los objetos.
• Cuántas dimensiones utilizan.
• La importancia relativa de cada dimensión.
• Cómo se relacionan perceptualmente los objetos.

Existen otras técnicas multivariantes, como son el análisis factorial y el análisis cluster,
que persiguen objetivos muy similares al MDS pero que difieren en una serie de
aspectos. Sin embargo, la utilización de alguna de estas técnicas no supone que no se
pueda utilizar el escalamiento multidimensional, sino que esta última técnica puede
servir como alternativa o bien como complemento a las otras técnicas multivariantes. En
definitiva, el MDS es una técnica multivariante que crea un gráfico aproximado a partir
de las similitudes o preferencias de un conjunto de objetos.

De modo general, podemos decir que el MDS toma como entrada una matriz de
disimilaridades, ∆ ∈ M nxn , donde n es el número de estímulos. Cada elemento δ ij de ∆
representa la disimilaridad (o similaridad según se considere) entre el estímulo i y el
estímulo j.
A partir de esta matriz de disimilaridades, la técnica de MDS nos proporciona como
salida una matriz de coordenadas X n×m , donde n, al igual que antes, es el número de
estímulos, y m es el número de dimensiones. Cada valor xij representa la coordenada del
estímulo i en la dimensión j. El procedimiento para obtener esta matriz es conocido
como el algoritmo MDS básico y puede encontrarse en cualquier manual sobre el tema.

A partir de esta matriz X se puede calcular la distancia existente entre dos estímulos i y
j, mediante cualquier definición de distancia: euclídea, euclídea ponderada, city-block,
minkowski, etc. Estas distancias constituirán una matriz D ∈ M n×n . Pues bien, la
solución proporcionada por el MDS debe ser tal que exista la mínima diferencia entre la
matriz de disimilaridades inicial ∆ y la matriz de distancias obtenidas D. A
continuación, se tratará de determinar cómo de bueno es el ajuste considerado. Esta
cuestión la analizaremos posteriormente.

4.2.- Modelos de MDS


Existen dos modelos básicos de MDS que son: el modelo de escalamiento métrico y el
modelo de escalamiento no métrico. En el primero de ellos consideramos que los datos
están medidos en escala de razón o en escala de intervalo y en el segundo consideramos
que los datos están medidos en escala ordinal.

Todo modelo de escalamiento parte de la idea de que las distancias son una función de
las disimilaridades, es decir, d ij = f (δ ij ) . En el modelo de escalamiento métrico se
parte del supuesto de que la relación entre las proximidades y las distancias es de tipo
lineal: d ij = a + bδ ij . En el caso no métrico, no se propone una función deternimada sino
que simplemente la función f preserve el orden (monótona) existente entre las
disimilaridades (los veremos a continuación).

El primer procedimiento de escalamiento métrico se debió a Torgerson (1952, 1958)


quién se basó en un teorema de Young y Householder (1938), según el cual a partir de
una matriz de distancias, D ∈ M n×n , se puede obtener una matriz B ∈ M n×n de productos
escalares entre vectores. El procedimiento consiste en transformar la matriz de
disimilaridades ∆ en una matriz de distancias D de tal forma que se cumplan las
propiedades de distancia:
1. No negatividad d ij ≥ 0 = d ii
2. Simetría dij = dji
3. Desigualdad triangular d ij ≤ d ik + d kj
Las dos primeras propiedades son muy fácilmente obtenibles, y no así la tercera.
Cuando en efecto no se cumple la tercera, hemos de estimar una constante, tal que
sumada a las disimilaridades permita que éstas cumplan esta tercera propiedad. Este
problema se conoce con el nombre de “estimación de la constante aditiva”.

Una vez obtenida la matriz D ∈ M n×n , se transforma en una matriz B de productos


escalares entre vectores mediante la siguiente transformación:
1 1 n 1 n
bij = − (d ij2 − d i2• − d •2j + d •2• ) , con d i2• = ∑ d ij2 y d •2j = ∑ d ij2
2 n j =1 n i =1

A continuación, se transforma la matriz B de productos escalares, en una matriz X¸ de


coordenadas, tal que B=X·X’.

En resumen el procedimiento métrico consiste en transformar:

∆ (disimilaridades) en D (Distancias) en B (Productos escalares) en X (coordenadas)

En el caso del modelo no métrico seguiremos los siguientes pasos:


1. Transformación de la matriz de proximidades en una matriz de rangos, desde 1
hasta (n (n - 1))/2.
2. Obtención de una matriz X de coordenadas aleatorias, que nos da la distancia
entre los estímulos. Comparación de las proximidades con las distancias,
obteniéndose las disparidades ( d ij' ).

∑ ( f (δ ) − d ij )
2
ij
i, j
3. Definición del Stress: Stress =
∑d
2
ij
i, j

4. Minimización del Stress.

Este ejercicio de minimización tiene carácter algorítmico, y tiene como fin obtener,
como en el caso métrico una configuración cuyas distancias se aproximen, lo máximo
posible a las disimilaridades iniciales.

El mismo coeficiente Stress, será la medida de la bondad del ajuste obtenido, y se


interpretará como:

Stress Ajuste
0,2 Pobre
0,1 Regular
0,05 Bueno
0,025 Excelente
0,0 Perfecto

Otra medida que se suele utilizar es el coeficiente de correlación al cuadrado (RSQ), que
nos informa de la proporción de variabilidad de los datos de partida que es explicada
por el modelo. Los valores que puede tomar oscilan entre 0 y 1, al ser un coeficiente de
correlación al cuadrado. Valores cercanos a 1 indican que el modelo es bueno y valores
cercanos a 0 indican que el modelo es malo.
La mayoría de los paquetes estadísticos tienen implementados tanto los algoritmos para
obtener soluciones con MDS así como las medidas para determinar si el modelo es
adecuado o no. Esto se describirá con detalla en el tema dedicado a MDS con el paquete
SPSS.

4.3.- Validación con MDS


Como comentamos en el apartado dedicado a la fiabilidad, ésta es una condición
necesaria pero no suficiente para afirmar que la escala construida mide un único rasgo,
esto es, la escala es unidimensional.

El MDS permite representar puntos en un espacio de dimensión reducida, de forma que


reproduzcan las distancias entre los objetos. Pues bien, consideraremos los ítems como
los objetos a representar, de tal forma que cuantas más dimensiones se necesiten para su
representación óptima, menor será la consistencia interna de los ítems, o dicho de otro
modo, habrá más ítems discordantes con los demás. El siguiente gráfico aclara la
disquisición anterior:

Configuración de estímulos derivada

Modelo de distancia euclídea

1,0
v14 v23 v22
v9
v20
0,5 v19
v17 v4
v1 v18 v10 v11
v25 v26
0,0 v7
Dimensión 2

v12
v5v8 v3 v29 v15
v24 v13 v27 v16
-0,5
v21 v6

-1,0

v2
-1,5

v28
-2,0

-4 -3 -2 -1 0 1 2
Dimensión 1

En el gráfico podemos observar que hay ítems que están bastante más alejados que el
resto, en una escala con 30 ítems. Un análisis de la correlación del ítem con el total
revela que los siguientes ítems tienen correlación menor que 0,250: 2, 6, 9, 14, 20, 24,
25, 27, 28, 30. Es evidente que el gráfico MDS reproduce esta bajas correlaciones en
términos de mayor distancia entre los puntos, lo cual permite dar una pauta para
desechar aquellos estímulos para mejorar la consistencia interna de la escala.

La facilidad de su uso e interpretación ha determinado que el MDS se utilice como


complemento o como alternativa a otras técnicas multivariantes como el Análisis
Factorial, muy difundido, que necesitan supuestos distribucionales relativamente fuertes
para ser aplicados.

Entre las ventajas de utilizar el MDS en comparación con otras técnicas multivariantes
están:
• Los datos en MDS pueden estar medidos en cualquier escala, mientras que en el
Análisis Factorial deben estar medidos en escala de razón o intervalo.
• El MDS puede proporcionar soluciones para cada individuo, lo cual no es
posible con el Análisis Factorial ni con el análisis cluster.
• En el MDS el investigador no necesita especificar cuáles son las variables a
emplear en la comparación de objetos, algo que es fundamental en el Análisis
Factorial y en el Análisis Cluster, con lo que se evita la influencia del
investigador en el estudio.
• Las soluciones proporcionadas por MDS suelen ser de menor dimensionalidad
que las proporcionadas por el análisis factorial (Schiffman, Reynolds y Young,
1981).
• En MDS pueden ser interpretados directamente las distancias entre todos los
puntos, mientras que en el análisis de correspondencias solamente pueden ser
interpretadas directamente las distancias entre filas o bien entre columnas.
Tema 4: Toma de Datos. Planificación
Temporal
1.- Métodos de Recogida de la Información
Podemos clasificar la forma de recoger la información en función de tres modos de
administración del cuestionario: entrevista personal o cara a cara, donde el entrevistador y el
encuestado comparten el mismo espacio y tiempo en la realización de la encuesta; la encuesta
telefónica, que reúne al entrevistador y al entrevistado en un tiempo común pero en distinto
espacio y la encuesta postal, que constituye una modalidad de encuesta autoadministrada, sin
mediar la figura del entrevistador.

Bosch y Torrente (1993) recalcan que no hay un procedimiento superior a los demás en la
recogida de información. La calidad de la encuesta viene determinada por el adecuado
planteamiento metodológico, la selección óptima de la muestra y por la utilización de buenos
instrumentos, diseñados para la obtención de la información. La elección de un procedimiento
u otro estará motivado por factores metodológicos y extra-metodológicos. Entre los segundos
cabe destacar los aspectos relativos a presupuesto y tiempo; una planificación adecuada de
una investigación exige prestarle atención a estos detalles. Los factores metodológicos se
refieren a calidad de los datos, sistema de variables a estudiar y características de la
población.

Los tres procedimientos presentan ventajas y limitaciones. Kinneart y Taylor (1987)


aconsejan utilizar aquel que sea más capaz de obtener la información que se persigue en la
investigación dados los recursos que se poseen. Por otra parte, no son mutuamente
excluyentes, y según los objetivos de la investigación, es posible combinarlos. Por ejemplo, se
puede enviar una carta o hacer una llamada telefónica avisando que se va a realizar una
entrevista personal en una fecha dada, realizar una entrevista cara a cara para completar
cuestionarios que no se completaron en un envío postal, etc. Algunas de tales combinaciones
se recomiendan para asegurar una alta tasa de respuesta, por lo que lo veremos con más
detalle a continuación.

1.1.- La Entrevista Personal


Weiers (1986) define la entrevista personal como “una conversación entre entrevistador y
entrevistado, con fines especiales, donde tanto el tema como la dirección de la misma la
proporciona el investigador” (pág. 170). El clima adecuado es imprescindible para realizar
una entrevista con las mayores garantías de exactitud de respuesta. Varios factores ayudan a
crear este ambiente: el aspecto y la profesionalidad del entrevistador, el informar y explicar
brevemente los objetivos de la investigación y el conseguir que el cuestionario se
cumplimente de la forma más cómoda posible. El entrevistador debe intentar no quedarse en
la puerta, por lo que debe asegurar al encuestado tanto que forma parte de un equipo de
investigación serio como que no pretende venderle nada.

La entrevista personal presenta las siguientes ventajas:


• Produce una mayor tasa de respuestas que los otros procedimientos, pues supera el 80
% de tasa de respuesta.

1
• Es el procedimiento más flexible. Permite que el entrevistador formule las preguntas
según la situación y se adapta al nivel cultural y educativo del entrevistado.
• Es el sistema que permite recoger más información. Por una parte, no tiene las
limitaciones de tiempo que se presentan en los otros procedimientos. También se
pueden realizar preguntas más complejas, ya que, al contrario de lo que ocurre en las
encuestas postales o telefónicas, en la entrevista cara a cara es posible realizar
preguntas no estructuradas. En tercer lugar, el entrevistador puede obtener
información adicional del aspecto físico del encuestado, su hábitat, etc., que no está
disponible en las otras formas de encuesta.
• Presenta una alta calidad de la información recogida, pues la actuación del
entrevistador evitará las respuestas evasivas, ayudando además a la comprensión de
las mismas y facilitando que las respuestas que se den sean relevantes.
• Se asegura que se realiza la entrevista a la persona seleccionada y no a cualquier otro
miembro de la familia. Además se evita la influencia de terceras personas.
• Se puede usar material adicional: fotos, catálogos, muestras, así como tarjetas de
respuesta para permitir que el encuestado tenga delante de sí todas las categorías de un
ítem para responderlo con exactitud.

No obstante, no está libre de inconvenientes. Sus limitaciones fundamentales son las


siguientes:
• Es un método caro en esfuerzo, tiempo y recursos, sobre todo si la muestra presenta
una alta dispersión geográfica o si es difícil de localizar. En los costes hay que incluir
el pago a los entrevistadores y a los supervisores, los gastos de desplazamiento y las
dietas.
• El entrevistador produce dos tipos de problemas. Por una parte, se pueden dar sesgos,
tanto por su comportamiento y características, como por la relación de interacción con
el entrevistado. Además, para asegurar la exactitud de los datos que se recaban es
preciso tanto que se les forme como que haya supervisores de su tarea. La mejor
investigación puede quedar invalidada por una mala actuación de los entrevistadores.
• Es relativamente lento, dependiendo de factores como la longitud del cuestionario y la
dispersión y el tamaño de la muestra.
• La localización de la muestra es complicada, tema que se ha agravado con los cambios
sociales en las familias: numerosas horas de trabajo, trabajo de la mujer fuera del
hogar. Por regla general, limita los horarios de realización de las encuestas a la tarde,
pues en las mañanas es difícil encontrar a la gran parte de los individuos
seleccionados.
• Con los mayores índices de inseguridad ciudadana, la gente se siente reacia a abrir las
puertas a los extraños. Por otra parte, también dificulta la labor de los entrevistadores
cuando han de acudir a determinadas zonas.

Recientemente se ha implantado un formato de entrevista personal asistida por ordenador


(CAPI). El entrevistador utiliza un ordenador personal en la realización de la entrevista,
leyendo los ítems en la pantalla del ordenador y registrando a continuación las respuestas.
Presenta dos ventajas. Por una parte, el rellenado del cuestionario se facilita desde el
ordenador, dirigiendo a las preguntas pertinentes en caso de filtros o detectando
incongruencias o errores en las respuestas; por otra parte, el vaciado de los datos a soporte
informático es automático, con lo que ello supone de rapidez para realizar los análisis y
extraer las conclusiones de la investigación. Su uso no está aún generalizado por el elevado
número de ordenadores portátiles que precisa para su empleo.

2
Una versión especial de la entrevista cara a cara es la que se realiza en sitios públicos, como
por ejemplo en centros comerciales, en estudios de mercado. Presenta las ventajas de la
entrevista personal en domicilio, aunque por las características del lugar en que se realiza
debe ser más breve que ésta. No se recomienda pasar de 25 minutos (Dillon y cols., 1987).
Otras ventajas son su facilidad para acceder a la muestra y que es un procedimiento rápido de
obtener información. Ahora bien, presenta serios problemas relacionados con la selección de
la muestra, sometida a diversos sesgos:
• Los compradores habituales tienen mayor probabilidad de ser incluidos en el estudio
que aquellos que realicen sus compras menos a menudo.
• El encuestado potencial puede evitar o provocar el ser incluido en la entrevista.

1.2.- La Encuesta Telefónica


La encuesta telefónica supone que un entrevistador contacta por teléfono con los encuestados.
Su característica definitoria es la brevedad, no aconsejándose tiempos superiores a los 20
minutos, salvo en aquellos casos en los que el encuestado esté altamente implicado con el
tema de estudio (Ortega, 1990).

Se debe iniciar la entrevista con una presentación que incluya un saludo apropiado, la
explicación de los objetivos del proyecto, quien es la entidad que realiza la encuesta, así como
una indicación de la duración de la entrevista, finalizando con una educada petición de
permiso para llevar a cabo la misma (Parasuraman, 1986). Otras recomendaciones de interés
son las siguientes (Grande y Abascal, 1994):
1. El encuestador debe dejar claro que se trata de una investigación, informando al
encuestado que puede verificar la garantía de la empresa investigadora.
2. Debe darse una explicación clara y convincente de por qué se está llamando a la
persona en cuestión.
3. Debe garantizarse el anonimato del encuestado.
4. La encuesta se hará en horas razonables, entre las 20 y las 22 horas, ya que si se llama
antes las probabilidades de encontrar a la persona seleccionada son menores, mientras
que si se la llamada se hace después, es posible que se encuentren ya descansando. Es
conveniente que la encuesta se complete de una forma conversacional, con una lectura
ágil de los ítems. No obstante, debe ser también fiel, evitando los sesgos posibles que
se darían en el cambio de la redacción de las preguntas.

La organización de una encuesta telefónica precisa contar con teléfonos suficientes para evitar
la excesiva lentitud de recogida de información que se produciría en caso contrario.

Bosch y Torrente (1993) consideran que es el método de recogida de información más


apropiado en los siguientes casos:
• Cuando no se cuente con una lista de direcciones postales actualizada y completa.
• En aquellos casos en los que la selección del encuestado es compleja.
• Cuando el cuestionario es complejo, por ejemplo porque tiene muchos filtros y no
resulta aconsejable la encuesta postal.
• Cuando se requiere un tamaño de muestra de modo preciso.
• Cuando se precisan resultados rápidamente.

3
Grande y Abascal (1994) señalan que las encuestas telefónicas se emplean para analizar
nuevos productos en marketing, para conocer la estructura de la población y facilitar las tareas
de muestreo, para llevar a cabo test de audiencia o de eficacia publicitaria y para analizar las
actitudes post-compra. Este procedimiento permite seleccionar muestras en poblaciones raras
o poco conocidas.

La encuesta telefónica es, con diferencia, el procedimiento más rápido de recogida de


información, ya que en ocasiones puede llegar a obtenerse la información incluso en unas
pocas horas. Por regla general, la investigación puede completarse en dos o tres semanas. La
rapidez es una de sus principales ventajas. Además, se pueden señalar estas otras:
• Es más económico que la entrevista personal, e incluso en ocasiones que la encuesta
postal, en el caso que la tasa de respuesta sea muy baja y haya que realizar muchos
reenvíos postales. El coste del procedimiento depende de factores tales como la
duración del cuestionario, la distancia de las personas pertenecientes a la muestra y las
tarifas telefónicas.
• En ocasiones, la gente puede estar más dispuesta a responder en una encuesta
telefónica que permitir que se la moleste en una entrevista en el domicilio.
• Frente a los problemas que presentan las encuestas postales de sesgos debidos a la
lectura total del cuestionario antes de emitir las respuestas, en la entrevista telefónica
el entrevistador lee de forma ordenada las preguntas al encuestado.
• Resulta más fácil contactar con la muestra, pues en caso de no encontrar a la persona
deseada en una primera llamada, basta con insistir más tarde o en otro día. El área
geográfica de estudio puede ser muy amplia. En tercer lugar, con este procedimiento
es posible acceder a personas importantes o muy ocupadas, a las que sería más
complicado entrevistar cara a cara.
• Al no darse contacto cara a cara con el entrevistador hay mayor seguridad de
anonimato y genera respuestas más sinceras. Se reducen también los sesgos debidos al
entrevistador y a la relación entrevistador entrevistado. Ello evita que haya que prestar
atención a factores como aspecto del entrevistado, postura, y todas aquellas cuestiones
que puedan producir efecto en las respuestas del encuestado.
• Es más fácil organizar todo el proceso, ya que los entrevistadores están ubicados en el
mismo lugar, y las incidencias que ocurran en el trabajo de campo pueden resolverse
sobre la marcha. Esto reduce el tiempo de recogida de la información a la vez que
posibilita mayor control de calidad.
• La tasa de respuesta es menor que en las encuestas personales, pero mayor que en las
postales, situándose entre un 50 y un 60 %, aunque se puede aumentar repitiendo las
llamadas a los encuestados que no se han localizado. Estas llamadas posteriores se
deben realizar a distintas horas del día y en días de la semana diferentes. Sin embargo,
Weiers (1986) no recomienda realizar más de tres reintentos.
• Como el procedimiento permite abarcar territorios dispersos, el muestreo puede
alcanzar toda la amplitud que se precise. Elimina también los problemas de realizar
entrevistas en zonas de alta peligrosidad, a la vez que el encuestado no vive la
amenaza de ser visitado en el hogar por un extraño.

El procedimiento presenta también algunos inconvenientes:


• Sólo se puede entrevistar a aquellas personas que posean teléfono, lo que puede
producir falta de representatividad en la muestra. Varios son los problemas que se
presentan con los marcos muestrales:

4
• En España, se cifra la cobertura telefónica en un 76 % del territorio (Bosch y Torrente,
1993), aunque existen diferencias sustanciales en relación a la clase social o al hábitat
rural o urbano.
• Hay personas que no figuran en las guías telefónicas, a los que se denominan
Robinsones en el lenguaje técnico.
• La irrupción de varias compañías telefónicas hace que se tengan que manejar varios
listados. Por otra parte, en la actualidad es muy común disponer sólo de teléfono
móvil, de los que no hay listados fiables debido a su tipo de contrato (tarjeta).
• Determinados números de teléfono que aparecen en la guía telefónica como
particulares corresponden en realidad a empresas.
• Proliferación de segundos domicilios con teléfono, lo que dificulta la localización de
los abonados.
• La realización de la entrevista por teléfono puede provocar desconfianza en el
entrevistado, lo que provocará que no quiera responder o que, en el mejor de los casos,
responda de forma poco exacta.
• No se puede presentar ningún tipo de material auxiliar. Por tanto, el entrevistador
deberá poseer mayores habilidades persuasivas y de comunicación para establecer una
relación cálida que asegure las mejores condiciones de realización de la entrevista.
• Dependiendo de las tarifas telefónicas, la longitud del cuestionario y las distancias a
cubrir, puede resultar un procedimiento caro.
• Pueden presentarse problemas de comprensión de los ítems o incoherencias, difíciles
de detectar debido a la rapidez con la que se efectúa la entrevista.
• Es más difícil obtener información secundaria: hábitat del encuestado, características
físicas, etc.
• Aunque el efecto de la figura del entrevistador es menor que en la entrevista personal,
no obstante se pueden producir sesgos debidos al entrevistador o a la interrelación que
se establece con el encuestado.
• Problemas de memorización. Cuando se da una lista de categorías de respuesta, la
precisión de la misma se ve comprometida, pues al encuestado puede resultarle difícil
recordar todas las alternativas de respuesta ofrecidas, tendiendo a señalar las
respuestas extremas o la última de la lista.
• Existencia de obstáculos físicos: contestadores, teléfonos desconectados, líneas
ocupadas.
• Al no tener la presencia del entrevistador, al encuestado le resulta más fácil dar
cualquier excusa para finalizar la encuesta antes de haber acabado.

La entrevista telefónica asistida por ordenador (CATI) es un procedimiento que empieza a ser
bastante común. Los teléfonos se conectan a un ordenador, en cuya memoria se encuentra el
cuestionario y las características de la muestra. La selección de la muestra se genera
aleatoriamente, realizándose las llamadas a estos números. El entrevistador lee el cuestionario
desde la pantalla e introduce las respuestas ofrecidas por el encuestado. El procedimiento
presenta interesantes ventajas:
• Con respecto a la muestra, esta se genera automáticamente. Igualmente, se obtienen de
forma automática las cuotas de muestreo, a la vez que proporciona una parada
automática cuando se ha completado un estrato.
• Permite una versión personalizada para cada entrevistado, pues va planteando las
preguntas en función de las respuestas previas, estableciéndose así un sistema de
filtros de forma automática. Si se produce un silencio, el programa presenta una
formulación alternativa de la pregunta.

5
• El entrevistador recibe las instrucciones por pantalla, haciendo el mismo ordenador los
saltos pertinentes en las preguntas filtro.
• La información que se recibe se puede contrastar con la anterior, detectándose pronto
los errores o incongruencias que puedan aparecer, por lo que algunos de tales fallos
podrán subsanarse al instante.
• La velocidad de la investigación es máxima, pues los datos se registran en el mismo
momento que se van obteniendo, por lo que los resultados se pueden tener con toda
prontitud.
• Se pueden obtener resultados por cada encuestador, o por el momento en que se
recogió la información.
• Selecciona la muestra aleatoria de cuestionarios a controlar.

El sistema de encuesta telefónica asistida por ordenador no está libre de inconvenientes. Cea
(1996) señala los siguientes:
• El tamaño de la pantalla es más pequeño que el de la hoja del cuestionario, lo cual
dificulta su lectura.
• Es más fácil detectar visualmente donde se han cometido errores en los cuestionarios
en soporte papel, ya que proporcionan una visión continua de preguntas y respuestas.
• En el sistema CATI hay que mirar la pantalla a la vez que se va grabando la
información, para comprobar que no se han introducido errores. Es conveniente usar
pantallas resumen.
• El entrevistador suele estar más familiarizado a los sistemas de lápiz y papel, mientras
que el tener que mirar al teclado y a la pantalla simultáneamente puede alargar la
duración de la entrevista.
• Por lo general, el entrevistador dispone de poco espacio para poder anotar las
incidencias durante el desarrollo de la entrevista.
• No es muy conveniente para estudiar los estratos sociales más bajos de la población.

La encuesta telefónica presenta algunas peculiaridades en lo que respecta a la elección de la


muestra. En primer lugar, la unidad de muestral en este caso es el hogar, ya que no se pueden
seleccionar personas individuales sino números de teléfonos. En segundo lugar, la muestra
viene delimitada por la cobertura que tenga la red telefónica, esto es, la cantidad de domicilios
que poseen teléfono. El establecimiento de un estudio de encuesta telefónica exige conocer
tanto la cobertura como el error de cobertura, entendiéndose por error de cobertura la
diferencia entre la población que cuenta con servicio telefónico y la población total. La
ausencia de cobertura está relacionada con las siguientes variables: características geográficas
de la zona, el tamaño de los hogares, el tipo de residencia, el estado civil, la ocupación o el
origen étnico.

Existen dos tipos de marcos de muestreo, aquellos basados en directorios y los que se realizan
sin guía de teléfono (Dillon y cols, 1994). En los diseños muestrales basados en directorios,
los números de teléfono se seleccionan a través de la guía telefónica, de forma preestablecida.
Para evitar sesgos, esta selección debe ser aleatoria, habiendo dos formas de proceder:
1. Se elige un número determinado de números de la guía telefónica, usando algún
procedimiento sistemático, como por ejemplo, elegir un número cada siete de los que
aparecen en la guía.
2. Los números seleccionados se modifican hasta permitir que puedan incluirse en el
muestreo todos los números, incluso los no listados. Hay varios procedimientos, por
ejemplo, se puede sumar una constante al último dígito, o bien se aleatorizan los
últimos r dígitos.

6
El otro sistema no incluye la utilización de la guía telefónica. En este caso, se elige un primer
bloque de números, o bien un prefijo, y los restantes se añaden aleatoriamente. Sea cual sea el
método seguido para la extracción de la muestra, Bosch y Torrente (1994) señalan el siguiente
proceso en una encuesta telefónica:
- Elaborar la lista de la población a estudiar o delimitar los códigos que se extraerán de
forma aleatoria.
- Determinar el número de sujetos que compondrán la muestra.
- Determinar la fracción de muestreo o extraer los números aleatorios.
- Extraer los casos seleccionados.

Los avances metodológicos abren nuevas puertas a la investigación mediante encuestas. Así,
Babbie (1996) señala un procedimiento adicional: el envío de cuestionarios mediante el fax.
Es evidente que esto limita el estudio a aquellas personas que cuenten con fax, pero será tal
vez interesante si el uso del fax se generaliza, o cuando se trata de estudiar poblaciones donde
el fax es moneda corriente, como por ejemplo, en las empresas.

1.3.- La Encuesta Postal


En la encuesta postal, la recogida de información se realiza mediante un cuestionario que se
envía y se devuelve por correo. Al ser cumplimentado por la persona a quien se remite el
cuestionario, supone un tipo de cuestionario autoadministrado. En este caso, no existe la
figura del entrevistador, por lo que la relación entre investigador y encuestado no se ve
mediatizada por ninguna persona del equipo de investigación.

Bosch y Torrente (1993) afirman que la encuesta por correo es especialmente adecuada en los
siguientes casos:
- Cuando el presupuesto de la investigación es limitado.
- El listado de direcciones está completo.
- Es fácil identificar a la persona que se desea entrevistar.
- El cuestionario es sencillo de responder.
- Se puede esperar unas ocho semanas en obtener resultados.

En este procedimiento el éxito de la técnica descansa en la construcción del cuestionario, pues


un buen diseño, su calidad, precisión y claridad sustituyen al entrevistador y representan al
investigador. Weiers (1986) aconseja estimular rápidamente la curiosidad y el espíritu de
colaboración del entrevistado, de tal modo que el cuestionario suscite el interés suficiente
como para que motive a contestarlo.

En la encuesta por correo hay un elemento decisivo: la carta de presentación. Es uno de los
factores que aumentan la tasa de respuestas, por lo que su interés y su importancia es máxima.
En dicha carta, que no debe exceder de una página, el contenido debe incluir los aspectos
siguientes:
- Naturaleza del estudio.
- Razones de haber sido elegido.
- Entidad que realiza la investigación.
- Instrucciones.
- En qué se utilizará la información que aporte.
- Aclarar si se respetará o no el anonimato.

7
Bosch y Torrente (1993) aconsejan que los mensajes que se deben emitir vayan con el
ordenamiento que se detalla a continuación:
1. En el primer párrafo se debe explicar y convencer al encuestado de la utilidad social
de la investigación. Los autores matizan que importa menos recalcar quién es la
entidad organizadora cuanto dejar claros los objetivos que se persiguen con la
investigación.
2. En el segundo párrafo se trata de convencer al encuestado de que su respuesta es
importante y no puede ser sustituida.
3. En el tercer párrafo se le asegura la confidencialidad de la información que aporte. No
obstante, conviene señalar que los cuestionarios no pueden ser anónimos, pues en tal
caso no se podría llevar control de qué personas contestan y cuáles no.
4. En el cuarto párrafo se debe repetir la justificación del trabajo, así como informar si
está previsto el envío de copias de resultados, incluyendo también un teléfono de
contacto por si surgen dudas al completar el cuestionario.

Por su parte, Ortega (1990) señala que los aspectos más relevantes deben ir en los párrafos
primero o último, que son a los que más atención se presta. Recomienda ser conciso en la
redacción de la carta, sin alargarse en explicaciones innecesarias. El diseño de la misma debe
cuidarse, de forma que ayude a su lectura mediante el formato, tipo de letra, márgenes e
interlineado.

Se recomienda también mecanografiar de forma individual el nombre, la dirección y el


saludo. La fecha debe ser lo más próxima posible a la del envío del cuestionario. La firma
debe ser real y no reproducida. Por último, Bosch y Torrente (1993) ofrecen algunas
sugerencias con respecto al sobre; éste debe atraer la atención del destinatario por su forma o
su color; el nombre del encuestado no debe presentarse mediante etiqueta, la cual da una
imagen de falta de personalización; debe dar impresión de carta comercial, pero no de
publicidad.

Bosch y Torrente (1993) aconsejan enviar los cuestionarios de un solo golpe, de forma que
todos los encuestados lo reciban en fecha similar, y a principio de semana, puesto que de esta
manera lo recibirán a lo largo de la misma semana.

La encuesta postal presenta las siguientes ventajas:


• Al no existir el entrevistador como mediador, se evitan todos los sesgos debidos a él.
• Es más cómodo para el encuestado, ya que permite que cumplimente el cuestionario
en el tiempo que le parezca más oportuno, dando una respuesta más meditada. A la
vez, la sensación de anonimato es mayor, al no tener que explicitar sus respuestas a un
entrevistador, por lo que es especialmente aconsejable para preguntas delicadas o
confidenciales.
• En principio, es un sistema económico de recogida de información, salvo que la
ausencia de respuestas sea tan considerable que sucesivos reenvíos encarezcan la
investigación.
• Se puede llegar a personas lejanas o de difícil acceso en cualquier sentido
(geográficamente alejadas, zonas peligrosas, personas muy ocupadas). Por ello, es
especialmente adecuado para zonas de baja densidad de población.
• Si la muestra está muy dispersa, puede resultar más corto en el tiempo que mediante
una encuesta cara a cara.
• Al no ser excesivamente costoso, es un procedimiento que permitiría abarcar un
estudio más ambicioso, pudiendo realizarse a nivel nacional en lugar de provincial.

8
El problema más importante de las encuestas postales es la baja tasa de respuesta. A modo de
ejemplo, Ortega (1990) sitúa la tasa de respuesta para estos estudios en España entre el 10 y el
20 %, aunque él afirma haber alcanzado tasas del 30 al 40 %. Babbie (1996) considera que un
50 % de respuesta es una tasa adecuada, un 60 % buena y un 70 % muy buena, aunque esta
clasificación es orientativa, sin fundamento estadístico.

El problema es de gran importancia, ya que la calidad de la investigación se verá afectada por


la representatividad de la muestra que finalmente responde, pues el error previsto por el
investigador, al reducirse la muestra final, se incrementa cuantiosamente. Además, el
conjunto de personas que devuelve el cuestionario puede diferir de los que no lo hacen,
dándose así sesgos importantes. Por todo ello, se ha prestado gran atención a aquellos
aspectos que mejoran la tasa de respuesta. Así, por ejemplo, el Total Design Method (TDM,
Bosch y Torrente, 1993) es un procedimiento de realización de encuesta por correo en el que
un conjunto de factores interactúan favoreciendo la respuesta, orientado a crear en el
encuestado la percepción de aumento de recompensa y disminución de costes al responder al
cuestionario. Los factores que han mostrado su utilidad para el incremento de la tasa de
respuesta son los siguientes:
• Prenotificación de que se le va a enviar un cuestionario. Este preaviso puede ser postal
o telefónico.
• Envío de una carta de presentación.
• Informar qué entidad es la que realiza la investigación. Cuando es auspiciada por un
organismo oficial, las tasas de respuesta son mayores.
• La demanda altruista para responder al cuestionario no parece funcionar. En cambio,
tiene mayor efecto hacer ver que el problema social que se estudia es relevante y que
afecta a un grupo social que le es próximo de alguna manera al encuestado, insistiendo
en la existencia de un problema que exige buscar soluciones y que la colaboración del
encuestado juega un importante papel. La utilidad social funciona más cuanto más
especializado es el grupo que compone la muestra.
• Personalización de la encuesta, tanto en la carta como en aquellos detalles que hagan
comprender que la selección es personal y contribuye a darle importancia al
encuestado.
• Elegir un sobre que atraiga la atención del encuestado, por su color o por su forma.
• Acompañar el envío con un sobre de respuesta franqueado.
• Uso de incentivos económicos o de otro tipo. Se ha comprobado que cuanto más alto
es el incentivo económico, mayor es la tasa de respuesta (Dillon y cols., 1987).
• Envío de resultados de la investigación.

En cuanto a los seguimientos, éstos son varios y deben estar programados. Bosch y
Torrente (1993) aconsejan llevar a cabo la pauta siguiente:
1. A la semana del primer envío se manda una tarjeta postal, que es a la vez un
agradecimiento a los que ya han contestado y un recordatorio a los que no lo han
hecho.
2. A las tres semanas desde el primer envío se manda una carta acompañada de nuevo del
cuestionario. El tono de la carta tiene que ser amable para contrarrestar la insistencia
del envío.
3. Tercer seguimiento: a las siete semanas desde el inicio. Es el esfuerzo final. Es más
eficaz si se envía mediante correo certificado. Para compensar la agresividad de este
envío, la carta debe tener un tono relajado. También se puede hacer un recordatorio
telefónico.

9
Shaugnessy y Zeichmister (1994) recomiendan numerar el orden de recepción de los
cuestionarios, ya que esto permite establecer comparaciones entre los primeros recibidos y los
últimos, pudiendo determinar si hay alguna tendencia diferencial. Es interesante realizar una
gráfica donde se recoja el porcentaje acumulativo de respuesta. Cuando se alcanza una
meseta, si la tasa de respuesta es aún baja, es conveniente un reenvío de cuestionarios, si no se
ha optado por un procedimiento sistemático de seguimiento como el descrito anteriormente.
Pero la baja tasa de respuesta no es la única limitación de la encuesta postal.

Otras de sus desventajas son:


• No se conoce con exactitud la identidad de la persona que ha respondido la encuesta,
que puede ser otra distinta de aquella a la que se le envió. Incluso respondiendo el
encuestado seleccionado por el investigador, no hay garantía de que sus respuestas no
hayan estado influidas por terceras personas.
• No se pueden obtener datos secundarios del entrevistado, a no ser que se soliciten de
forma expresa.
• Pueden producirse sesgos en la respuesta, ya que el encuestado puede leer todo el
cuestionario antes de responder. De esta forma, la variabilidad del cuestionario se
incrementa.
• No es posible encuestar a analfabetos o a analfabetos funcionales.
• Es inviable cuando se precisa obtener resultados en un corto espacio de tiempo.

El cuestionario para la encuesta postal requiere algunas singularidades, algunas de las


cuestiones más importantes son:
• Debe ser breve y simple, no recomendándose una extensión que supere las cuatro
páginas. Su longitud no debe ser tal que desanime al encuestado a contestar. Sin
embargo, no es la amplitud del cuestionario lo que dificulta su devolución, sino el
interés que despierte en el encuestado.
• Las preguntas claras presentadas con un orden fijo, tratando que unas no condicionen
a las que les siguen. Al no haber entrevistador que pueda aclarar los puntos más
oscuros, la redacción debe cuidarse al máximo para evitar ambigüedades o dificultades
de interpretación.
• Debe cuidarse el diseño, de forma que atraiga la atención del encuestado.
• Las preguntas abiertas numéricas deben ser muy precisas, explicitando exactamente la
medida que se desea obtener. Por ejemplo, si se pregunta: “¿Cuánto tiempo lleva usted
en su último empleo?”, se puede responder: “Desde que acabé la carrera”. En cambio,
si se formula la pregunta de esta forma: “¿Cuántos años hace que desempeña usted su
actual empleo?”, la respuesta queda claramente delimitada.
• Es totalmente desaconsejable el uso de respuestas abiertas.
• Debe tenerse cuidado con la precodificación del cuestionario, pues puede confundir al
encuestado.

Conviene recordar, no obstante, que un buen cuestionario ayuda a obtener éxito, pero no lo
garantiza. El cuestionario puede no devolverse por un conjunto de factores que escapan al
control del investigador, que van desde que no llegue a su destinatario hasta que éste lo
rellene pero que no lo devuelva.

La muestra de una encuesta postal presenta también aspectos idiosincrásicos que conviene
señalar (Bosch y Torrente, 1993):

10
• Requiere un listado de individuos y de direcciones que sean elegibles para ser
incluidos en la muestra.
• No es posible realizar el muestreo por cuotas o por rutas aleatorias.
• No es aconsejable utilizar más de una encuesta por hogar, pues, por lo general, los
miembros de una familia presentan características similares.
• La encuesta por correo permite realizar una estratificación previa en grupos
homogéneos. La limitación de esta forma de muestreo es que requiere que cada unidad
muestral debe aparecer sólo en un estrato, lo que en ocasiones puede no ser el caso.
• La sustitución de una unidad muestral por otro individuo se da menos que en los otros
procedimientos, pues la falta de respuesta se suele solucionar con reenvíos. El
problema estriba en que no se puede determinar quiénes finalmente no contestan hasta
haber pasado más de dos meses.
• Es más conveniente que, de darse, la sustitución sea por otro miembro de la misma
familia, salvo que los objetivos de la investigación sean específicos de un miembro de
la familia en concreto.
• El empleo de marcos muestrales depende de la unidad muestral. Cuando esta es el
hogar, el marco muestral puede ser los Censos del Instituto Nacional de Estadística,
mientras que si son los individuos se acostumbra a utilizar el censo o el padrón
municipal. Conviene realizar cruzamientos para obtener listados completos y más
actualizados.
• Las poblaciones especiales resultan muy adecuadas para encuestar postalmente. Para
determinados grupos, como estudiantes, empleados y personal militar se logran altas
tasas de respuesta y se obtienen listados exhaustivos. Ahora bien, cuando la unidad
muestral es un cargo de una determinada organización, suele ser difícil identificar a
los informantes que ocupan los puestos claves, siendo relativamente común que
rellene el cuestionario una persona por otra.

En aquellos casos que la tasa de respuesta sea muy escasa, Ortega (1990) aconseja llevar a
cabo alguna de estas opciones:
• Enviar nuevos cuestionarios a los segmentos de la población de los que no se han
recibido suficientes respuestas.
• Completar las respuestas necesarias mediante entrevistas telefónicas o personales.
• Desechar un determinado número de respuestas de aquellos segmentos de la población
de los que se haya tenido más encuestas. Se obtiene mayor representatividad pero a
costa de reducir el valor estadístico de las estimaciones correspondientes.

El tiempo idóneo de espera entre el envío de cuestionarios y su recepción es entre 5 y 6


semanas.

Hasta aquí hemos visto las características de los tres procedimientos para recoger
información: encuesta personal, telefónica y postal, con sus ventajas y limitaciones. La
idoneidad del método vendrá dada por los objetivos que se persigan en la investigación y por
los recursos con los que se cuente. Ninguna de las formas de recabar información es en sí
misma superior a las otras. Por otra parte, es bastante común que se utilice una combinación
de procedimientos. Así, se puede proceder de las formas siguientes:
• Entrega de un cuestionario en mano. Concertar una cita telefónica para recogerlo. Útil
cuando los cuestionarios son largos y se precisa tiempo para completarlos.
• Llamada telefónica para avisar del envío por correspondencia del cuestionario,
intentando asegurar una mayor colaboración del encuestado.

11
• Llamada telefónica para concertar una cita de la entrevista personal.
• Llamada telefónica para localizar a las personas que no han respondido en la encuesta
por correo.
• Como forma de verificación, llamada telefónica tras la entrevista personal para
verificar las respuestas.

Finalmente, mostramos en las tablas siguientes una comparativa de los tres métodos más
habituales de administración de una encuesta:

Ventajas e inconvenientes de las encuestas telefónicas


Ventajas Inconvenientes Investigaciones en las que
puede recomendarse
Rapidez No cubren a toda la población Estudios sobre audiencias
Comodidad para entrevistador y Las preguntas deben ser cortas y Estudios de marketing en los que no sea
entrevistado sencillas necesario el visionado de spots
Coste normalmente más reducido que Si hay dificultades de comprensión de Estudios de opinión y posicionamiento
con las entrevistas personales las preguntas, no se puede utilizar sociológico
material auxiliar
Facilidad para obtener muestras No hay posibilidad de mostrar soportes Estudios de mercado de marcas
aleatorias a partir de listados de las físicos como fotografías, spots, etc., conocidas
compañías telefónicas para valorar opiniones
Las muestras pueden ser más dispersas No se obtiene información sobre el Estudios sobre calidad de servicios
ya que no hay costes de desplazamiento hábitat del entrevistado conocidos (banca, administración, etc.)
Si la encuesta es de tipo CATI, pueden Es difícil obtener ciertos datos Estudios de comportamiento y hábitos
programarse inconsistencias que eviten personales (equipamiento del hogar, (ocio, deportes, compras,...)
posteriores depuraciones y validaciones desplazamientos, etc.) ya que generan
desconfianza

Ventajas e inconvenientes de las entrevistas personales


Ventajas Inconvenientes Investigaciones en las que
puede recomendarse
Se puede cubrir a toda la población Se necesita más tiempo para el trabajo Sondeos preelectorales. Encuestas a la
de campo salida de colegios electorales
Pueden efectuarse preguntas complejas Cada vez hay mayor dificultad para Estudios publicitarios en los que se
acceder a los domicilios necesite presentar material auxiliar
En ciertas preguntas se obtiene más El coste es más elevado, Encuestas sobre ciertos aspectos íntimos
fiabilidad en la respuestas al eliminarse fundamentalmente por los y hábitos de las personas
reticencias desplazamientos
Se pueden mostrar soportes físicos Salvo en encuestas tipo CAPI, es difícil Encuestas sobre lanzamiento de nuevos
evitar inconsistencias. Esto obligará a productos
depurar los datos posteriormente
Se identifica más exactamente al Debe utilizarse mayor número de Encuestas cualitativas o entrevistas en
entrevistado y su hábitat encuestadores lo que conlleva mayor profundidad
sesgo por la influencia de los mismos
Se reduce el número de evasivas Es necesaria mayor infraestructura
(respuestas en blanco) organizativa

Ventajas e inconvenientes de las encuestas postales


Ventajas Inconvenientes Investigaciones en las que
puede recomendarse
Coste reducido Alta tasa de no respuesta Encuestas económicas a empresas
Pueden preguntarse datos íntimos Da lugar a interpretaciones propias de Test post-compra en productos
puesto que hay mayor facilidad para el las preguntas identificados (automóviles, muebles,
anonimato etc.)
La muestra puede estar muy dispersa La planificación se complica por el Control de calidad de ciertos servicios
tiempo de recogida de cuestionarios (revistas, asistencia en carretera, libros,
etc.)
Se evitan los sesgos producidos por los No se garantiza que la persona que Investigaciones para la recogida de
encuestadores responde sea la seleccionada en la opiniones en los que no sea importante
muestra que la muestra sea representativa

12
Permiten respuestas más meditadas Son representativas en un tipo
sociológico determinado

2.- La Red de Campo


Todos estos aspectos de recogida de datos se han de llevar a cabo dentro de un sistema
coordinado para la gestión de los mismos. A este sistema le se le denomina genéricamente
Red de Campo, y está formado por el conjunto de las distintas personas que facilitan la
recogida de la información en una encuesta por muestreo. El objetivo de ésta es determinar un
proceso coordinado de recogida de la información, de tal modo que estén perfectamente
delimitadas las tareas que han de desempeñar cada uno de sus componentes.

Previo a la descripción de las distintas formas que se disponen en la actualidad para la


grabación de datos, es interesante describir brevemente el organigrama de las distintas
personas que facilitan la recogida de la información en una encuesta por muestreo.

Si bien hay que decir que las redes de campo pueden tener diferente estructura dependiendo
del tipo de encuesta1, existe un organigrama básico que es el que presentamos a continuación,
en orden de menor a mayor responsabilidad jerárquica:

• Entrevistadores: realizan las entrevistas según una planificación establecida.


• Codificadores: convierten la información marcada por el entrevistador en códigos
aptos para su tratamiento informático2.
• Coordinadores: tienen a su cargo un grupo de entrevistadores.
• Inspectores: se encargan de la formación de coordinadores y entrevistadores, y de
detectar fallos en la recogida de los datos. Si se detectan éstos, propondrán a los
coordinadores el modo para solventar el problema, de acuerdo a las instrucciones
generales de planificación marcadas por los responsables.
• Responsables: investigadores o directores responsables de la red de campo en su
conjunto.

2.1.- Características de los Entrevistadores


Tanto la encuesta personal como la telefónica se realiza mediante un entrevistador. Ortega
(1990) define al entrevistador como: “Toda aquella persona que cumple de manera
sistemática y repetitiva todas las instrucciones recibidas para conseguir recopilar de forma
uniforme y con idéntica formulación de las preguntas, una serie de datos de personas
definidas o no previamente y, posteriormente, poder agrupar todas las respuestas obtenidas
para analizarlas e interpretarlas global y anónimamente, proporcionando datos relevantes que
ayuden al peticionario de la información a tomar sus decisiones” (pág. 579).

1
Por ejemplo, los centros oficiales (I.N.E., I.E.A., etc.) disponen de sistemas de recogida de
datos muy bien estructuradas como son las U.R.C.E. (Unidades de Recogida CEntralizadas).
2
En algunos sistemas de recogida de datos pueden no ser necesarios los codificadores, ya que
en recogida con soporte informático, la toma de datos y la codificación se realiza en el mismo
momento. Sobre este punto se hablará posteriormente.

13
Ya hemos señalado que la presencia del entrevistador produce ventajas e inconvenientes. El
entrevistador, al servir de puente entre el encuestado y el investigador, es una figura clave, y
una actuación incorrecta puede desbaratar la investigación mejor planificada. De ahí que
queramos incidir en las características del entrevistador y en su forma de llevar a cabo la
entrevista, así como en la formación que deben recibir.

El entrevistador tiene que ser capaz de seguir las instrucciones marcadas en la encuesta y de
recabar la información deseada, registrándola con exactitud. Son responsabilidad del
entrevistador la localización de la muestra de encuestados, la realización del cuestionario y el
registro de las respuestas. Además, debe ser capaz de poder tomar decisiones sobre el terreno
sin la asistencia del supervisor.

Ortega (1990) señala algunas características que debe tener, a su juicio, un buen entrevistador
y de las que cabe destacar las siguientes:
- Cultura de tipo medio para moverse con soltura entre los diversos tipos de
encuestados.
- Buena presencia.
- Uso de lenguaje claro y agradable
- Integridad, de tal manera que desee realizar adecuadamente su trabajo, evitando los
engaños deliberados.
- Interés y voluntad por el trabajo.
- Motivación para trabajar.

La apariencia física del entrevistador juega un papel relevante, pues que se ha comprobado
que determinadas características del aspecto del entrevistador puede modificar las respuestas
de los encuestados, como veremos en el apartado correspondiente. No hay que olvidar que la
forma de vestir y el cuidado personal se suelen considerar como indicadores de las actitudes y
tendencias de la persona. Babbie (1996) aconseja que el entrevistador se vista de forma
parecida a la persona que va a entrevistar. En caso de que esto no sea posible, el encuestador
deberá usar ropa modesta, pulcra y limpia.

En cuanto a su comportamiento, deberá mostrarse amable y tranquilo, presentando un interés


genuino por las respuestas y opiniones del encuestado. Para la realización de la entrevista,
Babbie (1996) incluye las siguientes pautas:
- El entrevistador debe conocer a fondo el cuestionario, para evitar alargar y hacer
tediosa la entrevista, o incluso producir errores. Eso incluye estar familiarizado con las
especificaciones y las instrucciones.
- La lectura de cada ítem ha de hacerse en los términos que está redactado, con
naturalidad, sin cometer equivocaciones ni hacer cambios.
- Debe ser capaz de adaptar las cuestiones a las características de cada situación.
- El entrevistador debe recoger de forma precisa las respuestas, sobre todo cuando se
formulan respuestas abiertas.
- En caso de duda en la respuesta dada por un individuo, el entrevistador deberá recoger
la respuesta literal, añadiendo los comentarios que estime oportunos.
- Con preguntas de respuesta abierta puede ser necesario plantear preguntas aclaratorias
para captar el sentido de la respuesta.

2.2.- Formación y Control de Entrevistadores

14
La formación del entrevistador debe ser de dos tipos: general y específica. La formación
general va dirigida a aspectos teórico-prácticos de lo que constituye una investigación por
encuesta. Así, los contenidos que se incluyen son:
- Descripción de un estudio de investigación por encuesta
- Realización de entrevistas
- Tipos de muestras
- Selección de los entrevistados
- Revisión de cuestionarios
- Supervisión y control del trabajo
- Normas de trabajo y relación con la empresa
- Pagos y gastos

En la realización de entrevistas se incide en aspectos concretos tales como el procedimiento


para llevar a cabo el primer contacto con los entrevistados, la forma de hacer las preguntas o
las técnicas a seguir para ampliar las respuestas del encuestado y para obtener respuestas
claras y completas.

La formación específica va orientada a informar al entrevistador sobre la investigación en la


que va a participar, por lo que los temas que se incluyen son:
- Objetivos del estudio.
- Composición de la muestra, así como la determinación de los lugares y momentos
para seleccionar a los encuestados.
- Lectura del cuestionario, comentarios y resolución de dudas que puedan surgir.
- Instrucciones y especificaciones.
- Procedimientos de control y supervisión, tanto los que deben realizar ellos como a los
que van a estar sometidos.

El entrenamiento en la realización de las entrevistas es un proceso gradual. En un primer


momento, se lee detenidamente el cuestionario, con sus instrucciones, anotaciones y
especificaciones. En segundo lugar, se hace un ensayo en el mismo curso de entrenamiento,
donde los encuestadores pasan el cuestionario a sus compañeros, llevando a cabo entrevistas
experimentales. En una tercera fase, los entrevistadores cumplimentan los cuestionarios con
gente externa al grupo de formación, pero no perteneciente a la muestra seleccionada para la
investigación. Ortega (1990) aconseja que, si se cree conveniente, los entrevistadores menos
experimentados vayan acompañados de un supervisor al realizar las primeras entrevistas. El
estudio piloto, como ya señalábamos en su momento, sirve también como entrenamiento a los
entrevistadores.

En cuanto al control de los entrevistadores, estaremos interesados en comprobar que se han


recogido todos los datos previstos como que se ha hecho de la forma en que se debía hacer.
Mediante el control se intenta descubrir aquellos errores que podrían invalidar parcial o
totalmente la información recibida.

El control debe realizarse en primer lugar por parte del mismo entrevistador, verificando que
el cuestionario haya sido completado correctamente. Luego pasa al supervisor. La revisión del
trabajo realizado en este momento permite sacar a la luz errores fáciles de subsanar en ese
instante, pero cuya solución posterior puede ser más problemática o incluso imposible. Babbie
(1996) aconseja no realizar más de 20 entrevistas sin que el entrevistador informe de su

15
trabajo y presente los cuestionarios completos. La supervisión del trabajo realizado supone
varios tipos de control. Ortega (1990) detalla los siguientes:
1. Control personal de las entrevistas al entregarlas en la oficina.
2. Control personal de la entrevista mediante una nueva entrevista.
3. Control telefónico de la entrevista.
4. Control postal de las entrevistas.
5. Control de consistencia de las preguntas: Se comprueba a través del trabajo realizado
por la misma persona a través de las mismas respuestas o ausencia de las mismas en
distintos cuestionarios.
6. Control de curvas de estabilidad: Tabulación de los cuestionarios de un entrevistador
en orden secuencial de realización de su trabajo. Un número de respuestas a una
pregunta en una misma dirección, si es considerablemente mayor que el que obtienen
otros compañeros, produciría un control más estricto del trabajo realizado.
7. Control de batería de preguntas: Son diseñadas para el control de las respuestas
obtenidas y saber el grado de aceptación que se debe dar a la información.

Los cuatro primeros son controles directos, mientras que los tres últimos se basan en el
análisis interno y comparativo de los cuestionarios cumplimentados por cada entrevistador.

2.3.- El ejemplo del Censo de Población y Viviendas 2001


Un ejemplo de Red de Campo es la que se puede observar en el Censo de Población y
Viviendas de 2001 (I.N.E.), en el cual han participado más de 40.000 personas en la fase de
recogida de datos. La organización necesaria para llegar a más de 13 millones de hogares se
plantea sobre un esquema jerárquico en el que ha sido necesario crear un escalón de carácter
exclusivamente operativo y no habitual en la estructura del Instituto Nacional de Estadística,
como es la comarca. Los aspectos más interesantes de este trabajo en los que a este epígrafe
se refiere son:
• La organización censal.
• Los cuadernos de recorrido.
• La formación del personal.

La organización censal se basa en la siguiente estructura jerárquica:


• 1 Secretaría censal .
• 52 Inspectores provinciales .
• 283 Inspectores comarcales.
• 946 Encargados comarcales.
• 5.619 Encargados de grupo.
• 35.480 Agentes censales.

Los inspectores provinciales de los Censos son los delegados y los inspectores comarcales los
estadísticos técnicos de las delegaciones provinciales del INE. Estos niveles tienen la
responsabilidad de “crear” el resto de la estructura. Todo el personal, a partir de la categoría
de encargado comarcal, se contrata específicamente para la realización del Censo.

Los agentes censales se encargan de recorrer exhaustivamente las secciones censales,


anotando en el cuaderno de recorrido todas las viviendas (principales, secundarias y
desocupadas), locales (activos o inactivos) y alojamientos existentes, entregando los sobres
con los cuestionarios censales en las viviendas principales, recogiéndolos una vez

16
cumplimentados por los hogares y revisándolos para analizar la consistencia de la
información. El trabajo asignado a un agente censal corresponde, en media, a una sección
censal, aunque existe un número reducido de secciones (en torno a 1.500, principalmente de
zonas con muchas viviendas secundarias) que se realizan entre varios agentes para poder
terminar dentro del período de recogida establecido. También existen agentes que hacen
varias secciones debido al reducido tamaño de las mismas. La determinación de los cupos de
trabajo ha tenido como base los datos de las pruebas piloto de 1999 y 2000.

De cada encargado de grupo dependen, en media, seis agentes censales. Su misión


fundamental consiste en depurar los cuestionarios y llevar a cabo el control y seguimiento de
la labor de los agentes censales. Además hay una oficina de zona por cada encargado de
grupo. En ella se celebra una reunión semanal entre el encargado de grupo y sus agentes
censales para el intercambio de documentación e información.

Los encargados de grupo dependen de los encargados comarcales. En cada oficina comarcal
se sitúan dos encargados comarcales. En los dos ordenadores personales existentes en cada
una de estas oficinas se carga la aplicación de seguimiento de la recogida que permitirá, entre
otras labores, la distribución del trabajo entre los encargados de grupo y agentes censales, la
grabación de la identificación de los sobres censales consignando las incidencias asignadas y
la grabación de los partes de seguimiento de cobertura de las viviendas y locales. Las tareas
de grabación son responsabilidad de los auxiliares comarcales de dichas oficinas.

Las oficinas comarcales son los puntos de recepción del material desde el almacén central y
de remisión de los sobres cumplimentados al centro de tratamiento de San Fernando de
Henares. Una diferencia con respecto a censos anteriores es que los cuestionarios censales se
han enviado al centro de tratamiento durante el propio período de recogida, cada dos semanas,
sin esperar, como en ocasiones anteriores, a que esté acabada una sección para remitir todos
los cuestionarios de la misma. Este procedimiento de transporte, que descansa en la aplicación
de control de las oficinas comarcales y del centro de tratamiento, ha permitido reducir los
plazos de disponibilidad de los resultados de la operación censal.

Una novedad importante de este Censo ha consistido en que los cuadernos de recorrido (ruta)
son preimpresos. Para cada sección censal, previo al trabajo de campo, se preparó un
cuaderno de recorrido que recogía todas las viviendas del Padrón así como las viviendas y
locales de otras fuentes administrativas que no están en el Padrón y que son coherentes, según
un criterio complejo que tiene en cuenta el tipo de correspondencia entre los huecos de cada
dirección, con aquel.

En los cuadernos de recorrido están estructurados los distintos niveles de información


geográfica: entidad colectiva, entidad singular, callejero de la sección, aproximación postal,
edificio y hueco (vivienda, local o alojamiento). Contiene, asimismo, información sobre la
entrega y recogida de los cuestionarios, así como de si el hogar cumplimentará el Censo por
Internet, con el fin de coordinar este procedimiento de recogida con las visitas del agente.
Además, los cuadernos están diseñados para poder dar altas, bajas y modificaciones sobre la
información de partida.

En los servicios centrales del INE se ha impartido, en siete cursos, la formación a todos los
inspectores provinciales e inspectores comarcales. Este personal tiene, a su vez, la misión de
formar a los encargados comarcales. La formación de los encargados de grupo y agentes
censales es responsabilidad conjunta de los inspectores y encargados comarcales.

17
Asimismo se ha elaborado material de formación en forma de manuales de agentes censales,
encargados de grupo y encargados comarcales, y un vídeo para la utilización durante los
cursos a agentes censales y encargados de grupo, y una cinta de audio para cada agente
censal. Además, con el fin de homogeneizar los procesos de formación se han elaborado guías
didácticas.

3.- Práctica del Muestreo. Selección de unidades


Una vez planificado el tipo de muestreo probabilístico, es conveniente considerar un diseño
de muestreo clásico adecuado para la encuesta. Por ejemplo, en una encuesta de ámbito
nacional, los pasos podrían ser los siguientes:

• Estratificación por región (comunidad autónoma) con afijación proporcional.


• Estratificación por hábitat (rural-semirural-semiurbano-urbano), con afijación óptima.
• Muestreo por conglomerados en las secciones censales.
• Selección de las unidades últimas.

La selección de los individuos particulares se puede ver favorecida por la existencia de


listados o censos, procediendo con un muestreo aleatorio simple o un muestreo sistemático, si
bien en la práctica se suelen dar dos inconvenientes:
• Que el listado no esté completo, sea obsoleto o no sea del todo fiable. Piénsese, por
ejemplo, que se estima que el censo español contiene más de un 5% de errores.
• Los entrevistadores tienden a hacer excesivas sustituciones cuando no encuentran a los
individuos en su domicilio.

Con objeto de paliar estos inconvenientes existen algunos métodos de selección de unidades
que pasamos a describir.

3.1.- Barrido de Zonas Encuestadas


Cuando no se conoce con exactitud cuántas unidades hay en una zona de muestreo, se puede
proceder a un barrido de la zona. Para ello es habitual que el entrevistador se desplace a la
zona, y comenzando desde un extremo hasta el final de la zona, realice un croquis de la
misma, para proceder a una numeración de las viviendas. A continuación mediante un m.a.s.
o un muestreo sistemático, se procederá a la selección de las viviendas que compondrán la
muestra.

Por ejemplo, supóngase que por sorteo hemos de localizar los portales con número acabado
en 3 (3, 13, 23, etc.). La sistemática podría ser la siguiente: comenzando desde un extremo de
la zona, localizamos el portal 3, si existe, buscamos la puerta que corresponda en ese grupo de
viviendas (esto se conseguirá con otro sorteo), a continuación seguiremos la calle hasta
encontrar el siguiente número (13), salvo que haya algún cruce. En este caso (que haya cruce),
giraremos alternativamente a derecha o izquierda y seguiremos en la calle que corresponda,
buscando el primer portal cuyo número acabe en 3. En caso de salir de la zona asignada,
comenzaremos desde otro punto con la misma sistemática. El siguiente gráfico muestra un
croquis de la operativa descrita:

18
Un método similar es el denominado de “Rutas Aleatorias”. En este, simplemente se prepara
una ruta en la que se expresa dónde se comienza las entrevistas y cuantas hay que realizar,
siguiendo ciertas normas de selección. Habitualmente se da una lista de entrevistas superior al
necesario para suplir las ausencias o faltas de respuesta, por lo que de forma evidente, se
plantearán problemas de falta de representación (no aleatoriedad) en aquellos colectivos que
sean más reacios a contestar ciertas preguntas, y el consiguiente sesgo en algunas variables.

Otro problema que se presenta es el de seleccionar al miembro del hogar que se entrevistará
finalmente. Para evitar sesgos, se puede numerar a los miembros del hogar partiendo de la
mujer con más edad, hasta el hombre más joven, y seleccionar aleatoriamente un número con
la ayuda de una tabla de números aleatorios. No obstante, un procedimiento más rápido y que
produce buenos resultados es usar lo que se conoce como parrillas de selección, de las que se
muestra el siguiente ejemplo debido a Trodahl y Carter:

19
3.2.- Método de Cuotas
Cuando no se dispone de listados adecuados, el método anterior da resultados bastante
buenos, si bien es muy laborioso. En diversas circunstancias se prefiere usar métodos más
sencillos que no guardan la condición de aleatoriedad del anterior, que no obstante, cuando se
usan de una forma adecuada producen buenos resultados. Uno de estos métodos es el método
de cuotas.

En este método se "fuerza" a que aparezcan en la muestra las proporciones conocidas de


individuos con cierta característica. Por ejemplo, se procurará que aparezca un 50% de
hombres y un 50% de mujeres, unos porcentajes dados de individuos según su edad, otros
porcentajes según su estado civil, etc.; todo ello, dejando al entrevistador que los elija como
quiera siempre que cumplan las cuotas. Hay que insistir por tanto en que se trata de un
método no aleatorio de obtención de muestras, si bien para encuestas de propósito general
suele dar buenos resultados.

20
Para realizar estas elecciones se facilitará al entrevistador una plantilla sobre la que tachará
cada individuo entrevistado que se corresponda con una cuota, hasta que termine con todas las
cuotas. Es evidente por tanto, que en un primer momento se encontrará con facilidad a los
individuos correspondientes a cualquier cuota, y que la mayor dificultad estriba en encontrar
individuos que pertenezcan a las cuotas finales (p.e. Hombre + Soltero + Mayor de 50 +
Estudios Superiores + ...).

3.3.- Método de las Unidades-Tipo


Este método consiste en tomar como muestra ciertas unidades que se comporten o sean
parecidas al promedio de la población a estudiar (en ciertas variables a investigar). El
problema estriba en el criterio para la selección de estas unidades. En los ámbitos de
aplicación de este tipo de muestreo no probabilístico (p.e. agricultura y procesos electorales)
se suele recurrir a la opinión de un experto que conozca en profundidad la población y las
variables investigadas.

Este método es muy aplicado para encuestas electorales, en las que se suelen seleccionar para
el diseño de muestreo aquellas secciones censales que tuvieron un comportamiento electoral
muy similar al resultado de la circunscripción. Incluso, en las mismas citas electorales se
suelen realizar los llamados “muestreos de las 100 primeras papeletas”, que no son más que
muestreos de unidades tipo de la forma anterior y suelen proporcionar estimaciones muy
ajustadas con los resultados finales de las elecciones.

4.- Planificación Temporal


En general, la planificación de una investigación consta genéricamente de las siguientes fases
a tener en cuenta en el cómputo del tiempo total necesario para llevar a cabo la investigación:

a) Diseño teórico y plan de muestreo.


b) Preparación del cuestionario.
c) Prueba del cuestionario.
d) Selección y contratación de entrevistadores.
e) Prueba piloto.
f) Trabajo de campo.
g) Supervisión y verificación.
h) Codificación.
i) Tabulación y corrección.
j) Análisis.
k) Informe.

Las sucesivas acciones a realizar en la investigación se suelen presentar en el conocido como


diagrama de Gantt (o cronograma). Un cronograma genérico será el siguiente:

Periodo Total
Fase 1 2 3 4 5 6 7 8 9 10 11
Diseño de la Investigación
2
Diseño de muestreo y Preparación del 2

21
Cuestionario
Ejecución Encuesta Piloto
3
Reclutamiento y adiestramiento de
2,5
entrevistadores
Trabajo de Campo
6
Grabación y depuración de datos
5,5
Procesamiento de los datos
6
Tabulación y Análisis Primarios
1,5
Informe
1

Para cada investigación, simplemente se tratará de adaptar el cronograma anterior a nuestras


necesidades. Por otra parte, cada investigación definirá su propio periodo temporal, esto es, el
diagrama anterior solo muestra el tiempo relativo entre actividades, por lo que el periodo
concreto será mayor o menor en función de la envergadura de la investigación.

Para optimizar las actividades concurrentes (que se pueden realizar simultáneamente), y para
calcular el tiempo más probable de ejecución de la investigación, se suele utilizar una técnica
con base en la Investigación Operativa denominada PERT (Planning Evaluation Review
Technique).

En cuanto al presupuesto (coste) de la investigación, consideraremos tres capítulos básicos:

1. Gastos necesarios en información previa (el 10 % de lo que cuesta la investigación).


2. Trabajo se campo (80 % del total).
3. Análisis y presentación de los resultados (el 10 % restante del total del presupuesto).

Podemos expresarlo con la siguiente fórmula:

CT = CF + CVU * N

CT = coste total.
CF = coste fijo.
CVU = coste de la variable por unidad entrevistada.
N = número de unidades entrevistadas.

Parece evidente, que el coste del trabajo de campo sea el 80% del total, ya que obviamente
depende de las unidades que se encuesten. Por otra parte, habremos de tener cuidado en que
los costes fijos no superen cierto umbral, ya que esto redundará en el número de encuestas y
por tanto en los errores de muestreo generados en la investigación.

Por su parte, los costes fijos se refieren fundamentalmente a:


- Coste de preparación: comprende la elaboración y prueba del cuestionario, diseño,
plan de muestreo y formación de encuestadores.

22
- Coste fijos relativos al modo de administración de la encuesta: p.e. material
informático en encuestas de tipo CAPI-CATI.
- Coste de supervisión: comprende la revisión y el control del grado de
cumplimentación de los cuestionarios.
- Costes bibliográficos y a acceso a fuentes de información.
- Costes de imprenta y de presentación de resultados.

Finalmente, se pueden repercutir algunos otros gastos de amortización de material y de


personal adscrito a tareas administrativas y de gestión.

23
Tema 5: Chequeo, Validación y Grabación
de Datos
Una vez recogida la información en campo se inicia la etapa de tratamiento de esta
información. Esta etapa consta a su vez de varias fases como son: depuración, codificación,
grabación, validación y evaluación del trabajo de campo. Es importante no olvidar que todas
las etapas, fases y tratamientos operativos en la encuesta tienen la misma importancia. Sin
duda, un trabajo deficiente en cualquiera de las fases que detallamos a continuación
conduciría a resultados erróneos arruinando el trabajo de elaboración de la encuesta.

Cada una de las etapas que describiremos a continuación se fundamentan en que ninguna
excluye a la otra, es decir, durante el proceso de tratamiento de la información, algunas de las
fases podrán darse conjuntamente con las demás llegando a fundirse dos o más en una única
fase de tratamiento. Ello dependerá de la dificultad y planteamiento de la encuesta.

1.- Codificación y Grabación Automática de los


Datos
Dependiendo del modo de administración, la codificación podrá ser realizada por el
entrevistador, por un equipo especializado mediante soporte informático (en este caso estará
íntimamente ligada a la fase de depuración que veremos más adelante), o por el propio
entrevistado en el caso de las e-encuestas.

Es importante que la grabación en soporte magnético de los resultados recogidos en los


cuestionarios, vaya íntimamente ligada en el tiempo al trabajo de campo, con objeto de
permitir simultanear los dos procesos y los posteriores de validación automática y corrección
de errores e incoherencias, permitiéndose, con ello, aproximar al máximo los primeros
análisis de datos a la recogida de información. Se trata, con ello, de facilitar la solución a
tiempo de determinados problemas e inconsistencias y de efectuar un mejor control de calidad
de los datos producidos.

Los mejores métodos de grabación son los denominados de grabación inteligente tipo C.A.D.I
(acrónimo de Computer Assisted Data Input o Entrada de Datos Asistida por Ordenador).
Estos sistemas de carga deben permitir:

• Definir de forma flexible el formato de pantalla para la grabación; lo más indicado es


que las pantallas de introducción de datos sean construidas a imagen y semejanza del
cuestionario, lo que ayudará a los grabadores a identificar inequívoca e
inmediatamente la pantalla con el papel cuestionario, evitando errores de corrimiento.
• Automatizar la grabación de determinados campos por medio de contadores y el
traslado de la información de campos iguales incluso a registros diferentes. Esta
potencialidad es básica para garantizar una estructura homogénea en cuestionarios de
la complejidad del utilizado.
• Proporcionar estadísticas de control del trabajo de grabación: productividad, etc.
• Contener módulos de verificación o de doble grabación sobre un fichero pregrabado
con sus correspondientes estadísticas de coincidencia.

1
• Apoyar al usuario con un menú pormenorizado de alimentación del programa y de
ayuda en la grabación.
• Definir de forma flexible el formato de salida del fichero.
• Imponer controles de validación obligatorios de forma que su incumplimiento obligue
a no grabar, hasta su corrección, los cuestionarios afectados.
• Establecer fuertes controles de grabación que impidan admitir errores en los campos
básicos de definición de las unidades objetivo (identificadores, código de actividad,
estrato, etc.) validando conjuntamente esta información con relación a un fichero
exterior que incluye la relación de objetivo o cargándolos directamente desde el
programa gestor del trabajo de campo. Los errores en estos campos con control fuerte
deben detener la grabación del cuestionario hasta su corrección.
• Introducir controles de rango de cada campo, en los campos cerrados con los valores
explícitos en el cuestionario y en los abiertos con los determinados en el libro de
códigos.
• Incorporar un sistema de doble grabación ciega; este método permite que el grabador
vuelva a grabar la información sin ver la existente en la primera grabación; el
programa se paraliza cuando trata de introducirse un valor distinto al existente en la
grabación anterior debiendo introducir la persona encargada del control de calidad de
la grabación el dato finalmente válido. Este sistema, además de asegurar la máxima
calidad en esta fase permite seleccionar el personal que comete errores y realizar
mediante un muestreo estadísticas de coincidencia que evitan repetir de nuevo todo el
trabajo en una segunda grabación.

Un procedimiento adecuado es controlar la grabación y pasar la misma a la fase de validación


por lotes de grabación; de esta forma es posible avanzar llevando a cabo simultáneamente las
distintas fases del trabajo.

Existen otros métodos de grabación óptica en cuyo desarrollo se está avanzando rápidamente
y que resuelven ya, con gran calidad, la grabación de ciertos cuestionarios, los ya explicados
anteriormente: El OCR (acrónimo Optical Character Recognition o Reconocimiento Óptico
de Caracteres) y el OMR (acrónimo de Optical Mark Recognition o Reconocimiento Óptico
de Marcas).

2.- Chequeo y Validación


Una vez grabada la información ésta debe ser validada. Es, por tanto, necesario elaborar un
plan de validación automático de la información obtenida que nos permita localizar los
posibles errores (control de rango y flujo, observaciones anómalas, outliers, etc.), los que
tienen insuficiencias (valores en blanco o perdidos) o incoherencias-inconsistencias lógicas
(del tipo padre con tres años, abuelo con 14, etc.).

Uno de los métodos más aplicados en esta fase es el de Fellegi y Holt. Este método nos
permitirá registrar valores erróneos y corregirlos de forma que el fichero resultante no tenga
inconsistencias. La aplicación del programa de validación permite obtener una serie de
registros y variables no validadas tal que, tras un análisis exhaustivo de los elementos no
validados, posibilita determinar la actitud a adoptar para la superación de las insuficiencias e
incoherencias.

2
Durante el proceso de validación tendremos que controlar errores de tipo formal, como
incoherencias de la información obtenida respecto a las normas de cumplimiento del
cuestionario, errores de rango y errores que relacionan la respuesta en diferentes campos en
función del “grafo” explícito del cuestionario. O errores de contenido, como por ejemplo
incoherencias entre la información recogida en diferentes campos relacionados. Más adelante
nos centraremos en el estudio de los tipos de errores que se pueden producir en el proceso de
elaboración, diseño y realización de la encuesta.

La fase de validación de los datos debe producirse lo más próxima posible en el tiempo a la
fuente que ha producido el error, supóngase que el error se ha cometido en la entrevista, pues
bien, su corrección exigiría acudir de nuevo a ella, cosa que únicamente es factible cuando
entre los dos contactos ha pasado el menor tiempo posible.

Los controles de validación más frecuentes son:

1. Controles de rango y flujo: constituyen los controles puramente formales por cuanto
validan la coherencia interna de la cumplimentación y grabación de la información de
cada cuestionario. Validan el rango prefijado de cada campo de información y el flujo
o relación entre campos según las órdenes explícitas del cuestionario. Los controles de
flujo solo admiten relacionar dos campos como máximo.

2. Controles cruzados: contrastan relaciones entre la información de dos y más campos.


Completan la validación formal y permiten la introducción de controles de contenido.

3. Controles especiales: admiten la formulación matemática y son los específicamente


destinados a la validación de la coherencia de contenido.

Sólo cuando los errores puramente formales de rango y flujo están corregidos deben aplicarse
los de contenido. La secuencia en las tareas de validación será la siguiente:
1. Control de recepción y cobertura de los ficheros grabados.
2. Validación de la estructura de la información.
3. Ejecución de los controles de Rango y Grafo.
4. Corrección manual de errores.
5. Grabación de las correcciones y ejecución del programa de corrección.
6. Ejecución repetida del mismo tipo de errores sobre el subfichero de registros con
error hasta que el número de errores sea nulo.
7. Ejecución repetida de forma similar de los controles cruzados con todas sus fases.
8. Ejecución, también repetida, de los controles especiales.
9. Ejecución, de nuevo, de todos los tipos de controles para verificar que no hay
errores (las correcciones en unos submódulos pueden provocar errores en otros).

Por su parte, la evaluación del trabajo de campo comprenderá a su vez las siguientes fases:
revisión del cumplimiento de la muestra, análisis y tratamiento de la no respuesta, imputación
y la post-estratificación o reequilibrado de la muestra.

La mayoría de las grandes encuestas que llevan a cabo los organismos estadísticos nacionales
han sido diseñadas en base a un tamaño muestral que garantiza la mayor probabilidad de los
estimadores a escala estatal. Pero en algunas operaciones, por dificultades en los trabajos de
campo, la muestra es más restringida que la población objeto de estudio, por ejemplo, en

3
muestras estratificadas esta reducción de tamaño puede afectar de forma diferente a los
distintos estratos, lo que, a su vez, puede ocasionar consecuencias de distintos tipos.

El análisis estadístico de los resultados debe comenzar con la comprobación de este hecho y
con el análisis de las causas de porqué se ha producido; interesa detectar, en particular, si
entre estas causas está la incidencia de determinadas no-respuestas que pueden ocasionar
sesgos.

Si no se realizan más entrevistas para paliar la falta de cumplimiento de la muestra, es


necesario cambiar los factores de ponderación inicialmente previstos, pero, además, si no se
cumplen determinados perfiles de la muestra original, puede ser necesario proceder a realizar
una post- estratificación.

3.- Falta de Respuesta


El diseño de una encuesta por muestreo comprende varios aspectos íntimamente ligados, ya
que la falta de cualquiera de ellos puede invalidar la encuesta en su totalidad. Como ya hemos
comentado, básicamente para plantear la encuesta han de seguirse las siguientes etapas:
1. Determinación del objetivo de la encuesta.
2. Estudio de las condiciones generales a las cuales ésta se desarrollará y de las
restricciones a las cuales estará sometido el estadístico.
3. Elección de un sistema de trabajo para la recogida de datos.
4. Trabajo de campo.
5. Proceso de datos y control de su calidad.
6. Análisis estadístico, interpretación de los resultados.

La importación relativa de cada uno de los apartados depende mucho del tipo de encuesta
efectuada, si bien es de gran importancia para cualquier encuesta la fase referente a la
depuración, de datos y control de calidad de los mismos corrigiendo errores, detectando datos
anómalos, etc.

Esta fase de chequeo y validación de los datos incluye una evaluación del grado de
adecuación de la muestra. Un problema que surge principalmente en este sentido es el de la
falta de respuesta, situación que se da cuando por ciertos elementos ajenos al diseño de la
muestra, no puede obtenerse toda o parte de la información deseado, la información obtenida
no puede utilizarse. Esta situación provoca de forma inmediata la disminución del tamaño
muestral y la aparición de sesgos.

Como decimos, la falta de respuesta es uno de los problemas más importantes de entre los
errores ajenos al muestreo, que también viene a denominarse como “sin respuesta”, “e
desconoce”, etc. Es obvio que este problema solamente aparece cuando el método de
muestreo es aleatorio, y no en otros tipos de muestreo como por ejemplo el muestreo por
cuotas.

La falta de datos puede deberse a causas muy diversas:

• Ausencia temporal del individuo seleccionado para entrevistar, “los no en casa”:


este grupo contiene personas que residen en el lugar pero que se encuentran

4
temporalmente fuera de casa, también puede ocurrir que se haya producido un
cambio de domicilio.

• Negativa absoluta a colaborar, “los huesos duro”: son aquellas personas que
cerradamente rehúsan ser entrevistadas o también personas de difícil accesibilidad
como, por ejemplo, los miembros de un clan que rechacen al que pretenda
visitarlos (grupos marginados, sectores raciales, etc.). Esto representa una fuente
de sesgo que persiste sin importar cuanto esfuerzo se ponga en la perfección de las
listas.

• Falta de conocimientos del entrevistado o incapacidad por parte del entrevistador;


a pesar de tener buena voluntad de colaborar puede ocurrir que se desconozca o no
se recuerde la respuesta a lo que pregunta, pero también puede ocurrir que el
entrevistador no haya querido o haya sido incapaz de explicar el contenido de la
respuesta.

• Pérdida de la información: puede tratarse de un simple extravío del material ya


recogido.

• No cubrimiento: puede ser debido a condiciones ambientales, escasa facilidad de


transporte, etc., que hacen imposible alcanzar ciertas unidades de la muestra
durante el periodo de la encuesta o bien simplemente, áreas que no hayan sido
cubiertas en la realización del muestreo.

3.1.- Efectos de la falta de respuesta total


Las causas que hemos mencionado anteriormente producen un efecto de sesgo en la
estimación de los parámetros, que será mayor cuanto más grande sea la falta de respuesta.
Esta circunstancia se puede demostrar teóricamente, para lo cual es útil considerar las N
unidades de la población dividida en dos estratos, los que contestan N1 y los que contestan N2.
Si la característica que tratamos de estimar es, por ejemplo, la media de la característica
poblacional X:

Ni
X = w1 X 1 + w2 X 2 siendo wi =
N

y definiendo

X1 : media de la población que contestan.


X2: media de la población que no contestan.

Si utilizamos solamente unidades del estrato que contestan y sabemos que x1 es un estimador
insesgado de X 1 :

B = E ( x1 ) − X = X 1 (w1 X 1 + w2 X 2 ) = X 1 (1 − w1 ) − w2 X 2

Sabiendo que w1 + w 2 = 1 , obtenemos:


B = w2 (X 1 − X 2 )

5
Podemos decir que el sesgo obtenido es proporcional al peso del estrato que no contestan, por
tanto al aumentar N2 (no respondientes) para una población total de N unidades, aumentará
considerablemente el sesgo.

Observamos que la falta de respuesta produce, por un lado, una disminución en el tamaño de
la muestra que disminuye la precisión y, por otro, un sesgo independiente del tamaño
muestral. El primer efecto puede compensarse aumentando el tamaño de la muestra, por
ejemplo, mediante sustituciones aleatoriamente elegidas, pero la información obtenida
siempre se refiere a un solo estrato y el sesgo permanece invariable.

3.2.- Tratamiento primario de la falta de respuesta (Fase de


Campo)
A continuación vamos a estudiar algunos métodos para el tratamiento de la falta de respuesta.
En primer lugar hay que considerar la fase de planificación y diseño de la encuesta: hay que
prestar atención a la obtención del marco, así como el diseño del cuestionario que juega un
papel importante en la eliminación del rechazo a contestar. No obstante, la lucha más
importante con la falta de respuesta se da en la recogida de los datos así como en las etapas de
su procesamiento y análisis, que desarrollaremos en epígrafes siguientes.

Encuestas Repetidas (CALLBACKS): una de las técnicas utilizadas es repetir las visitas
hasta un número mínimo, antes de abandonar una unidad. Las encuestas repetidas pueden
tomar formas diversas, dependiendo del tipo de encuesta y de las formas de recoger los datos.
Las encuestas repetidas son la forma mas “limpia” de reducir la no respuesta.

Los otros métodos se basan en la aceptación por el diseñador del riesgo al sesgo causado por
un método particular frente al coste de hacer revisitas. En las encuestas por correo la encuesta
repetida suele ser una carta, recordando la importancia de la encuesta e incluyendo una copia
del cuestionario. No suele haber más de dos repeticiones y estas se realizan antes de que
finalice el plazo de recogida de los datos (como se comentó n el anterior tema). En el caso de
encuestas telefónicas las repeticiones suelen hacerse también por teléfono y se suelen permitir
más repeticiones que en cualquier otro tipo. Finalmente, en el caso de entrevistas personales
las encuestas repetidas se hacen volviendo a llamar a las personas por teléfono.

Diversos estudios confirman que:


- El mínimo de respuestas se incrementa sustancialmente cuando crece el número de
repeticiones.
- La estimación de la media después del primer intento de realizar la encuesta difiere
sustancialmente de la estimación tras varias repeticiones.

La encuesta delegada (PROXY): esta técnica consiste en elegir datos de una unidad
alternativa. Por ejemplo en las encuestas familiares en caso de que no sea posible obtener la
información de la persona indicada, se puede hacer para cualquier otro miembro de la familia
mayor de cierta edad. Naturalmente las respuestas tienen una probabilidad de ser incorrectas
en estos casos pero puede no ser peligroso para ciertas encuestas. Si la información requerida
es confidencial o personal entonces la encuesta delegada puede ser confusa.

6
Sustitución de Unidades. En el momento de recoger los datos se procede a una sustitución
usando unidades que no había sido seleccionado para la encuesta. Con este procedimiento se
logra mantener el tamaño de la muestra y con ello no aumentar el tamaño de la varianza. Hay
dos tipos básicos de sustituciones a usar:
- Selección de una unidad aleatoriamente.
- Selección de un sustituto específicamente designado.

El procedimiento de sustituciones no es recomendable ya que no consigue información sobre


el estrato de la falta de respuesta. Además puede introducir sesgos nuevos debido a la
dificultad de controlar las sustituciones y a la utilización de reglas de sustitución sesgadas.

El Uso de Incentivos: El método está bien establecido y se usa a menudo. Un incentivo


puede ser menos costoso que una llamada adicional. La planificación del incentivo se basa en
el coste de las llamadas adicionales que habrían de utilizarse en realizar revistas. Sin embargo,
tiene inconvenientes como el que para conseguir el incentivo se da información errónea.

Otros Métodos. Existen también otros métodos entre los que destacan la motivación del
encuestado acerca de la importancia de su contestación, y el método de Kish y Hace ( 1959).
Este último método consiste esencialmente en utilizar en una encuesta direcciones
correspondientes a la falta de respuesta en una encuesta anterior que sea similar. Se hace un
número mínimo de intentos especificado para obtener respuestas con los dos conjuntos de
direcciones.

Las respuestas obtenidas en la encuesta actual en las direcciones correspondientes a la falta de


respuesta en una encuesta anterior y se considera como sustitutos para la falta de respuesta en
la encuesta actual. El método de Kish y Hace puede reducir, bajo ciertos requisitos, el sesgo
debido a la falta de respuesta, aunque requiere controles especiales, puede complicarse el
diseño de la encuesta y requerir una encuesta previa, similar, en la que pueden obtenerse las
direcciones de la falta de respuesta.

3.3.- Métodos estadísticos para el tratamiento de la falta de


respuesta
Hemos visto que los métodos anteriores se aplican fundamentalmente para corregir el
problema de falta de respuesta en el periodo en de recogida de datos. Los métodos que
veremos a continuación se aplicarán si ya ha concluido la fase de campo, y pretenden paliar
los efectos que provoca la falta de respuesta en las estimaciones de los parámetros de interés.

Método de Hansen y Hurwitz: consiste en la utilización de un muestreo bifásico, con


selección en la primera fase de una muestra aleatoria simple de n unidades que de entre las
cuales existen n1 de las que se obtuvieron información en el primer intento y n2 que no
contestan. De las n2 unidades se obtiene una muestra aleatoria simple de n21 unidades en las
que se realiza un gran esfuerzo para conseguir la información. Tenemos:
n 21 n
n = n1 + n 2 f 21 = f =
n2 N
se considera como estimador del total:
Xˆ =
1
f
(
x1 + Xˆ 2 )

7
siendo:
• x1 = Xˆ 1 : el estimador del total de los que responden.
• 1 el estimador del total de los que no responden.
X2 = x2 :
f 21
Es interesante notar que el estimador definido es insesgado de X, es decir, E Xˆ = X , puesto ( )
( ) ( ( ))
que, al ser el muestreo bifásico E Xˆ = E1 E2 Xˆ , donde el subíndice 1 indica la esperanza
sobre la muestra n y el subíndice 2 la esperanza sobre la muestra n21 . De esta forma:

( ) ⎛ ⎛1
( ⎞⎞
) ⎛ ⎛1 ⎞ ⎛1 ⎞⎞ ⎛1 1
( )

E Xˆ = E1 ⎜⎜ E 2 ⎜⎜ x1 + Xˆ 2 ⎟⎟ ⎟⎟ = E1 ⎜⎜ E 2 ⎜⎜ x1 ⎟⎟ + E 2 ⎜⎜ Xˆ 2 ⎟⎟ ⎟⎟ = E1 ⎜⎜ E 2 ( x1 ) + E 2 Xˆ 2 ⎟⎟ =
⎝ ⎝ f ⎠⎠ ⎝ ⎝ f ⎠ ⎝ f ⎠⎠ ⎝ f f ⎠
⎛1 1 ⎞ ⎛1 ⎞
E1 ⎜⎜ x1 + x 2 ⎟⎟ = E1 ⎜⎜ x ⎟⎟ = E1 ( N x ) = N X = X
⎝ f f ⎠ ⎝ f ⎠

Además, para una función de coste dado se pueden determinar los valores óptimos de n y f 21 .
Para ello sea la función de coste:

C = nC 0 + n1 C 1 + n 21 C 2

donde
• C0 : coste por unidad de la muestra total, (coste inicial de selección).
• C1 : coste por unidad de la muestra de respondientes.
• C2 : coste por unidad de la muestra de no respondientes y que puede escribirse como:
⎛ n n n ⎞
C = n ⎜⎜ C 0 + 1 C 1 + 21 2 C 2 ⎟⎟
⎝ n n2 n ⎠

n1 n
siendo = P̂1 y 2 = P̂2 de donde se deduce el coste esperado como:
n n
E (C ) = n (c 0 + c1 P1 + c 2 P2 f 21 )

N1 N
con P1 = y P2 = 2 .
N N

Los valores de n y f21 que minimizan el coste esperado para una precisión establecida igual a
( )
v0 Xˆ , se obtienen mediante el método de los multiplicadores de Lagrange:


Φ = n (c 0 + c1 P1 + c 2 P2 f 21 ) + λ ⎜⎜ N 2 (1 − f )
S2 1⎛ 1
+ ⎜⎜
f ⎝ f 21

( ) ⎞
− 1 ⎟⎟ N 2 S 22 − v 0 Xˆ ⎟⎟
⎝ n ⎠ ⎠

donde

⎛ 2 2
⎛ ⎞ ⎞
⎜ N (1 − f ) S + 1 ⎜ 1 − 1⎟ N 2 S 22 ⎟
⎜ ⎜
f ⎝ f 21 ⎟ ⎟
⎝ n ⎠ ⎠

8
es la varianza del estimador del total X̂ , según el muestreo bifásico, (veáse el cálculo en
Azorín y Sánchez- Crespo, pp. 239-240). Para una mejor derivación la expresión anterior se
escribe como:


Φ = n (c 0 + c1 P1 + c 2 P2 f 21 ) + λ ⎜⎜ N 2
S2
− NS 2
+
N ⎛ 1
⎜⎜

( ) ⎞
− 1 ⎟⎟ N 2 S 22 − v 0 Xˆ ⎟⎟
⎝ n n ⎝ f 21 ⎠ ⎠

y se deriva respecto a n y f21 e igualará a cero. A continuación se despejan e igualan los


valores λ de ambas ecuaciones, con lo que se obtendrá:
1
⎛ c ⎞2
⎜ 2
c1 + 0 ⎟
f 21 = ⎜ 2 1 2 2 ⎟
PS P1
⎜ S − P2 S 2 c2 ⎟
⎜ ⎟
⎝ ⎠

( )
Sabiendo que V0 Xˆ es la varianza del estimador del total, en el supuesto de que no existiera
falta de respuesta (es decir sólo tendríamos que aplicar una primera fase para la obtención de
la muestra) y si en ella representamos n′ como el tamaño de la muestra necesario para obtener
esta varianza, es decir,

( )
Podemos determinar el valor de n igualando V0 Xˆ y V Xˆ , es decir: ( )
⎛ ⎛ 1 ⎞ S2 ⎞
n = n′⎜⎜1 + ⎜⎜ − 1⎟⎟ P2 22 ⎟⎟
⎝ ⎝ f 21 ⎠ S ⎠

donde n es el tamaño de la muestra necesario para obtener una varianza V Xˆ cuando existe ( )
una proporción P2 de falta de respuesta. Se puede decir sintéticamente que:

• Este método es tanto más ventajoso cuanto mayor sea la diferencia entre los costes por
unidad en ambas fases, aunque es más adecuado para las encuestas por correo.
• Al complicar bastante el diseño de la encuesta y junto con otros inconvenientes
técnicos hace que sea un diseño que se utilice poco en la práctica.

Método de Politz y Simmons. En este método que trata de reducir los sesgos se supone que
el entrevistador realiza una sola visita o intento para conseguir la información. Supóngase que
se hicieron visitas durante seis noches en la semana. Al entrevistado se le pregunta si estaba
en casa al momento de la entrevista en cada una de las cinco noches anteriores en la semana.
Si el declara que estuvo en casa t de las cinco noches se toma la razón:

t +1
πt = (t = 0,1,2,3,4,5)
6

que la definiremos como la probabilidad de encontrar a esa persona que contesta en el


momento de la entrevista.

9
Los resultados obtenidos estarán, en general, influenciados por las contestaciones de aquellas
personas que permanecen en la casa más tiempo. Para disminuir el sesgo que puede producir
esta influencia se hace la pregunta adicional: ¿En cuantos de los cinco periodos anteriores de
la entrevista se le hubiese encontrado en casa? (utilizaremos π t ). Supongamos que con las
contestaciones formamos 6 grupos:
nt : número de entrevistas obtenidas en el t-ésimo grupo.
xt : media del t-ésimo grupo.

Tenemos:
5

5 ∑ x ∑n x i t t

∑ nt = n, xt = i
= t =0
5

∑n
t =0 n
t
t =0
El estimador de Politz y Simmons pondera las contestaciones con el recíproco de la
probabilidad de permanecer en casa:
5
1
∑n x
t =0
t t
πt
x PS = 5
1
∑n
t =0
t
πt

Con este método se sustituye la media sesgada x por el estimador x PS que tiene menor
sesgo, pero con una varianza aumentada por la utilización de ponderaciones estimadas. Este
aumento se cifra por varios autores entre el 25% y el 35%.

Kish y Cochran señalan una serie de inconvenientes que hacen por lo menos dudosa la
conveniencia de una posible aplicación general de este método. No obstante, si sólo es posible
una visita, o los sesgos debido a la falta de respuesta en una primera visita son importantes y
1
la muestra es grande, puede resultar preferible utilizar las ponderaciones .
πt

Por último diremos que este método tiene la ventaja de economizar tiempo, y que también se
puede usar con varios intentos.

Método de Platek, Singh y Tremblay. Este método trata de aplicar un modelo particular
para el estudio de la no respuesta. En éste, la población se considera formada por
respondientes potenciales siendo Pi la probabilidad de que conteste la unidad ui en una
encuesta determinada. Para la unidad i el modelo es:

Xˆ i = (valor observado) ⋅ ei + (valor imputado) ⋅ (1 − ei )

siendo:

Xi : el valor sin error, “verdadero”, o esperado.


X i + ε i (R ) : el valor observado.
X i + ε i (NR) : el valor imputado.

10
Indicando por ε i el error aleatorio de respuesta y no respuesta. Introduciendo la variable
aleatoria auxiliar:

⎧1 si ui contesta con probabilid ad Pi .


εi = ⎨
⎩0 si ui no contesta con probabilid ad 1 − Pi .

el modelo puede escribirse en la forma:

Xˆ i = ( X i + ε i (R )) ⋅ ei + ( X i + ε i ( NR )) ⋅ (1 − ei )

entonces, si llamamos i a cualquier unidad que responde y j a cualquier unidad que no


responde tenemos el siguiente modelo:

Xˆ i = ( X i + ε i (R ))
Xˆ j = (X j + ε j ( NR )) i≠ j

Se puede demostrar que el sesgo y la varianza del estimador Xˆ = ∑ Xˆ k (siendo k cualquier


k

unidad, tanto la que responde –valor observado- como la que no responde –valor imputado-)
son respectivamente:
( )
B Xˆ = sesgo de no respuesta + sesgo de respuesta.
( )
V Xˆ = varianza de no respuesta + varianza de respuesta + varianza de imputación +
covarianza entre errores de respuesta y errores de imputación.

Plateck y otros consideran los valores del sesgo y la varianza para las siguientes hipótesis de
imputación, lo que conforman diferentes métodos de utilización de este modelo:
• Se efectúa ajuste para corregir la falta de respuesta, (para ello se utilizan los
respondientes para ajustar una recta u otra función cualquiera que se pueda ver más
adecuada y luego se imputan los no respondientes según el ajuste).
• Se utiliza un factor de corrección uniforme, (esto permite la reducción del sesgo de no
respuesta, con relación al primer método, cuando las unidades tienen más o menos la
misma probabilidad de responder).
• Se emplean datos externos, (no se produce ajuste, se imputan valores utilizando datos
de ocasiones anteriores, la eficiencia de este método depende de la proximidad entre
ambas fuentes de información).

Método de Thomsen y Siring. La principal novedad de este método es que la varianza, el


sesgo debido a la falta de respuesta y el coste, son parámetros estimables. Cuando un
entrevistador establece contacto con una unidad, los resultados podrían ser:
1. Obtención de respuestas con probabilidad P.
2. No obtención de respuestas con probabilidad f y decisión de realizar intentos
sucesivos C = 1, 2,...,c, con probabilidad constante P · D de obtener respuesta (por
ejemplo en las ausencias).
3. No obtención de respuestas e inclusión de la correspondiente unidad en la categoría de
los no respondientes, con probabilidad f ( por ejemplo en las negativas).

De acuerdo con estos supuestos tendremos las siguientes probabilidades de obtener respuesta:

11
P (C = 1) = P
P (C = 2 ) = (1 − P ⋅ D − f )
M
⎧P si c =1
P (C = c ) = ⎨
⎩ (1 − P ⋅ D − f )(1 − P ⋅ D − f )c − 2 ⋅ P ⋅ D si c≥2

ya que:

P ⎛⎜ respuesta ⎞=P
⎝ C = 1 ⎟⎠

P ⎛⎜ respuesta ⎞ = (1 − P − f )(1 − P ⋅ D − f )P ⋅ D
⎝ C = 2 ⎟⎠

P ⎛⎜ respuesta ⎞⎟ = (1 − P − f )(1 − P ⋅ D − f )2 P ⋅ D
⎝ C = 3 ⎠
M
M

P ⎛⎜ respuesta ⎞ = (1 − P − f )(1 − P ⋅ D − f )c − 2 P ⋅ D
⎝ C = c ⎟⎠

Los parámetros P, D y f pueden estimarse si se dispone de información sobre el número de


intentos. Un modelo matemático sobre el número de intentos puede verse en Deming.

4.- Post-Estratificación
La post-estratificación o reequilibrado de la muestra una técnica de Muestreo que consistirá
en hacer una estratificación a posteriori. La técnica puede emplearse siempre que, con carácter
previo no se tenga información suficiente sobre la población o siempre que no sea posible
aplicar técnicas suficientemente buenas para la selección aleatoria durante el trabajo de
campo. Particularmente puede resultar necesaria en los muestreos no probabilísticos
(muestreo por cuotas, por rutas aleatorias, etc.).

Consiste en definir a posteriori los estratos en función de los distintos valores de una o varias
variables. Es una técnica robusta que funciona aceptablemente bien en bastantes situaciones;
una forma sencilla de llevarla a cabo es la siguiente:
1. Elección de un tamaño muestral razonablemente elevado.
2. Distribución de la muestra de forma que estén adecuadamente representadas todas las
categorías de la población a las que se les pone a priori un componente estratificador
(por ejemplo, edad, sexo, nivel de estudios,etc).
3. Análisis e los resultados muestrales para obtener los componentes homogeneizadores
respecto a la variable o variables de interés.
4. Estudio de los tamaños muestrales efectivos y de los errores de muestreo que
conllevan para cada uno de los nuevos estratos.
5. En caso necesario, ampliación de la muestra en campo para los estratos menos
representados.
6. Cálculo a posteriori de los elevadores o factores de expansión o ponderación y de los
estimadores resultantes.

12
En resumen, en la post-estratificación comparamos el peso para cada estrato de las variables
sociodemográficas conocidas con el factor real observado para dicho estrato. De esta forma se
hace coherente la muestra realmente observada con la ponderación teórica conocida.

El caso más simple es aquel que se realiza con una única variable si bien cada vez más se
suele post-estratificas con más de una variable. El problema que se presenta en el caso
múltiple es el cruce de muchas variables a la vez, esto nos proporciona “celdas vacías” en la
muestra realmente observada.

En el caso de una variable:


n L
Xˆ = N ⋅ ∑ xi Xˆ post = ∑ N h ⋅ xh
i =1 h =1
Nh : tamaño del post-estrato
xh : media de X en el estrato (post-estrato) h.

5.- Evaluación de las Fuentes de Error


En los estudios mediante muestreo, como en cualquier tipo de investigación, pueden existir
errores de diversas fuentes. Henry (1990) señala que los errores en el diseño de encuestas
pueden aparecer en las diversas etapas que se siguen en el estudio. En el cuadro siguiente se
presenta el esquema de las fuentes de error. Como se puede observar, el error total se puede
desglosar en sesgos no debidos al muestreo, esto es, el error sistemático previo o
independiente de la selección de la muestra; sesgos de muestreo, es decir, el error sistemático
producido en la selección de los sujetos que componen la muestra; y variabilidad muestral,
que dependen tanto del tamaño de la muestra como de su homogeneidad. Podemos definir el
error total como la diferencia entre el valor real de la característica en estudio en la población
objetivo y la estimación del mismo basada en los datos muestrales.

13
5.1- Errores no debidos al muestreo
Es el error sistemático que se comete debido a diferencias en la definición de la población. Es
la diferencia entre el valor verdadero de la población objetivo y el valor de población obtenido
si las operaciones de recogida de datos se hubieran realizado en la población completa. Varias
son las fuentes de error:

Diferencias entre la población objetivo y la población estudiada. Como ya definimos


anteriormente, la población objetivo es el grupo acerca del cual el investigador quiere explicar
los resultados de su trabajo. Se define basándose en condiciones e inquietudes que surgen de
la teoría que está siendo probada. En ocasiones, puede suceder que la población objetivo sea
dinámica, con lo que su listado puede ser incompleto y algunos de sus miembros no
identificables. En tal caso, la población de estudio no coincide con la población objetivo.

Este error se conoce como error de cobertura o de marco muestral y se produce cuando el
marco muestral con el que se cuenta difiere de forma importante de la población elegida para
su estudio. Este tipo de errores se debe a la existencia de marcos muestrales poco actualizados
o sesgados. La única solución es contar con un marco muestral completo, modificándolo o
actualizándolo.

Sesgos por ausencia de respuestas. Los cuales resultan por o bien incapacidad de contactar
con determinados miembros de la población, o por la negación de los sujetos a contestar. En
el primer caso, la solución estribaría en repetir la visita hasta dar con la unidad muestral que
se desea entrevistar o, en caso de que se haga inviable dar con la persona en cuestión,
establecer forma de sustitución, claramente definidas.

Con el error de no respuesta no se consigue obtener información de un individuo incluido en


la muestra. El sesgo de no respuesta se produce cuando la muestra final difiere de forma
sistemática de la muestra seleccionada en la investigación. El problema no es tanto que la
muestra se vea reducida en su tamaño, incrementándose de esta manera el error que se hubiera
marcado el investigador, sino que las personas que no responden a la encuesta pueden tener
características bien distintas a los que sí la completan. De esta manera, no sólo se aumenta el
error; este no puede ser cuantificado y es posible que sea un error sistemático que
comprometa la exactitud de la investigación.

El problema que subyace es tratar de saber cuan representativa de la población es la muestra


obtenida. Breakwell, Hammond y Fife-Shaw (1995) afirman que hay dos procedimientos para
comprobar la representatividad de la muestra:
• En primer lugar, hay que definirla tan exactamente como sea posible, comparándola
con datos conocidos de la población, como pueden ser datos censales.
• Un segundo procedimiento es comparar los resultados obtenidos con los de estudios
previos.

Anteriormente hemos comentado algunas técnicas para aumentar las tasas de respuesta: p.e.
cuando no se encuentra en el domicilio la persona seleccionada, realizar otros intentos o
utilizar sustitutos. Weiers (1986) presenta varias formas de resolver el problema de la
ausencia de respuestas:
a) Determinar si tiene efecto la ausencia de respuesta en nuestra investigación
b) Técnica del avestruz: Suponer que los no respondientes darían los mismos
resultados que los que han respondido

14
c) Análisis de sensibilidad: Se trata de determinar en qué grado tienen que ser
diferentes los que no responden para que esto tenga efecto en el estudio.
d) Submuestreo de los no respondientes (método más potente pero más costoso)
e) Análisis de tendencias: llevar un registro de los que respondieron en una serie de
visitas o llamadas y comprobar si se da alguna tendencia.

El autor señala que la selección de uno o varios de los procedimientos está en función de los
siguientes criterios:
- Si se precisa realmente estimar el efecto que la ausencia de respuesta tiene sobre los
resultados de la investigación
- El tiempo y los recursos con los que se cuenta
- La disposición a equivocarnos al hacer la evaluación de las características que tienen
los que no responden.

Un problema distinto pero que se enmarca también en la ausencia de respuesta es la negativa


a responder. Es menos frecuente, sobre todo en entrevistas personales, ya que en las encuestas
telefónicas resulta más factible poner alguna excusa para interrumpir la entrevista. Si la
ausencia de respuesta es totalmente aleatoria, no representa realmente un sesgo. Sin embargo,
este no suele ser el caso, pues aquellos sujetos que no desean responder, por lo general,
proceden de un grupo bien definido de la población.

Una forma previa de evitar este problema es la adecuada elaboración del cuestionario, de tal
manera que se introduzca la motivación adecuada para evitar que los individuos se nieguen a
contestar. Sin embargo, ya en la realización de la investigación, las soluciones que se
presentan en tal caso son las siguientes:
- Notificación previa de que se va a realizar una encuesta, para que el encuestado esté
alertado, evitando levantar suspicacias.
- Motivar al encuestado, sea por el interés de la encuesta en sí misma o bien por el
empleo de incentivos por responder a la entrevista.
- Contar con entrevistadores experimentados, que sean capaces de contrarrestar las
negativas a responder. Dillon y cols. (1987) afirman que una buena técnica de
persuasión disminuye la negativa a responder en un 7 %.
- Un adecuado formato de formulación de las preguntas, pues una redacción clara para
ser leída en autoinforme puede no resultar conveniente expresado verbalmente.

Herblein y Baugmgartner (1978) encontraron que relación entre alta tasa de respuesta y los
siguientes factores: el tipo de población muestreada, el interés social del tema de la
investigación y el número de seguimientos. En encuestas postales, se mejora la tasa de
respuestas cuando la investigación está avalada por una institución oficial, cuando se
muestrea a poblaciones especializadas, se realiza un mínimo de tres seguimientos y se ofrecen
incentivos por responder.

Errores debidos al encuestador. El entrevistador puede producir errores en la recogida de la


información, sea de forma directa o indirecta. En ocasiones, la interacción entre las
características del encuestado y del entrevistador, o de cómo éste es percibido, produce
resultados distintos. Para citar sólo un ejemplo, Morgan (1951) encontró que un grupo de
mujeres de bajos ingresos informaban utilizar productos cosméticos de lujo. Todas las
entrevistas habían sido realizadas por una entrevistadora muy bien vestida y maquillada.
Cuando la entrevistadora fue sustituida por una mujer robusta, vestida y arreglada como las

15
encuestadas, las marcas de cosméticos que éstas dijeron usar, resultaron mucho menos
costosas.

La entrevista es una forma especial de interacción social, donde entrevistador y entrevistado


adoptan roles opuestos. No es, por tanto, una situación social familiar para el encuestado. Es
por ello por lo que, según Mayntz y cols. (1975), el encuestado tratará de asimilar la
entrevista a otras situaciones que se le parezcan y que sí que le resulten parecidas.

Tanto entrevistador como entrevistado se ven influidos por sus expectativas previas y por la
forma en que perciben la situación y a su interlocutor. Según Mayntz y cols. (1975), el
proceso puede ser el siguiente: El encuestado identifica al entrevistador como miembro de un
determinado grupo social y toma conciencia de los valores y comportamientos estándar en ese
grupo, así como de las normas sociales que regulan su propio comportamiento respecto a los
miembros de aquel, por lo que se adapta en su comportamiento social a actitudes y valores
tenidos por peculiares del grupo del entrevistado. Por tanto, las preguntas deben redactarse de
forma que sean neutrales con respecto a las características del entrevistador.

El entrevistador, a su vez, también produce expectativas en cuanto a las actitudes y conductas


de los entrevistados. Dos problemas pueden destacarse:
a) Tendencia a interpretar de forma selectiva las respuestas de los encuestados según
el grupo social al que pertenecen. Esto tendrá mayor efecto cuanto menos
estructurado esté el cuestionario o cuanto más abiertas sean las preguntas.
b) Suponer en el entrevistado una consistencia de actitudes, interpretando las
respuestas que éste último da en consecuencia.

Por último, las propias actitudes del entrevistador se ha relacionado también con el registro de
respuestas. El entrevistador también puede producir otros dos tipos de sesgos. Por una parte,
habría que tener en cuenta las inexactitudes o equivocaciones, tanto en las preguntas
formuladas como en el registro de respuesta.

La otra fuente de errores es el engaño por parte del entrevistador. Se puede deber a diversas
razones, desde evitar preguntas difíciles de realizar hasta la simplificación de su trabajo
entrevistando a personas más fáciles o accesibles que las seleccionadas en la investigación.

La disminución de los errores de los entrevistadores pasa por diversas soluciones: empleo de
supervisores, entrevistadores bien entrenados y bien pagados, dar tareas e instrucciones claras,
utilización de cuestionarios fáciles de completar, así como formas de codificación que no
dificulten el registro de los datos.

Errores en la medida, registro o transferencia de los datos. Los errores de medida pueden
producirse fundamentalmente por dos diversas cuestiones: errores producto de la relación
entrevistador-entrevistado, así como los errores cometidos en la elaboración del cuestionario.
Los errores en el registro o en la transferencia de los datos son aquellos no achacables a
defectos del instrumento de medida ni a errores intencionados por parte de las personas.
Ejemplos típicos de esta fuente de error son las equivocaciones al marcar la celdilla que
recoge la respuesta del sujeto o al introducir los datos en el ordenador.

Aparte de introducir todos los mecanismos de previsión posibles (por ejemplo, investigar las
respuestas extremas) es conveniente realizar un muestreo de los datos una vez han sido
codificados y mecanizados para estimar la proporción de errores en los mismos. Si esta

16
proporción de errores rebasase un cierto límite (a fijar por el investigador en función de la
fiabilidad que requiera su estudio) se debería repasar el proceso de captura de datos desde el
principio.

5.2.- Sesgos debidos al muestreo

Es la diferencia entre el valor de la población de estudio y el valor esperado de la muestra.


Son de dos tipos, sesgos de selección y sesgos de estimación.

Sesgos de selección: cuando no todos los miembros de la población tienen iguales


probabilidades de selección. Entre ellos encontramos las omisiones y las duplicaciones.
- En los debidos a las omisiones se incluyen los errores que tienen su origen en un censo
incorrecto. Si faltan en el censo algunos de los sujetos de la población, su probabilidad
de ser incluidos en la muestra será nula, violando el supuesto básico del muestreo de
que todos los sujetos tienen idéntica probabilidad de formar parte de la muestra. El
problema es menor si se conoce que hay omisiones, y se puede corregir, si el coste de
tal corrección no lo hace inviable. Sin embargo, cuando se desconoce, resulta difícil de
evaluar. En tal caso, quizá fuera conveniente el plantearse otros procedimientos de
muestreo, por ejemplo, conglomerados en lugar de censos.
- En cuanto a las duplicaciones, puede ocurrir que, por determinadas razones, un
individuo aparezca más de una vez en la lista. Por ejemplo, supóngase que se desea
hacer una lista de los alumnos que forman un determinado curso de Psicología. Por
regla general, no existe en este caso una lista única, sino que hay un listado para cada
asignatura de ese curso en particular, con lo que los alumnos aparecerán más de una
vez. Cuando este problema se da, pero se conoce antes de proceder al muestreo de las
unidades muestrales, exige una depuración cuidadosa de las listas, hasta confeccionar
una lista única. Sin embargo, si el problema se detecta más tarde, la única solución es
la ponderación.

Sesgos de estimación: cuando la media calculada usando una técnica de estimación en todas
las muestras aleatorias simples no es igual al valor de la población de estudio. También se
comete error de estimación cuando no se selecciona el estimador más adecuado para la
investigación en cuestión. Puesto que lo más habitual es estimar medias o proporciones,
parece casi imposible cometer este error en la práctica, pero es conveniente tenerlo en cuenta
en casos especiales.

Variabilidad muestral. El último componente del error total se debe a las fluctuaciones de
los estimadores muestrales en torno a los parámetros de la población estudiada que resultan
del proceso de selección, de tal manera que las distintas muestras de una misma población
diferirán en los valores que toman los estadísticos, debido al azar. Esta es una de las razones
por las que los estadísticos se consideren variables aleatorias, pues varían por efecto del azar.
Los sesgos de este apartado tienen que ver con la precisión de los estimadores. Dos son los
problemas que se plantean:
a) Se desea saber lo próximo que esta el valor del estadístico obtenido en la muestra
del valor poblacional. Una solución para ello es calcular el intervalo de confianza.
b) La desviación típica de la distribución muestral rara vez se conoce en situaciones
reales de investigación, ya que se elige una muestra y no repetidas muestras. La
desviación típica de la población se estima de la de la muestra. Dos factores
influyen aquí de forma relevante: la variabilidad de la variable, esto es, su

17
desviación típica y el tamaño muestral. Cuanto mayor sea el tamaño muestral,
menor será la desviación típica de la distribución muestral.

Minimización de errores. La planificación adecuada, organizada y precisa es el mejor


procedimiento con el que cuenta el investigador para minimizar los errores en su estudio. Ello
exige prestar atención a diversas cuestiones, en momentos distintos. Henry (1990) señala que
la planificación de un diseño de encuestas supone tomar decisiones sobre cuestiones que son
previas al muestreo, en el procedimiento de muestreo y una vez finalizada la encuesta.

Las cuestiones sobre las que es preciso distinguir antes de proceder al muestreo incluyen
aspectos como tipo de investigación (exploratoria, descriptiva, relacional), que se va a llevar a
cabo, definición de la población objetivo, determinación de variables relevantes,
consideración sobre si hay grupos o subgrupos dentro de la población que requieran ser
tratados de forma diferencial en el muestreo.

En este apartado se decide también el procedimiento de recogida de datos y la dilucidar, en


caso de poblaciones pequeñas, la conveniencia o no de encuestar una muestra o a toda la
población. En una segunda fase, el investigador debe plantearse las tomas de decisión
referentes al muestreo en sí, que recogen aspectos tales como la forma de seleccionar a los
sujetos, el error con el que va a trabajar, la técnica de muestreo que parece más conveniente
para el estudio concreto, establecer la probabilidad de elección de los sujetos y determinar el
número de sujetos que van a ser encuestados.

Por último, el investigador debe también cuestionarse líneas de acción una vez finalizada la
recogida de datos. Estas incluyen la forma de proceder para evaluar los posibles sesgos de los
que no responden, la necesidad de compensar otros sesgos vía ponderación y la determinación
del error típico, a través de la variabilidad muestral.

18
Tema 6: Microdepuración e Imputación
de Datos
En este capítulo trataremos un problema de gran importancia práctica en el
procesamiento de una encuesta: la depuración e imputación de los datos. El objetivo
último del capítulo será el estudio del conjunto de tareas y métodos de diseño y
realización que tienen que ver con el análisis de los datos desde el punto de vista de su
completitud, validez y consistencia, o dicho de otra forma, la depuración de la
información obtenida. Incidiremos especialmente en el control de los posibles errores en
los datos estadísticos y métodos para su tratamiento.

1.- Depuración de datos


El problema al que nos enfrentamos se presenta de formas y por causas muy variadas
aunque, en términos generales, podemos decir que éste consiste en que parte de la
información recogida en la encuesta falta o no es correcta o lo que es lo mismo, durante
todo el proceso de recogida y tratamiento de los datos se han producido lo que hemos
denominado errores ajenos al muestreo.

Recordamos que en el proceso de recogida y tratamiento de los datos estadísticos se


pueden producir distintos tipos de errores. No hablamos de los errores debidos al
muestreo, sino de los errores en los datos de la encuesta, es decir, los errores ajenos al
muestreo, que a su vez clasificamos en errores en las identificaciones, que afectan a
todo el proceso de manipulación y clasificación de la información y errores en los datos
propiamente dichos.

Siguiendo a Granquist (1984) distinguiremos entre errores sistemáticos y errores


aleatorios. Es importante resaltar que esta clasificación será importante de cara al
tratamiento y análisis de los errores producidos.

Errores de tipo errático. Se producen sobre un conjunto de datos estadísticos a lo


largo de su proceso de elaboración. Son producto de la falta de cuidado, luego se
pueden producir en cualquier momento del proceso estadístico (uniformidad en su
distribución). Al estar uniformemente repartidos, se espera que su repercusión final
sobre los resultados de la estadística sea de poca importancia. No distorsionan de forma
grave las distribuciones, por ello su detección y eliminación tiene una importancia
menor.

Errores sistemáticos. Son aquellos que se producen por el mal entendimiento de las
preguntas, conceptos o definiciones e instrucciones tanto por parte del encuestado como
por parte de los individuos que intervienen en las distintas etapas del tratamiento del
dato. También se incluyen aquellos producidos por respuestas intencionadamente
erróneas (con vista a proteger su intimidad, por desconfianza, etc). Son más difíciles de
detectar y eliminar.

Los errores sistemáticos se caracterizan, también en términos generales y con las


debidas excepciones, por el hecho de que, si se repitiera la encuesta en las mismas
condiciones, se volverían a producir y muy probablemente en los mismos registros. Al
contrario de los de tipo errático, al afectar a unos valores determinados de alguna de las
variables, pueden distorsionar las distribuciones. Por ello, su detección y eliminación es
más importante.

Llamaremos depuración de datos de una encuesta a un conjunto de técnicas que nos


permiten, a partir de la información recogida en la encuesta y, a veces, a partir de otra
información adicional, corregir una parte de los errores presentes en la encuesta.

En su forma de realización hay dos enfoques para la depuración, el enfoque tradicional,


que llamaremos microdepuración y un enfoque más reciente conocido como
macrodepuración. La microdepuración consiste en la detección y corrección de los
errores en todos los registros de la encuesta, la macrodepuración, por su parte, consiste
en hacer una selección de unidades influyentes, de valores influyentes o de ambos y una
corrección de sus posibles errores. Los criterios que determinan la influencia son la
representatividad del registro en la encuesta o la magnitud de los valores de los campos
en los registros. La macrodepuración y la microdepuración no son procesos excluyentes
en una encuesta.

1.1.- Función y Métodos


Vamos a presentar la depuración de datos desde tres ópticas distintas. La primera la
dedicaremos a las funciones de la depuración, la segunda a las tareas de la depuración y
por último haremos un repaso sobre los métodos de depuración. Empezamos
introduciendo al lector en las funciones de la depuración.

Podemos decir que la depuración tiene tres funciones principales:

• Facilitar el proceso de los datos. Los procesos a los que se someten los
datos en bruto hasta la obtención de resultados, como son la elaboración,
almacenamiento, tabulación y análisis requieren que los datos cumplan unos
requisitos mínimos. Identificadores correctos, inexistencia de duplicados,
respeto del tipo y formato de las variables, etc, son requisitos a satisfacer
para evitar fallos en la ejecución de los programas.

• Mejorar la calidad de los datos. El que la depuración mejora la calidad es


un tema bastante controvertido, existiendo una fuerte polémica al respecto,
como ya comentaremos más adelante.

• Proporcionar información para medir la calidad de los


datos. La medida de la calidad de los datos se realiza en buena parte, con
información producida por el proceso de depuración. La medida de la
calidad de los datos es útil para:
o Recoger información que nos permita mejorar los procesos de
obtención de los datos, especialmente en futuras realizaciones.
o Saber hasta que nivel los datos disponibles son fiables para hacer
inferencias a partir de ellos. Se deben completar los datos con
información adicional sobre su calidad, por ejemplo, indicando si son
datos imputados u observados, etc.
El énfasis en la depuración como un proceso de control de calidad lleva a Granquist
(1984) a decir que el papel de la depuración debería ser: “Principalmente, evaluar la
calidad de la encuesta con información tan detallada como sea posible sobre la calidad,
aún con información sobre valores de las variables…Subordinadamente, debe corregir
errores que dificulten el proceso de los datos”.

Una definición sobre la depuración de datos que incide sobre las tareas a realizar la
facilita el grupo de trabajo de la Conferencia de Estadísticos Europeos “Data Editing
Joint Group” en su glosario de términos, que definen la depuración como “Una
actividad dirigida a asegurar que los datos cumplan ciertos requerimientos, es decir,
satisfagan condiciones de corrección establecidas”. Habitualmente se compone de tres
fases:
1. La definición de un sistema de requerimientos consistente.
2. Su verificación sobre los datos
3. La eliminación o sustitución de los datos que están en contradicción con
los requerimientos”

Un punto a destacar en esta definición es que no se plantea como un objetivo de la


depuración que los datos manejados sean “verdaderos” o “exactos”, lo cual sería un
objetivo imposible. Se limita a pedir una, mucho más modesta, satisfacción de ciertos
requerimientos.

En cuanto a los métodos de la depuración, en su forma de realización hay dos enfoques:

• El enfoque tradicional, que llamaremos microdepuración, consistente en la


detección/corrección de los errores en todos los registros de la encuesta.

• Un enfoque más reciente, conocido como macrodepuración, consistente en


hacer una selección de las unidades influyentes, de valores influyentes o de
ambos y una corrección de sus posibles errores. Los criterios que determinan
la influencia son la representatividad del registro en la encuesta (es decir su
peso, o que corresponde a una unidad muestral muy importante), o la magnitud
de los valores de los campos de los registros. Como veremos, la
macrodepuración y la microdepuración no son procesos excluyentes en la
depuración de una encuesta.

1.2.- Coste y Críticas


Las tareas descritas en el apartado anterior tienen un coste económico, y un coste en
tiempo que ocasiona retrasos en la presentación de resultados. En la evaluación del
coste económico se deberían incluir las siguientes partidas:
- El diseño del método de depuración.
- La elaboración de los procedimientos de revisión de cuestionarios previa a la
grabación.
- La formación de los depuradores.
- La elaboración de los programas para los procesos de depuración.
- El coste del personal dedicado a la corrección de los errores detectados.
- El tiempo de ordenador.
En la mayoría de los casos no se dispone de una contabilidad detallada que permita
calcular que porcentaje de los gastos de la producción de las estadísticas corresponde a
la depuración. El Subcommittee on Data Editing in Federal Statistical Agencies del
Federal Comité on Statistical Methodology de EEUU considera una estimación válida
de este coste de al menos un 20% del gasto total para la depuración en estadísticas
sociodemográficas y un 40% para estadísticas económicas.

En cuanto a las críticas, el proceso de depuración de datos no está exento de ellas. Se


cuestionan los gastos que los procesos de detección y corrección conllevan y los
procesos de imputación. Es indudable que en los casos en que la detección de un error
da lugar a la obtención del verdadero valor, bien al descubrirse un error en la grabación
o la codificación, estando el dato verdadero en el cuestionario, bien porque se accede de
nuevo al informante, la depuración mejora la calidad del dato.

La controversia está en que si la mejora justifica los gastos en montar los


procedimientos y mantener los equipos de depuradores. Actualmente se pone énfasis en
la investigación de métodos que eviten tareas manuales, si no totalmente, si
reduciéndolas a la detección y eliminación de errores realmente importantes. La
creencia actualmente más extendida parece ser la de que es necesaria alguna
depuración, aunque sin precisar su extensión y forma. A continuación se citan algunos
de los argumentos más empleados a favor y en contra de la depuración de datos.

• Argumentos a favor de la depuración:


o Facilita las fases posteriores del tratamiento de la encuesta. Por ejemplo,
si en estas fases hubiera valores perdidos o fuera de rango, los
estadísticos obtenidos tendrían menos fiabilidad.
o Los lectores de resultados de encuestas, al encontrarse el “no sabe” o “no
contesta” o, más en general, la información que falta, la eliminan
mentalmente y piensan en términos del resto de categorías. Esto equivale
a asignar esta información que falta, proporcionalmente, al resto de
categorías y constituye un tratamiento de la información que falta
bastante elemental. Parece lógico, entonces, que si el usuario va a
realizar este tratamiento elemental, el analista pueda realizar antes otro
más perfecto.
o Los datos depurados inspiran confianza al lector. En efecto, algunos
lectores, desconocedores de la complejidad del tratamiento estadístico de
datos, desconfiarán si ven, por ejemplo, una tabla donde aparezca un
titulado superior menor de 15 años.
• Argumentos en contra de la depuración:
o A veces, cuando existe una inconsistencia en la que están implicadas
varias variables, es difícil decir cuál es la errónea y se producen errores
adicionales.
o La depuración puede incitar a que se descuide la recogida de la
información, con la esperanza de que aquella corrija a ésta, cosa que no
sucederá.
o La depuración produce datos “bonitos”, que dan una falsa sensación de
corrección.
o Se puede perder información válida, particularmente en las zonas
fronteras de las reglas de detección.
o La falta de respuesta puede no ser aleatoria; si se procede a realizar
imputaciones de registros enteros para subsanarla, estamos introduciendo
sesgos en las estimaciones.
o En el caso de imputar casos de falta de respuesta total se están
“fabricando” datos.
o Un procedimiento de imputación basado en supuestos poco realistas o
con una metodología pobre, puede hacer que la calidad de los datos
empeore sustancialmente.

En resumen, tanto los argumentos a favor como en contra tienen partes de verdad, por lo
cual, deberemos en todo caso cuidar la recogida de la información e intentar dar buenos
criterios de depuración, que no perjudiquen más que beneficien a los datos.

Finalmente, hemos de insistir en que los dos motivos principales para realizar una
depuración. El primero de ellos es mejorar la calidad de los datos. Como acabamos de
ver, este es un objetivo cuyo cumplimiento produce controversias. El segundo objetivo
que destacaremos el conocer la calidad de los datos. Este objetivo es menos conflictivo
que el anterior, pues parece claro que la depuración sí permite cumplirlo y que ese
cumplimiento es deseable en todos los casos.

2.- Microdepuración de Datos


La microdepuración se compone de las siguientes actividades básicas:
- Detección de los registros sospechosos.
- Identificación de las variables a modificar.
- Asignación de nuevos valores a las variables identificadas como erróneas.

Pudiendo realizarse esta asignación de dos maneras:


- Mediante corrección manual.
- Mediante imputación.

Las fases de detección, identificación y corrección manual pueden diseñarse como un


proceso cíclico. La imputación automática debe ser una etapa final y única del proceso
de depuración de datos, en el sentido estricto de su definición.

En este epígrafe analizamos la detección de registros erróneos, presentando la


herramienta habitualmente utilizada: los edits. Dedicamos también un apartado a la
selección de las variables a ser modificadas y otro a la corrección manual. Por último
estudiaremos la imputación automática desde el punto de vista teórico.

2.1.- Definición de Edits. Análisis


La detección de errores requiere que previamente se definan las situaciones erróneas o
sospechosas; esta tarea corresponde a los estadísticos expertos en el tema objeto de la
investigación. La definición de posibles situaciones erróneas se realiza habitualmente
por medio de los que se denominan edits. Los edits especifican restricciones a los
valores individuales de las variables (edits de validación), o de conjuntos de variables
(edits de consistencia). Estas restricciones se pueden especificar de manera positiva
como reglas de aceptación (edits de aceptación), o de manera negativa como reglas de
rechazo (edits de conflicto). Aplicando operadores sencillos es inmediato pasar de los
edits de conflicto a los de aceptación y viceversa.

La detección de errores se realiza enfrentando todos los registros a depurar con el


conjunto de los edits especificados. Un registro se considera erróneo si cumple la
condición especificada por un edit de conflicto, o si incumple la condición especificada
por un edit de aceptación.

Mediante los edits se especifican:

• Situaciones imposibles: Hay valores de variables, o combinaciones de valores,


que son imposibles en la realidad. Por ejemplo, una madre no puede ser más
joven que su hijo, una parcela no puede ser más grande que el término municipal
en el que está enclavada, etc. Estas situaciones deben ser detectadas y
eliminadas.

• Situaciones improbables: Son situaciones de difícil aparición en la realidad,


pero que no se pueden rechazar de entrada, por ejemplo, madres de 14 años o
con más de 15 hijos. Es de interés poder detectar estas situaciones, aunque el
problema esta en definirlas de manera precisa, y de forma que no nos veamos
inundados por una avalancha de presuntas situaciones raras, que luego no lo son
tanto.

• Restricciones contables: En datos económicos existen restricciones contables a


las que los datos deben ajustarse.

• Outliers estadísticos: En variables numéricas puede que aparezcan valores que


no se ajustan a la distribución de los otros datos, bien porque corresponden a
unidades influyentes o bien porque son valores erróneos. Los edits utilizados
para la detección de outliers se denominan edits estadísticos.

• Control del flujo de respuesta en el cuestionario: La mayor parte de los


cuestionarios tienen reglas que dirigen el flujo de respuesta a través del mismo.
Los sistemas CAPI y CATI aseguran el flujo correcto de respuestas. En caso de
no utilizar uno de estos métodos, se deben utilizar edits de flujo.

Según el tipo de variables a las que se apliquen, distinguimos entre edits de tipo
cualitativo y edits de tipo cuantitativo. Los edits de tipo cuantitativo se aplican a
variables numéricas y generalmente se expresan como restricciones de rango (edits de
validación) o como igualdad o desigualdad entre funciones de las variables (edits de
consistencia). Los actuales sistemas generales de depuración de datos trabajan
exclusivamente con expresiones lineales.

Los edits de tipo cualitativo se aplican a variables categóricas. Los edits de validación
se expresan con la lista de códigos válidos. Los edits de consistencia, generalmente de
rechazo, se expresan como combinaciones de códigos de dos o más variables que son
inaceptables o sospechosas.
Otro tipo de edits son los edits condicionales que añaden al edit (cuantitativo o
cualitativo) una condición que determina el subconjunto de registros a los que se aplica
tal edit. Son de la forma:

IF condición THEN aplicar edit

Cuando los edits condicionales incluyen una condición cualitativa y un edit cuantitativo
se trabaja con los dos tipos de variables, numéricas y categóricas, lo cual dificulta su
tratamiento en los sistemas generales.

En lo que se refiere al análisis, podemos considerar el conjunto de todas las posibles


respuestas a las preguntas del cuestionario, como un espacio de dimensión igual al
número de variables (o preguntas), por lo que en el análisis de los edits estudiaremos las
restricciones a este espacio. El conjunto de todos los edits define la región de
aceptación.

Puede ocurrir que un edit no aporte nada a la definición de la región de aceptación, pues
es redundante respecto a los demás edits. Los edits redundantes deben ser eliminados
para facilitar la tarea de detección de errores. Un problema más grave es que el conjunto
de edits defina una región de aceptación demasiado restringida, siendo los casos más
extremos cuando la región de aceptación es vacía, o se reduce, en algún sentido, la
dimensión del espacio. En estos casos decimos que el conjunto de edits es inconsistente,
siendo necesario modificar o eliminar uno o más edits.

Se debe realizar un análisis de los edits antes de enfrentarlos a los registros a depurar,
pues si existe una inconsistencia no detectada puede tener un impacto importante al
rechazar registros válidos, y si se detecta durante el procesamiento de los datos, es
necesario rehacer los procesos produciéndose retrasos.

2.2.- Campos a Modificar. Asignación de Valores


Para cada registro detectado como erróneo (que falla uno o más edits), es necesario
identificar los campos a modificar para corregir el error. Los campos con valor fuera de
rango o con códigos inválidos no suponen un problema de identificación. El problema
surge en el caso de inconsistencias entre valores individualmente válidos. Por ejemplo,
el registro: EDAD: 8 años y ESTADO CIVIL: viudo.

EL proceso debe seleccionar al menos un campo que figure explícitamente en cada edit
fallado, existen varias alternativas para ello. Una primera alternativa es seleccionar
todos los campos que intervienen en todos los edits fallados. Pero ello supondría una
gran pérdida de información. Otros criterios habitualmente considerados son:

• Escoger el menor número posible de campos que cubran todos los edits fallados
(principio de cambio mínimo, propuesto por Fellegi y Holt).

• Escoger campos que cubran todas las reglas de conflicto, de forma que se
minimice la suma de pesos asociados a los campos del registro. Estos pesos
indican el grado de confianza que el experto tiene en el valor de las variables del
registro.
• Escoger las variables que faciliten una imputación más fácil.

El proceso de identificación, también llamado de localización de errores, se puede


realizar por un operador humano o automáticamente.

El paso siguiente será asignar a cada campo identificado en la etapa anterior como
erróneo un valor válido y consistente con el resto de los valores del registro. El proceso
de asignación se puede realizar manualmente, y lo denominaremos “corrección manual”
o automáticamente, y lo denominaremos “imputación”. En el caso de corrección
manual, el valor a asignar puede obtenerse de:

• El propio cuestionario si el error se produjo en una fase posterior a la


cumplimentación, o si el cuestionario tiene notas al margen o información no
grabada que nos permita inferir el verdadero valor, o si aprecia un error obvio,
por ejemplo en las unidades de medida.

• Contactar nuevamente con la fuente que suministro la información. En todos los


demás casos debe ser un experto el que facilite el valor del campo o se debe
dejar la asignación a la imputación automática.

En el caso de imputación automática el valor a asignar se obtiene mediante un proceso


de estimación determinística o aleatoria, que denominamos respectivamente imputación
determinística e imputación probabilística. Los procedimientos de imputación
automática serán descritos en el epígrafe siguiente.

La fase de detección de errores con corrección manual es muy costosa en tiempo,


pudiendo, si no se realiza adecuadamente, ser fuente de sesgos en los datos finales.
Algunos aspectos a considerar para evitar estos problemas son:

• La detección de errores con corrección manual está asociada a la idea de un


proceso cíclico: detección/corrección, en muchos casos interminable. Los
ordenadores han aportado la posibilidad de aplicar con uniformidad y sin errores
un mayor número de edits, pero los operadores humanos se pueden ver
desbordados por el gran número de tipos de error a los que se pueden tener que
enfrentar. Muchos de esos errores son de muy poca importancia.

• Evitar que los edits definan regiones de aceptación demasiado reducidas, que
requieren un exceso de revisiones de situaciones que, o bien son correctas, o
bien tienen errores poco importantes.

• La corrección manual, si no es bien informada, puede ser tan arbitraria como los
métodos automáticos, sin tener ni la uniformidad ni la precisión de estos.

El proceso de microdepuración de los datos en la base primaria culmina con la imputación


bien manual, bien automática de valores a campos erróneos. Es fundamental en este
sentido el marcado de dichos campos dentro de los registros correspondientes mediante
ciertos códigos de falta de respuesta o de borrado a fin de facilitar la tarea de búsqueda.
3. Introducción a la Imputación de Datos
En una investigación estadística, tanto parcial como exhaustiva, es frecuente que
individuos encuestados no respondan a una o más preguntas del cuestionario. Cuando
esto ocurre se dice que se tienen datos ausentes o missing y estamos bajo un problema
de no-respuesta.

La no-respuesta puede introducir sesgo en la estimación e incrementar la varianza


muestral debido a la reducción del tamaño muestral. La imputación de datos es la etapa
final del proceso de depuración de datos, tras el proceso de edición, en el cual los
valores missing o que han fallado alguna regla de edición del conjunto de datos son
reemplazados por valores aceptables conocidos. La razón principal por la cual se realiza
la imputación es obtener un conjunto de datos completo y consistente al cual se le pueda
aplicar las técnicas de estadística clásicas.

Para la aplicación de la imputación de datos se recibe de la etapa anterior un fichero de


datos con ciertos campos marcados por “falta de respuesta” ó “borrados” en la fase de
edición por no cumplir alguna regla de edición propuesta. Tras la imputación de todas
las variables del estudio se obtiene un fichero completo.

Encontrar un buen método de imputación es una tarea importante ya que errores


cometidos en las imputaciones de datos individuales pueden aparecer aumentados al
realizar estadísticas agregadas. Por todo esto parece razonable estudiar métodos de
imputación que conserven características de la variable como pueden ser: conservación
de la distribución real de la variable, relación con el resto de variables en estudio, etc.
Los métodos de imputación para datos faltantes varían según el tipo del conjunto de
datos, extensión, tipo de no-respuesta, etc.

Denominaremos a los campos marcados para imputar como campos a imputar y al


registro con campos a imputar como registro a imputar. Recordemos que el principal
objetivo de la imputación es producir un fichero de datos completo y consistente después
del proceso de estimación de los campos a imputar (gráficamente, si un registro de q
variables es un punto en el espacio Rq dimensional, el proceso de imputación consiste en
“devolver” a la región de aceptación de la encuesta los puntos que están fuera de ella).

Otro objetivo importante que nosotros damos a esta etapa están en relación con la tercera
función que asignábamos al proceso de depuración de los datos y que era la de medir la
calidad de los datos de la encuesta. En este sentido, la fase de imputación debe producir un
fichero que contenga, por registro de la encuesta, un conjunto de códigos de estado que
informen para cada campo si el dato tiene valor observado o imputado y, si el dato es
imputado, del procedimiento de imputación utilizado. También debería informar, si es
factible y se utilizan métodos de imputación con registros donantes, del número de veces
que un registro o campo fue utilizado para “donar” sus valores a un registro a imputar.
Este fichero será un fichero para el control de calidad de los datos y debería explotarse y
distribuirse al tiempo que se explota y distribuye el fichero de datos.

La imputación de los datos no es un proceso unánimemente aceptado por los


investigadores. Se habla de la imputación como un proceso de “fabricación de datos”
(véanse, por ejemplo, las críticas de Banister (1980) al proceso de imputación). Hay
razones, sin embargo, que apoyan el uso generalizado de procedimientos de imputación
como son:
1. Reducir el sesgo de las estimaciones.
2. Facilitar los procesos posteriores de análisis de los datos.
3. Facilitar la consistencia de los resultados entre distintos tipos de análisis.
4. Enriquecer el proceso de estimación con fuentes auxiliares de información de la
que normalmente se dispone en las Oficinas de Estadística; ejemplo de fuentes
auxiliares son los datos administrativos, encuestas relacionadas con la que se
procesa, etc.

En su crítica, los que cuestionan la imputación han incentivado el estudio de métodos


de estimación eficientes, así como el que se controle la calidad de los datos y del
proceso por medio de códigos de estado o instrumentos similares. Existen, por tanto,
ciertas reticencias en el ámbito de los técnicos en estadística en torno a la aplicación de
éstos métodos por lo que tienen de manipulación de la información originaria, pero hay
otras muchas razones que apoyan un uso razonado de las mismas.

3.1.- Supuestos de los Procedimientos de Imputación


Al estimar los valores de los campos a imputar en base al valor de 1os restantes campos
del fichero, el supuesto implícito que se hace es que el comportamiento de las unidades
cuyos registros están incompletos es el mismo que el comportamiento de las unidades
cuyos registros tienen dato en todos sus campos. Analizamos más detenidamente este
supuesto.

El fichero a imputar tiene registros con campos sin respuesta y campos borrados por tener
un valor erróneo o inconsistente. Los errores a su vez, fueron clasificados entre errores
aleatorios o sistemáticos. Para los campos con errores sistemáticos es bastante cuestionable
aplicarles el supuesto implícito anterior. Por ello, el experto debe detectar en depuración
los posibles errores sistemáticos de la encuesta y aplicar a los mismos, si procede, lo que
denominamos una imputación determinística.

Una imputación determinística toma generalmente el formato:

IF (condición ) THEN (acción).

Se supone que los campos a imputar restantes son campos con errores o falta de
respuesta aleatoria. Para estimar los valores de estos campos aplicamos los
procedimientos de imputación probabilística que vamos a estudiar en este capítulo.
Estos procedimientos exigen hacer explícitamente los supuestos siguientes sobre los
campos con dato y campos a imputar.

1. Supuesto sobre la falta de errores de contenido. Esto es, los campos del
registro que no son objeto de imputación (campos con dato) tienen el valor que
se quiere observar; es decir, no hay errores de contenido. Formalmente, el
supuesto dice:

Sea Yi = (yi1,yi2,......... yiq)el vector de valores VERDADEROS a observar.


{i  i = 1,2,...,n} índice de observación.
Sea Xi = {Xid, Xim} = (Xi1, Xi2, ......... Xiq ) el vector de valores OBSERVADOS
donde d y m señalan los campos con dato y a imputar respectivamente. Entonces:

Xid = Yid.

2. Supuestos sobre los campos a imputar. Estos supuestos definen los posibles
modelos para explicar el comportamiento de las unidades cuyos registros tienen
campos a imputar; denominamos a estos modelos los “mecanismos de
generación de los campos a imputar”. Hay tres tipos de mecanismos (los
nombres de los supuestos los tomamos de Rubin & Little (1987), que definen los
supuestos MAR “Missing At Random” y MCAR “Missing Completely At
Random”).

I. MCAR, Missing Completely At Random (faltante completamente


aleatorio). Se da este tipo cuando la probabilidad de que el valor de una
variable Xj , sea observado para un individuo i no depende ni del valor de
esa variable, xij , ni del valor de las demás variables consideradas,
xik j ≠ k . Es decir, la ausencia de información no está originada por
ninguna variable presente en la matriz de datos.

II. MAR, Missing At Random (faltante aleatorio): Se da este tipo si la


probabilidad de que el valor de una variable Xj sea observado para un
individuo i no depende del valor de esa variable xij ,pero quizá sí del que
toma alguna otra variable observada xik j ≠ k . Es decir, la ausencia de
datos está asociada a variables presentes en la matriz de datos.

III. NMAR, No missing at Random. Se produce este tipo de mecanismo en el


caso en el cual la probabilidad de que un valor xij sea observado depende
del propio valor xij , siendo este valor desconocido. En el ejemplo anterior,
se obtiene que la función respuesta de la variable ingresos depende del
propio valor de la variable ingresos, además de poder depender de otros
factores.

Generalmente, los supuestos anteriores de MAR y MCAR para el conjunto de la


encuesta son difícilmente sostenibles, en cambio para el caso de realizar la
imputación basada en estratos o grupos, dentro de éstos sí es mas acertado suponer
los modelos MAR y MCAR. Esta es una de las causas para que las imputaciones
tiendan a hacerse dividiendo la población en subgrupos disjuntos.

Visualicemos las definiciones anteriores con un ejemplo: consideremos una


encuesta que recoge, por ejemplo, información sobre los INGRESOS y la EDAD de
los miembros de los hogares. Si analizamos la variable INGRESOS individualmente,
y observamos que un registro tiene el campo de INGRESOS en blanco, podemos
pensar que la falta del dato está o no está relacionado con el verdadero valor de los
ingresos del miembro del hogar:
• Si suponemos que la falta del dato no está relacionado con el verdadero
valor estamos haciendo un supuesto MAR: La falta de respuesta en
INGRESOS es aleatoria.
• Si analizamos las variables INGRESOS y EDAD conjuntamente, y
suponemos que la falta de respuesta en el campo INGRESOS es
independiente del verdadero valor de los ingresos del miembro del hogar y
de la edad, estamos haciendo un supuesto MCAR: La falta de respuesta es
completamente aleatoria; sin embargo, si suponemos que la falta de
respuesta en el campo INGRESOS es independiente de los ingresos
verdaderos del miembro del hogar pero que pueden depender de su edad,
entonces hacemos un supuesto MAR: La falta de respuesta es aleatoria.
• Si suponemos que la función respuesta de la variable ingresos depende del
propio valor de la variable ingresos, además de poder depender de otros
factores, hacemos un supuesto NMAR.

En términos generales:

Supuesto MCAR: Xmi es independiente de Ymi y de Xdi.


Supuesto MAR: Xmi es independiente de Ymi

Para el conjunto de la encuesta, los supuestos anteriores pueden ser difícilmente


sostenibles. Sin embargo, si se divide la encuesta en subgrupos o estratos, y se aplican a
cada estrato, los supuestos MAR y MCAR son más defendibles. Esta es la causa de que los
procedimientos de imputación se apliquen, generalmente, en estratos. Evidentemente, las
suposiciones que se establezcan para una determinada subpoblación (estrato o
conglomerado) pueden no ser válidas para otras, en la medida en que las relaciones de
dependencia no suelen ser uniformes.

3.2.- Métodos de Imputación


La solución al problema del sesgo de las estimaciones consiste en imputar los datos
faltantes, sustituyéndolos por valores estimados mediante algún método de imputación.
Durante las décadas anteriores se empleaban procedimientos de imputación basados en
la experiencia, la intuición y la oportunidad. Se suponía uniforme la probabilidad de que
las unidades respondiesen y se ignoraba frecuentemente el sesgo causado por la no-
respuesta.

Actualmente se emplean infinidad de métodos de imputación y se generan nuevos


métodos empleando distintas técnicas estadísticas. Gran parte de los métodos de
imputación se pueden expresar mediante la siguiente fórmula:

y vi = f ( y nm ) + ε

donde vi y representa el valor imputado, y nm representa las observaciones con valores


válidos (no missing), mientras que el ε se refiere al residuo aleatorio. En el caso de
métodos determinísticos se asigna ε =0 y es variable en el caso de métodos estocásticos.
Los primeros proporcionan mejores resultados si se tiene en cuenta los estimadores
puntuales como la media, mediana, etc., sin embargo provocan distorsiones en la
distribución de la variable.

A continuación se comentan las características de los principales métodos de


imputación (salvo el de la deductiva o lógica vista anteriormente) junto con las ventajas
y desventajas de cada uno de ellos, siguiendo la clasificación propuesta por Laaksonen
(2000).

3.2.1 Imputación mediante registro donante

Son procedimientos que asignan a los campos a imputar de un registro el valor que en
tales campos tiene otro registro de la encuesta. A los registros completos se les
denomina registros donantes y los registros con campos a imputar se denominan
registros receptores o candidatos. A los campos que se utilizan para establecer la
relación entre registro donante y candidatos se les denominan campos de control.

Dichos campos pueden ser tanto cualitativos como cuantitativos o de ambos tipos. En el
caso de tratar variables exclusivamente cualitativas, el cruce de las distintas variables
para dividir la población en subgrupos disjuntos se denominan estratos y la relación
entre los registros candidatos y los donantes se establecen por igualdad de los códigos
del estrato. Entre las ventajas de estos métodos se pueden destacar:
• Se imputa un valor posible y realizado.
• Es sencillo de implementar. Mientras que el principal problema se debe a
que puede no haber respondientes con todo el rango de valores necesario en
la variable a imputar.

Existen gran número de métodos entre los que se destacan los siguientes:

Procedimiento Cold-Deck. Se define un registro donante por estrato como "registro


tipo" en base a fuentes de información externas: datos históricos, distribuciones de
frecuencias, etc… El método asigna a los campos a imputar de todos los registros
candidatos los valores del registro donante correspondiente al mismo estrato. A partir de
este método se originó el procedimiento hot-deck. La desventaja principal de este
método es que la calidad de los resultados dependerá de la calidad de la información
externa disponible.

Procedimientos Hot-deck. Este método es un procedimiento de duplicación. Cuando


falta información en un registro se duplica un valor ya existente en la muestra para
reemplazarlo. Todas las unidades muestrales se clasifican en grupos disjuntos de forma
que sean lo más homogéneas posible dentro de los grupos. A cada valor que falte, se le
asigna un valor del mismo grupo. Se está suponiendo que dentro de cada grupo la no-
respuesta sigue la misma distribución que los que responden. Este supuesto incorpora
una fuerte restricción al modelo, si esta hipótesis no es cierta se reducirá sólo en parte el
sesgo debido a la no-respuesta. El método Hot-deck tienen ciertas características
interesantes a destacar:
• Los procedimientos conducen a una post-estratificación sencilla.
• No presentan problemas a la hora de encajar conjuntos de datos.
• No se necesitan supuestos fuertes para estimar los valores individuales de las
respuestas que falten.
• Preservan la distribución de la variable.
Sin embargo estos métodos tienen algunas desventajas:
• Distorsionan la relación con el resto de las variables.
• Carece de un mecanismo de probabilidad.
• Requieren tomar decisiones subjetivas que afectan a la calidad de los datos, lo
que imposibilita calcular su confianza.
• Las clases han de ser definidas en base a un número reducido de variables, con
la finalidad de asegurar que habrá suficientes observaciones completas en todas
las clases.
• La posibilidad de usar varias veces a una misma unidad que ha respondido.

Algunas variaciones del método son:

1. Procedimiento Hot-deck secuencial. El registro donante es el registro sin valor


missing, perteneciente al mismo estrato e inmediatamente anterior al registro
candidato. Para aplicar esta imputación previamente se debe clasificar el fichero
de tal forma que produzca una autocorrelación positiva entre los campos sujetos
a imputación, de esta forma se asegura una mayor similitud entre registro
donante y candidato. Las desventajas de este método son considerables:
• Hay que facilitar valores iniciales para el caso de tener valores missing en el
primer registro.
• Ante una racha de registros a imputar, se emplea el mismo registro donante.
• Es difícil de estudiar la precisión de las estimaciones.

2. Procedimiento Hot-deck con donante aleatorio. Consiste en elegir


aleatoriamente a uno o varios registros donantes para cada registro candidato.
Hay diferentes modificaciones de este método. El caso más simple es elegir
aleatoriamente un registro donante e imputar el registro candidato con dicha
información. Se puede elegir una muestra de registros donantes mediante
distintos tipos de muestreo e imputar al valor medio obtenido con todos ellos.
Este último tipo tiene un elemento de variabilidad añadida debido al diseño de
elección de la muestra que incorporan.

3. Procedimiento Hot-deck modificado. Consiste en clasificar y encajar los


donantes potenciales y receptores utilizando un considerable número de
variables. El encaje se hace sobre bases jerárquicas del siguiente modo: si no se
encuentra un donante para encajar con un receptor en todas las variables de
control, se eliminan algunas variables consideradas como menos importantes y
de esta forma conseguir el encaje a un nivel superior.

Procedimiento DONOR. En este método se emplea una función distancia definida


entre las variables para que se mida el grado de proximidad entre cada posible registro
donante y el registro candidato. En este caso se imputa en bloque los valores del registro
donante en los campos sin respuesta del candidato. Es necesaria una modificación
previa de los datos para anular los efectos de escala en la función distancia.

3.2.2.- Imputación mediante modelos donantes

Son procedimientos que asignan a los campos a imputar de un registro valores


generados a partir de modelos ajustados a los valores observados de los registros
respondientes. Existen diversos métodos de imputación, los principales se comentan a
continuación:

Procedimientos de regresión. Se incluyen en dicho grupo aquellos procedimientos de


imputación que asignan a los campos a imputar valores en función del modelo:

y vi = α + β 1 x1 + β 2 x 2 + K + β k x k + ε

donde y vi es la variable dependiente a imputar y las variables {x j j ≡ 1K n} son las


regresoras que pueden ser tanto cualitativas como cuantitativas, generalmente variables
altamente correladas con la dependiente. Las variables cualitativas se incluyen en el
modelo mediante variables ficticias o dummy. En este tipo de modelos se supone
aleatoriedad MAR, donde ε es el término aleatorio. A partir de este modelo se pueden
generar distintos métodos de imputación dependiendo de:
1. Subconjunto de registros a los que se aplique el modelo.
2. Tipo de regresores
3. Los supuestos sobre la distribución y los parámetros del término aleatorio ε .

• Imputación de la media. El modelo basado en la imputación de la media es el


modelo más sencillo de los pertenecientes a los procedimientos de regresión. Sigue
el siguiente modelo:
y vi = α + ε

Este método de imputación es muy sencillo y consiste en la asignación del valor


medio de la variable a todos los valores missing de la población o el estrato según se
haga la imputación global o a partir de subgrupos construidos a partir de las
categorías de otras variables que intervienen en el estudio. En la versión estocástica
se incluye un residuo aleatorio. Este método tiene como desventajas que modifica la
distribución de la variable reduciendo la varianza de la variable, como consecuencia
en el caso de realizar análisis bivariantes reduce la covarianza entre las variables. Es
decir, este método no conserva la relación entre las variables ni la distribución de
frecuencias original. Además en este modelo se supone estar bajo un procedimiento
MCAR.

• Modelos de regresión aleatoria. Resuelven el problema de la distorsión de la


distribución tras la imputación. Se propone añadir una perturbación aleatoria a las
estimaciones del modelo de regresión:
xˆ im = a + b1 xi1 + b2 xi 2 + K + bk xik + eˆi

donde las perturbaciones ê se calculan mediante alguno de los siguientes métodos:

1. Se obtiene una muestra aleatoria de tamaño s de los r residuos observados


eˆi = xˆ im − xim y se suman a los valores xim estimados.

2. Se obtienen aleatoriamente s valores de una distribución con media cero y


varianza σˆ 2 , donde σˆ 2 es la varianza residual correspondiente a los valores
observados de xim .
Los modelos más generales de regresión tienen ciertas mejoras con respecto a la
imputación de la media que se comentan a continuación:
1. Asume el supuesto menos estricto de aleatoriedad, modelo MAR.
2. Infraestima el valor de la varianza y covarianza en menor medida que en el
caso de imputación a la media..
3. Modifica en menor medida la distribución de las variables.

• Método de imputación mediante regresión logística. Método de imputación


similar al de regresión aplicable a variables binarias. Se realiza con los registros
respondientes una regresión logística y en base a esta regresión se imputan los
registros con no-respuesta. De la misma forma que en otros métodos está la versión
determinística y la aleatoria que incluye una perturbación aleatoria.

Recientemente se está aplicando el método de regresión logística basada en técnicas


de registros donantes, con la idea de imputar los registros sin respuesta mediante los
registros respondientes, implementado en el programa de imputación SOLAS
(1999).

• Método Regression-based nearest neighbour hot decking (RBNNHD). Método


propuesto por Laksonen (2000) que combina la imputación mediante métodos de
regresión con los métodos de ficheros donantes. Consiste en construir una regresión
lineal multivariante con los registros con respuesta. Clasificar los registros con no
respuesta añadiéndoles un termino error y posteriormente ordenarlos según el valor
imputado. Tras esto, se aplica la regla del vecino más próximo a los registros con
valor imputado y se modifica por el asignado mediante este método donante.

3.2.3.- Métodos basados en factorizar la verosimilitud

Algoritmo EM (Expectation Maximization). Little & Rubin (1987). Método basado


en factorizar la función de verosimilitud que permite obtener estimaciones máximo
verosímiles (MV) de los parámetros cuando hay datos no completos con unas
estructuras determinadas. Es válido para cualquier estructura de datos no completos. El
algoritmo EM permite resolver de forma iterativa el cálculo del estimador máximo
verosímil mediante dos pasos en cada iteración:

1. Paso E (Valor esperado): Calcula el valor esperado de los datos completos


basándose en la función de verosimilitud.

2. Paso M (Maximización): Se asigna a los datos missing el valor esperado


obtenido en el paso anterior (E) y entonces se calcula la función de máxima
verosimilitud como si no existiesen valores missing. Ambos pasos se realizan de
forma iterativa hasta obtener convergencia.

Explícitamente consiste en resolver las ecuaciones de verosimilitud:


δ
S(Θ | Xd) = (Θ | Xd) = 0
δΘ

La solución de tales ecuaciones no siempre es posible obtenerse de un modo directo (en


general nunca lo es). Por ello se usan métodos iterativos como el conocido de Newton-
Raphson. El ALGORITMO EX, propuesto en Dempster et al (1977), es un método
iterativo alternativo que supone una aproximación “estadística” en vez de “numérica” al
problema y está especialmente adecuado al problema de los datos incompletos.

Cada iteración, t, del ALGORITMO consiste, como hemos comentado anteriormente,


en un Paso-E y en un Paso-M. El algoritmo está basado en la idea intuitiva de estimar
los blancos y reestimar. Las ventajas del ALGORITMO EM son su relativa facilidad de
implementación y su interpretación estadística. Se puede probar que cada iteración del
ALGORIT'MO aumenta la verosimilitud, hasta su convergencia. La convergencia, sin
embargo, puede ser muy lenta, dependiendo de la fracción de campos a imputar.

El ALGORITMO EM esta implementado de modo general en BMDP (y por tanto en


SPSS módulo de valores faltantes) MBSPEER de R. Little (1988) en una rutina
FORTRAN y en el sistema CIDAC.

Algoritmo de aumento de datos. Es un procedimiento iterativo que permite obtener


valores simulados de los datos ausentes y de los parámetros desconocidos, para algunas
clases de modelos multivariantes. De la misma forma que el algoritmo EM, trata de
solucionar un problema difícil con datos incompletos resolviendo repetidas veces
problemas accesibles con datos completos. Consiste en un proceso iterativo que tiene
dos fases:

1. Paso I de imputación de los datos ausentes. Simula valores para los datos
ausentes mediante la distribución obtenida en la fase anterior y los valores
observados.

2. Paso P o posteriori, que consiste en simular nuevos valores de los parámetros a


partir de la distribución a posteriori condicionada a los datos completados en la
fase anterior.

Muestreo de Gibbs y otros métodos. El muestreo de Gibbs es otro procedimiento para


estimar los parámetros del modelo e imputar los datos ausentes. Se emplea el muestreo
de Gibbs cuando se modela el problema de falta de datos mediante una metodología
bayesiana.

Por su parte, recientemente se han propuesto, y se siguen estudiando, diversas técnicas


estadísticas aplicadas en la fase de imputación de datos, como pueden ser:

• Imputación de datos basadas en distintas técnicas de redes neuronales. Que está


siendo estudiado actualmente en el proyecto EUREDIT.
• Imputación basada en árboles de clasificación y regresión. Propuesta en el
proyecto europeo AUTIMP como una técnica adecuada de imputación.
• Imputación basada en la lógica difusa. Técnica propuesta en el proyecto europeo
EUREDIT y se está desarrollando en la actualidad.

3.3.- Estrategias de Imputación


Antes de realizar la imputación surge el problema de qué criterios se deben tener en
cuenta para seleccionar el modelo de imputación a aplicar. Esta respuesta no es sencilla
y hay que tener en cuenta los siguientes cinco aspectos que se detallan a continuación:

1. La importancia de la variable a imputar. Si la variable es de elevada


importancia, es natural que se elija más cuidadosamente la técnica de imputación
a aplicar.

2. Tipo de la variable a imputar. Hay que considerar en este contexto el tipo de


la variable, es decir, si es continua ó categórica tanto nominal como ordinal.
Teniendo en cuenta para el primer grupo el intervalo para el cual está definido y
para los segundos las distintas categorías de la variable.

3. Estadísticos que se desean estimar. En el caso que solamente nos interese


conocer el valor medio y el total, se pueden aplicar los métodos más sencillos
como son: imputación al valor medio o mediano y en base a las proporciones
pueden ser razonables. Sin embargo al aplicar estos métodos habrá problemas en
la estimación de la varianza, debido a que se infraestima su valor real.

En el caso en el que se requiera la distribución de frecuencias de la variable, la


varianza y asociaciones entre las distintas variables, se deben emplear métodos
mas elaborados y analizar el fichero de datos. El problema en este caso se
incrementa cuando hay una elevada tasa de no-respuesta.

4. Tasas de no-respuesta y exactitud necesaria. No se debe abusar de los


métodos de imputación y menos cuando tenemos una elevada tasa de no
respuesta de la cual se desconoce el mecanismo. El problema no es tan grave en
el caso en que se proporciona la correcta información sobre la precisión de las
medidas estadísticas. En el artículo de Laaksonen (2000) se considera tasa de
no-respuesta elevada cuando dicha tasa supera un tercio del total.

5. Información auxiliar disponible. La imputación puede mejorar al emplear


información auxiliar disponible. En el caso de no disponer información auxiliar
una técnica muy recomendada a aplicar es la imputación mediante el método hot
deck aleatorio.

La tarea de la imputación varía en gran medida dependiendo del tamaño del conjunto de
datos. Cuando se dispone de un fichero de datos pequeño es problemático en el caso de
tener valores missing en unidades cruciales, al aplicar hot-deck aleatorio se pueden
producir errores graves. Este caso se suele dar en muchas muestras económicas. En
cambio cuando se posee un conjunto de datos de grandes dimensiones surgen menos
problemas y se pueden aplicar distintos métodos de imputación.

La imputación se puede considerar como un proceso de varias etapas:

• Paso 1: El proceso de imputación empieza cuando se dispone de un fichero de


datos con valores faltantes, que ha debido pasar anteriormente la fase de edición.
• Paso 2: Recopilar y validar para el proceso de imputación toda la información
auxiliar que pueda ayudar en la imputación.

• Paso 3: Estudiar los distintos modelos de imputación para las variables que van
a ser imputadas. Seleccionar la técnica de imputación a aplicar pudiendo ser:
imputación univariante, en el caso de imputar una sola variable en cada
momento ó imputación multivariante en el caso de imputar simultáneamente un
conjunto de variables de la investigación estadística. En esta fase es interesante
observar los patrones de no respuesta que aparecen en dicho estudio, y
comprobar si hay gran número de registros que simultáneamente tienen no-
respuesta en un conjunto de variables, en este caso puede ser interesante aplicar
una imputación multivariante.

• Paso 4: Seleccionar varios métodos de imputación posibles. En esta fase según


el tipo de la variable a imputar, información auxiliar disponible, tipo de no-
respuesta,… se seleccionan los métodos apropiados para dicha variable. Es
conveniente seleccionar más de uno para poder contrastar los resultados que se
obtienen mediante los distintos métodos.

• Paso 5: Estimación puntual y varianza muestral para los distintos métodos de


imputación empleados y su evaluación. El objetivo es obtener estimaciones con
el mínimo sesgo y la mejor precisión.

• Paso 6: Tras estos se pasa a calcular la varianza de la imputación, la cual se


puede calcular mediante diferentes técnicas. Durante los últimos años, se han
presentado varios métodos para el cálculo de la estimación de la varianza de los
datos imputados:
o Imputación múltiple. Propuesto por Rubin (1987,1996).
o Imputación de pesos fraccionada (Fractionally weighted imputation)
basada en la imputación múltiple pero para la estimación de la varianza
toma los beneficios de aplicar el método Jackknife propuesto por Rao y
Shao (1992).
o Analítica. Shao (1997) presenta algunos nuevos desarrollos referentes a
algunos métodos de imputación para el cálculo de la varianza de los
valores imputados.
• Paso 7: Resultados de la imputación.
o Estimaciones puntuales y estimación final de la varianza.
o Micro ficheros con valores reales e imputados.

3.4.- Criterios de cumplimiento por la Imputación


El proceso de imputación debe ser capaz de reproducir eficientemente un fichero de
datos completo al cual se le pueda aplicar un análisis estadístico para datos completos.
Con la finalidad de obtener unos resultados adecuados tras la imputación se deben
calcular una serie de estadísticos que nos corroboren que estamos ante una imputación
adecuada para el estudio en cuestión.

A continuación se proponen una serie de medidas que son deseables para obtener una
buena imputación de datos, propuestas en el proyecto europeo de Edición e Imputación
de datos (EUREDIT). Para el caso en el cual se desean producir estimaciones agregadas
los criterios 1. y 2. son irrelevantes.

1. Precisión en la predicción: El proceso de imputación debe preservar el valor


real lo máximo posible, es decir, debe resultar un valor imputado que sea lo más
cercano posible al valor real.

2. Precisión en el ranking: El proceso de imputación debe maximizar la


preservación del orden en los valores imputados. Es decir, debe resultar una
ordenación que relacione el valor imputado con el valor real o sea muy similar.
Esta medida se refiere a variables numéricas o categóricas ordinales.

3. Precisión en la distribución: El proceso de imputación debe preservar la


distribución de los valores reales. Es decir, las distribuciones marginales y de
orden superior de los datos imputados debe ser esencialmente la misma que la
correspondiente de los valores reales.

4. Precisión en la estimación: El proceso de imputación debe reproducir los


momentos de órdenes menores de la distribución de los valores reales. En
particular, debe producir parámetros insesgados e inferencias eficientes de la
distribución de los valores reales.

5. Imputación plausible: El proceso de imputación debe conducir a valores


imputados que sean plausibles. En particular, deben ser valores aceptables al
aplicarles el proceso de edición.

Las medidas propuestas anteriormente dependen del tipo de variable que estemos
considerando, según el tipo de las variables a imputar hay criterios que no hay que tener
en cuenta.

Existen distintas medidas propuestas para los distintos tipos de variables (nominales,
ordinales, continuas,..) que se pueden consultar en el artículo de EUREDIT “Interm
Report on Evaluation Criteria for Statistical Editing and Imputation”.
Principalmente las características que se desean obtener de la imputación realizada son:
la conservación de los momentos de la distribución original y la semejanza entre los
valores reales y los imputados asignados a cada uno de ellos.

3.5 Imputación múltiple


En las últimas décadas, se ha desarrollado un nuevo método en el área del análisis de
datos incompletos: la imputación múltiple. Tras la publicación de los trabajos de Little y
Rubin (1986-87) han aparecido otros muchos artículos estudiando esta técnica de
imputación.

La imputación múltiple es una técnica en la que los valores perdidos son sustituidos por
m >1 valores simulados. Consiste en la imputación de los casos perdidos a través de la
estimación de un modelo aleatorio apropiado realizada m veces y, como resultado, se
obtienen m archivos completos con los valores imputados. Posteriormente, se lleva a
cabo el análisis estadístico ordinario con las m matrices de datos completas y se
combinan los resultados con una serie de fórmulas específicas proporcionadas por Little
y Rubin (1987).

El objetivo de la imputación múltiple es hacer un uso eficiente de los datos que se han
recogido, obtener estimadores no sesgados y reflejar adecuadamente la incertidumbre
que la no-respuesta parcial introduce en la estimación de parámetros. En el caso de
imputación simple tiende a sobreestimar la precisión ya que no se tiene en cuenta la
variabilidad de las componentes entre las distintas imputaciones realizadas. Para llevar a
cabo la imputación múltiple de los valores perdidos, procederíamos del siguiente modo:
• En primer lugar se seleccionan las variables que se emplearán en el modelo de
imputación. Es imprescindible que todas las variables que se van a utilizar
conjuntamente en posteriores análisis se incluyan en dicho modelo, también se
deben incluir todas aquellas variables que puedan ayudar a estimar los valores
missing.
• En segundo lugar, se decide el número de imputaciones que se desea realizar. En
general según se indica en la publicación de Rubin, entre 3 y 5 imputaciones son
suficientes.
• Decidir el método de imputación a aplicar a los distintos ficheros de datos. Hay
que tener en cuenta que esta fase es muy importante y se debe hacer un estudio
del método a aplicar en función de las características de las variables a imputar,
información auxiliar disponible, variables explicativas,… Para poder aplicar la
imputación múltiple, el método seleccionado debe contener algún componente
de imputación aleatoria. Con esta propiedad se asegura la posibilidad de obtener,
para cada registro a imputar, modificaciones entre los valores imputados al
completar los distintos ficheros de datos. Por ejemplo, no se va a poder aplicar la
imputación múltiple en el caso de realizar métodos determinísticos, como
pueden ser la imputación deductiva, al valor medio,…
• El siguiente paso será el de llevar a cabo los análisis estadísticos (univariantes,
bivariantes o multivariantes) necesarios para la investigación. El análisis se
realizará con las matrices generadas tras la imputación y los resultados se
combinarán con las distintas fórmulas proporcionadas por Little y Rubin.

Observando las distintas matrices generadas tras la imputación múltiple se puede hacer
una idea respecto a la precisión del método de imputación, si no se observan grandes
variaciones entre los valores imputados de las distintas matrices se tiene una gran
precisión de las estimaciones. Sin embargo hay técnicas estadísticas mas adecuadas para
el estudio de la precisión de los estimadores.

El aspecto importante de la imputación múltiple, de la misma forma que en el resto de


imputaciones, reside en la definición del modelo de imputación y en el método de
imputación. Es fundamental que el modelo empleado en las estimaciones de los valores
faltantes contenga las variables que se van a emplear posteriormente en los análisis
estadísticos ordinarios, con el fin de preservar las relaciones entre las variables. Cuanto
mejor sea el modelo respecto a la predicción, menor será la variación de los valores
imputados y más precisos serán los estimadores posteriores. El método de estimación de
los valores imputados varía de unas aplicaciones a otras, de modo que las propiedades
también varían.
En general, la imputación múltiple es una de las soluciones más adecuadas al problema
de no-respuesta parcial debido a su fácil aplicación y a la posibilidad de aplicar dicho
método en distintas situaciones y ante diferentes tipos de variables.

En cuanto al software disponible para llevar a cabo estas técnicas, en la actualidad


existen varias aplicaciones que permiten realizar la imputación múltiple con distintos
tipos de matrices de datos. Entre las aplicaciones exclusivamente dedicadas a la
imputación están los programas AMELIA, MICE, NORM-CAT-MIX-PAN y
SOLAS.

Destacan los módulos de imputación múltiple incluidos recientemente en SAS


versiones 8.1 y 8.2. También existen macros de SAS que realizan imputación múltiple:
sirnorm, em_covar, mvn y macros de Paul Allinson. Existe además una aplicación SAS
de imputación denominada IVEvare.
Tema 7: Macrodepuración
1.- Funciones y Características
La macrodepuración tiene como objetivo una detección y "corrección" selectiva de los
errores. Básicamente, la macrodepuración supone una investigación a nivel agregado
de la encuesta. Analiza, como veremos, bien los datos a nivel agregado o las
distribuciones de las variables de la encuesta.

Al hablar de macrodepuración nos tenemos que referir necesariamente a L. Granquist,


de Statistics Sweden. A el debemos el termino macrodepuración y a sus escritos
haremos continua referencia al presentar los distintos procedimientos de
macrodepuración.

En Granquist (1984) se recoge que “la esencia de la macro-depuración es estudiar los


datos para ciertos grupos de variables y cuestionarios” con el objeto de:
1. Identificar áreas de problemas.
2. Estimar y documentar los mismos.
3. Tomar medidas para tratar los errores sistemáticos no anticipados, si es posible,
o aplicar tal conocimiento para futuras encuestas.

El objetivo de la macrodepuración es agilizar las tareas de la detección-corrección de


errores en los datos de una encuesta sin detrimento de la calidad del proceso.
Destacamos a continuación las características más relevantes de la macrodepuración.

• Es un proceso selectivo de detección de errores. No todos los cuestionarios o


todas las variables son objeto de investigación por la macrodepuración. Solo
aquellos que son influyentes según el criterio que defina el experto. En
macrodepuración se ignoran aquellos errores en los datos cuya magnitud no es
significativa o que se cancelan en el proceso de agregación.

• Es una filosofía de depuración y no un conjunto de procedimientos


cerrado. En la medida en que los métodos de macro-depuración obtienen su
información directamente de los datos que tratan de depurar, una planificación
eficiente de los mismos es decisiva. Es decir, el experto debe hacer hipótesis
sobre los posibles tipos de error en sus datos, evaluar su importancia y, en
función de ellos, diseñar los procedimientos de análisis mas adecuados.

• Con alguna excepción, no define regla de incompatibilidad a priori. Es


decir, en macro-depuración se trabaja directamente con los datos que se
depuran, se estima su peso y se controla su incidencia. En la planificación del
proceso de macrodepuración debe tenerse en cuenta los estratos de la encuesta,
observaciones sospechosas, el índice de no respuesta, etc.

• Se concibe generalmente como un proceso interactivo que realizan


directamente los expertos de la encuesta. Con las técnicas actuales de
depuración interactiva, los procedimientos de macrodepuración seleccionan los
registros con valores sospechosos que se corrigen por pantalla. El proceso de
selección-corrección se repite hasta que el experto considera que la encuesta
esta libre de errores importantes.

• Aunque no exclusivamente, los métodos actualmente implementados trabajan


con datos cuantitativos y se destinan a la detección de valores outliers.

• Contribuye a mejorar la calidad de la encuesta. Los inspiradores de los


procedimientos de macrodepuración aseveran que en la medida que la
depuración se concentra en los errores importantes, se garantiza un mayor
interés y cuidado en la corrección de tales errores, lo que redunda en una mayor
calidad del proceso.

Los procedimientos más usuales de macrodepuración y de la base estadística que los


sustenta, son descritos en los apartados siguientes.

2.- Análisis de Outliers


Aunque no existe una definición genérica de outlier, se puede decir que un outlier es un
valor anómalo respecto de la serie de datos de que se trate. Esta consideración de
anomalía se traduce en el caso univariante en aquellos valores cuya distancia a su
respectivo cuartil (Q1 o Q3) supera en 1,5 veces la distancia intercuartílica.

En el caso multivariante se suelen proponer medidas de distancia estadística (p.e. la


distancia de Mahalanobis), de forma que tendrán consideración de outliers, aquellos
valores que superen cierto umbral determinado por la distribución de los datos. Por
tanto, conocida la distribución de la función distancia, podremos obtener cierto valor de
probabilidad sobre esta distribución y, sobre éste, el criterio de anomalía para el dato.

Más precisamente, la distancia de Mahalanobis se utiliza con frecuencia en Estadística


para medir la distancia que existe entre una observación-i y el centro de la distribución
multivariante. Está definida como:

∆i2 = [xi - µ] ′[Σ]-l [xi - µ]

y, como decimos, se puede demostrar que ∆i tiene distribución χ2 con q grados de


libertad (en el caso de una distribución Normal Multivariante de dimensión q).

Little & Smith utilizan la distancia de Mahalanobis utilizando como estimación del
vector de medias y de la matriz de covarianzas las estimaciones obtenidas con el
algoritmo ER, y considerando solamente los campos con dato (Xd) en la observación-i
en estudio. La medida de distancia que utilizan para la detección de outliers es entonces:

Di2 = [xid - µid(t)]’[Σid(t)- µid(t)]

En determinadas condiciones, Little & Smith conjeturan que Di2 se distribuye como una
χ2 con pi grados de libertad (pi es el numero de campos con dato en la observación-i).
Valores altos de Di2 sugieren una contaminación en los valores de Xd. Además, estos
autores sugieren la posibilidad de detección gráfica de los valores outliers usando los
gráficos probabilísticos normales (Normal Plot). Para ello se requiere transformar los
valores de Di2 en una Normal(0,l): Zi; donde Zi es la transformación, de Wilson-
Hilferty:

[( Di2 / pi )1/ 3 − 1 + ( 2 / 9 pi )]
Zi = ( i = 1,...,n)
( 2 / 9 pi )1/ 2

2.1.- La localización de valores outliers en registros outliers

Una vez que el procedimiento de detección selecciona los registros con un valor de Zi >
Z0 se considera a tales registros como atípicos o outliers. El valor de Z0 depende del
porcentaje de registros que se desea rechazar. A los registros así seleccionados se les
somete a un procedimiento iterativo que intenta ordenar los campos del registro de
acuerdo con la disminución marginal de la distancia Di2. El procedimiento elimina uno
a uno cada campo del registro y ordena de mayor a menor el valor de Di2; elige el
campo que contribuye en mayor medida a Di2 e reinicia el proceso para detectar el
segundo y siguientes. El proceso finaliza cuando el valor de Zi es menor al Z0 elegido.

El procedimiento es del tipo "Backward-elimination”. Opera de la forma siguiente para


cada registro considerado outlier:

Paso. 1.- Calcula para cada campo k con dato en el registro la distancia Di2 después de
eliminar el valor de k: (Di2(k))

Paso.2.- Clasifica de mayor a menor los Di2(k) y selecciona el campo j1 con menor
valor. El valor del campo j1 es el valor con mayor influencia en la observación-i.

Paso.3-4.- Repite Paso l y Paso 2 después de eliminar definitivamente el valor j1. El


procedimiento continua buscando los j2 j3 y siguientes valores mas influyente y hasta
que el valor de Zi correspondiente a la distancia Di2 toma un valor menor o igual a Z0.
Es decir hasta que Zi (j1 j2 ..) < Z0

2.2.- Estimación de Campos a Imputar


Previamente a continuar con el proceso de Imputación, el analista debe cuestionarse si
se mantiene los supuestos:
1. Los supuestos sobre la distribución son correctos.
2. Los datos borrados no dependen del verdadero valor de las variables
borradas.
3. El proceso de localización ha identificado los campos con error y los campos
no "borrados" no tienen errores de contenido (la validez de tales supuestos se
queda, lógicamente, en el terreno de las conjeturas, dado que los verdaderos
valores de las variables no se conocen. Es importante destacar, sin embargo,
la necesidad de tener presente los supuestos sobre los que trabajamos y
modificar los procesos en caso de serias dudas de su incumplimiento)

Si no se rechazan los supuestos, continuamos con el proceso de Imputación.

Aquí m indica campo a imputar porque es campo con falta de respuesta o se ha borrado
en el proceso de localización de errores. El valor imputado a un campo Xim de la
observación-i es el valor esperado condicionado a los valores de los campos con dato en
la observación-i y a la estimación robusta del vector de medias y la matriz de
covarianzas. Es decir:

xim = µim(T) + [Σimid(T)]’[Σidd(T)]-1[xid - µid(T)]

En Little & Smith se hace notar que la imputación de valores esperados es una
estimación eficiente de los valores medios de la distribución univariante pero que
distorsiona la propia distribución de la variable. Es decir, se crea una concentración de
los valores de la variable en su valor medio y una reducción artificial de su varianza.
L&S también sugieren la posibilidad de corregir tal distorsión añadiendo perturbaciones
a las predicciones.

En cuanto a las transformaciones, diremos que es muy habitual que en las etapas
iniciales del proceso se transformen los datos para acercarlos a una distribución normal
(transformación logarítmica o Box Cox). De ser esto así, en esta etapa debe deshacerse
la transformación para devolver los datos a su escala original.

3.- Los Procedimientos de Macrodepuración


Las oficinas de estadística de Suecia y Canadá han analizado en sendos estudios los
resultados de los procesos de macrodepuración y su comparación con los procesos de
microdepuración realizados en paralelo. Ver Granquist (1987, 1988, 1990), Hoglund-
Davila (1989) y Bilocq & Berthelot (1989) entre otros.

De Granquist, Hidiroglou-Berthelot (1986) y Hoglund-Davila tomamos las referencias


para describir las características de los métodos implementados más comunes. Estos
son:

3.1. El Método "Top-Down"


El método "top-down" ha sido programado en SAS en la oficina de Suecia. Granquist
(1987) describe y evalúa la aplicación del método en una encuesta de datos cuantitativos
y de periodicidad mensual. El método permite, en modo interactivo, seleccionar y
ordenar de mayor a menor los 15 valores extremos de una variable o función de
variables indicada. Así, para dicha variable o función el experto puede solicitar:
- Los 15 mayores cambios positivos.
- Los 15 mayores cambios negativos.
- Las 15 mayores contribuciones al agregado que se analiza.

Los resultados se presentan agregados por el total muestras o por subgrupos (estratos).
La información que el experto recibe en pantalla es:

* IDENTIFICACION del cuestionario


* VALOR de la variable
* Su FACTOR DE ELEVACION
* VALOR ELEVADO
* EL TOTAL

Con esta información en pantalla, el responsable de la depuración puede visualizar los


datos completos de un cuestionario, localizar los errores y, si los hay, corregirlos y ver
inmediatamente como se modifica la lista de los 15 registros en pantalla. El
procedimiento continúa hasta que el depurador considera que las correcciones no
modifican sustancialmente los totales.

Este método tiene la ventaja, sobre otros procedimientos de detección de outliers, de


que no exige definir de antemano el porcentaje de outliers a analizar. El método permite
interrumpir el proceso cuando se observa que las correcciones no tienen un impacto
relevante en las estimaciones del total.

La utilidad del procedimiento se fundamenta en la implementación de un proceso


interactivo eficiente (rápido); esto, que para encuesta con un gran volumen de
cuestionarios, puede ser tarea difícil. El INE (Instituto Nacional de Estadística) ha
desarrollado un procedimiento de macro-depuración que recoge la filosofía del método
"top-down" pero que se ejecuta en batch.

3.2.- La Desagregación en Cascada de Tablas de Series


El propio nombre "desagregación en cascada" sugiere las funciones del método. El
método en cascada es un procedimiento de localización de errores en datos agregados.
Para ello, el depurador, a partir de las tablas de resultados agregados y después de
comparar estos resultados con los de periodos anteriores, puede obtener las mismas
tablas pero con niveles mayores de desagregación. Cuando el depurador localiza la
tabla con los errores, puede listar las identificaciones de los registros y los valores de las
variables que componen los agregados erróneos.

El procedimiento esta implementado con el lenguaje de MACRO-SAS y sus


características más relevantes son:
1. El tratamiento es en batch (lo que evita restricciones de máquina, de volumen y
de almacenamiento de los datos).
2. Admite cualquier número y cualquier tipo de consultas.
3. El tratamiento es secuencial.
4. Permite generar series y circular funciones estadísticas a cualquier nivel de
desagregación.
5. La salida se facilita en todo tipo de soporte; ello facilita, entre otras cosas, el
trasvase de datos entre ordenadores Main-frame/PCs.
6. Es un procedimiento general; es decir, aplicable a todas las encuestas.
Finalmente,
7. No exige conocimiento informático para su uso.

Para un análisis mas detallado del procedimiento véase Pons Ordinas (1989).

3.3.- El Método de Agregación


El método también ha sido implementado como un prototipo de macrodepuración en la
Oficina de Estadística de Suecia, y se presenta en el documento de Granquist (1988). El
método utiliza su programa de depuración interactiva, EDIT-78. El programa EDIT-78
detecta los registros que fallan cualquiera de los edits de consistencia que el experto ha
definido a priori, lista por pantalla la identificación del registro y los edits fallados y
permite la corrección de los errores. El proceso se repite con el registro modificado
hasta que el sistema lo acepta o el depurador impone su aceptación.

El método utiliza el sistema EDIT-78 dos veces consecutivas. Primero trabaja con los
datos agregados y a continuación con los registros que intervinieron en los agregados
señalados como sospechosos en la primera ejecución. En ambas etapas los datos están
elevados. El método utiliza dos tipos de edits:
- Edits de ratios.
- Edits de diferencias.

Los límites de los edits son calculados por los expertos en base a un análisis previo de
los datos y de sus distribuciones. El método rechaza los agregados o los registros si son
fallados ambos edits (el de ratios y el de diferencias).

Granquist (1988) facilita resultados comparativos del método tradicional de depuración


y del método agregado para la estadística de prueba. De acuerdo con el estudio, el
trabajo de verificación de errores se redujo en un 50% sin ningún descenso en la
calidad.

3.4.- El Método de Hidiroglou & Berthelot (H&B)


Hidiroglou-Bertholot (1986) proponen un nuevo procedimiento para calcular los límites
de aceptación del ratio entre valores de una variable en dos periodos consecutivos y su
empleo en la detección de outliers en encuestas económicas periódicas.

El método propuesto por H&B se utiliza hoy profusamente: no solamente se aplica para
detectar outliers en series de tiempo (en este contexto, H&B define los valores de una
variable como outliers si su tendencia con respecto al periodo anterior difiere
significativamente de la tendencia general de los valores de dicha variable en el resto de
observaciones del mismo estrato muestral) sino que se aplica para detectar outliers entre
relaciones de variables del mismo cuestionario. Los límites que se obtienen con el
método de H&B son los límites de los que denominamos edits estadísticos.
Resumimos a continuación el método H&B de obtención de los edits estadísticos.

Denotamos por xi y xj los valores de las variables en análisis (obsérvese que xi puede ser
xi-1 en casos del análisis de encuestas periódicas o series). Calculamos ri = xi / xj y
maxi = max (xi , xj). La desigualdad de Chebychev, permite controlar el porcentaje de
observaciones que caen fuera de un intervalo del tipo
[r − k ⋅ s r , r + k ⋅ s r ]
(siendo k una constante, y sr la desviación típica). Sin embargo, r y sr son estadísticos
muy poco robustos a la existencia de outliers. Existen límites menos vulnerables a
outliers que son los siguientes:

[rm − k ⋅ rq1 , rm + k ⋅ rq 3 ]
donde, rm es el valor mediano de los ratios ri, y rq1 y rq3 son los valores del primer y
tercer cuartil respectivamente.

H&B apuntan un problema a este tipo de límites para detectar outliers, cual es que la
variabilidad de los valores de ri puede ser, y lo es frecuentemente, mayor para unidades
muestrales pequeñas que para unidades muestrales grandes. Este fenómeno produce un
efecto de enmascaramiento por tamaño de los valores de ri correspondientes a unidades
grandes.

Problemas de asimetría pueden por otra parte dificultar el detección de outliers en la


cola izquierda de la distribución. Para evitar estos problemas, H&B proponen trasformar
la variable ri como se indicará a continuación y recalcular los límites.

La primera transformación de ri trata de asegurar que los outliers se detectan bien en


ambas colas de la distribución.

⎧ rm
⎪⎪1 − r , si rm < ri
si = ⎨ i
rm
⎪ − 1, si rm ≥ ri
⎪⎩ ri

El efecto enmascaramiento por tamaño continúa presente en si. H&B proponen una
segunda transformación, que es una forma de cambio de escala con la cual se pondera la
influencia de las unidades mayores; es decir, esta transformación intenta conservar en
alguna medida el tamaño de la unidad muestral y dar más importancia a variaciones
pequeñas de unidades grandes que variaciones grandes de unidades pequeñas. Veamos
como se consigue:
ei = si · maxi u

donde u es una constante que H&B sitúan entre 0-1. Finalmente, los límites para los
edits estadísticos H&B se calculan como:
• Límite inferior = em – d2
• Límite superior = d3 – em

siendo em el valor mediana de los valores ei,


d2 = k · max (em – eq1, A· em)
d3 = k · max (eq3 – em, A· em)

y A, k, sendas constantes en el sistema.

El problema del método de H&B es la existencia de tres constantes que el experto debe
estimar y facilitar como parámetros al sistema. Las constantes son A, u, k. La eficacia
del método depende en gran medida de estos valores.

Hoglund-Davila (1989) presenta un estudio con los resultados del método para distintos
valores de u y de k (toma como fijo A = 0.05, valor que H&B (1986) sugieren).
Considera buenos valores de u = 0.4 ó u = 0.5 y valores de k comprendidos entre 15 y
43.
Concretamente, los valores que Davila elige son u = 0.4; k = 41. Junto a los resultados
del método H&B, Davila hace una evaluación del mismo. El método, dice, es difícil de
entender pero satisface el objetivo de detectar las observaciones que tienen una
variabilidad relativamente alta. Otros puntos que destaca son:
• El método puede usarse una vez para identificar todas las observaciones
sospechosas.
• No necesita información adicional a los datos.
• Los parámetros u y k permiten controlar el número de observaciones a analizar
y,
• No se pierde tiempo analizando observaciones de menor importancia.

Para terminar con el apartado de depuración, hacemos una breve reflexión sobre los dos
tipos de depuración considerados. Ya dijimos que ambos métodos de depuración no son
necesariamente excluyentes, sino complementarios; pero los procedimientos
tradicionales de la microdepuracion son cada vez mas cuestionados.

En la sección anterior referenciabamos diversos documentos de la Oficina de Estadística


de Suecia que evalúan los nuevos método de macrodepuración que han sustituido a los
métodos tradicionales de microdepuracion. Sin embargo, no estamos proponiendo que
la macrodepuración es el método de depuración. Las características de la encuesta que
se depura tienen mucho que decir sobre la viabilidad, o la conveniencia de un método u
otro. Por ello, terminamos este apartado destacando cuales, a nuestro parecer, deben ser
los aspectos a considerar a la hora de diseñar una estrategia óptima de depuración.

You might also like