Professional Documents
Culture Documents
Universidad-de-Granada Encuestas Por Muestreo 2005 (OJO)
Universidad-de-Granada Encuestas Por Muestreo 2005 (OJO)
2005
Tema 1: Fases de una Encuesta por
Muestreo
1.- Introducción
La investigación por encuestas consiste en establecer reglas que permitan acceder de forma
científica a lo que las personas opinan (León y Montero, 1993). Con esta metodología se
presentan cuestiones a un conjunto de individuos, de los que se presume que son
representativos de su grupo de referencia, para conocer sus actitudes con respecto al tema o
temas objeto de estudio. Por tanto, una encuesta no es más que un proceso de recogida de
información. No obstante, como dicha recogida de datos conforma una investigación, debe
ajustarse a una sistemática que garantice la objetividad de los datos recogidos.
A modo de resumen, se puede decir que la utilización de una muestra frente a la población
total será adecuada en relación a la razón coste / beneficio. Es evidente que si la población
es muy pequeña, puede no merecer la pena extraer una muestra de ella. Otra razón que hace
poco conveniente la utilización de muestra, es en el caso en que la población sea
excesivamente heterogénea; de ser así, la elección de una muestra representativa será muy
problemática, con lo cual los resultados obtenidos serán, cuanto menos, cuestionables.
La investigación mediante encuestas se plantea para objetivos de investigación diversos,
entre los que se encuentran estudios sobre grupos y organizaciones, cultura y socialización,
estructura social, población y familia, medio ambiente, economía y trabajo, política,
problemas y servicios sociales, y un largo etcétera. Es sin lugar a dudas el método de
investigación más difundido, lo que justifica que los métodos y técnicas de encuestación
sean un contenido frecuente en multitud de planes de estudio universitarios y no
universitarios.
Hemos comentado que la investigación por encuestas proporciona una forma sistemática de
obtener datos sobre cierta característica de interés. Pues bien, a continuación expondremos
los pasos que secuencialmente habremos de seguir desde la concepción hasta la publicación
de los resultados de una encuesta. Éstos son:
• Diseño teórico, en el que se tendrá en cuenta:
o El análisis del problema o definición de los objetivos de la investigación.
o Ámbito de la investigación: población estudiada, periodo de tiempo del
estudio y zona geográfica en que se desenvuelve, entre otros aspectos.
o Definición de las unidades básicas de las que se obtiene la información:
hogares, empresas, personas, etc.
o Delimitación de las características objeto de estudio: p.e. ingresos, opiniones
políticas, preferencias, dolencias físicas, etc.
o Características generales del cuestionario: extensión, necesidad de pretest.
o Procedimiento de muestreo: tipo de éste y tamaño de la muestra a
considerar.
Por último, también a nivel teórico es conveniente fijar la metodología de recogida,
depuración y tratamiento estadístico de la información. También es importante saber si
hay encuestas previas igual a la que vamos a realizar.
• Depuración de datos: en la que se pretende por una parte, mejorar la calidad de los
datos (corrigiendo errores, detectando valores anómalos, etc) y por otra, evaluar la
calidad de los datos, con el objeto de asegurar que la toma de éstos o el
procedimiento de muestreo ha sido adecuado.
• Análisis estadístico primario. Por éste entendemos la obtención de tablas del plan de
explotación, estadísticas descriptivas de variables simples, regresiones simples, un
análisis exploratorio de datos que muestre la necesidad de transformación de
variables, etc.
• Análisis estadístico secundario: en el que tendrán su lugar las técnicas habituales del
Análisis Multivariante (bien clásico, bien de datos), así como análisis más
particulares como modelos log-lineales, métodos de reducción de la dimensión,
modelos dinámicos como series temporales, etc.
• Interpretación, presentación y publicación de los resultados: cuyo aspecto más
importante es la presentación del informe de resultados junto con las tablas y
gráficos obtenidos, si bien éstas últimas, si se desea, se pueden presentar en un
apéndice propio.
Una vez realizadas estas fases, la información obtenida en su conjunto debe ser almacenada
en bases de datos para facilitar su posterior reexplotación y/o tratamiento. Esta acción, que
se puede obviar en encuestas de propósito reducido, es ineludible en otro tipo de encuestas
específicas como son los paneles (de la investigación sociológica y comercial), y en otras
que en su metodología tengan implícitos análisis estadísticos dinámicos.
4.- Muestreo
En la investigación mediante encuestas es preciso tomar decisiones en diversas etapas.
Henry (1990) habla de tres tipos de decisiones: previas al muestreo, decisiones de muestreo
y decisiones posteriores.
• Las decisiones pre-muestreo se encuadran en algunas de las fases descritas
anteriormente, sobre todo en la fase de diseño teórico.
• Las decisiones de muestreo se refieren a:
o El listado de la población a utilizar.
o El error tolerable o tamaño del efecto esperado.
o El tipo de técnica de muestreo a utilizar.
o Determinar si la probabilidad de selección de sujetos es igual o no.
o Evaluar el tamaño de la muestra.
• En cuanto a las decisiones post-muestreo, tendremos que observar:
o Cómo evaluar la ausencia de respuesta.
o Necesidad de reponderación.
o Estimación de errores típicos e intervalos de confianza.
En resumen, podríamos señalar tres objetivos básicos que se deben cubrir en un buen
diseño cuando se lleva a cabo una investigación mediante encuestas: elegir adecuadamente
a los sujetos a encuestar, seleccionar las preguntas para la elaboración de un cuestionario
acorde con los fines para abordar el problema planteado en la investigación y, finalmente,
organizar las preguntas para su análisis.
• Población: conjunto de unidades del que se desea obtener cierta información. Las
unidades pueden ser personas, viviendas, escuelas, etc. y la información deseada, el
consumo medio por familia, número de personas en paro, numero medio de
escolares por aula, etc.
El segundo tipo se puede definir como aquel en el que no hay forma de estimar la
probabilidad de que cada elemento sea incluido en la muestra, ya que no se garantiza que
cualquier individuo de la muestra tenga alguna probabilidad conocida de ser incluido en la
misma. Hay muchos procedimientos de selección no aleatoria de unidades muestrales, que
difieren en cuanto a la precisión de los datos que aportan. No obstante, como característica
general en todos los casos, al no ser muestras representativas, no se pueden generalizar los
resultados a la población. La selección de los sujetos se puede realizar sin seguir ninguna
norma, como en el caso de las muestras de conveniencia, o bien es el investigador quien
determina la forma de elección de los sujetos y la composición muestral, en las
denominadas muestras a propósito.
Los tipos de muestreo probabilístico usados más frecuentemente son: muestreo aleatorio
simple, muestreo estratificado y muestreo por conglomerados.
En cuanto a la calidad del marco, podemos distinguir tres tipos. El marco ideal es el marco
perfecto, esto es, aquel donde cada elemento ocurre una sola vez, no aparecen unidades
muestrales que no pertenezcan a la población que se desee estudiar y la información
suministrada es correcta. Sin embargo, tal tipo de marcos no son demasiados comunes. Una
segunda categoría corresponde a los marcos útiles, en los cuales se debe poder calcular la
probabilidad de seleccionar las unidades muestrales. Tal probabilidad debe ser distinta de
cero. Por último, estarían los marcos imperfectos, en los que aparecen cuestiones tales
como unidades extrañas, incorrecciones, duplicaciones, etc.
Como hemos dicho, los marcos para seleccionar a los sujetos pueden ser listas o censos de
los mismos. La selección basada en listas presentan la ventaja de que permiten un gran
margen de selección. Además, la existencia de un listado posibilita la realización de
encuestas por correo. No obstante, como mayor desventaja cabe destacar que suelen
contener grandes errores.
- Faltas de cobertura:
o Inadecuado: no intenta incluir a toda la población.
o Incompleto: no incluye algunos elementos que se supone debería incluir.
Como solución podemos considerar el uso de marcos complementarios, eliminando
duplicaciones o procedimientos enlazados, ligando los elementos que faltan a
listados especificados de forma claramente definida.
- Duplicaciones o repeticiones, cuando los elementos son listados más de una vez.
Puesto que los elementos duplicados tienen mayor probabilidad de ser
seleccionados, habremos de hacer un esfuerzo previo para eliminarlos del marco.
Para diseños más complejos, se recomienda la lectura del citado libro de Sánchez-Crespo o
la monografía de Pascual et al. “Tamaño de Muestra y Precisión Estadística” del Servicio
de Publicaciones de la Universidad de Almería.
Denotando por:
- n = tamaño de la muestra.
- N = tamaño de la población.
- 1-α = el nivel de confianza elegido.
- z1−α = el valor de z (con z una variable N(0,1)), que deja fuera del intervalo ±
z1−α una proporción α de los individuos.
- p = proporción en que la variable estudiada se da en la población.
- q = 1 - p.
- e = error de la estimación.
pq
n = z12−α , siempre que: np ≥ 5 y nq ≥ 5
e2
z12−α pqN
n= 2 , siempre que: np ≥ 5 y nq ≥ 5
e ( N − 1) + z12−α pq
En este caso de poblaciones finitas, con mismas condiciones establecidas para el caso
anterior, los tamaños muestrales son:
NOTA: Los espacios que quedan en blanco del cuadro anterior, proporcionan valores
superiores a la mitad de la población. Cuando esto ocurre lo más aconsejable es tomar toda
la población directamente, a no ser que existan razones de otra índole que aconsejen no
trabajar con su totalidad.
En la aplicación de las fórmulas para el cálculo del tamaño de la muestra suele presentarse
el problema de determinar el valor de p. Esta dificultad se puede solventar de una de las
siguientes formas:
• Situación de algunas preguntas. Las preguntas clave, esto es, las que se
consideren de especial relevancia para la investigación, deben situarse en la
mitad del cuestionario, de tal forma que ya se haya despertado el interés del
encuestado pero antes de que esté demasiado cansado.
Hay que poner especial cuidado al ordenar las preguntas, tratando de evitar que se
produzca un sesgo que se denomina irradiación, esto es, la calidad de la respuesta
puede verse afectada por el contexto inmediato en que se encuentra la pregunta, así
como en su ubicación en el cuestionario. Se han dado varias soluciones: la
secuenciación de embudo, o bien variar la posición de ítems que puedan verse afectados
por este problema en el estudio piloto, tratando de analizar su efecto. Sin embargo,
resulta absolutamente desaconsejable aleatorizar los ítems como solución a la
irradiación, ya que esto produciría efectos indeseables (Babbie, 1996):
Otro sesgo se produce por el orden, pero esta vez no el de los ítems en los cuestionarios
sino de las categorías de respuesta. La recomendación que dan los diversos autores es
alternar el orden de presentación en los diversos cuestionarios, en unos presentándolos
en orden creciente y en otros decreciente, o, si el nivel de medida de la variable es
nominal, aleatorizar las categorías de respuesta. Esto puede hacerse en el estudio piloto,
determinando allí su influencia.
3.2.- Diseño
El diseño del cuestionario es también de una gran importancia en la elaboración del
mismo. Un formato inadecuado puede ser también fuente de errores, ya que puede
llevar a que se salten preguntas, confundir sobre la información que se pide, etc. Esto es
especialmente importante en los cuestionarios autoadministrados, pero también lo es
cuando la encuesta se realiza por medio de entrevistadores. En un caso u otro,
obviamente, el diseño del cuestionario será distinto. No obstante, de cualquier forma, el
diseño debe hacerse de forma que facilite tanto la lectura de las preguntas como el
registro de las respuestas a la misma. Además, debe parecer limpio, atractivo y
ordenado.
Dillon y cols. (1994) y Sudman y Bradburn (1987) aconsejan la utilización del formato
de folleto, por varias razones:
La principal desventaja de este formato es que puede facilitar sesgos de respuesta en los
sujetos, puesto que puede producir que se responda de forma maquinal, no prestando los
encuestados la atención necesaria. Babbie (1996) aconseja la utilización de dos formatos
de respuesta: o bien dejar el espacio para responder marcado mediante corchete o
paréntesis, o bien acompañar cada categoría de respuesta con un número. Este último
procedimiento tiene la ventaja de facilitar la codificación de respuestas.
La longitud del cuestionario es otro aspecto importante. Se debe evitar que su extensión
fatigue al encuestado, eliminando los ítems repetitivos o que no tengan relación con los
objetivos de la investigación. Ahora bien, aunque generalmente se desaconseja el
superar una hora de entrevista, no hay que olvidar que lo que hace amena una entrevista
no es tanto su duración como el interés que despierte en el encuestado.
• Han de ser lo más cortas posibles: los textos largos suelen aburrir al
entrevistado, por lo que es recomendable que no se incluyan preguntas cuya
lectura dure más de un minuto y, sobre todo, que repita conceptos. Incluso las
preguntas indirectas o las que introduzcan al entrevistado en un tema difícil, se
deben formular de forma lo más concisa posible.
• Deben ser neutras. La pregunta no debe tomar partido por tal o cual opción, lo
que aumentará la credibilidad del estudio ya que los resultados serán lo más
imparciales posibles. Por tanto, habrá que evitar:
• Hay que evitar la ambigüedad, de tal manera que el encuestado sepa siempre
qué se le está preguntando. La ambigüedad se puede producir por dos razones.
En primer lugar, por la redacción de la pregunta, utilizando términos que carecen
de un significado uniforme. Otra forma de producir ambigüedad es la inclusión
de preguntas dobles, como por ejemplo:
¿Has tenido alguna experiencia de acoso en el trabajo o sabes de
alguien que la haya tenido?
b) Longitud de los ítems. Es conveniente que las preguntas sean cortas. Una
pregunta demasiado larga aburre tanto al entrevistador como al encuestado.
Además, una pregunta larga puede producir más errores, ya que si el
entrevistado pierde interés y contesta sin prestar demasiada atención, puede
emitir respuestas inexactas, ya que es posible que el encuestado pierda el sentido
concreto de lo que se le está preguntando.
4.2.-Tipos de Preguntas
Las preguntas se pueden clasificar en función del grado de libertad de la respuesta o en
función de los objetivos precisos que se persigan. En el primer caso, existen dos grandes
grupos: preguntas abiertas, en las que dentro del marco de una pregunta formulada, se
puede contestar libremente, tanto en extensión como en contenido, y preguntas cerradas,
en las que el entrevistado seleccionará sólo puede seleccionar un número de respuestas
prefijadas. La utilización de uno u otro tipo de preguntas en los cuestionarios ha
suscitado más de una controversia que actualmente están superadas. Ello se ha debido
sobre todo al desarrollo de la técnica estadística denominada Análisis de Datos
Textuales (Lebart et al.), en la que, entre otras cosas, proporciona una metodología para
la construcción de preguntas cerradas (de más fácil tratamiento), a partir de preguntas
abiertas.
En cuanto a los objetivos que se persiguen, se pueden establecer dos grandes grupos: los
que persiguen objetivos en el desarrollo de la encuesta, tales como preguntas filtro,
alivio, etc., y los que van dirigidos a recabar información concreta.
Hay dos grandes grupos de preguntas en función de los objetivos que se persiguen: las
preguntas orientadas a recabar directamente información y las que tienen finalidades de
facilitar el desarrollo de la encuesta.
Las preguntas filtro han de usarse con precaución, pues se corre el riesgo de
alargar demasiado el cuestionario si se utilizan mucho. Las preguntas filtro sólo
se deben usar cuando las preguntas siguientes son embarazosas o puedan carecer
de significado para el encuestado.
1. Empleo de terceras personas (p.e. sus amigos, familiares, etc.): ¿Alguno de sus
amigos acostumbra a fumar marihuana? Posteriormente, se pueden incluir
preguntas indirectas que permitan estimar si el encuestado también lo hace.
2. Minimizar la gravedad del hecho, por medio de complicidad o de
generalizaciones que dan a entender que es muy común: todo el mundo ha
fumado alguna vez un porro, ¿usted lo ha hecho también?
3. Incluir la pregunta en el contexto de otras más inofensivas, aprovechando que el
encuestado se ha acostumbrado a contestar (Weiers, 1986).
4. Uso de la autoridad para justificar la conducta: La Justicia contempla el uso de
la violencia en autodefensa, ¿en qué otras ocasiones la justifica usted?
5. Aportar razones que justifiquen una conducta inadecuada, como por ejemplo:
“Es bastante incómodo el uso de casco cuando se conduce una motocicleta,
sobre todo en verano; ¿acostumbra usted a conducir su motocicleta sin ponerse
el casco?”
6. Tarjetas de respuesta (Kinnear y Taylor, 1987). Se le presentan al encuestado la
pregunta delicada en una tarjeta, donde figuran las diversas alternativas de
respuesta numeradas. El encuestado simplemente tiene que dar al entrevistador
el número de la respuesta que resulte más adecuada.
7. Técnica de respuesta al azar, que permite estimar la probabilidad de ocurrencia
de un tema que resulta tabú socialmente. Se le presentan al encuestado dos
preguntas, a las cuales debe responder sí o no. Se le pide que lance una moneda
al aire y que, tras haber asignado el mismo cara a una de las preguntas y cruz a
la otra, responda a la que corresponda. Una de las preguntas es la pregunta
conflictiva que se desea conocer, mientras que la otra es una pregunta inocua.
Este modo de proceder no permite conocer la respuesta individualmente, pero
deja la posibilidad de realizar una estimación de respuestas positivas a preguntas
delicadas, basado en la probabilidad para emitir las respuestas. Consideremos
como ejemplo la siguiente pregunta:
A continuación le vamos a plantear dos preguntas. Ud. debe asociar una de las
preguntas a la cara de la moneda y otra a la cruz, sin indicárselo al
entrevistador. Después, lance la moneda al aire y responda a la pregunta
correspondiente, sin decir a cual de las dos ha contestado:
Tamaño de la Probabilidad
PREGUNTA Respuestas
muestra a priori de Sí
Responde a A
160 ¿? X
Responde a B
160 1/10
Total
320 62
P ( )
sí =
( )
P(sí ) − P(B ) ⋅ P sí
B
A P ( A)
dónde P(sí) es la probabilidad de dar una respuesta afirmativa. Este dato se
conoce ya, pues 62 encuestados de los 320 han respondido afirmativamente, lo
que hace una probabilidad de 0,19375. La probabilidad de responder a la opción
B es 0,5, al igual que responder A; la probabilidad de dar una respuesta
afirmativa a B es 1/10=0.1. Por tanto, la probabilidad que buscamos será:
Esto quiere decir que podemos estimar que un 28 % de los encuestados han
estado en prisión. Evidentemente, es una estimación, y tiene como inconveniente
añadido que no permite cruzar esta información con otras obtenidas en el
cuestionario, lo que imposibilita identificar el perfil de aquellos que han
respondido afirmativamente a la pregunta delicada. No obstante, es más
apropiado que plantear la pregunta directa ¿Ha estado usted encarcelado?, ya
que es dudoso que se hubieran primando sólo la parte positiva obtenido
respuestas veraces.
Son aquellas que dejan en total libertad al encuestado para responder lo que estime
pertinente. El entrevistador se limita a reproducir con la mayor precisión la respuesta
dada por el entrevistado. Son especialmente útiles en las primeras fases de una
investigación, cuando aún no se tienen muy claras las posibles opciones de respuesta. Es
también recomendable su uso cuando se entrevista a personas que puedan aportar una
información rica en matices.
Otra situación dónde resulta conveniente es en el caso que sea inadecuado listar todas
las posibles opciones. Por ejemplo, es más fácil dejar abierta una pregunta como
profesión que realizar una lista exhaustiva que las incluya todas. También resultan las
más idóneas cuando se quiere obtener una respuesta numérica, exacta, como por
ejemplo la edad. Dillon y cols. (1994) señalan estas otras razones para su uso:
En general, los ítems con respuestas abiertas parecen más adecuados para las primeras
etapas de una investigación, con objeto de poder apresar las diversas categorías de
respuesta. Sin embargo, la redacción final del cuestionario deberá incluir la mayoría de
las preguntas cerradas, en ocasiones con una última opción de respuesta abierta.
4.3.- Precodificación
Debido a los grandes volúmenes de información que pueden ser manejados durante el
desarrollo de una investigación mediante encuestas, se hace ineludible una fase previa a
la grabación de los datos. Nos referimos a la fase de codificación que consiste en la
asignación de claves o códigos que faciliten el tratamiento de los datos.
Es evidente que este proceso se refiere a las cuestiones cerradas, ya que las preguntas
abiertas solo se codificarán una vez que se hayan obtenidos las respuestas de los
encuestados. El siguiente esquema muestra el proceso de codificación en su totalidad:
Revisar respuestas a Asignar claves a
preguntas cerradas preguntas cerradas
Iniciar captura
Definir claves para
cada pregunta
cerrada del Integrar el catálogo
cuestionario vacío. de claves
Revisar respuestas a Integrar por Asignar claves a
preguntas abiertas separado claves preguntas abiertas
para preguntas
abiertas
Marque, entre los siguientes, el deporte que practica con más frecuencia:
Fútbol (1)
Tenis (2)
Baloncesto (3)
Atletismo (4)
Otro. Indique cuál_____________________________ (5)
Adicionalmente
El aspecto que tendrá la hoja de datos asociada a las respuestas obtenidas será (el
código si se marca será 1 y si no se marca 2):
En total estas proporciones no deben superar el 10 % del total del cuestionario, en caso
contrario se impondrá una revisión del mismo y una reformulación de las preguntas.
Con las nueva reformulación se pasará otro pretest a otra submuestra para asegurar que
se han corregido los errores anteriores. En cualquier caso, hay que hacer notar que es
muy raro que un cuestionario no se modifique al realizar el pretest, por lo que esta fase
debe considerarse no como un acto único, sino como un procedimiento multietápico.
• Permite comprobar si las preguntas tienen sentido y provocan las respuestas que
se espera obtener.
• Se puede observar si la categorización de las preguntas cerradas y su
codificación es correcta.
• Permite establecer las categorías de respuesta de las preguntas abiertas, con lo
que se convierten en preguntas cerradas en la elaboración definitiva.
• Se puede comprobar si se comprenden bien las instrucciones y si la duración del
cuestionario no cansa al encuestado.
• Ayuda a depurar el cuestionario, ya que permite eliminar ambigüedades,
preguntas superfluas, así como incluir otras que parezcan relevantes o modificar
el flujo de preguntas.
• Permite saber si el cuestionario funciona como se esperaba. Las siguientes
variables sirven como diagnóstico: número de negativas a responder, alto
número de “no sabe/ no contesta” o alto porcentaje de respuestas en blanco.
En suma, el pretest del cuestionario ofrece una información muy valiosa, ya que permite
depurar el instrumento para que la investigación logre sus objetivos. Otras ventajas del
pretest son:
• Se puede comprobar la reacción que el cuestionario produce en los encuestados,
permitiendo así determinar si se establece la relación deseada.
• Permite ensayar diversas formas de preguntar sobre un tema de interés.
• Se puede detectar los posibles efectos debidos al orden de las preguntas.
• Esto puede hacerse incluyendo ordenamientos alternativos tanto en la
presentación de las preguntas como en las distintas categorías de respuesta,
comparando luego los resultados obtenidos.
Tras realizar el estudio piloto, se revisan los resultados para comprobar que es
concordante con los objetivos previstos. La información que se obtiene es fundamental
de cara a asegurar una investigación con las garantías de calidad necesarias. Sin
embargo, Weiers (1986) alerta contra estudios piloto que requieran demasiado tiempo o
esfuerzo, pues el objetivo de la investigación por encuesta no es realizar un cuestionario
perfecto, sino estudiar una muestra extraída de una población. Además, pese a su
importancia, conviene no considerar el estudio piloto como un sustituto de una
redacción cuidadosa del cuestionario. Parasuraman (1986) afirma que el investigador
debe intentar extraer la información sobre las preguntas más dudosas de forma más
clara, sin esperar que sean los sujetos del estudio piloto los que detecten los problemas
del cuestionario.
Green y Tull (1978) señalan que las fuentes de error de respuesta son de dos tipos. En
primer lugar, la obtención de la información requiere que se formule la pregunta. Este es
un primer nivel de errores potenciales, y tienen que ver con inexactitudes. En segundo
lugar, la información debe ser transmitida, momento en el que se producen errores, en
este caso de ambigüedad.
Hemos dejado de lado los sesgos producidos intencionalmente por el investigador, tales
como la realización de preguntas direccionales, tendentes a obtener la información que
el investigador desea, pues consideramos que estos sesgos se relacionan con la ética y
su análisis tiene cabida, por tanto, en otro apartado. Nuestro interés se centra en la
evitación de cometer errores que lleven a la obtención de información exacta, dando por
supuesto la buena fe del investigador. Como hemos visto a lo largo del tema, los sesgos
posibles son muy variados, por los que el investigador debe estar alerta al respecto, y
poner los medios a su alcance para evitarlos. Estos son dos:
• Una cuidadosa elaboración del cuestionario, teniendo siempre presente las
fuentes de error.
• Estudios pilotos y pretests que ayuden a la realización de la mejor investigación
posible con los medios y los conocimientos de los que se dispone en ese
momento dado.
En un tema posterior, se describe el programa SPSS Data Entry v4.0, de gran difusión
en la gestión de cuestionarios.
Tema 3: Escalas de Medida. Validación
de Cuestionarios
1.- Introducción. Escalas Básicas
El cuestionario, como hemos dicho, es un instrumento diseñado para recabar
información. Hemos desarrollado en los apartados anteriores diversos aspectos de su
elaboración. En este tema trataremos los procedimientos para medir o cuantificar las
respuestas obtenidas en una encuesta. El objetivo último de la medida es poder
distinguir hasta qué punto un individuo posee una característica determinada.
Dependiendo de la variable que esté siendo medida, los números que se le asignen
tendrán propiedades diferentes.
Babbie (1996) distingue entre inventario y escala en la forma en que se asignan las
puntuaciones. Ambos procedimientos suponen instrumentos eficientes para la reducción
de datos. Dicho de otra manera, cuando una variable precisa más de un ítem para su
medición, realiza medidas compuestas, inventarios o escalas. Para dicho autor, un
inventario se construye acumulando las puntuaciones que se asignan a atributos
individuales, mientras que una escala asigna puntuaciones a patrones de respuesta,
teniendo en cuenta la intensidad.
Muchos son los autores que han definido lo que es medición, como por ejemplo:
• Para Campbell (1928) es una asignación de números para representar
propiedades de sistemas materiales no numéricos, en virtud de leyes que
gobiernan esas propiedades.
• Para Stevens (1951, pág. 1) es una 'asignación de números a objetos o eventos
según ciertas reglas’.
• Para Torgerson (1958, pág. 15) consiste en asignar números a sistemas que
representan la propiedad objeto de medición.
• Scott y Suppes (1958) lo definen como una asignación de números a objetos de
modo que las relaciones reciban una interpretación numérica, exacta y
razonable.
• Lord y Novick (1968, pág. 16) lo definen como un procedimiento para asignar
números a propiedades específicas de unidades experimentales de forma que
caracteriza y preserva las relaciones específicas en el dominio conductual.
• Escala Ordinal: Este tipo de escala consiste en asignar a los elementos medidos
un número que permita ordenarlos según la cantidad de variable que poseen
desde el punto de vista del encuestado. Las escalas ordinales son útiles
principalmente para variables cualitativas y aquí los números permiten afirmar si
la cantidad de variable que posee un elemento es mayor o menor que la de otro,
pero no dice cuanto mayor o cuanto menor, además de saber si un elemento es
igual o distinto a otros elementos de la muestra.
• Escalas de Razón: son las escalas de intervalos en las que existe propiamente
un cero absoluto, es decir, la ausencia total de cantidad de variable. Este tipo de
escalas están indicadas para variables cuantitativas. En esta escala los números
permiten afirmar si un elemento es igual o distinto a otros elementos de la
muestra, si la cantidad de variable que posee un elemento es mayor o menor que
la de otro, pudiendo decir cuanto mayor o cuanto menor. La diferencia entre los
elementos medidos son constantes y, además, se puede afirmar si la cantidad de
uno es el doble, el triple, etc. que la cantidad de otro elemento. Algunos
ejemplos de elementos a los que se podría aplicar escalas de razón son: los
ingresos, la edad, los volúmenes de venta, etc.
La información sobre una misma variable se podría obtener mediante cualquiera de las
cuatro escalas vistas, si bien unas serán más adecuadas para algunos casos que para
otros. Por su parte, la escala de medida determina qué tipo de análisis estadísticos son
los apropiados.
En las escalas comparativas, se pide al sujeto que compare un conjunto de estímulos con
un punto de referencia dado. Un ejemplo de escala comparativa es la escala de
Guttman: en ella, se aporta un patrón ideal, suponiendo que el que responde al nivel
superior también ha respondido a los anteriores. Por su parte, las escalas no
comparativas no se basan en la contrastación de los estímulos presentados. El sujeto
asigna la puntuación que considera más adecuada. Varios son los procedimientos en la
elaboración de escalas no comparativas. Los más relevantes son las escalas Likert, el
diferencial semántico y la escala Thurstone.
Como decimos, en las escalas comparativas se pide al entrevistado que compare objetos
respecto de uno o varios estímulos ( por ejemplo compara marcas de coches respecto a
ciertas características como diseño deportivo, fiabilidad, seguridad, etc.) Los resultados
son de tipo nominal u ordinal, por lo que en ocasiones se les denomina escalas no
métricas. Algunos tipos de estas escalas son:
2º
C1 C2 C3 C4 SUMA NIVEL
1º
C1 - 4 3 1 8 4
C2 16 - 16 2 34 2
C3 17 4 - 5 26 3
C4 19 18 15 - 52 1
A la vista de los datos podemos concluir que se prefiere e coche C4 sobre los
demás, a continuación el C2, etc. Por otra parte, es notorio que la suma total de
puntuaciones es de 120 ( =20×(4×3)/2, siendo n=4 el número de objetos a
comparar), lo que quiere decir que en este tipo de escalas es conveniente no
incluir demasiados objetos a comparar. Por ejemplo con n=10 se tendrían 45
comparaciones por individuo, que en la mayoría de las ocasiones provocará
cansancio o rechazo a la respuesta.
Marca
C1 C2 C3 C4
Individuo
1 1 4 2 3
2 1 3 2 4
3 2 3 1 4
4 1 4 3 2
5 3 1 2 4
6 1 4 3 2
7 3 4 1 2
8 1 2 3 4
9 3 4 2 1
10 2 4 3 1
11 2 4 1 3
12 2 3 1 4
13 1 3 4 2
14 1 2 4 3
15 1 3 2 4
16 4 2 3 1
17 1 4 3 2
18 1 2 3 4
19 1 4 2 3
20 2 3 1 4
Con base a estos datos, se efectúa un conteo del número de veces que cada
marca aparece en un orden determinado. A continuación se obtiene una
puntuación global para cada marca, la cual se calcula ponderando con mayor
puntuación los órdenes primeros (4) que los segundos (3) y así sucesivamente.
La tabla resultante es:
Marca
C1 C2 C3 C4
Orden
1º 11 1 5 3
2º 5 4 6 5
3º 3 6 7 4
4º 1 9 2 8
Total 60 49 48 31
R1 R2 R3 R4 R5 Total
Presencia física 20 10 15 20 25 90
Formación Académica 10 5 10 15 5 45
Formación específica 10 5 10 15 5 45
Dispone vehículo propio 5 15 15 5 15 55
Experiencia 55 65 50 45 50 265
1. Establecer una forma para medir la cuantía del error en las distintas
ordenaciones de filas y columnas.
2. Ordenar los datos de manera que se ajusten lo más posible a una escala
perfecta.
3. Ante dos posibles ordenaciones se elige la que proporcione menos
errores.
4. Evaluar el grado de aproximación de los datos empíricos al modelo.
5. Si el coeficiente de reproductividad es menor que 0,90, se considera que
no hay un buen ajuste.
6. Asignación de puntuaciones a los sujetos y a los estímulos.
7. Elaborar la escala definitiva.
Acuerdo Desacuerdo
O bien
Acuerdo
Desacuerdo
• Escalas de ítemes. Estas escalas son muy comunes en la práctica de las
encuestas y se construyen por medio de un número limitado de respuestas, que
se muestran mediante números o palabras, que generalmente marcan cierto
orden o graduación. Por ejemplo:
Acuerdo 1 2 3 4 5 6 7 Desacuerdo
Es No es
--- --- --- --- --- --- --- -
puntual puntual
Es
No es
cordial
--- --- --- --- --- --- --- cordial en
en el
el trato
trato
No
fomenta Fomenta
--- --- --- --- --- --- ---
la la crítica
crítica
Atiende Atiende
a pocas --- --- --- --- --- --- --- todas las
dudas dudas
-5 -4 -3 -2 -1 Puntualidad +1 +2 +3 +4 +5
e igual con el resto.
Hoy en día la correlación ítem-total es el método más sencillo puesto que se encuentra
ya programada en paquetes informáticos como SPSS. Con ambos métodos se obtendrán
resultados parecidos.
4º
2º
1º 3º Análisis
Cálculo de la
Análisis de Escala adicionales:
fiabilidad
ítems provisional -Cualitativos
desechando
(fiabilidad -Cuantitativos
ítems
aceptable) (Análisis
progresivamente
factorial)
6º Versión definitiva
Esperaremos de todo este proceso que el 25% superior tenga una media
significativamente más alta en cada ítem que el 25% inferior. Podremos concluir
que los ítems que simultáneamente diferencian a los mismos sujetos están
midiendo lo mismo. Prescindiremos de los ítems que no discriminan (al menos
aquellos con valores desde no significativos), y si son muchos o demasiados los
que discriminan (y esto sucede con frecuencia), podemos quedarnos con los mas
discriminantes.
Lo que realmente nos interesa no es la correlación de cada ítem con e total, sino
la correlación de cada ítem con la suma de todos los demás, lo que es bastante
laborioso, a menos que se utilice un programa como SPSS. En el módulo
correspondiente, el programa calcula:
3.2.- Fiabilidad
Se dice que una medida es fiable cuando está libre de error aleatorio. También se dice
que es fiable cuando al ser aplicada sobre la misma característica en distintos momentos
es capaz de obtener la misma medida. La fiabilidad es una característica necesaria pero
no suficiente para que una medida sea válida, es decir, una medida puede ser fiable pero
no válida.
MOMENTO1 MOMENTO2
Item1 Item1
Item2 Item2
Item3 Item3
. .
. .
. .
Item n ítem n
Dentro de la encuesta se selecciona un grupo al cual se le pasa dos veces la
encuesta. En este tipo de en hay un problema de aprendizaje, como
recomendación se requiere un tiempo de tres semanas.
K −1⎜ k k ⎟
⎜⎜ ∑ σ i + 2 ∑ σ ij ⎟⎟
2
⎝ i =1 i, j ⎠
K = número de ítems
∑σ i
2
= suma de las varianzas de todos los ítems
El coeficiente debe tomar valores mayores de 0,6 (o 0,8 para escalas ya usadas
en la práctica, y adaptadas a nuevos estudios) para escalas con un número bajo
de ítems. A continuación calcularemos el coeficiente eliminando cada uno de los
ítems de la escala, para observar como se modifica el valor α global. Si el valor
aumenta ostensiblemente eliminando algún valor, procederíamos a quitarlo de la
escala.
Hay que tener en cuenta que el coeficiente depende del número de ítems, de tal
forma que será artificialmente mayor cuanto mayor sea el número de ítems, por
lo que habrá que usarlo con cautela en estos casos. En definitiva, el proceso para
evaluar la consistencia interna de la escala, será:
1. Calcular el coeficiente de α inicial con todos los ítems.
2. Eliminar los peores ítems y volver a calcular α . Repetir el proceso hasta
quedarnos con el conjunto de los ítems que nos dan mayor fiabilidad.
3. Si al eliminar ítems baja el valor α, damos por terminado el trabajo. Al
final nos quedaremos con el conjunto de ítems que forme una escala con
una consistencia interna óptima.
3.3.- Validez
Un instrumento de medida se dice válido cuando mide lo que debe medir. La validez
está relacionada con el error sistemático en el sentido de que a menor error sistemático
más válida es la medida. No obstante hay otras definiciones y consideraciones en cuanto
a la validez, por ejemplo:
• Validez de contenido: también se llama Validez Facial y se refiere a si la
medida recoge todos los aspectos de la característica. Por ejemplo: un examen
de 20 temas y se pregunta únicamente uno.
• Validez de constructo: se trata de saber si los indicadores diseñados (ítemes)
representan bien al fenómeno en estudio, por ejemplo, en la construcción de una
escala.
• Validez de criterio: se trata de determinar si la escala es capaz de reflejar las
relaciones entre las medidas de una variable y otras anticipadas por la teoría.
Es conveniente tener en cuenta que no existe una prueba de validez en sentido estricto,
pero si podemos tener datos y análisis que apoyen una determinada interpretación,
avalen la utilidad del instrumento, etc. Con los estudios de validación pretendemos,
sobre todo, dos finalidades que se apoyan mutuamente:
• Confirmar el significado previsto de la variable que pretendemos medir: se trata
de verificar que la interpretación es correcta (si por ejemplo queremos medir la
actitud frente al estudio, hemos de verificar que realmente es eso lo que
medimos y no la inteligencia o el deseo de dar una buena imagen). Ester tipo de
validez se denomina validez de constructo (o de rasgo). Confirmamos el
significado comprobando hipótesis basadas en el mismo significado; podemos
utilizar dos tipos de estrategias que se complementan:
o Validez convergente, por ejemplo comprobando relaciones esperadas y
plausibles ( positivas o negativas) con otras medidas referidas a dos tipos
de variables:
Unas relaciones pueden ser con variables medidas por otros
instrumentos que pretendidamente miden lo mismo ( si hacemos
una escala de autoconcepto esperamos una correlación
significativa con otras escalas de autoconcepto).
Otras relaciones pueden ser con instrumentos que miden otras
cosas pero con las que esperamos (como hipótesis plausibles) que
haya relación positiva ( como entre actitud hacia el estudio y
calificaciones escolares) o negativa (como entre actitud hacia el
estudio y ansiedad ante los exámenes).
o Validez divergente: comprobando que el rasgo no tiene relación con
otros con los que no esperamos que la tenga o que se diferencia de otros
del mismo ámbito.
En la actualidad, el MDS puede ser apto para gran cantidad de tipos diferentes de datos
de entrada (tablas de contingencia, matrices de proximidad, datos de perfil,
correlaciones, etc.). El MDS puede ayudar a determinar:
• Qué dimensiones utilizan los encuestados a la hora de evaluar a los objetos.
• Cuántas dimensiones utilizan.
• La importancia relativa de cada dimensión.
• Cómo se relacionan perceptualmente los objetos.
Existen otras técnicas multivariantes, como son el análisis factorial y el análisis cluster,
que persiguen objetivos muy similares al MDS pero que difieren en una serie de
aspectos. Sin embargo, la utilización de alguna de estas técnicas no supone que no se
pueda utilizar el escalamiento multidimensional, sino que esta última técnica puede
servir como alternativa o bien como complemento a las otras técnicas multivariantes. En
definitiva, el MDS es una técnica multivariante que crea un gráfico aproximado a partir
de las similitudes o preferencias de un conjunto de objetos.
De modo general, podemos decir que el MDS toma como entrada una matriz de
disimilaridades, ∆ ∈ M nxn , donde n es el número de estímulos. Cada elemento δ ij de ∆
representa la disimilaridad (o similaridad según se considere) entre el estímulo i y el
estímulo j.
A partir de esta matriz de disimilaridades, la técnica de MDS nos proporciona como
salida una matriz de coordenadas X n×m , donde n, al igual que antes, es el número de
estímulos, y m es el número de dimensiones. Cada valor xij representa la coordenada del
estímulo i en la dimensión j. El procedimiento para obtener esta matriz es conocido
como el algoritmo MDS básico y puede encontrarse en cualquier manual sobre el tema.
A partir de esta matriz X se puede calcular la distancia existente entre dos estímulos i y
j, mediante cualquier definición de distancia: euclídea, euclídea ponderada, city-block,
minkowski, etc. Estas distancias constituirán una matriz D ∈ M n×n . Pues bien, la
solución proporcionada por el MDS debe ser tal que exista la mínima diferencia entre la
matriz de disimilaridades inicial ∆ y la matriz de distancias obtenidas D. A
continuación, se tratará de determinar cómo de bueno es el ajuste considerado. Esta
cuestión la analizaremos posteriormente.
Todo modelo de escalamiento parte de la idea de que las distancias son una función de
las disimilaridades, es decir, d ij = f (δ ij ) . En el modelo de escalamiento métrico se
parte del supuesto de que la relación entre las proximidades y las distancias es de tipo
lineal: d ij = a + bδ ij . En el caso no métrico, no se propone una función deternimada sino
que simplemente la función f preserve el orden (monótona) existente entre las
disimilaridades (los veremos a continuación).
∑ ( f (δ ) − d ij )
2
ij
i, j
3. Definición del Stress: Stress =
∑d
2
ij
i, j
Este ejercicio de minimización tiene carácter algorítmico, y tiene como fin obtener,
como en el caso métrico una configuración cuyas distancias se aproximen, lo máximo
posible a las disimilaridades iniciales.
Stress Ajuste
0,2 Pobre
0,1 Regular
0,05 Bueno
0,025 Excelente
0,0 Perfecto
Otra medida que se suele utilizar es el coeficiente de correlación al cuadrado (RSQ), que
nos informa de la proporción de variabilidad de los datos de partida que es explicada
por el modelo. Los valores que puede tomar oscilan entre 0 y 1, al ser un coeficiente de
correlación al cuadrado. Valores cercanos a 1 indican que el modelo es bueno y valores
cercanos a 0 indican que el modelo es malo.
La mayoría de los paquetes estadísticos tienen implementados tanto los algoritmos para
obtener soluciones con MDS así como las medidas para determinar si el modelo es
adecuado o no. Esto se describirá con detalla en el tema dedicado a MDS con el paquete
SPSS.
1,0
v14 v23 v22
v9
v20
0,5 v19
v17 v4
v1 v18 v10 v11
v25 v26
0,0 v7
Dimensión 2
v12
v5v8 v3 v29 v15
v24 v13 v27 v16
-0,5
v21 v6
-1,0
v2
-1,5
v28
-2,0
-4 -3 -2 -1 0 1 2
Dimensión 1
En el gráfico podemos observar que hay ítems que están bastante más alejados que el
resto, en una escala con 30 ítems. Un análisis de la correlación del ítem con el total
revela que los siguientes ítems tienen correlación menor que 0,250: 2, 6, 9, 14, 20, 24,
25, 27, 28, 30. Es evidente que el gráfico MDS reproduce esta bajas correlaciones en
términos de mayor distancia entre los puntos, lo cual permite dar una pauta para
desechar aquellos estímulos para mejorar la consistencia interna de la escala.
Entre las ventajas de utilizar el MDS en comparación con otras técnicas multivariantes
están:
• Los datos en MDS pueden estar medidos en cualquier escala, mientras que en el
Análisis Factorial deben estar medidos en escala de razón o intervalo.
• El MDS puede proporcionar soluciones para cada individuo, lo cual no es
posible con el Análisis Factorial ni con el análisis cluster.
• En el MDS el investigador no necesita especificar cuáles son las variables a
emplear en la comparación de objetos, algo que es fundamental en el Análisis
Factorial y en el Análisis Cluster, con lo que se evita la influencia del
investigador en el estudio.
• Las soluciones proporcionadas por MDS suelen ser de menor dimensionalidad
que las proporcionadas por el análisis factorial (Schiffman, Reynolds y Young,
1981).
• En MDS pueden ser interpretados directamente las distancias entre todos los
puntos, mientras que en el análisis de correspondencias solamente pueden ser
interpretadas directamente las distancias entre filas o bien entre columnas.
Tema 4: Toma de Datos. Planificación
Temporal
1.- Métodos de Recogida de la Información
Podemos clasificar la forma de recoger la información en función de tres modos de
administración del cuestionario: entrevista personal o cara a cara, donde el entrevistador y el
encuestado comparten el mismo espacio y tiempo en la realización de la encuesta; la encuesta
telefónica, que reúne al entrevistador y al entrevistado en un tiempo común pero en distinto
espacio y la encuesta postal, que constituye una modalidad de encuesta autoadministrada, sin
mediar la figura del entrevistador.
Bosch y Torrente (1993) recalcan que no hay un procedimiento superior a los demás en la
recogida de información. La calidad de la encuesta viene determinada por el adecuado
planteamiento metodológico, la selección óptima de la muestra y por la utilización de buenos
instrumentos, diseñados para la obtención de la información. La elección de un procedimiento
u otro estará motivado por factores metodológicos y extra-metodológicos. Entre los segundos
cabe destacar los aspectos relativos a presupuesto y tiempo; una planificación adecuada de
una investigación exige prestarle atención a estos detalles. Los factores metodológicos se
refieren a calidad de los datos, sistema de variables a estudiar y características de la
población.
1
• Es el procedimiento más flexible. Permite que el entrevistador formule las preguntas
según la situación y se adapta al nivel cultural y educativo del entrevistado.
• Es el sistema que permite recoger más información. Por una parte, no tiene las
limitaciones de tiempo que se presentan en los otros procedimientos. También se
pueden realizar preguntas más complejas, ya que, al contrario de lo que ocurre en las
encuestas postales o telefónicas, en la entrevista cara a cara es posible realizar
preguntas no estructuradas. En tercer lugar, el entrevistador puede obtener
información adicional del aspecto físico del encuestado, su hábitat, etc., que no está
disponible en las otras formas de encuesta.
• Presenta una alta calidad de la información recogida, pues la actuación del
entrevistador evitará las respuestas evasivas, ayudando además a la comprensión de
las mismas y facilitando que las respuestas que se den sean relevantes.
• Se asegura que se realiza la entrevista a la persona seleccionada y no a cualquier otro
miembro de la familia. Además se evita la influencia de terceras personas.
• Se puede usar material adicional: fotos, catálogos, muestras, así como tarjetas de
respuesta para permitir que el encuestado tenga delante de sí todas las categorías de un
ítem para responderlo con exactitud.
2
Una versión especial de la entrevista cara a cara es la que se realiza en sitios públicos, como
por ejemplo en centros comerciales, en estudios de mercado. Presenta las ventajas de la
entrevista personal en domicilio, aunque por las características del lugar en que se realiza
debe ser más breve que ésta. No se recomienda pasar de 25 minutos (Dillon y cols., 1987).
Otras ventajas son su facilidad para acceder a la muestra y que es un procedimiento rápido de
obtener información. Ahora bien, presenta serios problemas relacionados con la selección de
la muestra, sometida a diversos sesgos:
• Los compradores habituales tienen mayor probabilidad de ser incluidos en el estudio
que aquellos que realicen sus compras menos a menudo.
• El encuestado potencial puede evitar o provocar el ser incluido en la entrevista.
Se debe iniciar la entrevista con una presentación que incluya un saludo apropiado, la
explicación de los objetivos del proyecto, quien es la entidad que realiza la encuesta, así como
una indicación de la duración de la entrevista, finalizando con una educada petición de
permiso para llevar a cabo la misma (Parasuraman, 1986). Otras recomendaciones de interés
son las siguientes (Grande y Abascal, 1994):
1. El encuestador debe dejar claro que se trata de una investigación, informando al
encuestado que puede verificar la garantía de la empresa investigadora.
2. Debe darse una explicación clara y convincente de por qué se está llamando a la
persona en cuestión.
3. Debe garantizarse el anonimato del encuestado.
4. La encuesta se hará en horas razonables, entre las 20 y las 22 horas, ya que si se llama
antes las probabilidades de encontrar a la persona seleccionada son menores, mientras
que si se la llamada se hace después, es posible que se encuentren ya descansando. Es
conveniente que la encuesta se complete de una forma conversacional, con una lectura
ágil de los ítems. No obstante, debe ser también fiel, evitando los sesgos posibles que
se darían en el cambio de la redacción de las preguntas.
La organización de una encuesta telefónica precisa contar con teléfonos suficientes para evitar
la excesiva lentitud de recogida de información que se produciría en caso contrario.
3
Grande y Abascal (1994) señalan que las encuestas telefónicas se emplean para analizar
nuevos productos en marketing, para conocer la estructura de la población y facilitar las tareas
de muestreo, para llevar a cabo test de audiencia o de eficacia publicitaria y para analizar las
actitudes post-compra. Este procedimiento permite seleccionar muestras en poblaciones raras
o poco conocidas.
4
• En España, se cifra la cobertura telefónica en un 76 % del territorio (Bosch y Torrente,
1993), aunque existen diferencias sustanciales en relación a la clase social o al hábitat
rural o urbano.
• Hay personas que no figuran en las guías telefónicas, a los que se denominan
Robinsones en el lenguaje técnico.
• La irrupción de varias compañías telefónicas hace que se tengan que manejar varios
listados. Por otra parte, en la actualidad es muy común disponer sólo de teléfono
móvil, de los que no hay listados fiables debido a su tipo de contrato (tarjeta).
• Determinados números de teléfono que aparecen en la guía telefónica como
particulares corresponden en realidad a empresas.
• Proliferación de segundos domicilios con teléfono, lo que dificulta la localización de
los abonados.
• La realización de la entrevista por teléfono puede provocar desconfianza en el
entrevistado, lo que provocará que no quiera responder o que, en el mejor de los casos,
responda de forma poco exacta.
• No se puede presentar ningún tipo de material auxiliar. Por tanto, el entrevistador
deberá poseer mayores habilidades persuasivas y de comunicación para establecer una
relación cálida que asegure las mejores condiciones de realización de la entrevista.
• Dependiendo de las tarifas telefónicas, la longitud del cuestionario y las distancias a
cubrir, puede resultar un procedimiento caro.
• Pueden presentarse problemas de comprensión de los ítems o incoherencias, difíciles
de detectar debido a la rapidez con la que se efectúa la entrevista.
• Es más difícil obtener información secundaria: hábitat del encuestado, características
físicas, etc.
• Aunque el efecto de la figura del entrevistador es menor que en la entrevista personal,
no obstante se pueden producir sesgos debidos al entrevistador o a la interrelación que
se establece con el encuestado.
• Problemas de memorización. Cuando se da una lista de categorías de respuesta, la
precisión de la misma se ve comprometida, pues al encuestado puede resultarle difícil
recordar todas las alternativas de respuesta ofrecidas, tendiendo a señalar las
respuestas extremas o la última de la lista.
• Existencia de obstáculos físicos: contestadores, teléfonos desconectados, líneas
ocupadas.
• Al no tener la presencia del entrevistador, al encuestado le resulta más fácil dar
cualquier excusa para finalizar la encuesta antes de haber acabado.
La entrevista telefónica asistida por ordenador (CATI) es un procedimiento que empieza a ser
bastante común. Los teléfonos se conectan a un ordenador, en cuya memoria se encuentra el
cuestionario y las características de la muestra. La selección de la muestra se genera
aleatoriamente, realizándose las llamadas a estos números. El entrevistador lee el cuestionario
desde la pantalla e introduce las respuestas ofrecidas por el encuestado. El procedimiento
presenta interesantes ventajas:
• Con respecto a la muestra, esta se genera automáticamente. Igualmente, se obtienen de
forma automática las cuotas de muestreo, a la vez que proporciona una parada
automática cuando se ha completado un estrato.
• Permite una versión personalizada para cada entrevistado, pues va planteando las
preguntas en función de las respuestas previas, estableciéndose así un sistema de
filtros de forma automática. Si se produce un silencio, el programa presenta una
formulación alternativa de la pregunta.
5
• El entrevistador recibe las instrucciones por pantalla, haciendo el mismo ordenador los
saltos pertinentes en las preguntas filtro.
• La información que se recibe se puede contrastar con la anterior, detectándose pronto
los errores o incongruencias que puedan aparecer, por lo que algunos de tales fallos
podrán subsanarse al instante.
• La velocidad de la investigación es máxima, pues los datos se registran en el mismo
momento que se van obteniendo, por lo que los resultados se pueden tener con toda
prontitud.
• Se pueden obtener resultados por cada encuestador, o por el momento en que se
recogió la información.
• Selecciona la muestra aleatoria de cuestionarios a controlar.
El sistema de encuesta telefónica asistida por ordenador no está libre de inconvenientes. Cea
(1996) señala los siguientes:
• El tamaño de la pantalla es más pequeño que el de la hoja del cuestionario, lo cual
dificulta su lectura.
• Es más fácil detectar visualmente donde se han cometido errores en los cuestionarios
en soporte papel, ya que proporcionan una visión continua de preguntas y respuestas.
• En el sistema CATI hay que mirar la pantalla a la vez que se va grabando la
información, para comprobar que no se han introducido errores. Es conveniente usar
pantallas resumen.
• El entrevistador suele estar más familiarizado a los sistemas de lápiz y papel, mientras
que el tener que mirar al teclado y a la pantalla simultáneamente puede alargar la
duración de la entrevista.
• Por lo general, el entrevistador dispone de poco espacio para poder anotar las
incidencias durante el desarrollo de la entrevista.
• No es muy conveniente para estudiar los estratos sociales más bajos de la población.
Existen dos tipos de marcos de muestreo, aquellos basados en directorios y los que se realizan
sin guía de teléfono (Dillon y cols, 1994). En los diseños muestrales basados en directorios,
los números de teléfono se seleccionan a través de la guía telefónica, de forma preestablecida.
Para evitar sesgos, esta selección debe ser aleatoria, habiendo dos formas de proceder:
1. Se elige un número determinado de números de la guía telefónica, usando algún
procedimiento sistemático, como por ejemplo, elegir un número cada siete de los que
aparecen en la guía.
2. Los números seleccionados se modifican hasta permitir que puedan incluirse en el
muestreo todos los números, incluso los no listados. Hay varios procedimientos, por
ejemplo, se puede sumar una constante al último dígito, o bien se aleatorizan los
últimos r dígitos.
6
El otro sistema no incluye la utilización de la guía telefónica. En este caso, se elige un primer
bloque de números, o bien un prefijo, y los restantes se añaden aleatoriamente. Sea cual sea el
método seguido para la extracción de la muestra, Bosch y Torrente (1994) señalan el siguiente
proceso en una encuesta telefónica:
- Elaborar la lista de la población a estudiar o delimitar los códigos que se extraerán de
forma aleatoria.
- Determinar el número de sujetos que compondrán la muestra.
- Determinar la fracción de muestreo o extraer los números aleatorios.
- Extraer los casos seleccionados.
Los avances metodológicos abren nuevas puertas a la investigación mediante encuestas. Así,
Babbie (1996) señala un procedimiento adicional: el envío de cuestionarios mediante el fax.
Es evidente que esto limita el estudio a aquellas personas que cuenten con fax, pero será tal
vez interesante si el uso del fax se generaliza, o cuando se trata de estudiar poblaciones donde
el fax es moneda corriente, como por ejemplo, en las empresas.
Bosch y Torrente (1993) afirman que la encuesta por correo es especialmente adecuada en los
siguientes casos:
- Cuando el presupuesto de la investigación es limitado.
- El listado de direcciones está completo.
- Es fácil identificar a la persona que se desea entrevistar.
- El cuestionario es sencillo de responder.
- Se puede esperar unas ocho semanas en obtener resultados.
En la encuesta por correo hay un elemento decisivo: la carta de presentación. Es uno de los
factores que aumentan la tasa de respuestas, por lo que su interés y su importancia es máxima.
En dicha carta, que no debe exceder de una página, el contenido debe incluir los aspectos
siguientes:
- Naturaleza del estudio.
- Razones de haber sido elegido.
- Entidad que realiza la investigación.
- Instrucciones.
- En qué se utilizará la información que aporte.
- Aclarar si se respetará o no el anonimato.
7
Bosch y Torrente (1993) aconsejan que los mensajes que se deben emitir vayan con el
ordenamiento que se detalla a continuación:
1. En el primer párrafo se debe explicar y convencer al encuestado de la utilidad social
de la investigación. Los autores matizan que importa menos recalcar quién es la
entidad organizadora cuanto dejar claros los objetivos que se persiguen con la
investigación.
2. En el segundo párrafo se trata de convencer al encuestado de que su respuesta es
importante y no puede ser sustituida.
3. En el tercer párrafo se le asegura la confidencialidad de la información que aporte. No
obstante, conviene señalar que los cuestionarios no pueden ser anónimos, pues en tal
caso no se podría llevar control de qué personas contestan y cuáles no.
4. En el cuarto párrafo se debe repetir la justificación del trabajo, así como informar si
está previsto el envío de copias de resultados, incluyendo también un teléfono de
contacto por si surgen dudas al completar el cuestionario.
Por su parte, Ortega (1990) señala que los aspectos más relevantes deben ir en los párrafos
primero o último, que son a los que más atención se presta. Recomienda ser conciso en la
redacción de la carta, sin alargarse en explicaciones innecesarias. El diseño de la misma debe
cuidarse, de forma que ayude a su lectura mediante el formato, tipo de letra, márgenes e
interlineado.
Bosch y Torrente (1993) aconsejan enviar los cuestionarios de un solo golpe, de forma que
todos los encuestados lo reciban en fecha similar, y a principio de semana, puesto que de esta
manera lo recibirán a lo largo de la misma semana.
8
El problema más importante de las encuestas postales es la baja tasa de respuesta. A modo de
ejemplo, Ortega (1990) sitúa la tasa de respuesta para estos estudios en España entre el 10 y el
20 %, aunque él afirma haber alcanzado tasas del 30 al 40 %. Babbie (1996) considera que un
50 % de respuesta es una tasa adecuada, un 60 % buena y un 70 % muy buena, aunque esta
clasificación es orientativa, sin fundamento estadístico.
En cuanto a los seguimientos, éstos son varios y deben estar programados. Bosch y
Torrente (1993) aconsejan llevar a cabo la pauta siguiente:
1. A la semana del primer envío se manda una tarjeta postal, que es a la vez un
agradecimiento a los que ya han contestado y un recordatorio a los que no lo han
hecho.
2. A las tres semanas desde el primer envío se manda una carta acompañada de nuevo del
cuestionario. El tono de la carta tiene que ser amable para contrarrestar la insistencia
del envío.
3. Tercer seguimiento: a las siete semanas desde el inicio. Es el esfuerzo final. Es más
eficaz si se envía mediante correo certificado. Para compensar la agresividad de este
envío, la carta debe tener un tono relajado. También se puede hacer un recordatorio
telefónico.
9
Shaugnessy y Zeichmister (1994) recomiendan numerar el orden de recepción de los
cuestionarios, ya que esto permite establecer comparaciones entre los primeros recibidos y los
últimos, pudiendo determinar si hay alguna tendencia diferencial. Es interesante realizar una
gráfica donde se recoja el porcentaje acumulativo de respuesta. Cuando se alcanza una
meseta, si la tasa de respuesta es aún baja, es conveniente un reenvío de cuestionarios, si no se
ha optado por un procedimiento sistemático de seguimiento como el descrito anteriormente.
Pero la baja tasa de respuesta no es la única limitación de la encuesta postal.
Conviene recordar, no obstante, que un buen cuestionario ayuda a obtener éxito, pero no lo
garantiza. El cuestionario puede no devolverse por un conjunto de factores que escapan al
control del investigador, que van desde que no llegue a su destinatario hasta que éste lo
rellene pero que no lo devuelva.
La muestra de una encuesta postal presenta también aspectos idiosincrásicos que conviene
señalar (Bosch y Torrente, 1993):
10
• Requiere un listado de individuos y de direcciones que sean elegibles para ser
incluidos en la muestra.
• No es posible realizar el muestreo por cuotas o por rutas aleatorias.
• No es aconsejable utilizar más de una encuesta por hogar, pues, por lo general, los
miembros de una familia presentan características similares.
• La encuesta por correo permite realizar una estratificación previa en grupos
homogéneos. La limitación de esta forma de muestreo es que requiere que cada unidad
muestral debe aparecer sólo en un estrato, lo que en ocasiones puede no ser el caso.
• La sustitución de una unidad muestral por otro individuo se da menos que en los otros
procedimientos, pues la falta de respuesta se suele solucionar con reenvíos. El
problema estriba en que no se puede determinar quiénes finalmente no contestan hasta
haber pasado más de dos meses.
• Es más conveniente que, de darse, la sustitución sea por otro miembro de la misma
familia, salvo que los objetivos de la investigación sean específicos de un miembro de
la familia en concreto.
• El empleo de marcos muestrales depende de la unidad muestral. Cuando esta es el
hogar, el marco muestral puede ser los Censos del Instituto Nacional de Estadística,
mientras que si son los individuos se acostumbra a utilizar el censo o el padrón
municipal. Conviene realizar cruzamientos para obtener listados completos y más
actualizados.
• Las poblaciones especiales resultan muy adecuadas para encuestar postalmente. Para
determinados grupos, como estudiantes, empleados y personal militar se logran altas
tasas de respuesta y se obtienen listados exhaustivos. Ahora bien, cuando la unidad
muestral es un cargo de una determinada organización, suele ser difícil identificar a
los informantes que ocupan los puestos claves, siendo relativamente común que
rellene el cuestionario una persona por otra.
En aquellos casos que la tasa de respuesta sea muy escasa, Ortega (1990) aconseja llevar a
cabo alguna de estas opciones:
• Enviar nuevos cuestionarios a los segmentos de la población de los que no se han
recibido suficientes respuestas.
• Completar las respuestas necesarias mediante entrevistas telefónicas o personales.
• Desechar un determinado número de respuestas de aquellos segmentos de la población
de los que se haya tenido más encuestas. Se obtiene mayor representatividad pero a
costa de reducir el valor estadístico de las estimaciones correspondientes.
Hasta aquí hemos visto las características de los tres procedimientos para recoger
información: encuesta personal, telefónica y postal, con sus ventajas y limitaciones. La
idoneidad del método vendrá dada por los objetivos que se persigan en la investigación y por
los recursos con los que se cuente. Ninguna de las formas de recabar información es en sí
misma superior a las otras. Por otra parte, es bastante común que se utilice una combinación
de procedimientos. Así, se puede proceder de las formas siguientes:
• Entrega de un cuestionario en mano. Concertar una cita telefónica para recogerlo. Útil
cuando los cuestionarios son largos y se precisa tiempo para completarlos.
• Llamada telefónica para avisar del envío por correspondencia del cuestionario,
intentando asegurar una mayor colaboración del encuestado.
11
• Llamada telefónica para concertar una cita de la entrevista personal.
• Llamada telefónica para localizar a las personas que no han respondido en la encuesta
por correo.
• Como forma de verificación, llamada telefónica tras la entrevista personal para
verificar las respuestas.
Finalmente, mostramos en las tablas siguientes una comparativa de los tres métodos más
habituales de administración de una encuesta:
12
Permiten respuestas más meditadas Son representativas en un tipo
sociológico determinado
Si bien hay que decir que las redes de campo pueden tener diferente estructura dependiendo
del tipo de encuesta1, existe un organigrama básico que es el que presentamos a continuación,
en orden de menor a mayor responsabilidad jerárquica:
1
Por ejemplo, los centros oficiales (I.N.E., I.E.A., etc.) disponen de sistemas de recogida de
datos muy bien estructuradas como son las U.R.C.E. (Unidades de Recogida CEntralizadas).
2
En algunos sistemas de recogida de datos pueden no ser necesarios los codificadores, ya que
en recogida con soporte informático, la toma de datos y la codificación se realiza en el mismo
momento. Sobre este punto se hablará posteriormente.
13
Ya hemos señalado que la presencia del entrevistador produce ventajas e inconvenientes. El
entrevistador, al servir de puente entre el encuestado y el investigador, es una figura clave, y
una actuación incorrecta puede desbaratar la investigación mejor planificada. De ahí que
queramos incidir en las características del entrevistador y en su forma de llevar a cabo la
entrevista, así como en la formación que deben recibir.
El entrevistador tiene que ser capaz de seguir las instrucciones marcadas en la encuesta y de
recabar la información deseada, registrándola con exactitud. Son responsabilidad del
entrevistador la localización de la muestra de encuestados, la realización del cuestionario y el
registro de las respuestas. Además, debe ser capaz de poder tomar decisiones sobre el terreno
sin la asistencia del supervisor.
Ortega (1990) señala algunas características que debe tener, a su juicio, un buen entrevistador
y de las que cabe destacar las siguientes:
- Cultura de tipo medio para moverse con soltura entre los diversos tipos de
encuestados.
- Buena presencia.
- Uso de lenguaje claro y agradable
- Integridad, de tal manera que desee realizar adecuadamente su trabajo, evitando los
engaños deliberados.
- Interés y voluntad por el trabajo.
- Motivación para trabajar.
La apariencia física del entrevistador juega un papel relevante, pues que se ha comprobado
que determinadas características del aspecto del entrevistador puede modificar las respuestas
de los encuestados, como veremos en el apartado correspondiente. No hay que olvidar que la
forma de vestir y el cuidado personal se suelen considerar como indicadores de las actitudes y
tendencias de la persona. Babbie (1996) aconseja que el entrevistador se vista de forma
parecida a la persona que va a entrevistar. En caso de que esto no sea posible, el encuestador
deberá usar ropa modesta, pulcra y limpia.
14
La formación del entrevistador debe ser de dos tipos: general y específica. La formación
general va dirigida a aspectos teórico-prácticos de lo que constituye una investigación por
encuesta. Así, los contenidos que se incluyen son:
- Descripción de un estudio de investigación por encuesta
- Realización de entrevistas
- Tipos de muestras
- Selección de los entrevistados
- Revisión de cuestionarios
- Supervisión y control del trabajo
- Normas de trabajo y relación con la empresa
- Pagos y gastos
El control debe realizarse en primer lugar por parte del mismo entrevistador, verificando que
el cuestionario haya sido completado correctamente. Luego pasa al supervisor. La revisión del
trabajo realizado en este momento permite sacar a la luz errores fáciles de subsanar en ese
instante, pero cuya solución posterior puede ser más problemática o incluso imposible. Babbie
(1996) aconseja no realizar más de 20 entrevistas sin que el entrevistador informe de su
15
trabajo y presente los cuestionarios completos. La supervisión del trabajo realizado supone
varios tipos de control. Ortega (1990) detalla los siguientes:
1. Control personal de las entrevistas al entregarlas en la oficina.
2. Control personal de la entrevista mediante una nueva entrevista.
3. Control telefónico de la entrevista.
4. Control postal de las entrevistas.
5. Control de consistencia de las preguntas: Se comprueba a través del trabajo realizado
por la misma persona a través de las mismas respuestas o ausencia de las mismas en
distintos cuestionarios.
6. Control de curvas de estabilidad: Tabulación de los cuestionarios de un entrevistador
en orden secuencial de realización de su trabajo. Un número de respuestas a una
pregunta en una misma dirección, si es considerablemente mayor que el que obtienen
otros compañeros, produciría un control más estricto del trabajo realizado.
7. Control de batería de preguntas: Son diseñadas para el control de las respuestas
obtenidas y saber el grado de aceptación que se debe dar a la información.
Los cuatro primeros son controles directos, mientras que los tres últimos se basan en el
análisis interno y comparativo de los cuestionarios cumplimentados por cada entrevistador.
Los inspectores provinciales de los Censos son los delegados y los inspectores comarcales los
estadísticos técnicos de las delegaciones provinciales del INE. Estos niveles tienen la
responsabilidad de “crear” el resto de la estructura. Todo el personal, a partir de la categoría
de encargado comarcal, se contrata específicamente para la realización del Censo.
16
cumplimentados por los hogares y revisándolos para analizar la consistencia de la
información. El trabajo asignado a un agente censal corresponde, en media, a una sección
censal, aunque existe un número reducido de secciones (en torno a 1.500, principalmente de
zonas con muchas viviendas secundarias) que se realizan entre varios agentes para poder
terminar dentro del período de recogida establecido. También existen agentes que hacen
varias secciones debido al reducido tamaño de las mismas. La determinación de los cupos de
trabajo ha tenido como base los datos de las pruebas piloto de 1999 y 2000.
Los encargados de grupo dependen de los encargados comarcales. En cada oficina comarcal
se sitúan dos encargados comarcales. En los dos ordenadores personales existentes en cada
una de estas oficinas se carga la aplicación de seguimiento de la recogida que permitirá, entre
otras labores, la distribución del trabajo entre los encargados de grupo y agentes censales, la
grabación de la identificación de los sobres censales consignando las incidencias asignadas y
la grabación de los partes de seguimiento de cobertura de las viviendas y locales. Las tareas
de grabación son responsabilidad de los auxiliares comarcales de dichas oficinas.
Las oficinas comarcales son los puntos de recepción del material desde el almacén central y
de remisión de los sobres cumplimentados al centro de tratamiento de San Fernando de
Henares. Una diferencia con respecto a censos anteriores es que los cuestionarios censales se
han enviado al centro de tratamiento durante el propio período de recogida, cada dos semanas,
sin esperar, como en ocasiones anteriores, a que esté acabada una sección para remitir todos
los cuestionarios de la misma. Este procedimiento de transporte, que descansa en la aplicación
de control de las oficinas comarcales y del centro de tratamiento, ha permitido reducir los
plazos de disponibilidad de los resultados de la operación censal.
Una novedad importante de este Censo ha consistido en que los cuadernos de recorrido (ruta)
son preimpresos. Para cada sección censal, previo al trabajo de campo, se preparó un
cuaderno de recorrido que recogía todas las viviendas del Padrón así como las viviendas y
locales de otras fuentes administrativas que no están en el Padrón y que son coherentes, según
un criterio complejo que tiene en cuenta el tipo de correspondencia entre los huecos de cada
dirección, con aquel.
En los servicios centrales del INE se ha impartido, en siete cursos, la formación a todos los
inspectores provinciales e inspectores comarcales. Este personal tiene, a su vez, la misión de
formar a los encargados comarcales. La formación de los encargados de grupo y agentes
censales es responsabilidad conjunta de los inspectores y encargados comarcales.
17
Asimismo se ha elaborado material de formación en forma de manuales de agentes censales,
encargados de grupo y encargados comarcales, y un vídeo para la utilización durante los
cursos a agentes censales y encargados de grupo, y una cinta de audio para cada agente
censal. Además, con el fin de homogeneizar los procesos de formación se han elaborado guías
didácticas.
Con objeto de paliar estos inconvenientes existen algunos métodos de selección de unidades
que pasamos a describir.
Por ejemplo, supóngase que por sorteo hemos de localizar los portales con número acabado
en 3 (3, 13, 23, etc.). La sistemática podría ser la siguiente: comenzando desde un extremo de
la zona, localizamos el portal 3, si existe, buscamos la puerta que corresponda en ese grupo de
viviendas (esto se conseguirá con otro sorteo), a continuación seguiremos la calle hasta
encontrar el siguiente número (13), salvo que haya algún cruce. En este caso (que haya cruce),
giraremos alternativamente a derecha o izquierda y seguiremos en la calle que corresponda,
buscando el primer portal cuyo número acabe en 3. En caso de salir de la zona asignada,
comenzaremos desde otro punto con la misma sistemática. El siguiente gráfico muestra un
croquis de la operativa descrita:
18
Un método similar es el denominado de “Rutas Aleatorias”. En este, simplemente se prepara
una ruta en la que se expresa dónde se comienza las entrevistas y cuantas hay que realizar,
siguiendo ciertas normas de selección. Habitualmente se da una lista de entrevistas superior al
necesario para suplir las ausencias o faltas de respuesta, por lo que de forma evidente, se
plantearán problemas de falta de representación (no aleatoriedad) en aquellos colectivos que
sean más reacios a contestar ciertas preguntas, y el consiguiente sesgo en algunas variables.
Otro problema que se presenta es el de seleccionar al miembro del hogar que se entrevistará
finalmente. Para evitar sesgos, se puede numerar a los miembros del hogar partiendo de la
mujer con más edad, hasta el hombre más joven, y seleccionar aleatoriamente un número con
la ayuda de una tabla de números aleatorios. No obstante, un procedimiento más rápido y que
produce buenos resultados es usar lo que se conoce como parrillas de selección, de las que se
muestra el siguiente ejemplo debido a Trodahl y Carter:
19
3.2.- Método de Cuotas
Cuando no se dispone de listados adecuados, el método anterior da resultados bastante
buenos, si bien es muy laborioso. En diversas circunstancias se prefiere usar métodos más
sencillos que no guardan la condición de aleatoriedad del anterior, que no obstante, cuando se
usan de una forma adecuada producen buenos resultados. Uno de estos métodos es el método
de cuotas.
20
Para realizar estas elecciones se facilitará al entrevistador una plantilla sobre la que tachará
cada individuo entrevistado que se corresponda con una cuota, hasta que termine con todas las
cuotas. Es evidente por tanto, que en un primer momento se encontrará con facilidad a los
individuos correspondientes a cualquier cuota, y que la mayor dificultad estriba en encontrar
individuos que pertenezcan a las cuotas finales (p.e. Hombre + Soltero + Mayor de 50 +
Estudios Superiores + ...).
Este método es muy aplicado para encuestas electorales, en las que se suelen seleccionar para
el diseño de muestreo aquellas secciones censales que tuvieron un comportamiento electoral
muy similar al resultado de la circunscripción. Incluso, en las mismas citas electorales se
suelen realizar los llamados “muestreos de las 100 primeras papeletas”, que no son más que
muestreos de unidades tipo de la forma anterior y suelen proporcionar estimaciones muy
ajustadas con los resultados finales de las elecciones.
Periodo Total
Fase 1 2 3 4 5 6 7 8 9 10 11
Diseño de la Investigación
2
Diseño de muestreo y Preparación del 2
21
Cuestionario
Ejecución Encuesta Piloto
3
Reclutamiento y adiestramiento de
2,5
entrevistadores
Trabajo de Campo
6
Grabación y depuración de datos
5,5
Procesamiento de los datos
6
Tabulación y Análisis Primarios
1,5
Informe
1
Para optimizar las actividades concurrentes (que se pueden realizar simultáneamente), y para
calcular el tiempo más probable de ejecución de la investigación, se suele utilizar una técnica
con base en la Investigación Operativa denominada PERT (Planning Evaluation Review
Technique).
CT = CF + CVU * N
CT = coste total.
CF = coste fijo.
CVU = coste de la variable por unidad entrevistada.
N = número de unidades entrevistadas.
Parece evidente, que el coste del trabajo de campo sea el 80% del total, ya que obviamente
depende de las unidades que se encuesten. Por otra parte, habremos de tener cuidado en que
los costes fijos no superen cierto umbral, ya que esto redundará en el número de encuestas y
por tanto en los errores de muestreo generados en la investigación.
22
- Coste fijos relativos al modo de administración de la encuesta: p.e. material
informático en encuestas de tipo CAPI-CATI.
- Coste de supervisión: comprende la revisión y el control del grado de
cumplimentación de los cuestionarios.
- Costes bibliográficos y a acceso a fuentes de información.
- Costes de imprenta y de presentación de resultados.
23
Tema 5: Chequeo, Validación y Grabación
de Datos
Una vez recogida la información en campo se inicia la etapa de tratamiento de esta
información. Esta etapa consta a su vez de varias fases como son: depuración, codificación,
grabación, validación y evaluación del trabajo de campo. Es importante no olvidar que todas
las etapas, fases y tratamientos operativos en la encuesta tienen la misma importancia. Sin
duda, un trabajo deficiente en cualquiera de las fases que detallamos a continuación
conduciría a resultados erróneos arruinando el trabajo de elaboración de la encuesta.
Cada una de las etapas que describiremos a continuación se fundamentan en que ninguna
excluye a la otra, es decir, durante el proceso de tratamiento de la información, algunas de las
fases podrán darse conjuntamente con las demás llegando a fundirse dos o más en una única
fase de tratamiento. Ello dependerá de la dificultad y planteamiento de la encuesta.
Los mejores métodos de grabación son los denominados de grabación inteligente tipo C.A.D.I
(acrónimo de Computer Assisted Data Input o Entrada de Datos Asistida por Ordenador).
Estos sistemas de carga deben permitir:
1
• Apoyar al usuario con un menú pormenorizado de alimentación del programa y de
ayuda en la grabación.
• Definir de forma flexible el formato de salida del fichero.
• Imponer controles de validación obligatorios de forma que su incumplimiento obligue
a no grabar, hasta su corrección, los cuestionarios afectados.
• Establecer fuertes controles de grabación que impidan admitir errores en los campos
básicos de definición de las unidades objetivo (identificadores, código de actividad,
estrato, etc.) validando conjuntamente esta información con relación a un fichero
exterior que incluye la relación de objetivo o cargándolos directamente desde el
programa gestor del trabajo de campo. Los errores en estos campos con control fuerte
deben detener la grabación del cuestionario hasta su corrección.
• Introducir controles de rango de cada campo, en los campos cerrados con los valores
explícitos en el cuestionario y en los abiertos con los determinados en el libro de
códigos.
• Incorporar un sistema de doble grabación ciega; este método permite que el grabador
vuelva a grabar la información sin ver la existente en la primera grabación; el
programa se paraliza cuando trata de introducirse un valor distinto al existente en la
grabación anterior debiendo introducir la persona encargada del control de calidad de
la grabación el dato finalmente válido. Este sistema, además de asegurar la máxima
calidad en esta fase permite seleccionar el personal que comete errores y realizar
mediante un muestreo estadísticas de coincidencia que evitan repetir de nuevo todo el
trabajo en una segunda grabación.
Existen otros métodos de grabación óptica en cuyo desarrollo se está avanzando rápidamente
y que resuelven ya, con gran calidad, la grabación de ciertos cuestionarios, los ya explicados
anteriormente: El OCR (acrónimo Optical Character Recognition o Reconocimiento Óptico
de Caracteres) y el OMR (acrónimo de Optical Mark Recognition o Reconocimiento Óptico
de Marcas).
Uno de los métodos más aplicados en esta fase es el de Fellegi y Holt. Este método nos
permitirá registrar valores erróneos y corregirlos de forma que el fichero resultante no tenga
inconsistencias. La aplicación del programa de validación permite obtener una serie de
registros y variables no validadas tal que, tras un análisis exhaustivo de los elementos no
validados, posibilita determinar la actitud a adoptar para la superación de las insuficiencias e
incoherencias.
2
Durante el proceso de validación tendremos que controlar errores de tipo formal, como
incoherencias de la información obtenida respecto a las normas de cumplimiento del
cuestionario, errores de rango y errores que relacionan la respuesta en diferentes campos en
función del “grafo” explícito del cuestionario. O errores de contenido, como por ejemplo
incoherencias entre la información recogida en diferentes campos relacionados. Más adelante
nos centraremos en el estudio de los tipos de errores que se pueden producir en el proceso de
elaboración, diseño y realización de la encuesta.
La fase de validación de los datos debe producirse lo más próxima posible en el tiempo a la
fuente que ha producido el error, supóngase que el error se ha cometido en la entrevista, pues
bien, su corrección exigiría acudir de nuevo a ella, cosa que únicamente es factible cuando
entre los dos contactos ha pasado el menor tiempo posible.
1. Controles de rango y flujo: constituyen los controles puramente formales por cuanto
validan la coherencia interna de la cumplimentación y grabación de la información de
cada cuestionario. Validan el rango prefijado de cada campo de información y el flujo
o relación entre campos según las órdenes explícitas del cuestionario. Los controles de
flujo solo admiten relacionar dos campos como máximo.
Sólo cuando los errores puramente formales de rango y flujo están corregidos deben aplicarse
los de contenido. La secuencia en las tareas de validación será la siguiente:
1. Control de recepción y cobertura de los ficheros grabados.
2. Validación de la estructura de la información.
3. Ejecución de los controles de Rango y Grafo.
4. Corrección manual de errores.
5. Grabación de las correcciones y ejecución del programa de corrección.
6. Ejecución repetida del mismo tipo de errores sobre el subfichero de registros con
error hasta que el número de errores sea nulo.
7. Ejecución repetida de forma similar de los controles cruzados con todas sus fases.
8. Ejecución, también repetida, de los controles especiales.
9. Ejecución, de nuevo, de todos los tipos de controles para verificar que no hay
errores (las correcciones en unos submódulos pueden provocar errores en otros).
Por su parte, la evaluación del trabajo de campo comprenderá a su vez las siguientes fases:
revisión del cumplimiento de la muestra, análisis y tratamiento de la no respuesta, imputación
y la post-estratificación o reequilibrado de la muestra.
La mayoría de las grandes encuestas que llevan a cabo los organismos estadísticos nacionales
han sido diseñadas en base a un tamaño muestral que garantiza la mayor probabilidad de los
estimadores a escala estatal. Pero en algunas operaciones, por dificultades en los trabajos de
campo, la muestra es más restringida que la población objeto de estudio, por ejemplo, en
3
muestras estratificadas esta reducción de tamaño puede afectar de forma diferente a los
distintos estratos, lo que, a su vez, puede ocasionar consecuencias de distintos tipos.
El análisis estadístico de los resultados debe comenzar con la comprobación de este hecho y
con el análisis de las causas de porqué se ha producido; interesa detectar, en particular, si
entre estas causas está la incidencia de determinadas no-respuestas que pueden ocasionar
sesgos.
La importación relativa de cada uno de los apartados depende mucho del tipo de encuesta
efectuada, si bien es de gran importancia para cualquier encuesta la fase referente a la
depuración, de datos y control de calidad de los mismos corrigiendo errores, detectando datos
anómalos, etc.
Esta fase de chequeo y validación de los datos incluye una evaluación del grado de
adecuación de la muestra. Un problema que surge principalmente en este sentido es el de la
falta de respuesta, situación que se da cuando por ciertos elementos ajenos al diseño de la
muestra, no puede obtenerse toda o parte de la información deseado, la información obtenida
no puede utilizarse. Esta situación provoca de forma inmediata la disminución del tamaño
muestral y la aparición de sesgos.
Como decimos, la falta de respuesta es uno de los problemas más importantes de entre los
errores ajenos al muestreo, que también viene a denominarse como “sin respuesta”, “e
desconoce”, etc. Es obvio que este problema solamente aparece cuando el método de
muestreo es aleatorio, y no en otros tipos de muestreo como por ejemplo el muestreo por
cuotas.
4
temporalmente fuera de casa, también puede ocurrir que se haya producido un
cambio de domicilio.
• Negativa absoluta a colaborar, “los huesos duro”: son aquellas personas que
cerradamente rehúsan ser entrevistadas o también personas de difícil accesibilidad
como, por ejemplo, los miembros de un clan que rechacen al que pretenda
visitarlos (grupos marginados, sectores raciales, etc.). Esto representa una fuente
de sesgo que persiste sin importar cuanto esfuerzo se ponga en la perfección de las
listas.
Ni
X = w1 X 1 + w2 X 2 siendo wi =
N
y definiendo
Si utilizamos solamente unidades del estrato que contestan y sabemos que x1 es un estimador
insesgado de X 1 :
B = E ( x1 ) − X = X 1 (w1 X 1 + w2 X 2 ) = X 1 (1 − w1 ) − w2 X 2
5
Podemos decir que el sesgo obtenido es proporcional al peso del estrato que no contestan, por
tanto al aumentar N2 (no respondientes) para una población total de N unidades, aumentará
considerablemente el sesgo.
Observamos que la falta de respuesta produce, por un lado, una disminución en el tamaño de
la muestra que disminuye la precisión y, por otro, un sesgo independiente del tamaño
muestral. El primer efecto puede compensarse aumentando el tamaño de la muestra, por
ejemplo, mediante sustituciones aleatoriamente elegidas, pero la información obtenida
siempre se refiere a un solo estrato y el sesgo permanece invariable.
Encuestas Repetidas (CALLBACKS): una de las técnicas utilizadas es repetir las visitas
hasta un número mínimo, antes de abandonar una unidad. Las encuestas repetidas pueden
tomar formas diversas, dependiendo del tipo de encuesta y de las formas de recoger los datos.
Las encuestas repetidas son la forma mas “limpia” de reducir la no respuesta.
Los otros métodos se basan en la aceptación por el diseñador del riesgo al sesgo causado por
un método particular frente al coste de hacer revisitas. En las encuestas por correo la encuesta
repetida suele ser una carta, recordando la importancia de la encuesta e incluyendo una copia
del cuestionario. No suele haber más de dos repeticiones y estas se realizan antes de que
finalice el plazo de recogida de los datos (como se comentó n el anterior tema). En el caso de
encuestas telefónicas las repeticiones suelen hacerse también por teléfono y se suelen permitir
más repeticiones que en cualquier otro tipo. Finalmente, en el caso de entrevistas personales
las encuestas repetidas se hacen volviendo a llamar a las personas por teléfono.
La encuesta delegada (PROXY): esta técnica consiste en elegir datos de una unidad
alternativa. Por ejemplo en las encuestas familiares en caso de que no sea posible obtener la
información de la persona indicada, se puede hacer para cualquier otro miembro de la familia
mayor de cierta edad. Naturalmente las respuestas tienen una probabilidad de ser incorrectas
en estos casos pero puede no ser peligroso para ciertas encuestas. Si la información requerida
es confidencial o personal entonces la encuesta delegada puede ser confusa.
6
Sustitución de Unidades. En el momento de recoger los datos se procede a una sustitución
usando unidades que no había sido seleccionado para la encuesta. Con este procedimiento se
logra mantener el tamaño de la muestra y con ello no aumentar el tamaño de la varianza. Hay
dos tipos básicos de sustituciones a usar:
- Selección de una unidad aleatoriamente.
- Selección de un sustituto específicamente designado.
Otros Métodos. Existen también otros métodos entre los que destacan la motivación del
encuestado acerca de la importancia de su contestación, y el método de Kish y Hace ( 1959).
Este último método consiste esencialmente en utilizar en una encuesta direcciones
correspondientes a la falta de respuesta en una encuesta anterior que sea similar. Se hace un
número mínimo de intentos especificado para obtener respuestas con los dos conjuntos de
direcciones.
7
siendo:
• x1 = Xˆ 1 : el estimador del total de los que responden.
• 1 el estimador del total de los que no responden.
X2 = x2 :
f 21
Es interesante notar que el estimador definido es insesgado de X, es decir, E Xˆ = X , puesto ( )
( ) ( ( ))
que, al ser el muestreo bifásico E Xˆ = E1 E2 Xˆ , donde el subíndice 1 indica la esperanza
sobre la muestra n y el subíndice 2 la esperanza sobre la muestra n21 . De esta forma:
( ) ⎛ ⎛1
( ⎞⎞
) ⎛ ⎛1 ⎞ ⎛1 ⎞⎞ ⎛1 1
( )
⎞
E Xˆ = E1 ⎜⎜ E 2 ⎜⎜ x1 + Xˆ 2 ⎟⎟ ⎟⎟ = E1 ⎜⎜ E 2 ⎜⎜ x1 ⎟⎟ + E 2 ⎜⎜ Xˆ 2 ⎟⎟ ⎟⎟ = E1 ⎜⎜ E 2 ( x1 ) + E 2 Xˆ 2 ⎟⎟ =
⎝ ⎝ f ⎠⎠ ⎝ ⎝ f ⎠ ⎝ f ⎠⎠ ⎝ f f ⎠
⎛1 1 ⎞ ⎛1 ⎞
E1 ⎜⎜ x1 + x 2 ⎟⎟ = E1 ⎜⎜ x ⎟⎟ = E1 ( N x ) = N X = X
⎝ f f ⎠ ⎝ f ⎠
Además, para una función de coste dado se pueden determinar los valores óptimos de n y f 21 .
Para ello sea la función de coste:
C = nC 0 + n1 C 1 + n 21 C 2
donde
• C0 : coste por unidad de la muestra total, (coste inicial de selección).
• C1 : coste por unidad de la muestra de respondientes.
• C2 : coste por unidad de la muestra de no respondientes y que puede escribirse como:
⎛ n n n ⎞
C = n ⎜⎜ C 0 + 1 C 1 + 21 2 C 2 ⎟⎟
⎝ n n2 n ⎠
n1 n
siendo = P̂1 y 2 = P̂2 de donde se deduce el coste esperado como:
n n
E (C ) = n (c 0 + c1 P1 + c 2 P2 f 21 )
N1 N
con P1 = y P2 = 2 .
N N
Los valores de n y f21 que minimizan el coste esperado para una precisión establecida igual a
( )
v0 Xˆ , se obtienen mediante el método de los multiplicadores de Lagrange:
⎛
Φ = n (c 0 + c1 P1 + c 2 P2 f 21 ) + λ ⎜⎜ N 2 (1 − f )
S2 1⎛ 1
+ ⎜⎜
f ⎝ f 21
⎞
( ) ⎞
− 1 ⎟⎟ N 2 S 22 − v 0 Xˆ ⎟⎟
⎝ n ⎠ ⎠
donde
⎛ 2 2
⎛ ⎞ ⎞
⎜ N (1 − f ) S + 1 ⎜ 1 − 1⎟ N 2 S 22 ⎟
⎜ ⎜
f ⎝ f 21 ⎟ ⎟
⎝ n ⎠ ⎠
8
es la varianza del estimador del total X̂ , según el muestreo bifásico, (veáse el cálculo en
Azorín y Sánchez- Crespo, pp. 239-240). Para una mejor derivación la expresión anterior se
escribe como:
⎛
Φ = n (c 0 + c1 P1 + c 2 P2 f 21 ) + λ ⎜⎜ N 2
S2
− NS 2
+
N ⎛ 1
⎜⎜
⎞
( ) ⎞
− 1 ⎟⎟ N 2 S 22 − v 0 Xˆ ⎟⎟
⎝ n n ⎝ f 21 ⎠ ⎠
( )
Sabiendo que V0 Xˆ es la varianza del estimador del total, en el supuesto de que no existiera
falta de respuesta (es decir sólo tendríamos que aplicar una primera fase para la obtención de
la muestra) y si en ella representamos n′ como el tamaño de la muestra necesario para obtener
esta varianza, es decir,
( )
Podemos determinar el valor de n igualando V0 Xˆ y V Xˆ , es decir: ( )
⎛ ⎛ 1 ⎞ S2 ⎞
n = n′⎜⎜1 + ⎜⎜ − 1⎟⎟ P2 22 ⎟⎟
⎝ ⎝ f 21 ⎠ S ⎠
donde n es el tamaño de la muestra necesario para obtener una varianza V Xˆ cuando existe ( )
una proporción P2 de falta de respuesta. Se puede decir sintéticamente que:
• Este método es tanto más ventajoso cuanto mayor sea la diferencia entre los costes por
unidad en ambas fases, aunque es más adecuado para las encuestas por correo.
• Al complicar bastante el diseño de la encuesta y junto con otros inconvenientes
técnicos hace que sea un diseño que se utilice poco en la práctica.
Método de Politz y Simmons. En este método que trata de reducir los sesgos se supone que
el entrevistador realiza una sola visita o intento para conseguir la información. Supóngase que
se hicieron visitas durante seis noches en la semana. Al entrevistado se le pregunta si estaba
en casa al momento de la entrevista en cada una de las cinco noches anteriores en la semana.
Si el declara que estuvo en casa t de las cinco noches se toma la razón:
t +1
πt = (t = 0,1,2,3,4,5)
6
9
Los resultados obtenidos estarán, en general, influenciados por las contestaciones de aquellas
personas que permanecen en la casa más tiempo. Para disminuir el sesgo que puede producir
esta influencia se hace la pregunta adicional: ¿En cuantos de los cinco periodos anteriores de
la entrevista se le hubiese encontrado en casa? (utilizaremos π t ). Supongamos que con las
contestaciones formamos 6 grupos:
nt : número de entrevistas obtenidas en el t-ésimo grupo.
xt : media del t-ésimo grupo.
Tenemos:
5
5 ∑ x ∑n x i t t
∑ nt = n, xt = i
= t =0
5
∑n
t =0 n
t
t =0
El estimador de Politz y Simmons pondera las contestaciones con el recíproco de la
probabilidad de permanecer en casa:
5
1
∑n x
t =0
t t
πt
x PS = 5
1
∑n
t =0
t
πt
Con este método se sustituye la media sesgada x por el estimador x PS que tiene menor
sesgo, pero con una varianza aumentada por la utilización de ponderaciones estimadas. Este
aumento se cifra por varios autores entre el 25% y el 35%.
Kish y Cochran señalan una serie de inconvenientes que hacen por lo menos dudosa la
conveniencia de una posible aplicación general de este método. No obstante, si sólo es posible
una visita, o los sesgos debido a la falta de respuesta en una primera visita son importantes y
1
la muestra es grande, puede resultar preferible utilizar las ponderaciones .
πt
Por último diremos que este método tiene la ventaja de economizar tiempo, y que también se
puede usar con varios intentos.
Método de Platek, Singh y Tremblay. Este método trata de aplicar un modelo particular
para el estudio de la no respuesta. En éste, la población se considera formada por
respondientes potenciales siendo Pi la probabilidad de que conteste la unidad ui en una
encuesta determinada. Para la unidad i el modelo es:
siendo:
10
Indicando por ε i el error aleatorio de respuesta y no respuesta. Introduciendo la variable
aleatoria auxiliar:
Xˆ i = ( X i + ε i (R )) ⋅ ei + ( X i + ε i ( NR )) ⋅ (1 − ei )
Xˆ i = ( X i + ε i (R ))
Xˆ j = (X j + ε j ( NR )) i≠ j
unidad, tanto la que responde –valor observado- como la que no responde –valor imputado-)
son respectivamente:
( )
B Xˆ = sesgo de no respuesta + sesgo de respuesta.
( )
V Xˆ = varianza de no respuesta + varianza de respuesta + varianza de imputación +
covarianza entre errores de respuesta y errores de imputación.
Plateck y otros consideran los valores del sesgo y la varianza para las siguientes hipótesis de
imputación, lo que conforman diferentes métodos de utilización de este modelo:
• Se efectúa ajuste para corregir la falta de respuesta, (para ello se utilizan los
respondientes para ajustar una recta u otra función cualquiera que se pueda ver más
adecuada y luego se imputan los no respondientes según el ajuste).
• Se utiliza un factor de corrección uniforme, (esto permite la reducción del sesgo de no
respuesta, con relación al primer método, cuando las unidades tienen más o menos la
misma probabilidad de responder).
• Se emplean datos externos, (no se produce ajuste, se imputan valores utilizando datos
de ocasiones anteriores, la eficiencia de este método depende de la proximidad entre
ambas fuentes de información).
De acuerdo con estos supuestos tendremos las siguientes probabilidades de obtener respuesta:
11
P (C = 1) = P
P (C = 2 ) = (1 − P ⋅ D − f )
M
⎧P si c =1
P (C = c ) = ⎨
⎩ (1 − P ⋅ D − f )(1 − P ⋅ D − f )c − 2 ⋅ P ⋅ D si c≥2
ya que:
P ⎛⎜ respuesta ⎞=P
⎝ C = 1 ⎟⎠
P ⎛⎜ respuesta ⎞ = (1 − P − f )(1 − P ⋅ D − f )P ⋅ D
⎝ C = 2 ⎟⎠
P ⎛⎜ respuesta ⎞⎟ = (1 − P − f )(1 − P ⋅ D − f )2 P ⋅ D
⎝ C = 3 ⎠
M
M
P ⎛⎜ respuesta ⎞ = (1 − P − f )(1 − P ⋅ D − f )c − 2 P ⋅ D
⎝ C = c ⎟⎠
4.- Post-Estratificación
La post-estratificación o reequilibrado de la muestra una técnica de Muestreo que consistirá
en hacer una estratificación a posteriori. La técnica puede emplearse siempre que, con carácter
previo no se tenga información suficiente sobre la población o siempre que no sea posible
aplicar técnicas suficientemente buenas para la selección aleatoria durante el trabajo de
campo. Particularmente puede resultar necesaria en los muestreos no probabilísticos
(muestreo por cuotas, por rutas aleatorias, etc.).
Consiste en definir a posteriori los estratos en función de los distintos valores de una o varias
variables. Es una técnica robusta que funciona aceptablemente bien en bastantes situaciones;
una forma sencilla de llevarla a cabo es la siguiente:
1. Elección de un tamaño muestral razonablemente elevado.
2. Distribución de la muestra de forma que estén adecuadamente representadas todas las
categorías de la población a las que se les pone a priori un componente estratificador
(por ejemplo, edad, sexo, nivel de estudios,etc).
3. Análisis e los resultados muestrales para obtener los componentes homogeneizadores
respecto a la variable o variables de interés.
4. Estudio de los tamaños muestrales efectivos y de los errores de muestreo que
conllevan para cada uno de los nuevos estratos.
5. En caso necesario, ampliación de la muestra en campo para los estratos menos
representados.
6. Cálculo a posteriori de los elevadores o factores de expansión o ponderación y de los
estimadores resultantes.
12
En resumen, en la post-estratificación comparamos el peso para cada estrato de las variables
sociodemográficas conocidas con el factor real observado para dicho estrato. De esta forma se
hace coherente la muestra realmente observada con la ponderación teórica conocida.
El caso más simple es aquel que se realiza con una única variable si bien cada vez más se
suele post-estratificas con más de una variable. El problema que se presenta en el caso
múltiple es el cruce de muchas variables a la vez, esto nos proporciona “celdas vacías” en la
muestra realmente observada.
13
5.1- Errores no debidos al muestreo
Es el error sistemático que se comete debido a diferencias en la definición de la población. Es
la diferencia entre el valor verdadero de la población objetivo y el valor de población obtenido
si las operaciones de recogida de datos se hubieran realizado en la población completa. Varias
son las fuentes de error:
Este error se conoce como error de cobertura o de marco muestral y se produce cuando el
marco muestral con el que se cuenta difiere de forma importante de la población elegida para
su estudio. Este tipo de errores se debe a la existencia de marcos muestrales poco actualizados
o sesgados. La única solución es contar con un marco muestral completo, modificándolo o
actualizándolo.
Sesgos por ausencia de respuestas. Los cuales resultan por o bien incapacidad de contactar
con determinados miembros de la población, o por la negación de los sujetos a contestar. En
el primer caso, la solución estribaría en repetir la visita hasta dar con la unidad muestral que
se desea entrevistar o, en caso de que se haga inviable dar con la persona en cuestión,
establecer forma de sustitución, claramente definidas.
Anteriormente hemos comentado algunas técnicas para aumentar las tasas de respuesta: p.e.
cuando no se encuentra en el domicilio la persona seleccionada, realizar otros intentos o
utilizar sustitutos. Weiers (1986) presenta varias formas de resolver el problema de la
ausencia de respuestas:
a) Determinar si tiene efecto la ausencia de respuesta en nuestra investigación
b) Técnica del avestruz: Suponer que los no respondientes darían los mismos
resultados que los que han respondido
14
c) Análisis de sensibilidad: Se trata de determinar en qué grado tienen que ser
diferentes los que no responden para que esto tenga efecto en el estudio.
d) Submuestreo de los no respondientes (método más potente pero más costoso)
e) Análisis de tendencias: llevar un registro de los que respondieron en una serie de
visitas o llamadas y comprobar si se da alguna tendencia.
El autor señala que la selección de uno o varios de los procedimientos está en función de los
siguientes criterios:
- Si se precisa realmente estimar el efecto que la ausencia de respuesta tiene sobre los
resultados de la investigación
- El tiempo y los recursos con los que se cuenta
- La disposición a equivocarnos al hacer la evaluación de las características que tienen
los que no responden.
Una forma previa de evitar este problema es la adecuada elaboración del cuestionario, de tal
manera que se introduzca la motivación adecuada para evitar que los individuos se nieguen a
contestar. Sin embargo, ya en la realización de la investigación, las soluciones que se
presentan en tal caso son las siguientes:
- Notificación previa de que se va a realizar una encuesta, para que el encuestado esté
alertado, evitando levantar suspicacias.
- Motivar al encuestado, sea por el interés de la encuesta en sí misma o bien por el
empleo de incentivos por responder a la entrevista.
- Contar con entrevistadores experimentados, que sean capaces de contrarrestar las
negativas a responder. Dillon y cols. (1987) afirman que una buena técnica de
persuasión disminuye la negativa a responder en un 7 %.
- Un adecuado formato de formulación de las preguntas, pues una redacción clara para
ser leída en autoinforme puede no resultar conveniente expresado verbalmente.
Herblein y Baugmgartner (1978) encontraron que relación entre alta tasa de respuesta y los
siguientes factores: el tipo de población muestreada, el interés social del tema de la
investigación y el número de seguimientos. En encuestas postales, se mejora la tasa de
respuestas cuando la investigación está avalada por una institución oficial, cuando se
muestrea a poblaciones especializadas, se realiza un mínimo de tres seguimientos y se ofrecen
incentivos por responder.
15
encuestadas, las marcas de cosméticos que éstas dijeron usar, resultaron mucho menos
costosas.
Tanto entrevistador como entrevistado se ven influidos por sus expectativas previas y por la
forma en que perciben la situación y a su interlocutor. Según Mayntz y cols. (1975), el
proceso puede ser el siguiente: El encuestado identifica al entrevistador como miembro de un
determinado grupo social y toma conciencia de los valores y comportamientos estándar en ese
grupo, así como de las normas sociales que regulan su propio comportamiento respecto a los
miembros de aquel, por lo que se adapta en su comportamiento social a actitudes y valores
tenidos por peculiares del grupo del entrevistado. Por tanto, las preguntas deben redactarse de
forma que sean neutrales con respecto a las características del entrevistador.
Por último, las propias actitudes del entrevistador se ha relacionado también con el registro de
respuestas. El entrevistador también puede producir otros dos tipos de sesgos. Por una parte,
habría que tener en cuenta las inexactitudes o equivocaciones, tanto en las preguntas
formuladas como en el registro de respuesta.
La otra fuente de errores es el engaño por parte del entrevistador. Se puede deber a diversas
razones, desde evitar preguntas difíciles de realizar hasta la simplificación de su trabajo
entrevistando a personas más fáciles o accesibles que las seleccionadas en la investigación.
La disminución de los errores de los entrevistadores pasa por diversas soluciones: empleo de
supervisores, entrevistadores bien entrenados y bien pagados, dar tareas e instrucciones claras,
utilización de cuestionarios fáciles de completar, así como formas de codificación que no
dificulten el registro de los datos.
Errores en la medida, registro o transferencia de los datos. Los errores de medida pueden
producirse fundamentalmente por dos diversas cuestiones: errores producto de la relación
entrevistador-entrevistado, así como los errores cometidos en la elaboración del cuestionario.
Los errores en el registro o en la transferencia de los datos son aquellos no achacables a
defectos del instrumento de medida ni a errores intencionados por parte de las personas.
Ejemplos típicos de esta fuente de error son las equivocaciones al marcar la celdilla que
recoge la respuesta del sujeto o al introducir los datos en el ordenador.
Aparte de introducir todos los mecanismos de previsión posibles (por ejemplo, investigar las
respuestas extremas) es conveniente realizar un muestreo de los datos una vez han sido
codificados y mecanizados para estimar la proporción de errores en los mismos. Si esta
16
proporción de errores rebasase un cierto límite (a fijar por el investigador en función de la
fiabilidad que requiera su estudio) se debería repasar el proceso de captura de datos desde el
principio.
Sesgos de estimación: cuando la media calculada usando una técnica de estimación en todas
las muestras aleatorias simples no es igual al valor de la población de estudio. También se
comete error de estimación cuando no se selecciona el estimador más adecuado para la
investigación en cuestión. Puesto que lo más habitual es estimar medias o proporciones,
parece casi imposible cometer este error en la práctica, pero es conveniente tenerlo en cuenta
en casos especiales.
Variabilidad muestral. El último componente del error total se debe a las fluctuaciones de
los estimadores muestrales en torno a los parámetros de la población estudiada que resultan
del proceso de selección, de tal manera que las distintas muestras de una misma población
diferirán en los valores que toman los estadísticos, debido al azar. Esta es una de las razones
por las que los estadísticos se consideren variables aleatorias, pues varían por efecto del azar.
Los sesgos de este apartado tienen que ver con la precisión de los estimadores. Dos son los
problemas que se plantean:
a) Se desea saber lo próximo que esta el valor del estadístico obtenido en la muestra
del valor poblacional. Una solución para ello es calcular el intervalo de confianza.
b) La desviación típica de la distribución muestral rara vez se conoce en situaciones
reales de investigación, ya que se elige una muestra y no repetidas muestras. La
desviación típica de la población se estima de la de la muestra. Dos factores
influyen aquí de forma relevante: la variabilidad de la variable, esto es, su
17
desviación típica y el tamaño muestral. Cuanto mayor sea el tamaño muestral,
menor será la desviación típica de la distribución muestral.
Las cuestiones sobre las que es preciso distinguir antes de proceder al muestreo incluyen
aspectos como tipo de investigación (exploratoria, descriptiva, relacional), que se va a llevar a
cabo, definición de la población objetivo, determinación de variables relevantes,
consideración sobre si hay grupos o subgrupos dentro de la población que requieran ser
tratados de forma diferencial en el muestreo.
Por último, el investigador debe también cuestionarse líneas de acción una vez finalizada la
recogida de datos. Estas incluyen la forma de proceder para evaluar los posibles sesgos de los
que no responden, la necesidad de compensar otros sesgos vía ponderación y la determinación
del error típico, a través de la variabilidad muestral.
18
Tema 6: Microdepuración e Imputación
de Datos
En este capítulo trataremos un problema de gran importancia práctica en el
procesamiento de una encuesta: la depuración e imputación de los datos. El objetivo
último del capítulo será el estudio del conjunto de tareas y métodos de diseño y
realización que tienen que ver con el análisis de los datos desde el punto de vista de su
completitud, validez y consistencia, o dicho de otra forma, la depuración de la
información obtenida. Incidiremos especialmente en el control de los posibles errores en
los datos estadísticos y métodos para su tratamiento.
Errores sistemáticos. Son aquellos que se producen por el mal entendimiento de las
preguntas, conceptos o definiciones e instrucciones tanto por parte del encuestado como
por parte de los individuos que intervienen en las distintas etapas del tratamiento del
dato. También se incluyen aquellos producidos por respuestas intencionadamente
erróneas (con vista a proteger su intimidad, por desconfianza, etc). Son más difíciles de
detectar y eliminar.
• Facilitar el proceso de los datos. Los procesos a los que se someten los
datos en bruto hasta la obtención de resultados, como son la elaboración,
almacenamiento, tabulación y análisis requieren que los datos cumplan unos
requisitos mínimos. Identificadores correctos, inexistencia de duplicados,
respeto del tipo y formato de las variables, etc, son requisitos a satisfacer
para evitar fallos en la ejecución de los programas.
Una definición sobre la depuración de datos que incide sobre las tareas a realizar la
facilita el grupo de trabajo de la Conferencia de Estadísticos Europeos “Data Editing
Joint Group” en su glosario de términos, que definen la depuración como “Una
actividad dirigida a asegurar que los datos cumplan ciertos requerimientos, es decir,
satisfagan condiciones de corrección establecidas”. Habitualmente se compone de tres
fases:
1. La definición de un sistema de requerimientos consistente.
2. Su verificación sobre los datos
3. La eliminación o sustitución de los datos que están en contradicción con
los requerimientos”
En resumen, tanto los argumentos a favor como en contra tienen partes de verdad, por lo
cual, deberemos en todo caso cuidar la recogida de la información e intentar dar buenos
criterios de depuración, que no perjudiquen más que beneficien a los datos.
Finalmente, hemos de insistir en que los dos motivos principales para realizar una
depuración. El primero de ellos es mejorar la calidad de los datos. Como acabamos de
ver, este es un objetivo cuyo cumplimiento produce controversias. El segundo objetivo
que destacaremos el conocer la calidad de los datos. Este objetivo es menos conflictivo
que el anterior, pues parece claro que la depuración sí permite cumplirlo y que ese
cumplimiento es deseable en todos los casos.
Según el tipo de variables a las que se apliquen, distinguimos entre edits de tipo
cualitativo y edits de tipo cuantitativo. Los edits de tipo cuantitativo se aplican a
variables numéricas y generalmente se expresan como restricciones de rango (edits de
validación) o como igualdad o desigualdad entre funciones de las variables (edits de
consistencia). Los actuales sistemas generales de depuración de datos trabajan
exclusivamente con expresiones lineales.
Los edits de tipo cualitativo se aplican a variables categóricas. Los edits de validación
se expresan con la lista de códigos válidos. Los edits de consistencia, generalmente de
rechazo, se expresan como combinaciones de códigos de dos o más variables que son
inaceptables o sospechosas.
Otro tipo de edits son los edits condicionales que añaden al edit (cuantitativo o
cualitativo) una condición que determina el subconjunto de registros a los que se aplica
tal edit. Son de la forma:
Cuando los edits condicionales incluyen una condición cualitativa y un edit cuantitativo
se trabaja con los dos tipos de variables, numéricas y categóricas, lo cual dificulta su
tratamiento en los sistemas generales.
Puede ocurrir que un edit no aporte nada a la definición de la región de aceptación, pues
es redundante respecto a los demás edits. Los edits redundantes deben ser eliminados
para facilitar la tarea de detección de errores. Un problema más grave es que el conjunto
de edits defina una región de aceptación demasiado restringida, siendo los casos más
extremos cuando la región de aceptación es vacía, o se reduce, en algún sentido, la
dimensión del espacio. En estos casos decimos que el conjunto de edits es inconsistente,
siendo necesario modificar o eliminar uno o más edits.
Se debe realizar un análisis de los edits antes de enfrentarlos a los registros a depurar,
pues si existe una inconsistencia no detectada puede tener un impacto importante al
rechazar registros válidos, y si se detecta durante el procesamiento de los datos, es
necesario rehacer los procesos produciéndose retrasos.
EL proceso debe seleccionar al menos un campo que figure explícitamente en cada edit
fallado, existen varias alternativas para ello. Una primera alternativa es seleccionar
todos los campos que intervienen en todos los edits fallados. Pero ello supondría una
gran pérdida de información. Otros criterios habitualmente considerados son:
• Escoger el menor número posible de campos que cubran todos los edits fallados
(principio de cambio mínimo, propuesto por Fellegi y Holt).
• Escoger campos que cubran todas las reglas de conflicto, de forma que se
minimice la suma de pesos asociados a los campos del registro. Estos pesos
indican el grado de confianza que el experto tiene en el valor de las variables del
registro.
• Escoger las variables que faciliten una imputación más fácil.
El paso siguiente será asignar a cada campo identificado en la etapa anterior como
erróneo un valor válido y consistente con el resto de los valores del registro. El proceso
de asignación se puede realizar manualmente, y lo denominaremos “corrección manual”
o automáticamente, y lo denominaremos “imputación”. En el caso de corrección
manual, el valor a asignar puede obtenerse de:
• Evitar que los edits definan regiones de aceptación demasiado reducidas, que
requieren un exceso de revisiones de situaciones que, o bien son correctas, o
bien tienen errores poco importantes.
• La corrección manual, si no es bien informada, puede ser tan arbitraria como los
métodos automáticos, sin tener ni la uniformidad ni la precisión de estos.
Otro objetivo importante que nosotros damos a esta etapa están en relación con la tercera
función que asignábamos al proceso de depuración de los datos y que era la de medir la
calidad de los datos de la encuesta. En este sentido, la fase de imputación debe producir un
fichero que contenga, por registro de la encuesta, un conjunto de códigos de estado que
informen para cada campo si el dato tiene valor observado o imputado y, si el dato es
imputado, del procedimiento de imputación utilizado. También debería informar, si es
factible y se utilizan métodos de imputación con registros donantes, del número de veces
que un registro o campo fue utilizado para “donar” sus valores a un registro a imputar.
Este fichero será un fichero para el control de calidad de los datos y debería explotarse y
distribuirse al tiempo que se explota y distribuye el fichero de datos.
El fichero a imputar tiene registros con campos sin respuesta y campos borrados por tener
un valor erróneo o inconsistente. Los errores a su vez, fueron clasificados entre errores
aleatorios o sistemáticos. Para los campos con errores sistemáticos es bastante cuestionable
aplicarles el supuesto implícito anterior. Por ello, el experto debe detectar en depuración
los posibles errores sistemáticos de la encuesta y aplicar a los mismos, si procede, lo que
denominamos una imputación determinística.
Se supone que los campos a imputar restantes son campos con errores o falta de
respuesta aleatoria. Para estimar los valores de estos campos aplicamos los
procedimientos de imputación probabilística que vamos a estudiar en este capítulo.
Estos procedimientos exigen hacer explícitamente los supuestos siguientes sobre los
campos con dato y campos a imputar.
1. Supuesto sobre la falta de errores de contenido. Esto es, los campos del
registro que no son objeto de imputación (campos con dato) tienen el valor que
se quiere observar; es decir, no hay errores de contenido. Formalmente, el
supuesto dice:
Xid = Yid.
2. Supuestos sobre los campos a imputar. Estos supuestos definen los posibles
modelos para explicar el comportamiento de las unidades cuyos registros tienen
campos a imputar; denominamos a estos modelos los “mecanismos de
generación de los campos a imputar”. Hay tres tipos de mecanismos (los
nombres de los supuestos los tomamos de Rubin & Little (1987), que definen los
supuestos MAR “Missing At Random” y MCAR “Missing Completely At
Random”).
En términos generales:
y vi = f ( y nm ) + ε
Son procedimientos que asignan a los campos a imputar de un registro el valor que en
tales campos tiene otro registro de la encuesta. A los registros completos se les
denomina registros donantes y los registros con campos a imputar se denominan
registros receptores o candidatos. A los campos que se utilizan para establecer la
relación entre registro donante y candidatos se les denominan campos de control.
Dichos campos pueden ser tanto cualitativos como cuantitativos o de ambos tipos. En el
caso de tratar variables exclusivamente cualitativas, el cruce de las distintas variables
para dividir la población en subgrupos disjuntos se denominan estratos y la relación
entre los registros candidatos y los donantes se establecen por igualdad de los códigos
del estrato. Entre las ventajas de estos métodos se pueden destacar:
• Se imputa un valor posible y realizado.
• Es sencillo de implementar. Mientras que el principal problema se debe a
que puede no haber respondientes con todo el rango de valores necesario en
la variable a imputar.
Existen gran número de métodos entre los que se destacan los siguientes:
y vi = α + β 1 x1 + β 2 x 2 + K + β k x k + ε
1. Paso I de imputación de los datos ausentes. Simula valores para los datos
ausentes mediante la distribución obtenida en la fase anterior y los valores
observados.
La tarea de la imputación varía en gran medida dependiendo del tamaño del conjunto de
datos. Cuando se dispone de un fichero de datos pequeño es problemático en el caso de
tener valores missing en unidades cruciales, al aplicar hot-deck aleatorio se pueden
producir errores graves. Este caso se suele dar en muchas muestras económicas. En
cambio cuando se posee un conjunto de datos de grandes dimensiones surgen menos
problemas y se pueden aplicar distintos métodos de imputación.
• Paso 3: Estudiar los distintos modelos de imputación para las variables que van
a ser imputadas. Seleccionar la técnica de imputación a aplicar pudiendo ser:
imputación univariante, en el caso de imputar una sola variable en cada
momento ó imputación multivariante en el caso de imputar simultáneamente un
conjunto de variables de la investigación estadística. En esta fase es interesante
observar los patrones de no respuesta que aparecen en dicho estudio, y
comprobar si hay gran número de registros que simultáneamente tienen no-
respuesta en un conjunto de variables, en este caso puede ser interesante aplicar
una imputación multivariante.
A continuación se proponen una serie de medidas que son deseables para obtener una
buena imputación de datos, propuestas en el proyecto europeo de Edición e Imputación
de datos (EUREDIT). Para el caso en el cual se desean producir estimaciones agregadas
los criterios 1. y 2. son irrelevantes.
Las medidas propuestas anteriormente dependen del tipo de variable que estemos
considerando, según el tipo de las variables a imputar hay criterios que no hay que tener
en cuenta.
Existen distintas medidas propuestas para los distintos tipos de variables (nominales,
ordinales, continuas,..) que se pueden consultar en el artículo de EUREDIT “Interm
Report on Evaluation Criteria for Statistical Editing and Imputation”.
Principalmente las características que se desean obtener de la imputación realizada son:
la conservación de los momentos de la distribución original y la semejanza entre los
valores reales y los imputados asignados a cada uno de ellos.
La imputación múltiple es una técnica en la que los valores perdidos son sustituidos por
m >1 valores simulados. Consiste en la imputación de los casos perdidos a través de la
estimación de un modelo aleatorio apropiado realizada m veces y, como resultado, se
obtienen m archivos completos con los valores imputados. Posteriormente, se lleva a
cabo el análisis estadístico ordinario con las m matrices de datos completas y se
combinan los resultados con una serie de fórmulas específicas proporcionadas por Little
y Rubin (1987).
El objetivo de la imputación múltiple es hacer un uso eficiente de los datos que se han
recogido, obtener estimadores no sesgados y reflejar adecuadamente la incertidumbre
que la no-respuesta parcial introduce en la estimación de parámetros. En el caso de
imputación simple tiende a sobreestimar la precisión ya que no se tiene en cuenta la
variabilidad de las componentes entre las distintas imputaciones realizadas. Para llevar a
cabo la imputación múltiple de los valores perdidos, procederíamos del siguiente modo:
• En primer lugar se seleccionan las variables que se emplearán en el modelo de
imputación. Es imprescindible que todas las variables que se van a utilizar
conjuntamente en posteriores análisis se incluyan en dicho modelo, también se
deben incluir todas aquellas variables que puedan ayudar a estimar los valores
missing.
• En segundo lugar, se decide el número de imputaciones que se desea realizar. En
general según se indica en la publicación de Rubin, entre 3 y 5 imputaciones son
suficientes.
• Decidir el método de imputación a aplicar a los distintos ficheros de datos. Hay
que tener en cuenta que esta fase es muy importante y se debe hacer un estudio
del método a aplicar en función de las características de las variables a imputar,
información auxiliar disponible, variables explicativas,… Para poder aplicar la
imputación múltiple, el método seleccionado debe contener algún componente
de imputación aleatoria. Con esta propiedad se asegura la posibilidad de obtener,
para cada registro a imputar, modificaciones entre los valores imputados al
completar los distintos ficheros de datos. Por ejemplo, no se va a poder aplicar la
imputación múltiple en el caso de realizar métodos determinísticos, como
pueden ser la imputación deductiva, al valor medio,…
• El siguiente paso será el de llevar a cabo los análisis estadísticos (univariantes,
bivariantes o multivariantes) necesarios para la investigación. El análisis se
realizará con las matrices generadas tras la imputación y los resultados se
combinarán con las distintas fórmulas proporcionadas por Little y Rubin.
Observando las distintas matrices generadas tras la imputación múltiple se puede hacer
una idea respecto a la precisión del método de imputación, si no se observan grandes
variaciones entre los valores imputados de las distintas matrices se tiene una gran
precisión de las estimaciones. Sin embargo hay técnicas estadísticas mas adecuadas para
el estudio de la precisión de los estimadores.
Little & Smith utilizan la distancia de Mahalanobis utilizando como estimación del
vector de medias y de la matriz de covarianzas las estimaciones obtenidas con el
algoritmo ER, y considerando solamente los campos con dato (Xd) en la observación-i
en estudio. La medida de distancia que utilizan para la detección de outliers es entonces:
En determinadas condiciones, Little & Smith conjeturan que Di2 se distribuye como una
χ2 con pi grados de libertad (pi es el numero de campos con dato en la observación-i).
Valores altos de Di2 sugieren una contaminación en los valores de Xd. Además, estos
autores sugieren la posibilidad de detección gráfica de los valores outliers usando los
gráficos probabilísticos normales (Normal Plot). Para ello se requiere transformar los
valores de Di2 en una Normal(0,l): Zi; donde Zi es la transformación, de Wilson-
Hilferty:
[( Di2 / pi )1/ 3 − 1 + ( 2 / 9 pi )]
Zi = ( i = 1,...,n)
( 2 / 9 pi )1/ 2
Una vez que el procedimiento de detección selecciona los registros con un valor de Zi >
Z0 se considera a tales registros como atípicos o outliers. El valor de Z0 depende del
porcentaje de registros que se desea rechazar. A los registros así seleccionados se les
somete a un procedimiento iterativo que intenta ordenar los campos del registro de
acuerdo con la disminución marginal de la distancia Di2. El procedimiento elimina uno
a uno cada campo del registro y ordena de mayor a menor el valor de Di2; elige el
campo que contribuye en mayor medida a Di2 e reinicia el proceso para detectar el
segundo y siguientes. El proceso finaliza cuando el valor de Zi es menor al Z0 elegido.
Paso. 1.- Calcula para cada campo k con dato en el registro la distancia Di2 después de
eliminar el valor de k: (Di2(k))
Paso.2.- Clasifica de mayor a menor los Di2(k) y selecciona el campo j1 con menor
valor. El valor del campo j1 es el valor con mayor influencia en la observación-i.
Aquí m indica campo a imputar porque es campo con falta de respuesta o se ha borrado
en el proceso de localización de errores. El valor imputado a un campo Xim de la
observación-i es el valor esperado condicionado a los valores de los campos con dato en
la observación-i y a la estimación robusta del vector de medias y la matriz de
covarianzas. Es decir:
En Little & Smith se hace notar que la imputación de valores esperados es una
estimación eficiente de los valores medios de la distribución univariante pero que
distorsiona la propia distribución de la variable. Es decir, se crea una concentración de
los valores de la variable en su valor medio y una reducción artificial de su varianza.
L&S también sugieren la posibilidad de corregir tal distorsión añadiendo perturbaciones
a las predicciones.
En cuanto a las transformaciones, diremos que es muy habitual que en las etapas
iniciales del proceso se transformen los datos para acercarlos a una distribución normal
(transformación logarítmica o Box Cox). De ser esto así, en esta etapa debe deshacerse
la transformación para devolver los datos a su escala original.
Los resultados se presentan agregados por el total muestras o por subgrupos (estratos).
La información que el experto recibe en pantalla es:
Para un análisis mas detallado del procedimiento véase Pons Ordinas (1989).
El método utiliza el sistema EDIT-78 dos veces consecutivas. Primero trabaja con los
datos agregados y a continuación con los registros que intervinieron en los agregados
señalados como sospechosos en la primera ejecución. En ambas etapas los datos están
elevados. El método utiliza dos tipos de edits:
- Edits de ratios.
- Edits de diferencias.
Los límites de los edits son calculados por los expertos en base a un análisis previo de
los datos y de sus distribuciones. El método rechaza los agregados o los registros si son
fallados ambos edits (el de ratios y el de diferencias).
El método propuesto por H&B se utiliza hoy profusamente: no solamente se aplica para
detectar outliers en series de tiempo (en este contexto, H&B define los valores de una
variable como outliers si su tendencia con respecto al periodo anterior difiere
significativamente de la tendencia general de los valores de dicha variable en el resto de
observaciones del mismo estrato muestral) sino que se aplica para detectar outliers entre
relaciones de variables del mismo cuestionario. Los límites que se obtienen con el
método de H&B son los límites de los que denominamos edits estadísticos.
Resumimos a continuación el método H&B de obtención de los edits estadísticos.
Denotamos por xi y xj los valores de las variables en análisis (obsérvese que xi puede ser
xi-1 en casos del análisis de encuestas periódicas o series). Calculamos ri = xi / xj y
maxi = max (xi , xj). La desigualdad de Chebychev, permite controlar el porcentaje de
observaciones que caen fuera de un intervalo del tipo
[r − k ⋅ s r , r + k ⋅ s r ]
(siendo k una constante, y sr la desviación típica). Sin embargo, r y sr son estadísticos
muy poco robustos a la existencia de outliers. Existen límites menos vulnerables a
outliers que son los siguientes:
[rm − k ⋅ rq1 , rm + k ⋅ rq 3 ]
donde, rm es el valor mediano de los ratios ri, y rq1 y rq3 son los valores del primer y
tercer cuartil respectivamente.
H&B apuntan un problema a este tipo de límites para detectar outliers, cual es que la
variabilidad de los valores de ri puede ser, y lo es frecuentemente, mayor para unidades
muestrales pequeñas que para unidades muestrales grandes. Este fenómeno produce un
efecto de enmascaramiento por tamaño de los valores de ri correspondientes a unidades
grandes.
⎧ rm
⎪⎪1 − r , si rm < ri
si = ⎨ i
rm
⎪ − 1, si rm ≥ ri
⎪⎩ ri
El efecto enmascaramiento por tamaño continúa presente en si. H&B proponen una
segunda transformación, que es una forma de cambio de escala con la cual se pondera la
influencia de las unidades mayores; es decir, esta transformación intenta conservar en
alguna medida el tamaño de la unidad muestral y dar más importancia a variaciones
pequeñas de unidades grandes que variaciones grandes de unidades pequeñas. Veamos
como se consigue:
ei = si · maxi u
donde u es una constante que H&B sitúan entre 0-1. Finalmente, los límites para los
edits estadísticos H&B se calculan como:
• Límite inferior = em – d2
• Límite superior = d3 – em
El problema del método de H&B es la existencia de tres constantes que el experto debe
estimar y facilitar como parámetros al sistema. Las constantes son A, u, k. La eficacia
del método depende en gran medida de estos valores.
Hoglund-Davila (1989) presenta un estudio con los resultados del método para distintos
valores de u y de k (toma como fijo A = 0.05, valor que H&B (1986) sugieren).
Considera buenos valores de u = 0.4 ó u = 0.5 y valores de k comprendidos entre 15 y
43.
Concretamente, los valores que Davila elige son u = 0.4; k = 41. Junto a los resultados
del método H&B, Davila hace una evaluación del mismo. El método, dice, es difícil de
entender pero satisface el objetivo de detectar las observaciones que tienen una
variabilidad relativamente alta. Otros puntos que destaca son:
• El método puede usarse una vez para identificar todas las observaciones
sospechosas.
• No necesita información adicional a los datos.
• Los parámetros u y k permiten controlar el número de observaciones a analizar
y,
• No se pierde tiempo analizando observaciones de menor importancia.
Para terminar con el apartado de depuración, hacemos una breve reflexión sobre los dos
tipos de depuración considerados. Ya dijimos que ambos métodos de depuración no son
necesariamente excluyentes, sino complementarios; pero los procedimientos
tradicionales de la microdepuracion son cada vez mas cuestionados.