Materiales / Ciencias Sociales

El libro universitario
Juan Javier Sánchez (arrión
La bondad de la encuesta:
el caso de la no respuesta
UNIVERSIDAD
ALBERTO
HURTADO
BIBLIOTECA
Alianza Editorial
Índice
Introducción............................................................................................... 7
1. Contexto problemático de la encuesta 13
Reservados todos los derechos. El conten'idd de esta obra está protegido por la Ley, que esta-
blece penas de prisión y/o multas, además de las correspondientes indemnizaciones por daños
y perjuicios, para quienes reprodujeren, plagiaren, distribuyeren o comunicaren públicamente,
en todo o en parte, una obra literaria, artística o científica, o su transformación, interpretación
o ejecución artística fijada en cualquier tipo de soporte o comunicada a través de cualquier
medio, sin la preceptiva autorizaCí6n.
© Juan Javier Sánchez Carrión, 2000
© Alianza Editorial, S.A., Madrid, 2000
Calle Juan Ignacio Luca de Tena, 15; 28027 Madrid; teléf 913938888
ISBN: 84-206-5764-6
Depósito legal: M. 40.822-2000
Fotocomposición eimpresión: EFCA, S. A.
Parque Industrial «Las Monjas»
28850 Torrejón de Ardoz (Madrid)
Printed in Spain
2. La no respuesta .
2.1 La naturaleza del problema ..
2.2 La envergadura del problema ..
2.3 Explicación del problema ..
3. Tratamiento de la no respuesta .
3.1 ¿Cómo minimizar la no respuesta? .
3.2 Medición del sesgo atribuible a la no respuesta .
3.3 Modelos estadísticos de tratamiento de la no respuesta .
4. La no respuesta en la investigación social y comercial de
nuestro país .
4.1 Conclusiones de la investigación ..
5. Los límites de la encuesta ..
Bibliografia citada , .
21
25
29
43
51
51
58
65
81
83
97
113
A Juan Sánchez Priede,
mi padre. In Memoriam
Introducción
El libro que ahora introduzco es fruto de un intento de dar senti-
do a un mismo problema, contemplado en dos momentos diferen-
tes. El problema es la no respuesta total en las encuestas, sobre el
cual venía pensando desde hacía tiempo, en el contexto de una
reflexión más general sobre la calidad de la encuesta. El primer
momento de esta reflexión estuvo orientado a ver el problema de
la no respuesta como uno más de los que surgen a la hora de rea-
lizar encuestas, enfocando el análisis desde una perspectiva
fundamentalmente técnica, y sin apenas pensar en (discutir la
pertinencia de) los mismos supuestos subyacentes a la utilización
de esta técnica. Un libro básico para esta reflexión fue el de Ro-
bert Groves, Survey Errors and Survey Costs, en el cual se hace
una relación de todos los errores de la encuesta, agrupándolos en
dos grandes bloques: errores de no observación (debidos al hecho
de que trabajamos con muestras) y errores de mala observación
(derivados de la medición de los entrevistados), para tratar de
encontrar su solución teniendo como referente el coste económi-
co. Sin asumir plenamente su planteamiento, pero sí compartien-
do con Groves inquietudes, se produjo una primera versión de
este libro. En ella se hacía una revisión de la literatura existente
sobre la no respuesta, se veían las soluciones propuestas y se da-
ban los resultados de un par de investigaciones que yo había rea-
lizado en nuestro país, para tratar de estudiar la dimensión de este
problema. El resultado de las investigaciones, propias y ajenas, y
del estudio. de la literatura sobre este tema era que el tamaño de .
la no respuesta es importante, prácticamente imposible de evitar
y, además, una vez que se produce, no tiene solución técnica (es-
tadística), quizá por mucho dinero que se quiera uno gastar.
Desde que se hiciera la primera versión del libro han
transcurrido cinco años, en los que por distintas razones el libro
no vio su publicación. En este tiempo, a la reflexión original so-
bre la no respuesta se han ido superponiendo otras reflexiones de
naturalezas heurística y sociopolítica sobre este y otros aspectos
de la encuesta, y de la investigación en general. En el tema que
ahora me ocupa dichas reflexiones tratan de ver en qué medida
los problemas que aparecen en la investigación tienen solución
gastando más dinero -la solución implícita de Groves, en la me-
dida que se observa el problema desde un punto de vista técni-
co-, esperando un tiempo hasta que este dinero dé sus frutos, o,
por el contrario, para dar sentido a los problemas de la encuesta,
entre ellos la no respuesta, no basta con conocer la técnica y los
resultados de su aplicación sino que además es necesario estudiar
la bondad de los supuestos que subyacen a su utilización, con el
fin de ver su pertinencia. Es mi opinión que toda es
deudora de los principios que la informan, sin los cuales carece
de sentido; por ello, si se quiere entender qué está pasando con
una técnica (especialmente si la técnica da problemas) es necesa-
rio reflexionar sobre los supuestos que subyacen a su creación y
posterior utilización -pensar que la técnica es independiente de
los supuestos que la sustentan es lo mismo que pensar que el ice-
berg sólo está constituido por la parte visible de hielo que emerge
del mar. Por ejemplo, a nivel sociopolítico podría ocurrir que el
problema no fuera la falta de respuesta, ante la invitación que se
les hace a las personas para participar en una encuesta que se su,...
pone de naturaleza absolutamente beneficiosa para todas ellas,
porque lo que resulta injustificado es hacer el supu.esto de que
toda una población humana -diferente de las poblacIOnes de bo-
las de colores o de tiradas de dados, que son el tipo de poblacio-
nes sobre lasque está desarrollada la teoría del muestreo, base
científica de la encuesta- va a participar de esta consideración
sobre la encuesta (independientemente de cuáles sean sus objeti-
vos) y, como consecuencia de ello, va a decidir intervenir en ella,
por muy interesante que le parezca a las personas que la realizan.
A este respecto puede ser interesante pensar, por ejemplo, en
otros procesos de participación ciudadana como son los electo-
rales, en los que una parte muy importante de la población no in-
terviene (<<no responde»), por mucha presión que se haga para
que participe, siendo esta circunstancia motivo de una perdida de
su legitimidad (el de los procesos electorales) para unas gentes
pero no para otras. Desde un punto de vista heurístico, el proble-
ma de sesgo en las estimaciones, que así se llama técnicamente al
efecto que tiene la no respuesta -la precisión, que es el otro
error que puede provocar este problema, se puede controlar susti-
tuyendo a las personas que no contestan por otras que sí lo ha-
cen-, digo que el problema del sesgo, medible por relación a un
valor verdadero (el parámetro poblacional), habrá que enfocarlo
de manera distinta según se asuma (desde una perspectiva realis-
ta) o se niegue (desde una perspectiva constructivista) la existen-
cia de dicho valor verdadero, independiente del acto investigador.
Si se asume la primera perspectiva es lógico, aunque relativa-
mente infructuoso, tal como trato de mostrar en este libro, que se
utilice el concepto sesgo como referente de la bondad de la en-
cuesta, y que se trate de evitar y, en caso negativo, de evaluar
(medir), para ver cómo influye en las estimaciones que efectua-
mos. Desde una perspectiva constructivista, el problema de la no
respuesta (en general todos los provocados por el uso de la en-
cuesta) hay que reformularlo, en la medida que este enfoque nie-
ga la existencia de un valor poblacional verdadero, por relación al
cual se determinaría, tal como acabo de explicar, la bondad de la
encuesta. Esta redefinición del problema, en la cual habrá que
sustituir el concepto error por el de efecto, será necesaria como
paso previo para poder tratar con esta circunstancia, la no res-
puesta, que se produce cuando hacemos encuestas.
Si no se discute sobre la bondad de los supuestos de la encues-
ta y se plantea el problema en los términos (técnicos) actuales,
pensando i) que es posible que toda la población participe en las
encuestas, siendo responsabilidad de los profesionales conseguir
tal objetivo, y ii) asumiendo la existencia de un valor verdadero en
la población (p.e. una intención de voto), para medir el efecto de
la no respuesta, desde mi punto de vista será difícil, si no imposi-
ble, tal como se muestra en este libro, encontrar las soluciones
que se buscan al problema que se supone que causa la no respues-
ta: en primer lugar, será difícil que se pueda evitar -o, cuando
menos, reducir a límites tolerables su tamaño- y, cuando se pro-
duzca, también será difícil (por no decir imposible) evaluar su
efecto, como paso previo a que se puedan poner los medios esta-
dísticos para eliminar los consiguientes errores de muestreo que
se dice que provoca la no respuesta. En el caso contrario, si se dis-
cute de la bondad de los supuestos, tanto sociopolíticos como
heurísticos, y se adopta una perspectiva constructivista que admita
el carácter negociado del conocimiento, el problema de la no res-
puesta adquiere una nueva dimensión, que abre la investigación
sobre la encuesta a territorios que en estos momentos a mí me re-
sultan prácticamente desconocidos, pero por los que yo entiendo
que se debe comenzar a transitar. Mirando la no respuesta (y, en
general, la encuesta) desde esta perspectiva, el problema deja de
ser problema (la no respuesta como causante del sesgo, que es el
culpable de que no podamos conocer lo que piensa una población
a partir de los resultados obtenidos en una muestra), en la medida
que el concepto que lo define, el sesgo, al cuestionarse la existen-
cia de un valor verdadero poblacional por desviación respecto del
cual se mide, deja de tener sentido. En este caso, cuando el pro-
blema (existencia de sesgo) deja de ser problema, la búsqueda de
soluciones se ve precedida por la redefinición del problema que se
quiere solucionar: definir el problema pasa a ser el verdadero pro-
blema, conscientes de que la definición que hagamos determinará
la solución a la que finalmente se llegue.
Llegados a este punto de la reflexión, he decidido mantener la
estructura original del libro, junto a la mayor parte de sus conte-
nidos, por entender que las descripciones que hago de la no res-
puesta y del tratamiento que recibe este problema, en estos mo-
mentos, siguen siendo pertinentes (son los únicos que conozco).
Lo que he hecho ha sido introducir algunas modificaciones a lo
largo de las páginas de la primera versión del texto, al tiempo que
cambiaba las conclusiones (capítulo 5 del libro), que de manera
inevitable terminan abriéndose, aunque de manera muy limitada,
hacia una consideración del problema de la no respuesta (la en-
cuesta) en los términos de la sociología del conocimiento cientí-
fico. Espero que mi decisión no haya sido equivocada, y que los
lectores, tanto aquellos que busquen una solución técnica al pro-
blema de la no respuesta (ver solamente los capítulos 2, 3 y 4)
como los que analicen este problema dentro de un proceso gene-
ral de reflexión sobre la bondad de la encuesta, encuentren en es-
tas páginas información de utilidad para sus intereses. Si todo li-
bro, quizá por muy acabado que piense su autor que se encuentra
el conocimiento que ofrece, antes que una oferta de soluciones
definitivas es una invitación a sumarse a la aventura vital en la
que se halla metido el que lo escribe, sepa el lector que tiene de-
lante suyo un buen ejemplo de esto que digo.,
Mi agradecimiento a Francisco Sánchez, Angela Lázaro y M.
a
Ángeles Cea, que hicieron la lectura de un borrador anterior a
este texto. El que después de oír sus comentarios yo haya produ-
cido este libro no quiere decir que ellos sean partícipes/respon-
sables de lo que aquí escribo.
Pozuelo de Alarcón, 15 de febrero de 2000
1. Contexto problemático
de la encuesta
En el libro que tiene el lector en sus manos se reflexiona sobre un
aspecto particular de la calidad de la encuesta: la no respuesta.
La gente es entrevistada, y en ocasiones decide no contestar al
cuestionario que se le pone delante. A este tipo de no respuesta
«a la totalidad» se le denomina no respuesta total. En ocasiones,
la gente presta amablemente su colaboración, pero se reserva sus
opiniones ante determinados temas-preguntas del cuestionario.
En este caso, los especialistas dicen que estamos en presencia de
no respuesta parcial. La primera de las no respuestas es la que
vamos a estudiar en este libro (en otro lugar, Sánchez Carrión,
1999, hago una introducción al problema de la no respuesta par-
cial).
Como ocurre siempre que se piensa en la calidad de algo, lo
primero que hay que decir es desde qué perspectiva se procede a
la evaluación. En nuestro caso disponemos de un triple ojo escru-
tador, que nos permite acercarnos a contemplar, no sólo la no
respuesta; sino todos los problemas que afectan al proceso de dar
sentido a los fenómenos sociales basado en la encuesta. Se trata
de un ojo que permite ver la encuesta en sus dimensiones técnica,
metodológica y epistemológica (en Sánchez Carrión, 1996, se
ofrece una exposición más detallada sobre los criterios con los
que estudiar la bondad de una encuesta).
El ojo epistemológico
El ojo epistemológico reflexiona sobre el papel de la encuesta y,
más en general, de la investigación: ¿para qué sirve la investiga-
ción que estamos haciendo? Para ciertas tradiciones de la socio-
logía, basadas en la obra de Durkheim, la investigación ha de ser-
vir para explicar la «realidad social». Otras tradiciones, con
antecedentes en Weber, entienden que con la investigación hemos
de ser capaces de comprender el sentido que para los propios in-
dividuos investigados tiene su actuación. Por último, cabe una ter-
cera posibilidad, con paternidad en Marx, que pone como objeti-
vo del conocimiento la transformación de la «realidad» objeto de
estudio.
A este nivel epistemológico se plantean preguntas sobre las
naturalezas del objeto investigado (aquello sobre lo que se inves-
tiga) y del sujeto investigador (aquel que investiga). Si pensamos
que el objeto de la investigación es de naturaleza reflexiva (re-
flexiona sobre lo que se hace con -dice de- él e incluso utiliza
esta información para orientar su actuación en el mundo) y el su-
jeto de naturaleza subjetiva (como diría Jesús Ibáñez, sólo se es
objetivo para la caza), y de identidad parcial al objeto investigado
-aunque desde papeles formalmente distintos, ambos se investi-
gan mutuamente durante la investigación-, lo que hace la
investigación no es conocer/reproducir la «realidad» (el objeto
investigado), sino contribuir a su construcción en el propio acto in-
vestigador. Esta labor constructora lleva a enfocar la investiga-
ción (la ciencia) como un elemento transformador de la «reali-
dad» (donante de uno de los múltiples sentidos que ésta puede
tener para los individuos), antes que instrumento que sirve para
su explicación (en términos de porcentaje de varianza explicada)
o su comprensión (en términos del sentido que tengan sus actos
para el propio objeto investigado). Frente a esta concepción, y si-
tuada en el otro extremo de un imaginario continuo, se encontra-
ría otra tradición que atribuye realidad al objeto investigado, con-
siderándolo independiente del acto investigador, que confía en la
posibilidad de que un sujeto investigador, objetivo, dotado de los
métodos/técnicas adecuados, neutros, sea capaz de captar dicha
realidad, sin que sufra modificaciones al investigarla. Desde esta
perspectiva, objeto y sujeto de la investigación aparecen escindi-
dos, cumpliendo, ambos, papeles totalmente diferenciados, que
hacen posible el estudio del uno por el otro.
Relacionado con el punto de vista (perspectiva) que adopte-
mos se plantea el problema de decidir cómo vamos a ver la vali-
dez del conocimiento elaborado. Si se asume, por principio, la
existencia de un valor verdadero -lo cual no quiere decir que el
investigador no sea consciente de la dificultad de llegar a cono-
cerio-, dicho valor, cuando se conozca, será el referente de bon-
dad de la investigación. Cuando el valor verdadero sea desco-
nocido, lo que suele ocurrir normalmente en la investigación
-¿para qué haríamos una investigación si ya conociéramos el re-
sultado?-.' la teoría (la lógica interna al proceso investigador) o
la capaCIdad que tenga nuestro saber adquirido de generar buenas
predicciones (p.e. de los resultados electorales) serán los referen-
tes de validez -cualquier libro que aborde el problema de la me-
dida tratará de forma empírica este problema bajo la rúbrica de
«validez de las mediciones»-; aunque, también, cualquier ma-
nual de sociología matizará esta validez hablando de Merton y de
la.s profecías que se autocumplen (el hecho de enunciar algo con-
tnbuye a que ese algo tenga lugar) o del principio de Thomas, se-
gún el cual si los hombres definen una situación como real, ésta
será real en sus consecuencias. Pero, y si no se asume la existen-
cia de un valor verdadero, más o menos difícil de conocer pero
sin que el investi.gador lo altere con su investigación,
¿cual sera el referente de vahdez de los resultados obtenidos con
nuestro estudio? Por ejemplo, si aceptamos que no hay una ver-
dadera intención de voto en los españoles o una verdadera valora-
ción de los líderes políticos que esperan ser descubiertas, puesto
que intención y valoración la negocian entrevistado y entrevista-
dor durante la investigación, ¿cómo decidiremos si una encuesta
está bien o mal hecha? En este supuesto, también la validez se re-
el mismo criterio que si apostásemos por la
eXIstenCia del valor verdadero: considerando la plausibilidad teó-
rica de lo que se dice y su capacidad para efectuar predicciones
que se cumplan... pero reconociendo ahora el carácter social-
mente negociado tanto de la teoría como de la predicción. Ésta
será la diferencia entre ambos planteamientos. Se trata de postu-
lar la capacidad de negociación social de las partes interesadas en
un saber como criterio de su validez, frente a la adecuación de la
teoría o de la predicción a una verdad que es independiente de los
objetos y sujetos participantes en la investigación.
Ojo metodológico
El ojo teórico/metodológico realiza su trabajo después que el
epistemológico y se pregunta por la adecuación de la encuesta a
la dimensión del objeto que estamos estudiando -cuya naturale-
za (reflexiva-realista) fue previamente definida. Por ejemplo,
imaginemos que a nivel epistemológico participamos de una con-
cepción realista del conocimiento social; en este caso, si quere-
mos conocer los motivos por los que la gente hace determinadas
cosas (comprar, votar, etc.), probablemente la encuesta no sea la
técnica más adecuada, y haya que recurrir a otro tipo de metodo-
logías (entrevista en profundidad, grupo de discusión, etc.) más
pertinentes. Si nuestro objetivo es conocer el comportamiento de
los individuos (qué compran o qué votan), para los que incluso
puede que exista un registro, la técnica de la encuesta puede ser
la idónea. La primera responsabilidad del ojo metodológico es
decidir si la opción que hacemos es la más acertada, para,
posteriormente, supervisar que todas las técnicas que se utilizan
en la investigación se adecuen al método seleccionado.
Alfonso Ortí (1993) sistematiza esta pluridimensionalidad del
objeto de investigación, que él denomina «niveles y procesos
constituyentes de la realidad social», distinguiendo entre diferen-
tes niveles: el nivel de los «hechos», formado por todo aquello
que «acontece y se hace»; el nivel de los «discursos», en el que
entraría todo lo que «se dice, se expresa o significa en la interac-
ción social»; y el nivelo «reino de las motivaciones», en el que
se plantearía el «por qué de la interacción social: su sentido y su
intencionalidad o finalidad, consciente o no consciente». A cada
uno de estos niveles de la realidad social le correspondería un
modelo metodológico diferente: estadístico (del cual la encuesta
sería la técnica paradigmática) para estudiar el nivel de los he-
chos; modelo lingüístico para estudiar los discursos; y modelo
heurístico (apoyado en el psicoanálisis y la teoría de la racionali-
dad) para conocer acerca de las motivaciones.
Ojo técnico
El ojo técnico mira los posibles errores que se cometen en la
implementación de la encuesta. Este ojo no duda de la pertinen-
cia metodológica de esta herramienta cognitiva para estudiar un
tema determinado, ni de la bondad de todos los supuestos
epistemológicos subyacentes a su utilización, que son los que le
dan sentido a la técnica, y busca los errores que se hayan podido
deslizar en la realización de la encuesta. Clasificamos estos erro-
res en tres grandes bloques -los dos primeros están tomados de
Groves, 1989-: errores de no observación (por problemas de co-
bertura del marco muestral, de no respuesta y de muestreo); de
«mala» observación (atribuible al entrevistado, al entrevistador,
al instrumento y/o al modo de generar la información); y de aná-
lisis (por procesamiento y análisis de los datos).
Por ejemplo, desde los supuestos de que i) existe un valor ver-
dadero en la población, y de que ii) resulta metodológicamente
pertinente hacer una encuesta para nuestra investigación, un re-
quisito de esta herramienta es que la muestra sea estadística-
mente representativa de dicha población. Si no se cumple este re-
quisito, quizá porque a la hora de hacer la investigación haya
gente que no responde a la encuesta, porque el marco muestral es
defectuoso o porque la muestra no es aleatoria, lo más probable
es que la muestra deje de ser representativa de la población y,
como consecuencia de ello, las estimaciones que hagamos estén
sesgadas (error fijo de muestreo). Si para evitar el sesgo, por
ejemplo derivado de la no respuesta, le damos dinero a los
entrevistados, consiguiendo que participen, puede que evitemos
el sesgo atribuible a la no respuesta pero introduzcamos otro de
naturaleza distinta, debido a que quizá la medida obtenida difie-
ra, por las circunstancias en las que se obtuvo, del hipotético va-
lor verdadero de los entrevistados -además de que para un
presupuesto dado, gastar más en una parte de la investigación
(por ejemplo, para pagar a los entrevistados) necesariamente
repercutirá en las otras partes (por ejemplo, la muestra tendrá que
ser más pequeña), lo que llevará a un aumento de otro tipo de
errores (en este caso, el error variable de muestreo).
Los tres niveles que acabo de señalar se integran en un todo,
el proceso de orientación del investigador en el mundo, con dife-
rentes niveles de responsabilidad -a la manera que el operario
es menos responsable que el director de la fábrica, y éste que el
dueño de la empresa: el primero pone la técnica, que por defini-
ción se pretende que sea aséptica; el segundo pone el método,
desde el que se justifica la pertinencia de aquella; y el tercero de-
fine los objetivos, que informan todo el proceso anterior-inferior.
Cada uno de los niveles técnico, metodológico y epistemológico
tiene que dar respuesta a una pregunta diferente, ordenada tem-
poral y jerárquicamente: al cómo responde el técnico, al qué el
metodólogo y al para qué el epistemólogo. La respuesta que de-
mos a cada uno de los niveles determinará la respuesta que de-
mos a los niveles inferiores. Por ejemplo, imaginemos que a nivel
epistemológico asumimos el papel transformador de la investiga-
ción frente a una concepción reproductora. Si esto es así, mala-
mente diremos que hemos cometido un error a la hora de utilizar
una encuesta para medir mediante una escala alguna característi-
ca de los entrevistados (sujeta a transformación-construcción en
el mismo acto de investigación); por el contrario, habrá que intro-
ducir la idea de efecto del instrumento de medida en los resulta-
dos, modificando completamente el enfoque de la investigación:
ya no se trata de encontrar el instrumento «neutro» que permita
conocer la «verdad», sino de conocer nuestro instrumento con el
fin de entender los efectos que produce. Sin embargo, si en vez
de adoptar una postura constructivista adoptamos una perspectiva
realista, tanto para tratar de explicar como de comprender la rea-
lidad, resulta plenamente pertinente hablar de errores, en la medi-
da que no seamos capaces de captar con la investigación ese va-
lor verdadero que damos por supuesto que existe. Y dado que ese
valor raramente será conocido -sólo en aquellas dimensiones,
p.e. la edad, sobre las que hay un consenso en torno a su defini-
ción y medida-, tendremos que desarrollar estrategias para po-
der introducirlo como un referente de bondad en la investigación
(problemas de la validez o de los errores muestrales a la hora de
estudiar la bondad de la medición hecha en una investigación
particular).
Con este marco de reflexión es con el que debe abordarse el
estudio de la calidad de la encuesta y, más en concreto, el proble-
ma de la no respuesta. Entendiendo que hay problemas técnicos, e
incluso metodológicos, que son susceptibles de encontrar solución
mediante el recurso a un modelo estándar de actuación (más o
menos formalizado según la técnica/metodología utilizada). Pero
también entendiendo que hay otros problemas de naturaleza epis-
temológica para los que no hay una respuesta definitiva, siendo
responsabilidad del investigador la toma de partido por una u otra
opción, sabiendo, como diría Ibáñez, que con la respuesta que dé
estará descubriendo su juego, sus cartas y su estrategia, de manera
que tal exhibición pueda servir para potenciar las posibilidades de
jugar, él y sus contendientes (A. c., 1985, pp. 2-3).
2. La no respuesta
En este libro se trata de un aspecto particular de la práctica inves-
tigadora sociológica: la no respuesta y su tratamiento. Tal como
indicamos en el capítulo anterior, se distingue entre dos tipos de
no respuesta: total y parcial. La primera se produce cuando no se
consigue realizar una entrevista con la persona seleccionada. La
no respuesta parcial tiene lugar cuando se realiza la entrevista,
pero falta la información para una o varias de las preguntas del
cuestionario.
Enfrentados a este problema de la no respuesta, la práctica
profesional suele adoptar las siguientes soluciones:
- Ante la no respuesta total hay dos tipos de prácticas posi-
bles: insistir en el intento de conseguir la entrevista, hacien-
do lo que se llaman revisitas al hogar/persona contactados
(call-backs), o sustituir a los hogares/personas selecciona-
dos por otros distintos, siguiendo algún proceso predeter-
minado -que también puede incluir, aunque no sea lo
normal, revisitas al hogar. En el primero de los casos el
tamaño de la muestra se reduce según el número de entre-
vistas que no hayamos podido conseguir, aumentando de tal
manera el error variable de muestreo (que depende, entre
otros factores, del tamaño de la muestra) y añadiendo otro
error de tipo fijo, el sesgo, si las personas eliminadas de la
muestra no componen una submuestra aleatoria de la po-
blación, igual que la parte de muestra entrevistada -para
los lectores no estadísticos en 2.1 se explican los conceptos
de error fijo y error variable. Cuando se producen las
sustituciones, el tamaño original de la muestra se mantiene,
con lo cual el error variable no se vería incrementado, pero
se p.uede introducir un error fijo, o sesgo, si las personas
sustitutas no son iguales que las sustituidas. En la práctica,
cuando se efectúan las sustituciones, a los errores mencio-
nados, teóricamente inferiores a los que se consiguen sin las
sustituciones (dado que se mantiene el tamaño de la mues-
tra original), hay que añadir la relajación que se produce en
la selección de las personas a entrevistar. Como consecuen-
cia de esta facilidad de sustituir a las personas dificiles de
contactar o a aquellas que rechazan participar en la encuesta
es fácil que se dé un deterioro de la muestra, que podría lle-
gar a invalidar su carácter probabilístico, haciendo impracti-
cable el cálculo de ningún tipo de error de muestreo. La
práctica de las sustituciones, muchas veces en unión del uso
de cuotas, suele ser común en los centros que hacen investi-
gaciones comerciales y sociales, mientras que la elimina-
ción de las personas no respondientes es más propia del tipo
de investigación administrativa realizada por el Instituto
Nacional de Estadística (en adelante INE) o de centros de
investigación tipo Survey Research Center (SRC) o Natio-
nal Opinion Research Center (NORC), de las universidades
de Michigan y Chicago, respectivamente.
Ante la no respuesta parcial lo normal es dejar las cosas
como están, suponiendo que los que no contestan a una
pregunta en particular, de haberlo hecho habrían contesta-
do lo mismo que aquellos que han respondido -salvo para
variables especiales, por ejemplo la intención de voto en un
estudio electoral, en cuyo caso sí que se imputa algún valor
a los casos que no han contestado (para el caso español
véanse Santesmases, 1985; Barrera y Castro, 1996). Si no
se imputan valores a los que no contestan, el tamaño de la
muestra para dicha pregunta disminuye (y aumenta el error
variable de muestreo), limitando la generalización de las
conclusiones obtenidas en la muestra al conjunto de la po-
blación (¿introduciendo sesgo?) -tanto mayor será la limi-
tación cuanto mayor sea el número de «no sabe/no contes-
ta» y mayores sus diferencias con los que sí saben y
contestan. Por el contrario, si se imputan valores a los no
respondientes hay que tener muy claro el procedimiento de
imputación para que el aumento de la precisión que se con-
sigue al aumentar el tamaño de muestra con los casos que
no habían contestado no se produzca a costa de un aumen-
to del sesgo y del error variable atribuibles a la imputación
(en Sánchez Carrión, 1999, pp. 207-222, se hace una intro-
ducción a la imputación, que contempla distintos procedi-
mientos y los problemas que plantean).
Cualquiera de los procedimientos que se adopten, y voy a cen-
trarme ya en la no respuesta total, necesita ser evaluado para po-
der comprenderlo mejor. Si no se van a hacer sustituciones es ne-
cesario conocer el tamaño previsible de la no respuesta, tanto
para ver la incidencia que puede tener en la muestra como para
pensar en procedimientos que permitan reducirlo, estimando el
coste que puedan suponer. Si se hacen sustituciones, también es
necesario conocer su número, con el fin de entender el efecto que
pueden tener en la investigación. Como resultado de esta
preocupación por la no respuesta, en 1973 la American Statistical
Association promovió un grupo de trabajo sobre el deterioro de
las tasas de respuesta, que diez años después publicó sus resulta-
dos en un libro clásico sobre este tema (Madow, Olkin y Rubin,
1983). En el ámbito de la investigación sobre opinión pública la
revista Public Opinion Quarterly ha publicado numerosos artícu-
los sobre la no respuesta (irán apareciendo a lo largo del libro),
tema que incluso ha sido motivo de reflexión a nivel de las alocu-
ciones presidenciales de la Asociación Americana de Investiga-
ción en Opinión Pública (AAPÜR-WAPOR), al menos en los
años 1984 y 1992 (Sharp, 1984; Bradburn, 1992).
En el ámbito de la investigación de nuestro país, donde se
practica de manera generalizada el uso de las sustituciones, con o
sin cuotas -especialmente en el caso de las investigaciones co-
merciales y sociales, aunque también el INE utiliza esta técnica,
pero en mucha menor medida-, a mi entender hay una escasa re-
flexión sobre sus consecuencias. En relación a este tema del e s t u ~
dio de las sustituciones sólo conozco el trabajo de Murgui y otros
(1992) y algunas breves referencias en evaluaciones a las calida-
des de las encuestas del INE (por ejemplo, Muro Romero y otros,
1988) y de las que se realizan en el ámbito de la investigación de
mercado (Ordas, 1984; Ortega, 1990b). En este último caso (el de
la investigación de mercado) se trata de alusiones, de pasada, a la
no respuesta, en las que, tras constatar su existencia y la falta de
representatividad que puede originar, se la suele restar importan-
cia, confiando en las sustituciones como antídoto. Por ejemplo,
Ortega Martínez comenta que «la investigación (en la que hay fal-
ta de colaboración para responder a la encuesta) puede ser perfec-
tamente válida, aunque en algún caso puede adolecer de falta de
representatividad» (A. C., 1990b, p. 13). En parecidos términos se
expresa Ordas, para quien «la NR es una importante fuente poten-
cial de sesgo. No importa cuán buenos sean el marco y el método
de muestreo, si hay una alta tasa de no respuesta el sesgo poten-
cial es muy amplio. [... ] Hay procedimientos bien conocidos para
eludir la no respuesta, bien mediante contactos repetidos o por
sustitución» (A. c., 1984, p. 15). De hecho, por conversaciones
con personas relevantes del mundo de la investigación, tanto co-
mercial como social, he llegado a la conclusión de que el proble-
ma de la no respuesta, salvo en el caso del INE y quizá otros insti-
tutos estadísticos autonómicos, no está cuantificado -y si lo está
yo no conozco los resultados-, aun cuando se sabe que para cada
entrevista que se consigue hay que hacer un número importante de
sustituciones, y que los sustituidos, muy probablemente, no se pa-
rezcan a los sustitutos. Parece como si, quizá preocupados por la
envergadura del problema, existiera una especie de conspiración de
silencio, confiando en última instancia en que la generosidad de la
encuesta (la robustez de sus estimadores ante la ruptura de los su-
puestos que justificarían su utilización) compense nuestras posi-
bles carencias -sirva como excepción que confirma la regla un
artículo aparecido en la revista Investigación y Marketing, en el
que su autor se pregunta sobre la representatividad de las muestras
utilizadas, debido, entre otras razones, a la negativa de las perso-
nas a participar en las encuestas (Alderete, 1996).
Con este telón de fondo (existencia de un tema interesante que
está poco estudiado) se produce este libro, con el que pretendo
trasladar a los lectores las reflexiones que a lo largo del tiempo
yo he ido haciendo sobre la no respuesta y sus implicaciones para
la investigación.
2.1 La naturaleza del problema desde un punto
de vista estadlstico: el sesgo
¿y por qué es un problema la no respuesta? Antes de contestar a
esta pregunta quizá convenga dar un pequeño rodeo, para expli-
car cuáles son los pilares sobre los que descansa el uso estándar
de la técnica de la encuesta. Entiendo que son tres, referidos a la
medición de cada unidad, al análisis estadístico de las mediciones
efectuadas en todas las unidades y a la inferencia de lo observado
en esas unidades, normalmente una muestra, al conjunto de la
población a la que pertenecen.
Por un lado, se supone que existen unas características «obje-
tivas» de los individuos, que en la teoría clásica de la medida re-
ciben el nombre de «valores verdaderos». De que tales caracterís-
ticas se observen bien o mal dependerá que haya errores de
medida. Por otro lado, todas las mediciones efectuadas se tratarán
de ajustar a un modelo estadístico-social (la distribución normal,
la regresión, etc.) que permita darles un sentido. Por último, y
como aspecto central para este libro, la teoría del muestreo justi-
fica la posibilidad de generalizar los resultados obtenidos en la
muestra a la población de la que se han obtenido; pero para ello
se tiene que cumplir la circunstancia de que la muestra sea una
maqueta perfecta de su original (la población). Y esta condición
sólo se da si se cumplen dos requisitos. El primero es que todos
los individuos de la población (al igual que cualquier combina-
ción de ellos) han de tener la misma probabilidad de ser elegidos,
y su selección se ha de hacer por un riguroso procedimiento que
garantice tal igualdad (es decir, que no se trate de una igualdad
teórica, sino también práctica). Además de este primer requisito,
hay un segundo, al que no se refieren los manuales de teoría del
muestreo por estar pensados para poblaciones tipo extracción de
canicas o tiradas de dados, que obliga a que una vez que se ha
efectuado la selección de la muestra, todas las unidades elegidas
han de facilitar la información que se les solicita -este supuesto
se obvia al hablar de canicas, porque ellas no se van a negar a de-
cirnos si son negras o blancas. Si no se cumplen ambos requisi-
tos, la muestra que se obtenga dejará de ser representativa de la
población, rompiéndose así la semejanza que siempre ha de ha-
ber (salvo en el tamaño y pequeñas desviaciones debidas al azar)
entre una maqueta y su original.
La falta de representatividad de la que acabo de hablar en el pá-
rrafo anterior va asociada a la introducción de sesgo en la estima-
ción de los parámetros de la población -además de esta fuente de
sesgo, asociada a problemas en la selección de las personas (mues-
treo), y quizá causados por la no respuesta, que es el tema de este
libro, también se puede producir sesgo por problemas de observa-
ción (medición) y/o tratamiento de lo medido (procesamiento y
análisis de los datos). El sesgo es un error fijo, independiente de la
replicación de la muestra de la que se trate, igual a la diferencia en-
tre el valor esperado del estadístico obtenido en la muestra y el pa-
de la población. Se dice que cuando la muestra es repre-
sentatIva de la población, y por lo tanto insesgada, ambos valores
coinciden, siendo el tamaño del sesgo igual a cero -decimos que
el sesgo es un error fijo, independiente de la muestra que se obten-
ga en cada caso, porque si, por ejemplo, un colectivo determinado
de la población se niega a contestar (p.e. los ricos), las muestras
que saquemos para calcular los ingresos medios de la población
variarán, debido al error variable de muestreo, pero todas en el sen-
tido (fijo) de infraestimar dichos ingresos. Si hay no respuesta, el
tamaño del sesgo dependerá de la tasa de no respuesta y de la dife-
rencia que haya entre las contestaciones de los respondientes y las
de los que no contestan, suponiendo que contestaran:
Si los que contestan fueran iguales, a efectos del parámetro
que estemos estudiando, que los que no contestan (JL = JL ), la no
respuesta no tendría ninguna importancia, puesto el se-
ría igual a cero. Lo mismo ocurriría si no hubiera no respuesta o,
lo que es más plausible, que su tamaño fuera escaso -según De-
Maio (1980, p. 232), hasta un 10% de no respuesta es una canti-
dad tolerable. Pero, puesto que no conocemos la contestación de
los que no contestan, ignorando sus posibles diferencias con los
entrevistados, si querernos evitar el sesgo lo que tendremos que
hacer es reducir lo más posible la tasa de no respuesta.
Para ilustrar este problema de la no respuesta y su influencia
en el sesgo imaginemos un estudio que quisiera saber el número
de veces que va la gente al cine cada semana (Moser y Kalton,
1977, pp. 166 Yss.). A tal fin se saca una muestra de 1.000 per-
sonas, de las que 800 contestan (r = 800) Y 200 no contestan
(nr = 200). Supongamos que los que contestan acuden al cine,
como media, una vez a la semana, cantidad que se utiliza corno
estimador insesgado de JL
1
• Supongamos también, aunque este
valor nunca lo conoceremos, que la media de asistencia de los no
respuesta es igual a 2; en este caso utilizaremos este valor corno
estimador insesgado de JL
2
• A partir de los datos que acabamos de
ofrecer, si utilizamos el valor conocido, JL
1
= 1, corno estimador
de la media total, JL, estaremos ofreciendo una estimación sesga-
da, puesto que la media total, incluidos respondientes y no res-
pondientes, es igual a:
JL = rJL¡ + nrJL
2
= 0,8*1 + 0,2*2 = 1,2
En este caso el sesgo tendría un valor igual a:
[1]
sesgo =(200/1.000) (1 - 2) = -0,2.
donde JL, = media estimada a partir de los que contestan
JL = media estimada a partir de todos los casos de la
muestra
nr = tamaño de la no respuesta
n = tamaño de la muestra
JL
2
= media estimada a partir de los que no contestan
El sesgo (error fijo) se produce porque la muestra deja de ser
representativa de la población -en este caso porque faltan las
personas representadas por los no respondientes. El sesgo es uno
de los dos componentes que forman parte del error total de mues-
treo (también llamado error medio cuadrático, o EMC), siendo su
acompañante el error (variable) muestra!. El error muestral (tam-
bién llamado error típico del estimador) se produce debido a que
2.2 La envergadura del problema
2.
En el campo de la no respuesta parcial, salvo para la estima-
ción de parámetros muy significativos, tipo intención de voto
ante una consulta electoral, lo normal es dejar los datos como es-
tán, lo cual no es sino una manera, por omisión, de tratarlos ha-
ciendo el supuesto de que los que no contestan a una pregunta
son iguales que los que sí han contestado. La alternativa es fijar
un modelo explícito de explicación de la no respuesta parcial, a
partir del que se puedan imputar valores a los casos perdidos (so-
bre la imputación, Anderson y otros, 1983; Kalton y Kasprzyk,
1986; Sánchez Carrión, 1999).
A este nivel de la explicación ya es necesario distinguir entre los
distintos tipos de no respuesta que se producen al intentar selec-
cionar a la persona que se desea entrevistar -tomamos una en-
cuesta con entrevistas personal o telefónica, y selección de los
entrevistados en el hogar. A tal efecto se distingue entre:
Una tipología de la no respuesta
a) Diseñar procedimientos que minimicen las no respuestas y,
puesto que a pesar de todo siempre hay no respuestas, tra-
tar de conocer las características de los que no contestan,
para evaluar en qué dirección puede ir el sesgo de nuestras
estimaciones y mejorar los procedimientos de contacto con
los entrevistados.
b) Desarrollar procedimientos que permitan analizar los datos
obtenidos, teniendo en cuenta la existencia de la no res-
puesta. A este nivel los procedimientos son distintos según
cuál sea la naturaleza de la información perdida. Ante la
no respuesta total la solución que se adopta es ponderar la
muestra. Como solución a la no respuesta parcial se proce-
de a la imputación.
práctica de sustituir a los que no contestan por otros que contes-
tan, el problema ha sido obviado, dejando de lado una reflexión
orientada en un doble sentido:
EMC2 = Sesg0
2
+ Error típico del estimador
2
[2]
sólo entrevistamos a una muestra de la población. Mientras que
el sesgo es un error fijo, que se produce en todas las muestras
que saquemos de una población, debido a su mala representativi-
dad (no se incluye la gente que no responde a las encuestas), el
error muestral es un error de tipo variable, que varía con cada
una de las muestras, todas ellas distintas, de la población (Sán-
chez Carrión, 1999, pp. 149-154).
Normalmente se diseñan las encuestas pensando en el tamaño
de la muestra, de manera que se pueda controlar (medir) el error
muestral que se va a cometer (por ejemplo, en una muestra alea-
toria simple, el valor del error de muestreo es igual 0'1y'ñ), pero
quizá no se piensa suficientemente que este error sólo es una par-
te del error total de muestreo, y en ocasiones no el más importan-
te, como se pone de manifiesto en el trabajo desarrollado por
Stinchcombe y otros (1981). Los autores mencionados, utilizan-
do los datos de un estudio que realizaron para el Departamento
de Agricultura de los Estados Unidos, muestran un ejemplo con
variables para las que el sesgo es mayor que el error variable de
muestreo (A. c., 1981, pp. 332 Yss.).
Decimos que la sustitución no es solución al problema de la no
respuesta, puesto que si bien mantiene el control sobre el tamaño
de la muestra, reduciendo así el error de muestreo (la componente
variable del error medio cuadrático, que es el que normalmente
se emplea como medida del error en la encuesta), no evita el ses-
go. En la práctica, al sustituir la persona seleccionada, que no con-
testa, se pretende hacerlo por otra igual, pero que sí conteste. De
esta manera se hace el supuesto de que ambas personas son igua-
les. En teoría, el supuesto se rompe porque por muy parecidas que
puedan ser ambas personas, siempre tendrán algo distinto: una
contesta y la otra no, y esto repercutirá al estudiar todas aquellas
de sus características correlacionadas con este hecho.
Puesto que, tal como mostramos en el próximo apartado, la
tasa de no respuesta es muy elevada e incluso, con el paso de los
años y para la mayoría de las encuestas, ha ido creciendo (Steeh,
1981; Groves, 1989), este tema cada día toma mayor actualidad.
En parte de la investigación comercial y social, debido a la
Tomemos ahora una encuesta tipo, con una tasa de no res-
puesta en torno al 20% (cifra bastante inferior a la que. se suele
obtener, en el mejor de los casos, en las encuestas SOCIales, se-
%
3
6
9
3
21
79
100
n
2.000
15
3
7
1.975
1.988
60
119
178
58
415
1.573
Direcciones válidas
Total hogares
Muestra inicial:
Hogares vacíos
Hogares demolidos
Oficinas
No respuesta
No contacto: fuera hogar temporalmente
No contacto: después de cuatro visitas
Rechazos
No entrevista (enfermo, viejo, etc.)
Total no respuesta
Total entrevistas válidas
gún muestro algo más adelante), para ilustrar la incidencia de
los distintos componentes de la no respuesta que acabo de expli-
car. La encuesta estaba dirigida a los cabezas de familia, selec-
cionados en el hogar. Se trataba de una muestra de 2.000 unida-
des, con la que se obtuvieron los resultados que se muestran en
la figura l.
Los datos «tipo» de la figura 1 se pueden comparar con los re-
sultados de un par de encuestas, una de los Estados Unidos de
América y otra británica: el General Social Survey (GSS), baró-
metro que realiza anualmente el National Opinion Research Cen-
ter (NORC) de la Universidad de Chicago, y el National Survey
of Sexual Attitudes and Lifestiles (NATSAL), respectivamente.
En ambos casos se trata de encuestas con selección aleatoria del
individuo dentro del hogar. En el caso de la encuesta de NORC,
con datos que facilita Tom Smith (1983, p. 392), referidos a 1980
y para una muestra inicial de 2.000 casos, de la que quedaron
1.931 válidos, se obtuvieron:
Figura 1. Tipología de no respuesta. (Tomado de Hoinville
y otros, 1978, p. 12.)
[3]
NC+R+NE
No respuesta = --------
NC+R+NE+E
donde E es el número de entrevistas realizadas,
NC = son los no contactos,
R = losrechazos,y
NE = los no entrevistables.
No contactos (NC): Los no contactos pueden ser de dos tipos:
con el hogar y con la persona seleccionada dentro del hogar. En
el primer caso no hay listado de los miembros del hogar y nada
se puede saber ni de su composición ni de la hipotética persona
seleccionada en su interior. En el segundo caso se llega a hacer el
listado de los miembros del hogar y se determina quién ha de ser
el entrevistado, pero no se consigue contactar con la persona con
la que hay que realizar la entrevista.
Rechazos (R): Los rechazos también pueden ser de .dos tipos:
del hogar y de la persona seleccionada.
No entrevista (NE): Se efectúa la selección de la persona que
hay que entrevistar, sin que se pueda realizar la entrevista por i.n-
capacidad del entrevistado (enfermedad, problemas de lenguaje,
etc.) o ausencia del hogar durante la duración del estudio.
Elementos del marco muestral pero no de la población objeto
de estudio (NEL): Se trata de elementos del marco muestral (vi-
viendas) en las que no procede hacer la entrevista. Normalmente
este tipo de no respuesta se produce porque la vivienda no está
ocupada o porque se trata de una oficina o negocio, o de una vi-
vienda institucional (cuartel, residencia, etc.) -la población que
vive en este tipo de centros normalmente queda excluida de la
población objeto (target) de las encuestas.
De los tres tipos de no respuesta el último no se suele conside-
rar a la hora de calcular la tasa de no respuesta, que normalmente
se evalúa mediante la siguiente expresión:
12,57
%
100,00
88,55
3,28
7,58
0,04
100,00
n
1.610
1.495
76 .
39
11.194
9.912
378
849
4
12.804
No encuestables
Vacias
Dedicadas otros fines
Ilocalizables
Encuestables
Encuestadas
Negativas
Ausencias
Inaccesibles
Viviendas seleccionadas
En este caso el tamaño de la no respuesta, basado en 11.194
personas entrevistables, una vez eliminados hogares vacíos, ilo-
calizables, etc., asciende al 11,45%, cifra muy inferior, como de-
cíamos, a lá que se obtiene en estudios no administrativos.
La encuesta postelectoral del CIS, de mayo de 1996, ofrece
datos sobre la no respuesta, a partir de una encuesta en la que se
admitían las sustituciones, tanto de los hogares como de las per-
sonas que no se podían contactar/entrevistar. El tamaño de la
muestra era de 5.338 entrevistas, para cuya realización se esta-
blecieron un total de 39.516 contactos -a este número habría
que añadir 12.269 contactos más, provocados porque las perso-
nas seleccionadas no cumplían las cuotas utilizadas en la investi-
gación, y que no voy a considerar porque en las restantes inves-
tigaciones que estoy comentando no se utiliza este sistema de
cuotas.
Figura 2. La no respuesta en la Encuesta de Población
Activa de 1990. (Tabla elaborada a partir de
datos tomados del INE, 1991, p. 84 Yss.)
Nota: Los datos corresponden aL 1..' trimestre y a La 1. a entrevista, de Las seis que se reaLi-
zan en cada hogar seLeccionado en La muestra. Sumando Las entrevistas de Los hogares nue-
vos (Las primeras entrevistas) con las de Los viejos tenemos eL totaL de 65.054 entrevistas,
que es eL tamaño de La EPA (para una descripción detaLLada, véase García España, 1969;
INE, 1991).
• 1.468 cuestionarios completos (76,0%).
• 315 rechazos (16,3%).
• 66 no contactos (3,4%).
• 78 otros (mayoritariamente personas enfermas, aunque tam-
bién errores administrativos) (4,0%).
• 4 documentos perdidos.
• 18.876 cuestionarios completos (63,3%).
• 7.517 rechazos (25,2%).
• 1.761 rechazos completos de información (5,9%).
• 1.027 no contactos después de 4 visitas (3,4%).
• 562 personas inutilizables (enfermos, fuera del hogar, etc.)
(1,9%).
• 59 otros (p.e. documentos perdidos) (0,2%).
La tasa de no respuesta se eleva al 36,7%, cifra que al decir de
los autores podría haber sido un poco inferior por haber utilizado
en este caso criterios de cálculo exigentes por relación a otros es-
tudios.
Tanto los datos de nuestro ejemplo «tipo» como los del GSS o
los del NATSAL se pueden poner en relación con los de la En-
cuesta General de Población Activa (EPA) de 1990, que por tra-
tarse de una encuesta oficial-administrativa obtiene unas tasas de
respuesta superiores a las de los estudios comerciales y sociales
(figura 2), y con los del Centro de Investigaciones Sociológicas
(Estudios postelectorales del CIS. Elecciones Generales en Espa-
ña, período 1982-1996), referidos a la encuesta postelectoral de
1996 -en el capítulo 4 ofrezco los datos de un par de investiga-
ciones realizadas por mí.
En total hubo una tasa de respuesta del 76% y una no res-
puesta del 24%, cifras en torno a las cuales se suelen mover los
GSS.
En la encuesta británica, de 1991, con tasas de no respuesta, al
decir de sus autores (Wadsworth y otros, 1993), semejantes a
otras sobre comportamiento social, se obtuvieron los siguientes
resultados -la base de cálculo son un total de 29.802 direccio-
nes potencialmente elegibles:
• 22.230 ausencias de hogar (56,3%).
• 5.904 rechazos hogar (14,9%).
• 4.528 negativas a contestar (18,9%).
• 3.104 direcciones no entrevistables (7,9%).
• 729 portales en los que el portero impidió la entrada (1,8%).
El hecho de que se realicen sustituciones hace que el tamaño de
la no respuesta sea muy elevado: para cada entrevista que se hace se
establece un número medio de 7,4 contactos. Más de la mitad
(56,3%) de la no respuesta es atribuible a las ausencias del hogar,
debido a que no se han hecho revisitas para controlar este problema.
Tamaño de la no respuesta
Lógicamente, dependiendo del tema que se esté investigando, de la
institución que realice la investigación (gubernamental, comercial,
etc.) y de otros múltiples factores que iré explicando a lo largo de
estas páginas, la no respuesta total y su distribución por tipos cam-
biará. Por ejemplo, De Heer e Israels (1992) muestran datos de las
encuestas realizadas a nivel internacional para estudiar el efecto de
la no respuesta y sus distintos componentes. En concreto se trata
de datos de la no respuesta en diferentes países europeos, basados
en encuestas realizadas a partir de 1980 -este breve período de
tiempo transcurrido limita el alcance de la reflexión que hacen los
autores sobre la evolución de la no respuesta. Se trata en todos los
casos de las encuestas que llevan a cabo instituciones gubernamen-
tales (los Institutos de Estadística de los respectivos países), lo que
hace que la tasa de no respuesta sea inferior a la que se obtiene en
encuestas realizadas por institutos no gubernamentales o por insti-
tutos comerciales. Pensando en el tamaño total de la no respuesta,
del análisis de sus datos no se puede deducir una única conclusión,
puesto que dependiendo del país y de la encuesta de que se trate
así se verá que aumenta o disminuye la no respuesta -Goyder
(1985) tiene un estudio en el que se tratan de explicar las diferen-
cias entre países, basándose en la distinta práctica profesional, y
las distintas situaciones socioeconómicos y culturales de cada uno,
en su caso Canadá y Estados Unidos. En conjunto se pueden sacar
algunas conclusiones de interés:
En primer lugar, se constata la dificultad de establecer compa-
raciones, debido a las diferencias metodológicas que existen en-
tre las encuestas que se realizan entre-intra países (básicamente,
falta de acuerdo en cuanto a la definición de qué es la no res-
puesta y los esfuerzos que se hacen para tratar de evitarla). Con
tal motivo se refuerza el interés de llevar a cabo una investigación
internacional sobre la no respuesta, en cuya preparación ya han
tenido lugar un par de sesiones de trabajo.
Contando con estas limitaciones, los autores se atreven a de-
cir que no hay una tendencia general al aumento de la no res-
puesta: «Se diría que la gente no está menos dispuesta a partici-
par que en años anteriores, sino que las circunstancias han
cambiado» (A. c., 1992, p. 24). Salvo en el caso de España, don-
de se produce un aumento de los rechazos, la línea general apun-
ta hacia un aumento de los no contactos, como consecuencia de
la distinta composición de los hogares y sus pautas de estar en
casa -los autores destacan la singularidad de nuestro país, por
ser el único de los investigados en el que se utilizan las sustitu-
ciones como solución a la no respuesta (sobre el tratamiento de
la no respuesta en las encuestas del Instituto Nacional de Esta-
dísticas, véase INE, 1991).
Según los autores, las conclusiones de su investigación parece
que concuerdan con la hipótesis formulada por Denise L e i v e s l e ~ ,
cuando señala que el problema de la no respuesta no es tanto atn-
buible a un cambio de actitud de la gente hacia las encuestas
como a una falta de adaptación de los institutos de investigación a
las circunstancias cambiantes en que se desarrolla la encuesta (bá-
sicamente pautas de trabajo de la pareja y de estancia en el hogar).
En la línea de no aumento de la no respuesta, algo excepcio-
nal en la literatura sobre la no respuesta, va la investigación de
Marquis (1979), quien en un controvertido artículo, hecho a par-
tir de la Encuesta de Salud de los Estados Unidos, mostraba la
estabilidad de la no respuesta. Groves (1989) amplía el estudio
de Marquis para llegar a semejante conclusión, pero destacando
algo muy importante, como es el cambio en la composición de la
no respuesta: la estabilidad se consigue por un descenso de los no
contactos (se invierte más tiempo y dinero en conseguir que la
gente termine siendo contactada) y un aumento equivalente de
= (0,8*1) + (0,1 *0,1) = O9
/L, 08 + O1 '
, ,
lo que representa, con un 10% menos de no respuesta, un aumen-
to de 0,1 puntos en el sesgo -el sesgo anterior era igual a -0,2
puntos.
En el caso de los institutos no gubernamentales es necesario re-
currir al estudio de Charlotte Steeh (1981), basado en las encuestas
realizadas por el Institute of Survey Research de la Universidad de
Michigan (ISR). Tal como muestra la autora, la tasa de no respues-
ta ha ido aumentando con el paso de los años, debido básicamente
al incremento de los rechazos. Esta conclusión concuerda con la
opinión generalizada de la profesión, que ve en la no respuesta una
amenaza a la validez de las encuestas, y que llevó en 1973 a la
Asociación Americana de Estadística a organizar una sesión de tra-
bajo para estudiar este problema. Producto de una sesión posterior,
de 1977, organizada por la Academia Nacional de las Ciencias, se-
ría la implementación de un panel sobre datos incompletos, como
resultado del cual aparecería un libro en tres volúmenes de Madow
y otros (1983) en el que se recogían las discusiones y recomenda-
ciones de aquella sesión (véase Frankel y Frankel, 1987).
Steeh toma como referencia las encuestas de Actitudes de los
Consumidores (Surveys of Consumer Attitudes) y de Estudios
sesgo =(100/1.000) (0,9 - 3,9) =-0,3
contactos y rechazos, ambos grupos con igual porcentaje de casos,
un 10%. Tras realizar ímprobos esfuerzos conseguimos contactar a
los no contactos, averiguando que casi jamás van al cine: 0,1 vez
por semana, como media. Por el contrario, el 10% de los rechazos,
que siguen sin querer contestar al cuestionario, tienen una media
de asistencia al cine de 3,9 veces por semana -compruébese que
si combinamos los dos grupos, su media es igual a 2,0, tal como
mostraba en su momento. A partir de estos datos, si queremos es-
timar la media de asistencia al cine, el nuevo valor de /L
2
será igual
a 3,9, mientras que el de /L¡ será una media ponderada de los valo-
res de los respondientes y de los no contactos originales:
Con lo cual el sesgo toma un nuevo valor, igual a:
- No respuesta total
---- Otros no entrevistados
•.••.••.• Rechazos
0,04 1.
w \ 1\ l\ r1
J \ ,\ 1\ ,\ 1.
w.!9 \ t I \ I I
0,03 '.¡ \/ i \J \ /1 1\ -
t: ,. I I I 1 I
:e ') I .\
8. \- \ t. .' :''''.}
0,02 { "...., 1. t·.,.\.. f···... :.\ ......../ .
. ¡..... .Y'J,,"!/';.4 \ ", ........,:.¡:../ ".:' '.... ,
:'.' .... '.: .: ',¡ 1/' f t 1', "
............./ \../......!. ...,.........;+\, '\' .. '
0.Ql \ 1 ..
11
\1
1976
Año
0,06 rn-ITnTTT"TlTITT1T1"TTTTTTrrTTTTITTITrTllTITTITrTllrTTITITTITTTrrmTITrn
Figura 3. No respuesta y sus tipos en los National Health
Interview Survey, 1967-1985. (Tomado de Groves,
1989, p. 147.)
los rechazos. La figura 3 muestra esta circunstancia para la En-
cuesta de Salud de los Estados Unidos.
Este doble fenómeno tiene una gran importancia, puesto que,
contrariamente a lo que pudiera pensarse, la «persecución» de los
no contactados, en vez de mantener estable el nivel del sesgo de
las encuestas puede ser motivo de un aumento de su tamaño, en
la medida que los que van quedando como no respuesta (los re-
chazos militantes) pueden ser muy diferentes de los que partici-
pan en la encuesta. Incluso la disminución de la no respuesta, si
sólo está basada en una reducción de los no contactos, puede pro-
vocar un aumento del sesgo. Groves (1989, p. 147 Yss.) muestra
datos que van en esta dirección, y que ponen en guardia del peli-
gro de reducir la no respuesta sólo en base a un aumento de las
revisitas, hasta llegar a conseguir todos los contactos, pero dejan-
do de lado los rechazos.
Por ejemplo, siguiendo con el estudio de la asistencia al cine,
supongamos que el 20% de no respuestas está compuesto por no
Figura 4. Tasas de rechazo para el Survey of Consumer
Attitudes yel National Election Studies,
1952-1980. (Tomado de Steeh, 1981, p. 44.)
32 r----------------------,
- Consumo
--- Elctoral
Figura 5. Tasas de rechazo para los Survey of Consumer
Attitudes (a) y el National Election Studies (b),
según grado de urbanización. (Tomado de Steeh,
1981, p. 45.)
1952 1956 1960 1964 1968 1972 1976 1980
Año
O ' - - ~ - - ' - - - - - ' - - - - ' - - _ . L _ _ ___J'___ __L__-L_J
O ' - - ~ _ - J . . . __l___ _'__ _..L__..L__ ___L___'___-L__l
24 r-----------------------,
1954 1957 1960 1963 1966 1969 1972 1975 1976
Año
(a)
- Grandes ciudades
- Ciudades
-- Pequeñas ciudades
32 r---------------------.....
(b)
2 16
ro
~
u
~
<lJ
-o
Vl
ro
Vl
~ 8
- Grandes ciudades
-- Ciudades
--- Pequeñas ciudades
24
o
N
ro
~
u
~
<lJ 16"
-o
Vl
ro
Vl
~
8
Electorales (National Election Studies), desde 1952 hasta 1978,
para mostrar el aumento que ha experimentado la no respuesta
con el paso de los años: en el período en cuestión la no respues-
ta ha pasado de un 14% a un 31%, en el caso de la encuesta elec-
toral; yde un 11% a un 23%, cuando se trata de la encuesta de
consumo -cifras aproximadas, sacadas de un gráfico. Este cam-
bio se ha basado fundamentalmente en un aumento de los recha-
zos, que supondrían el 85,7% del aumento de la no respuesta, en
el caso de los estudios de consumo, y el 83,6%, en los estudios
electorales.
Tal como señala Steeh, el grado de urbanización es la variable
que mejor explica el aumento de los rechazos, sin que se obser-
ven diferencias entre los dos estudios analizados. Cuanto mayor
es el tamaño de la unidad primaria de muestreo (UPM), mayor es
el tamaño de los rechazos -las UPM se dividen en tres grandes
bloques, según se trate de grandes ciudades (large cities), ciuda-
des (cities) o pequeñas ciudades (small towns).
1952 1956 1960 1964 1968 1972 1976 1980
8
Vl
ro
Vl
~
Año
o l-.-l..-_....L'__....__.......__l..-'_....L l-.-'_....L--J
24
o
N
ro
~
u
~ 16
'111
Los datos sobre la influencia negativa de la urbe en las res-
puestas también se reproducen en nuestro país, tal como se ob-
serva, por ejemplo, en la Encuesta de Población Activa (EPA):
según la EPA de 1990, el 87,55% de los hogares situados en ca-
pitales de provincia contestaron a la encuesta, frente al 91,73%
del campo (INE, 1991, p. 85). House y Wolf (1978) han investi-
gado esta influencia del grado de urbanización en el comporta-
miento de los individuos, a partir de la realización de una serie
de investigaciones en las que se tomaba el rechazo a contestar a
las encuestas como indicador del comportamiento desconfiado
y poco cooperativo de las personas. Conociendo esta influencia
de la ciudad en el comportamiento de las personas, su interés
radicaba en averiguar qué hay de específico en la urbe para que
la gente no sea tan cooperativa como en el campo (ciudades pe-
queñas). Tomando la tasa de rechazo para cada una de las uni-
dades primarias de muestreo de las encuestas realizadas por el
ISR, relacionaban esta variable con diversas características de
las unidades de muestreo (datos demográficos y de delincuen-
cia de las ciudades), para llegar a un par de conclusiones de in-
terés:
1) Lo específico de la ciudad, que explicaría el comporta-
miento menos cooperativo y confiado de sus moradores
-entre estos comportamientos se encuentra el rechazo a
participar en las encuestas, que desde 1952 a 1972 pasó
de un 7,3% a un 14,4%-, es el mayor grado de delin-
cuencia que padecen. Después de correlacionar las varia-
bles de su estudio con el rechazo encontraron que el mejor
predictor de la cooperación es el número de delitos contra
la propiedad que se cometen en la ciudad -la relación se
mantiene cuando se controla por las variables sociodemo-
gráficas.
2) La segunda conclusión, de interés para las encuestas, tiene
que ver con el nivel al que se sitúa la influencia de la vida
en la ciudad: «Todas las pruebas sugieren que las gentes
urbanas y no urbanas difieren mucho más en sus compor-
tamientos que en sus actitudes y valores básicos. Los urba-
nitas pueden adaptar sus comportamientos a los miedos
generados por las mayores tasas delictivas y la carga psico-
lógica generada por el mayor tamaño y densidad poblacio-
nal de las ciudades, pero estas adaptaciones se producen
sin grandes ajustes equivalentes a nivel de sus actitudes y
valores» (A. c., 1978, p. 1042; Holahan, 1977).
En el caso de la investigación comercial la información es
más escasa, aunque es general el sentir de que la tasa de no res-
puesta es mucho más alta que en las encuestas gubernamentales
o sociales, y sigue aumentando con el paso del tiempo. Tim Bow-
les ofrece datos de la Encuesta Nacional de Lectura (National
Readership Survey), del Reino Unido, donde se puede ver cómo
ha ido declinando la tasa de respuesta, para pasar de un 74% en
1982 a un 68% en el 1988. Según el autor, «el aumento de los ro-
bos y demás delitos violentos en el centro de las ciudades ha he-
cho a sus ocupantes más reticentes a ser entrevistados, al tiempo
que ha reducido la disposición de los entrevistadores a trabajar en
estas áreas. Este hecho se refleja en la tendencia de la respuesta
en Londres, que pasó de un 67% en 1982 a un 55% en 1988»
(A. C., 1989, p. 471). Crespi facilita datos de las encuestas de
opinión pública realizadas en Estados Unidos por institutos co-
merciales, en los que la tasa de no respuesta oscila entre el 30% y
el 50% (A. C., 1987). Cannari y D'Alessio (1992, citado por Bo-
sio, 1996, en un interesante trabajo sobre la no respuesta) hablan
de cifras de no respuesta del 63% en el caso de Italia y por rela-
ción a un estudio del Banco de Italia sobre presupuestos familia-
res. Para España solamente dispongo de los datos facilitados por
personas de la investigación privada y pública, en comunicación
personal, según los cuales las cifras de la no respuesta, sin admi-
tir sustituciones, estarían alrededor del 50% de la muestra. Todos
estos casos que estamos comentando ofrecen cifras de no res-
puesta que están muy por encima del 25% que marca el Office of
Management and Budget, como límite máximo de la no respues-
ta, poniendo así en cuestión la misma viabilidad de la encuesta
como técnica para obtener información representativa de una po-
blación.
Características de la no respuesta
Saber cuáles son las características de la gente que no contesta a
las encuestas es, por definición, una tarea harto difícil: en la no
contestación a las preguntas del cuestionario va incluida la no con-
testación a las preguntas que nos podrían interesar para saber cómo
son los no respondientes. A pesar de la dificultad, los investigado-
res hacen todo lo que pueden por conocer quiénes son las personas
que no contestan, con el fin de estimar el sesgo que se produce en
sus estimaciones y de mejorar sus procedimientos de recogida de
la información.
En la literatura se pueden distinguir dos grmides líneas de in-
vestigación. Una primera, de carácter más teórico que empírico,
reflexiona sobre la no respuesta buscando comprender el proble-
ma, aunque sin entrar en la cuantificación de sus dimensiones y,
por ende, en el cálculo del sesgo que produce en la estimación de
los parámetros poblacionales (por ejemplo, Goyder, 1987). Otra
línea de investigación de la no respuesta se lanza por el camino
de averiguar cuáles son las características sociodemográficas de
los no respondientes (las únicas que, normalmente, se pueden co-
nocer), para tratar de cuantificar, aunque sólo sea en términos de
estas pocas variables, la influencia de la no respuesta en los es-
tadísticos obtenidos (por ejemplo, DeMaio 1980; Smith, 1983).
Como resultado de esta segunda línea de investigación algo se
sabe de ciertas características de los no respondientes. Groves, en
su libro sobre los errores (A. C. 1989, pp. 201-208) hace un ex-
celente resumen de muchas de estas investigaciones, a partir de
las cuales se puede llegar a una serie de conclusiones... todas
ellas limitadas por el hecho de que siempre hay estudios que
muestran conclusiones opuestas:
- Con relación a la edad, la gente mayor tiene más propen-
sión a no responder que los jóvenes.
- Los hombres suelen tener una mayor tasa de no respuesta
que las mujeres.
- La tasas de no respuesta es superior en personas con un
nivel de estudios inferiores.
- Los ingresos también influyen, en el sentido de que mayo-
res ingresos menor tasa de respuesta.
- hogares en los que vive un menor número de gente
tIenden a dar mayor número de no respuesta que los hoga-
res con muchas personas.
lo que al tamaño de hábitat, ya he explicado
la InflUenCIa negatIva del nivel de urbanización sobre la
respuesta a las encuestas.
a las encuestas del INE (Encuesta de Presupuestos
FamIlIares, 1974; Encuesta de Fecundidad, 1980-81), Bermúdez
(1981, pp. 42 y, ss.) obtenidos a partir de las «perso-
nas que .no hablan faCIlItado la Información para la encuesta y de
sus en los que se ve que la no respuesta es mayor en
las de renta elevada y entre los directivos y profesio-
nales .lIberales (personas de ingresos elevados).
MI ,conclusión última sobre este aspecto de la no respuesta es
que mas que hablar de un no respondiente tipo (viejo, de bajo es-
tatus, lo que hay son personas que contestan o no contestan
dependIendo de toda una serie de circunstancias que rodean a la
para la que se les pide su participación (véase apartado
sIgUIente). Esta es la razón por la que muchos investigadores
más que buscar concretas de las personas que
co.ntestan, se a tratar de encontrar alguna lógica que ex-
phque la partlcIpaclOn en las encuestas, entendiendo este acto
como uno los muchos procesos de interacción que se produ-
cen en la socIedad (véase próximo apartado).
2.3 Explicación deL probLema
El estudio de la no respuesta adolece de las limitaciones de la
metodología que la produce, la encuesta, y de la falta de interés
por su estudio desde otras metodologías que, pudiendo tener una
mayor capacidad interpretativa, sin embargo sus practicantes no
tienen interés en estudiar el problema.
Al hablar de las razones por las que la gente no contesta, la li-
teratura se mueve en varias direcciones, que podríamos agrupar en
d?s grandes ?loques, y a los que llamaríamos respectivamente téc-
mco/estadístIco y teórico (sociológico, psicológico, etc.) -más
que de dos bloques habría que hablar de un continuo, en el que es-
tas dos posiciones ocupan los lugares extremos. Desde el primer
enfoque se trataría de estudiar los elementos que intervienen en la
encuesta (la forma de presentar la encuesta, el uso de incentivos,
la longitud del cuestionario, etc.), descontextualizada esta técnica
de su papel social y del hecho de que intervienen personas que no
son una «caja negra» cuyo output es la respuesta-no respuesta,
buscando en esos elementos una explicación que conduzca a una
solución operativa del problema. Desde el enfoque teórico se
plantean un par de dudas originales sobre la naturaleza de esta he-
rramienta cognitiva. La primera duda tiene que ver con la función
que se les atribuya a las encuestas, según se piense que son herra-
mientas cognitivas que sirven para i) democratizar la sociedad, al
dar la palabra a gentes que de otra manera no serían escuchadas
(Bryce, 1889; Gallup y Rea, 1940; Gallup, 1948), o, por el contra-
rio, para ii) fortalecer la posición de las personas que las encar-
gan, que a partir de ese momento disponen de una información
con la que (potencialmente) controlar al resto de los ciudadanos
(Crespi, 1989; Marsh, 1982). La segunda duda está relacionada con
la primera, y se origina en tomo a la posibilidad misma de evitar
la no respuesta. Aunque la respuesta a la primera duda muestre el
valor democrático de la encuesta, pensar que un 100% de la po-
blación elegida en la muestra va a participar en una encuesta es
creer que uno vive en un tipo de sociedad con un nivel de consen-
so que probablemente no ha existido, no existe, ni existirá. La res-
puesta que se dé a estas dos dudas puede ser distinta, pero sólo el
hecho de planteárnoslas tiene la ventaja de que muestra la dimen-
sión social y política de la encuesta, dejando el camino abierto
para encontrar una solución al problema de la no respuesta.
Una de las líneas por la que discurre la literatura consiste en
explicar la mayor o menor participación en las encuestas depen-
diendo del lugar que ocupan los entrevistados en la sociedad:
aquellos que se sitúen en el «centro» tenderán a una mayor parti-
cipación que los situados en la «periferia» (Goyder, 1987). Según
la teoría del centro-periferia, quizá no todos los entrevistados
perciban, de manera general, que de su participación en las en-
cuestas se derive un beneficio para ellos, en la medida que les
permite participar en la vida social y política de su país (conse-
cuencia explícita del papel que Gallup le atribuye a las encues-
tas). Por el contrario, según esta teoría, sólo aquellos que real ..
mente se benefician (o creen beneficiarse) de la forma que adop-
ta su sociedad, los que están situados en su «centro», estarán inte-
resados en participar en el proceso de su reproducción; mientras
que todos aquellos que se sientan marginados, los situados en la
«periferia» del sistema, malamente van a tener interés en repro-
ducir el orden social, por lo que dejarán de participar en aquellos
procesos que no les benefician, entre los cuales está colaborar en
las encuestas, cualquiera que sea el terna de que traten o la insti-
tución que las patrocine.
Para algunos autores, la investigación sobre la no respuesta
parece confirmar la teoría del centro-periferia, en la medida que
los pocos datos existentes sobre las características de los no res-
pondientes (véase apartado precedente) muestran que este colec-
tivo está constituido por personas de estatus socioeconómico bajo
que no sólo no participan en las encuestas, sino que, según los
datos de los Estados Unidos, tampoco tornan parte en otros pro-
cesos de tipo social (por ejemplo, votar en las elecciones o inter-
venir en asuntos de tipo comunitario) -la no participación de los
individuos de estatus socioeconómico alto, que es la debilidad
que Groves le encuentra a la teoría del centro-periferia (Groves,
1989, p. 219), se explicaría porque precisamente es este grupo el
que normalmente encarga las encuestas, no para que se les co-
nozca, sino para conocer a los demás. Como señala Goyder
(1987), se diría que los objetivos de las encuestas tienden a ser
vistos corno irrelevantes por aquellas personas que se consideran
a sí mismas fuera de la corriente principal de la sociedad, siendo
ésta la razón que les lleva a desinteresarse de ellas.
Complementaria a la explicación basada en la teoría del cen-
tro-periferia se encuentra la teoría del intercambio social (Dill-
man, 1978; Goyder, 1987). Puesto que de la participación en las
encuestas no se deriva un beneficio general para la población,
sino que tal beneficio dependerá de la posición ocupada por los
entrevistados, la participación se hará en base a una discusión so-
bre lo que, en concreto y para cada encuesta, cada uno de los en-
trevistados obtenga con su participación. Según esta explicación,
las personas deciden participar en una encuesta después de hacer
un cálculo de cuáles son los beneficios que les reporta y el coste
que les supone (Stinchcombe y otros, 1981, pp. 366-370, mues-
tran un ejemplo basado en la utilidad que los agricultores en-
cuentran en los estudios del Ministerio de Agricultura america-
no). Entre los beneficios está la «donación» de información útil
para alguien: los que encargan la encuesta (que la pueden utilizar
en el beneficio de la sociedad) o los que la realizan (simpatía por
el entrevistador, que al obtener respuestas se gana la vida); la po-
sibilidad de hablar de un tema de interés o el simple placer que le
puede producir al entrevistado el hecho de hablar con otra perso-
na. Entre los costes de participar en la encuesta se haya el tiempo
que tienen que dedicar a contestar a las preguntas y la pérdida de
privacidad (Ross, 1963; Singley, 1982; Goyder y McKenzie,
1985) -al respecto de la privaticidad, mi opinión (no contrasta-
da) es que el anonimato que se le promete a un entrevistado, que
por todos los medios desea tener una presencia pública, intervie-
ne como un factor negativo, salvo que sea el individuo el que lo
reclame (Singer, Hippler y Schwarz, 1992, y Nederhof, 1987, son
dos referencias bibliográficas que en el momento de redactar es-
tas páginas yo no he leído, pero que por su título parecen incidir
en este problema de la privaticidad y su papel en la no respuesta).
Sencillamente, cuando el beneficio es menor que el coste los en-
trevistados se deciden por la no participación.
Lucas Matilla, en un estudio realizado para la Comunidad de
Madrid (1992) sobre la participación en el Censo Español de
1991, introduce un factor explicativo de gran importancia, nor-
malmente olvidado en la literatura: el contexto ideológico en el
que tiene lugar la realización de una investigación. Utilizando
una serie de grupos de discusión, el autor, al tiempo que va des-
velando los valores subyacentes (básicamente, el temor fiscal) a
las justificaciones (básicamente, la privaticidad) ofrecidas por los
individuos, muestra la crisis de valores democráticos de la socie-
dad española (desconfianza global hacia la Administración)
como razón última explicativa de la actitud hacia el censo -di-
cho sea de paso, sus conclusiones pueden explicar el descenso de
la tasa de respuesta, no sólo del censo que él investiga, sino tam-
bién de las encuestas que lleva a cabo el Instituto Nacional de Es-
tadística, que para el caso de la Encuesta de Presupuestos Fami-
liares ha pasado de una respuesta del 83,5% (1974/5) al 63,2%
(1990/91), con una pérdida de 20,3 puntos, basada sobre todo en
un aumento de los rechazos (del 8% al 21,1 %, en el mismo perío-
do) (De Heer e Israe1s, 1992, p. 20).
Desde la psicología social existe una amplia literatura que tra-
ta de explicar la participación a partir de conceptos tales como
los de altruismo y cooperación (compliance). Se trata de una in-
vestigación básicamente de tipo experimental, no pensada
específicamente para estudiar la situación de petición-suministro
de información que se produce en la encuesta, sino orientada al
estudio de procesos similares, y en la que se trata de dar respues-
ta a preguntas del siguiente tipo: ¿cuál es la razón que hace que
una persona ayude a otra?, ¿por qué la gente satisface la petición
que le hace otra persona? o/y ¿en qué condiciones tiene efecto la
actividad persuasiva del demandante de algo? Groves, Cialdini y
Couper (1992) hacen una revisión de la investigación que se hace
en psicología social, dividiéndola en tres grandes áreas: coopera-
ción ante una petición, tendencia a la ayuda y cambio de opinión,
para mostrar su relevancia a la hora de abordar el problema de la
participación en las encuestas.
A un nivel más pegado a la práctica cotidiana de la encuesta,
si hablamos de los factores (controlables por el investigador)
que influyen en la no respuesta, es obligado remitirse al trabajo
de De Heer e Israels (1992), en la medida que ofrecen una rela-
ción exhaustiva de estos factores. No se trata de una reflexión
teórica, comprensiva, sino del trabajo de una pareja de estadísti-
cos que buscan todas aquellas circunstancias que terminan por
decidir entre que el entrevistado sea hallado en su hogar y
conteste, o que resulte ilocalizab1e o se niegue a cooperar en la
encuesta. Siguiendo a los autores, se pueden distinguir tres ti-
pos de factores: factores relacionados con el diseño de la inves-
tigación, factores que tienen que ver con la organización (em-
presa-instituto) que realiza las entrevistas y factores
relacionados con el entrevistado.
- Factores relacionados con el diseño: Entre los factores
relacionados con el diseño hay que distinguir según se tra-
te del diseño de la muestra (cómo se define la población
objeto, la forma de seleccionar a los entrevistados y el
marco muestral utilizado) o del diseño general de la en-
cuesta (tema de la investigación, método de recogida de la
información, características del cuestionario y fecha del
trabajo de campo).
I t
DISEÑO ENCUESTA
e carga
• selección entrevistado
.. tema de investigación
• modo de administración
ENTREVISTADOR
10 caracteñsticas sociodemográficas
.. experiencia
.. expectativas
• estado afectivo
I DECISIÓN DE COOPERAR I
r f
I INTERACCIÓN ENTREVISTADO-ENTREVISTADOR I
+
Figura 6. Esquema interpretativo de la no respuesta.
CONTEXTO SOCIAL
e político
e económico
10 social
• clima de la encuesta
ENTREVISTADO
.. estructura del hogar
• caracteñsticas sociodemográficas
.. conocimientos del tema
.. experiencia con encuestas
• estado afectivo
• predisposición psicológica
Juntando ambos tipos de explicaciones (básica y aplicada) se
puede elaborar un modelo que permita explicar el resultado final
del proceso de selección del entrevistado -tomado del curso so-
bre Survey Errors and Survey Costs, impartido por Robert Gro-
ves (1993) en la Universidad de Michigan- (véase figura 6).
La lectura de la literatura sobre las razones que explican por
qué la gente participa o no participa en las encuestas muestra la
dificultad de encontrar una explicación suficiente sobre el fenó-
meno, y mucho menos de implementar esta teoría en la investiga-
ción. Entiendo que parte de la explicación de esta carencia se en-
cuentra en la inadecuación del método utilizado (la investigación
por encuesta) para conocer el objeto de estudio (la no respuesta
en la encuesta): todas las limitaciones del procedimiento de in-
vestigación (la encuesta) se reflejan en su utilización como
instrumento para estudiar, precisamente, el producto de sus ca-
rencias (la no respuesta).
- Factores relacionados con la organización: A este nivel,
entre otros factores se habla de las características del per-
sonal entrevistador, su formación, los controles de calidad
que se establecen, la carga de trabajo que se les asigna, el
dinero que se les paga, el tipo de contrato que tienen, 16s
posibles incentivos a los entrevistados, el uso de citas pre-
vias a la visita, número de revisitas, etc.
- Factores relacionados con el entrevistado: De Heer e Israels
hacen una relación de las características sociodemográfi-
cas (las únicas investigadas) de los entrevistados que in-
fluyen en su decisión de participar en la encuesta: la edad
(los peores, jóvenes y viejos), los estudios (influencia ne-
gativa de los niveles bajos), el estatus socio-económico (lo
peor, los niveles inferiores y superiores), el estilo de vida
(lo peor, cuando la pareja trabaja), el estado civil (los ca-
sados tienen una mayor tasa de respuesta) y el nivel de ur-
banización (tal como hemos señalado, la variable que me-
jor predice el resultado de la entrevista: mayor grado de
urbanización menor número de entrevistas)
3. Tratamiento de La
no respuesta
A la hora de estudiar el tratamiento a la no respuesta se presentan
tres alternativas: en primer lugar, se trata de ver cómo se puede mi-
nimizar su tamaño; después, una vez que se produce la no respues-
ta, hay que ver cuál es el efecto que tiene sobre el sesgo; finalmen-
te, conocida la influencia de la no respuesta, hay que utilizar los
procedimientos estadísticos necesarios para corregirla. Cada una
de estas tres operaciones van a ser tratadas a continuación.
3.1 ¿Cómo minimizar la no respuesta?
En la línea de tratar de minimizar el número de no respuestas se
suele recurrir a alguna de las siguientes estrategias, todas ellas in-
vestigadas experimentalmente (Groves, 1989, pp. 208-218):
Contacto previo con Los hogares
Antes de que los entrevistadores lleguen al hogar la institución
encargada de realizar la encuesta se puede poner en contacto con
La técnica más utilizada para evitar la no respuesta es insistir so-
bre las personas que en una primera visita no logran ser entrevis-
tadas, bien porque no fueron localizadas o porque se han negado
a contestar. El número de revisitas difiere según institutos de in-
vestigación y país, aunque lo normal es realizar entre dos y cua-
tro. Basta mirar datos de los resultados que se obtienen sobre los
entrevistados en cada una de las visitas, para comprender la im-
portancia de este procedimiento. La figura 7 muestra datos de
1963 del SRC de la Universidad de Michigan, basados en una
Encuesta sobre Expectativas de Consumo dirigida a cabezas de
familia o a sus parejas. La no respuesta final ascendió al 16% de
las personas seleccionadas en la muestra inicial (Traugott, 1987,
muestra un ejemplo también realizado por la Universidad de Mi-
chigan, en el que se estudia la influencia de las revisitas en las
preferencias políticas, concluyendo que aumenta el número de
simpatizantes demócratas a medida que se incrementa el número
de visitas).
Los datos de la figura 7 muestran i) el aumento del número
de entrevistas conseguidas, según se hacen más visitas al hogar,
y ii) los diferentes tipos de personas que se consiguen entrevis-
tar, dependiendo de las revisitas que se hagan. Por ejemplo, el
mayor porcentaje de entrevistas se consiguen entre las dos pri-
meras visitas (33 + 30 = 63%), para comenzar a declinar a partir
de la tercera. Con relación a los estudios, el porcentaje de gente
con estudios superiores va aumentando a medida que se hacen
más visitas al hogar, lo que significa que si nos quedáramos en
una visita, estaríamos sobrerrepresentando a la gente de estudios
inferiores (32% en el total de la muestra, por un 38% en la pri-
mera visita). Los ingresos también sirven para ver que la gente
que contesta en la primera visita tiene unos ingresos medios in-
feriores (4.188 dólares de mediana) a los que contestan en visi-
tas sucesivas (en torno a 6.000 dólares de mediana, a partir de la
tercera visita). Lógicamente, todas aquellas variables relaciona-
das con los estudios y los ingresos también mostrarán diferen-
cias significativas, dependiendo de la entrevista en la que se
consiga la información. Kish utiliza la variable «planes de com-
prar coche» para mostrar que la intención de comprar un coche
Revisitas (call-backs)
Variaciones en la presentación de la encuesta
Otro de los aspectos que se ha estudiado con el fin de ver su in-
fluencia en la mayor o menor disponibilidad del entrevistado es
el efecto que tiene la utilización de distintos tipos de presentacio-
nes. La investigación ha sido particularmente intensa en el campo
de las entrevistas telefónicas, donde la presentación es más deter-
minante que en las entrevistas personales (O'Neil, 1979; Dillman
y otros, 1976). En ambos casos (entrevistas personal y telefónica)
se trata de estudiar experimentalmente distintas formas de pre-
sentación de los entrevistadores (problema semejante al de dise-
ñar el contenido de la carta de presentación que servía, en el caso
anterior, como contacto previo a la visita del entrevistador).
los entrevistados, bien por carta o telefónicamente, con el fin de
anunciarles la realización del estudio y la visita del entrevistador.
Aunque hay investigadores que piensan que este contacto previo
puede servir para que los entrevistados preparen una estrategia de
no respuesta, la opinión mayoritaria en la profesión es que él
anuncio de la visita de los entrevistadores tiene un efecto positi-
vo, no tanto porque influya en el potencial entrevistado, sino por
la confianza que le inspira al entrevistador saber que su visita al
hogar ya ha sido legitimada previamente.
El problema que tiene el contacto previo es que encarece la
encuesta, lo cual, para un presupuesto dado, puede llevar a que
aumenten otro tipo de errores (por ejemplo, quizá haya que dis-
minuir el tamaño de la muestra) -uno de los aciertos del trabajo
de Groves (1987 y 1989) sobre los errores es, precisamente, esta
puesta en relación de los errores y el coste.
Gran parte de la investigación sobre la utilidad del contacto
previo con el entrevistado se ha hecho estudiando el efecto que
tiene el uso de cartas, según cuál sea su contenido: ¿mucha o
poca descripción del estudio?, ¿explicaciones sobre su utilidad y
la identidad del patrocinador?, ¿recurso al argumento de la confi-
dencialidad?, etc. (Cannel y otros, 1965; Dillman y otros, 1976;
Hox y De Leeuw, 1994), mostrando la distinta eficacia de cada
uno de estos tratamientos.
Figura 7. Porcentajes para varias variables, obtenidos en
visitas sucesivas. (Tomado de Kish, 1965, p. 541.)
Número de visitas
Total 2 3 4 5 60+
Número de casos 1.310 427 391 232 123 77 59
% de casos 100 33 30 18 9 6 4
Estudios cabeza familia
26 30 22
Sin estudios 32 38 32 26
Primarios 19 19 19 22 26 21 7
Secundarios 23 19 26 25 21 21 30
Univ. Grado Medio 12 10 12 12 14 14 19
Univ. Grado Supo 11 9 10 13 11 11 20
Ingresos familiares
15 18 19 15
-3.000 dólares 25 40 20
de 3.000 a 4.999 18 16 17 23 19 19 12
de 5.000 a 7.499 23 19 25 26 25 26 22
de 7.500 a 9.999 14 13 14 14 15 16 17
10.000 Ymás 17 11 20 19 21 17 31
Mediana 5.589 4.188 5.880 6.010 6.200 6.010 7.443
Planes de comprar coche
13 16 17
Nuevo 10 7 10 10
Usado 8 8 8 9 8 7 12
No comprarán 81 85 80 79 77 75 69
aumenta a medida que se van haciendo más visitas (de 15%, pri-
mera visita, a 31 %, sexta visita).
El número de visitas no sólo afecta al tamaño de la muestra y
a su composición, sino que también está relacionado con el tipo
de no respondiente que va quedando después de cada una de las
visitas. Tom Smith muestra datos del GSS de 1980, en el que
hubo una tasa de no respuesta del 25%, según los cuales el por-
centaje de rechazos crece firmemente, a medida que aumenta el
número de visitas, mientras que decrece el' porcentaje de no con-
tactos: «Después de dos visitas se había conseguido un 32,5% de
entrevistas, 9,9% de rechaz-os, 50,2% de no contactos, 6,1 % de
otros y 1,2% de varios. Tras el intento final, los casos entrevista-
dos ascendían al 76% y los rechazos al 16,3%, mientras que los
no contactos cayeron al 3,4%, otros al 4,0% y varios al 0,2%...
Sólo 35% de los rechazos temporales se convirtieron en respon-
dientes, mientras que el 91 % de los no contactos (excluyendo
aquellos que eran al mismo tiempo no contactos y rechazos tem-
porales) se convirtieron, eventualmente, a respondientes» (Smith,
1983, p. 398-399).
Uso de incentivos
En particular se utiliza la técnica de dar algún incentivo (dinero,
regalo, etc.) a los entrevistados cuando el trabajo que han de rea-
lizar se puede considerar una carga, como es el caso de la partici-
pación en estudios tipo panel. La literatura muestra el efecto po-
sitivo de esta práctica, en el sentido que sirve para incrementar la
tasa de respuesta. Por ejemplo, Ferber y Sudman (1974), en un
estudio sobre gastos, para el cual se exigía el mantenimiento de
un diario, compararon el efecto (positivo) que tiene la entrega de
distintos tipos de regalos con la situación de no regalo. A las mis-
mas conclusiones llega el estudio de Chromy y Horvitz (1978),
National Assesment of Educational Progress, sólo que en su caso
considerando como incentivo distintas cantidades de dinero; el
resultado fue claro: más dinero, más cooperación.
Hasta ahora, como decimos en el párrafo anterior, esta práctica
de dar incentivos económicos sólo se ha seguido en encuestas en
las que se le exige al entrevistado un cierto esfuerzo, por ejem-
plo, si ha de llevar un diario con sus compras o con las actividades
que realiza a 10 largo de un período de tiempo. Si la práctica se
generalizase, la encuesta tendría que enfrentarse a problemas de
distinta naturaleza. Un primer grupo de problemas sería de tipo
práctico/económico, relacionado con el incremento del coste de la
encuesta y con la determinación del pago, igual o distinto, a cada
uno de los entrevistados: ¿todos los individuos valorarían igual
sus opiniones y el tiempo dedicado a responder a las preguntas del
cuestionario? Problemas adicionales tendrían que ver con la rup-
tura de los supuestos subyacentes al uso de la encuesta. Por ejem-
plo, el pago generalizado de incentivos casa mal con el supuesto
eliminar para que esta técnica alcance su plenitud, en realidad no
son sino parte consustancial a la encuesta, y sólo aceptando esta
realidad la técnica podrá realmente evolucionar. Enfocado el pro-
blema de los errores desde esta perspectiva, probablemente se
abrirían vías de esperanza para la desesperanza en la que, a mi
entender, se encuentran sumidos los investigadores que seriamen-
te se dedican a estudiar este tema (por ejemplo, Groves o Smith),
limitados por una contemplación técnica del problema, sin dar el
~ salto a un enfoque epistemológico que oriente y legitime su in-
vestigación. Una vez que se acepta el papel transformador del co-
nocimiento, pierde parte de sentido la forma como se enfoca ac-
tualmente la discusión de si es mejor dar o no dar incentivos,
hacer la carta de presentación de una manera o de otra, etc., y, en
general, de los efectos que una actuación sobre la no respuesta
tienen sobre la medida, puesto que es seguro que cada uno de es-
tos comportamientos tiene consecuencias en la encuesta, distintas
y no mejores o peores -lo mismo se podría decir acerca de todas
las discusiones que se establecen sobre aspectos de la encuesta
que eventualmente podrían provocar distintas mediciones. Lo im-
portante es conocer estas consecuencias, para poder tenerlas en
cuenta a la hora de hacer una encuesta.
En función de los distintos factores que influyen en el hecho
de que una persona termine contestando a un cuestionario, parece
que resulta imposible plantearse teóricamente, y mucho menos
conseguirlo en la práctica, que todo el mundo participe en una
encuesta, independientemente de cuáles sean las circunstancias
que la rodean. A nosotros nos puede parecer natural que una per-
sona llame a la puerta, en nombre de un instituto (que no empre-
sa de investigación, puesto que el instituto no sólo no connota in-
tereses comerciales sino que además ofrece una visión de la
encuesta asociada a la ciencia), para obtener información sobre
los más variados temas. Pero quizá el hecho no sea tan natural, y
en vez de preguntarnos por qué se produce la no respuesta, la
pregunta pertinente sería: ¿por qué hay gente que participa en las
encuestas? Seguro que este enfoque es mucho más enriquecedor,
y permite comprender mucho mejor la situación de la encuesta y,
por ende, la no respuesta. Esta misma actitud es la que pienso
que se desprende de las palabras de Groves, cuando dice que «es
más necesario que nunca empezar a comprender cuáles son las
gallupiano sobre la bondad democrática de esta herramienta cog-
nitiva (véase Gallup, 1948, donde se explica, entre otras bondades
de las encuestas, que sirven para expresar «los puntos de vista de
la mayoría sin articular», compensando así la actuación de los
grupos de presión, que tienen sus canales para influir socialmen-
te). Este beneficio justifica la participación en base al beneficio
que obtiene la sociedad (de laque forma parte el entrevistado) al
conseguir que empresarios y gobernantes puedan desarrollar me-
jores políticas privadas y públicas, respectivamente, gracias a la
información que obtienen mediante la encuesta. Desde esta pers-
pectiva, pagar a los entrevistados por participar en una encuesta
casi es como si hubiera que pagar para que la gente participase
en las elecciones: tanto en uno (la encuesta) como en otro caso
(las elecciones) el beneficio para los ciudadanos está en la misma
participación. Otro problema, aparente, que se plantearía con el
pago generalizado de incentivos es que este hecho podría modifi-
car las respuestas de los entrevistados, que pasarían a la categoría
de trabajadores del entrevistador, al que, como cualquier buen tra-
bajador, tratarían de agradar con su trabajo -en este caso con las
respuestas que diera a las preguntas del cuestionario.
Según el pensamiento clásico sobre la encuesta, vemos que to-
das estas actuaciones que estoy mencionando, tendentes a reducir
la no respuesta, pueden conseguir su objetivo... pero también
pueden tener efectos secundarios, no queridos por el investiga-
dor, sobre los resultados obtenidos a nivel de la medida -piénse-
se en el caso que acabamos de comentar sobre la influencia del
pago de incentivos en el contenido de las respuestas de los entre-
vistados/trabajadores. Contrariamente a la teoría subyacente al
uso de la encuesta, basada i) en la posibilidad de ofrecer un estí-
mulo único a todos los entrevistados (neutralidad del instrumento
de medida) y ii) en la existencia de unas características objetivas
(realismo objetual), lo que permite atribuir las diferencias entre
los entrevistados a diferencias que existen en ellos mismos y no a
un efecto del instrumento de medida utilizado, mi opinión es que
tales supuestos no sólo no tienen ninguna justificación, sino que
además están entorpeciendo el desarrollo de la técnica de la en-
cuesta. Lo que para muchos investigadores son efectos no queri-
dos, y por lo tanto efectos perversos de la encuesta, que hay que
razones que llevan a una persona a participar. una
tanto para mejorar la cooperación como para utilIzar este conOCi-
miento con vistas a cualificar las conclusiones obtenidas en en-
cuestas en las que es posible la no respuesta» (Groves, 1989,
p.238).
Tom Smith (1983), un profesional de gran autoridad en el
tema de las encuestas, parece poco optimista sobre la posibilidad
de obtener tasas de no respuesta por debajo de los niveles actua-
les, aceptando como inevitable una tasa de no respuesta del 25%
(siempre hablando de los Estados Unidos, que es un país con una
tasa de respuesta elevada), que es la que se produce en la inves-
tigación que se lleva a cabo en su instituto (NüR.C): Lo cual está
muy bien, comparado con otras encuestas de dlstmtos temas y
realizadas en otros países -por ejemplo, con las encuestas de
Canadá, tal como muestra Goyder (1985).
3.2 Medición del sesgo atribuible a la no respuesta
Tampoco Tom Smith es muy optimista acerca de la posibilidad
de conocer la naturaleza de la no respuesta. Después de utilizar
diferentes métodos de medición de la no respuesta (controles con
datos externos, uso de datos agregados a nivel geográfico, esti-
maciones de los entrevistadores, etc.) y de evaluación del sesgo
que introducen en la encuesta, el autor termina «que
casi llegamos a la conclusión de que no hay nada que funcIOne a
la hora de estimar el sesgo causado por la no respuesta. Cada uno
de los métodos que hemos probado ha resultado ser de utilidad li-
mitada. [... ] En definitiva, nuestro análisis de la no respuesta en
el GSS de 1980 sugiere que no hay una manera simple, general y
exacta (accurate) de medir el sesgo atribuible a la no respuesta»
(A. c., 1983, pp. 401-402). Comparto su opinión, aunque no es-
toy seguro que él comparta mi explicación a esta falta de resulta-
dos, a pesar de que está implícita en las quejas que va
do ante cada uno de los métodos utilizados: en general, SI una
limitación de la encuesta es que produce no respuesta, su utiliza-
ción para medir la no respuesta también adolecerá de la misma li-
mitación, produciendo la misma o mayor tasa de no respuesta
(máxime, dado que se trata de encuestas a personas que ya no
han respondido una primera vez), reduciendo así la posibilidad
de conocer a este colectivo de personas.
Pienso que, en general, la investigación que se hace de la no
respuesta adolece de este problema que acabo de mencionar. Uti-
lizando una encuesta se puede estudiar la distribución de la no
respuesta, según tipos y demás información contenida en el dise-
ño muestral (básicamente, región y tamaño de hábitat), pero el
estudio de la naturaleza del fenómeno resulta imposible de inves-
tigar a partir del uso exclusivo de esta técnica de investigación.
• En este caso, al igual que en muchos otros, el recurso a un único
método de investigación limita enormemente la posibilidad de
conocer el objeto investigado. Para estudiar la no respuesta se
hace necesario recurrir a métodos históricos, que expliquen el
origen de las encuestas en la sociedad y los supuestos sociales
sobre los que se fundamentan, y a una metodología cualitativa,
con el fin de comprender el sentido que para los entrevistados
tiene la participación en las encuestas -y, por lo tanto, la no res-
puesta.
El hecho de que no haya un único método, con validez gene-
ral, que permita estudiar la no respuesta no invalida la utilidad de
los distintos procedimientos utilizados en el contexto de la inves-
tigación por encuesta, en la medida que permiten resolver este
problema, aunque sólo sea en situaciones particulares o con un
alcance limitado. A tal fin, apoyándome en la presentación que
hace Tom Smith (1983), voy a hablar de una serie de procedi-
mientos de tratamiento de la no respuesta, que tienen como obje-
tivo conocer algo de los no respondientes, con el fin de utilizar
esta información para ponderar la muestra -tal como se explica
en el apartado siguiente, la ponderación va a servir para tratar de
reducir el sesgo atribuible a la no respuesta.
Utilización de parámetros poblacionales externos
Se trata de la forma más simple, y por lo tanto la más utilizada en
la investigación por encuesta. Según este procedimiento, compa-
ramos los estadísticos obtenidos en la muestra con sus respecti-
vos parámetros, conocidos a través de fuentes externas (normal-
mente datos censales). Lógicamente, tal comparación sólo se
[
'"
Se trata de incrementar la muestra original con unidades adicio-
nales que sustituyen a los hogares (unidades) en los que se produ-
ce la no respuesta. De esta manera se garantiza un tamaño dado
de muestra (controlando el tamaño del error variable de mues-
treo), aunque existe el peligro de que las unidades sustitutas sean
Sustitución de los no respondientes
lo que le lleva a dudar de la posibilidad de obtener con este pro-
cedimiento estimaciones insesgadas de los no respondientes
(A. C., 1983, pp. 394-396).
En algunos casos se saca una submuestra de no respondientes
~ para que contesten unas pocas preguntas sobre las razones por las
que no contestaron y sobre sus características de tipo sociodemo-
gráfico. Para ello se puede utilizar a entrevistadores más expertos.
En mi investigación sobre la no respuesta se ofrece un ejemplo de
este procedimiento. El método está plagado de limitaciones, en la
medida que sólo sirve para entrevistar a los rechazos y no a los
no-contactos, además de que la información que se obtiene es es-
casa y referida sólo a algunos de los rechazos.
El métod.o t a m b i ~ n se utiliza corno segunda parte de una pri-
mera entrevIsta realIzada, normalmente, por vía postal: después
de mandar varias cartas recordatorias se selecciona una submues-
tra de los que no contestaron, a los que se entrevista de manera
personal o telefónica. En la medida que esta submuestra sea re-
presentativa de la muestra original, los resultados obtenidos se
pueden utilizar para estimar la no respuesta del conjunto (Hansen
y Hurwitz, 1946).
En la literatura también existen ejemplos en los que se intentó
obtener información, no de una muestra, sino de todos los recha-
zos. Smith (1983, p. 389) da cuenta de un par de estudios, uno
del Bureau of Social Science Research y otro de Wilcox (1977),
en los que se obtuvieron entrevistas con un 53% y un 29%
. ,
respectIvamente, de los rechazos.
Entrevistas a los no respondientes
En el momento de hacer las entrevistas, los entrevistadores pue-
den obtener información (a veces simples estimaciones) sobre los
hogares o las personas no entrevistadas: su edad, sexo, tipo de ba-
rrio donde viven, número de miembros en el hogar y algunas po-
cas informaciones más. En mi investigación sobre la no respuesta
utilizo este procedimiento (véase infra), que sirve para ampliar la
información que se obtiene de los no respondientes por el proce-
dimiento anterior. Esta información también tiene una calidad li-
mitada, puesto que en muchos casos se obtiene a partir de esti-
maciones (que no de observaciones) hechas por los entrevistados.
Smith aplica este procedimiento a los datos del GSS de 1980,
y como resultado obtiene una falta significativa de estimaciones
para un grupo muy importante de no respondientes, así como una
«probable falta de fiabilidad de algunas de estas estimaciones»,
Uso de estimaciones hechas por los entrevistadores
Uso de los datos muestrales de tipo agregado
Se trata de otro método ampliamente empleado, consistente en
utilizar la información muestral (básicamente región y tamaño de
hábitat) para conocer algo de los no respondientes y así poder
ponderar la muestra (véase infra). Tiene las mismas limitaciones
que el método anterior.
podrá llevar a cabo en el caso de variables para las que existe in-
formación exterior.
Tal corno indica Smith (1983, pp. 387-389), el método tiene el
problema de que no distingue si la diferencia entre el estadístico
obtenido en la encuesta y la información exterior es atribuible a'
la no respuesta o a otro tipo de errores (quizá errores de medida).
Otro problema es lo limitado de la información exterior, básica-
mente reducida a los datos demográficos (sexo, edad, etc.) que
aparecen en los censos -que por lo demás es muy probable que
contengan tantos o más errores que los datos qlie provienen de
las encuestas-o Para una aplicación de este procedimiento véa-
se 3.3.
más parecidas a las que responden que a las sustituidas. A pesar
del uso generalizado de este método en nuestro país -incluso el
INE lo utiliza parcialmente en sus encuestas, sustituyendo a los
no respondientes en la primera de las oleadas de su estudio-, se-
gún Smith (1983, p. 389) se trata de un enfoque que «no parece
ser ampliamente utilizado para tratar el problema del sesgo atri-
buible a la no respuesta» -de todas las formas, como explicaré
en su momento, el uso de las sustituciones del que habla Smith
no tiene nada que ver con la práctica que se sigue en nuestro país,
especialmente en las encuestas comerciales, puesto que tal susti-
tución se realiza después de una serie de revisitas al hogar, y no
tras la primera negativa o falta de contacto. Tanto Kish (1965,
pp. 558-559) como Kalton (comunicación personal) son contrarios
al uso de las sustituciones, porque evitan el que se hagan esfuerzos
por conseguir las entrevistas y no sirven para evitar los sesgos de
no respuesta, en la medida que sustituyen los no respondientes
con más respondientes como los de la muestra. En el caso de Es-
paña, Murgui y otros (1992) muestran la sobrerrepresentación de
amas de casa que se produce cuando se llevan a cabo las sustitu-
ciones, siendo ésta una conclusión que coincide con la expuesta
anteriormente por Muro Romero y otros (1988), obtenida a partir
del análisis de los datos de la misma Encuesta de Condiciones de
Vida y Trabajo.
Un procedimiento que también utiliza las sustituciones, y que
es semejante al que sigue, por ejemplo, el Centro de Investigacio-
nes Sociológicas (CIS), es el de la muestra probabilística con
cuotas (MPC). Según este procedimiento, la muestra se diseña
igual que si se tratara de una muestra totalmente probabilística,
hasta que se llega a la última etapa de selección de los entrevista-
dos, momento en el que se deja la selección libremente al entre-
vistador, a condición de que las personas seleccionadas cumplan
unas cuotas fijadas de antemano: tantos hombres, tantos trabaja-
dores, tanta gente de estudios superiores, etc. Presentado el entre-
vistador en el hogar, si no hay nadie en casa, el hogar rechaza
contestar o no hay ninguna persona que satisfaga las cuotas pre-
vistas, el entrevistador busca a su entrevistado en un hogar dife-
rente. Aunque de una manera más sofisticada que en la simple
sustitución, este procedimiento también está basado en las susti-
tuciones de las personas que no contestan. El supuesto último del
método es, que no respuesta es un problema de disponibilidad
--otra razon sena el rechazo a contestar-, así que se trata de en-
c?ntrar a la persona que esté disponible, independientemente de
como a ella -dentro de las reglas establecidas por el
En. el caso del INE, por ejemplo en la Encuesta
de PoblacIOn ActIva, donde los individuos permanecen en la
n;uestra du:ante seis entrevistas, la sustitución solamente se efec-
tua en la pnmera entrevista.
El trabajo :onozco en el que se compare este
procedImIento con el dIseno totalmente probabilístico (Stephen-
son, 1979) detecta la existencia de sesgos en el tamaño del hogar
(sobrerrepresenta?os el MPC) yen la infrarrepresentación de
hombres en trabajos tIempo completo (también en el MPC). En
general, tal como senala el autor, «los entrevistados difíciles de
obtene: p:obablemente estén más seriamente infrarrepresentados
en el MPC» (A. c., 1979, p. 494), aun cuando la principal
se.a el funcionamiento aceptable de este pro-
sm que se puedan apreCIar grandes diferencias con el
dIseno totalmente probabilístico.
Medición de la probabilidad de respuesta (Politz-Simmons)
Est; método, desarrollado por Politz y Simmons (1949), también
esta basado el de que si la gente no responde es por
por lo tanto, lo que se hace es utilizar
su medida en término de número de días previos
al.de la entrevIsta (normalmente seis) que estaban en el hogar a la
mIsma hora que ésta se realiza, para ponderar las respuestas
de los entrevIstados en función de la inversa de esta probabilidad
esta manera, a los individuos que no estaban ningún día
VIO se da. una alta ponderación, pues representan a individuos
poco que es de suponer que escaseen en la muestra.
Al cuando un individuo dice que estaba todos los días
su peso es pequeño, puesto que representa a un tipo de
mdIvIduo frecuente en la muestra. Una ventaja adicional del mé-
todo, a.demás de t:atar de ajustar los datos a la no respuesta es
eVIta la necesI?ad de las revisitas. De hecho ésta es la iun-
CIOn para la que se mventó este procedimiento.
transitorio. La conclusión del autor también apunta
hacIa un uso controlado del procedimiento, a la vista de los resul-
tados contradictorios obtenidos.
3.3 Modelos estadisticos de tratamiento
de la no respuesta
Como vida sigue, mientras que se dilucidan los problemas que
'se, Ido. planteando hasta el momento, que eventualmente per-
mltman elIminar la no. respuesta o conocer la naturaleza de la que
se produce, el hecho CIerto es que la investigación de cada día está
plagada de no respuestas, tanto al nivel de todo el cuestionario
que es el aspecto al que estoy dedicando mi atención, como al
las que lo componen. Por esta razón, de índole
tambIén vaya dedicar este apartado a mostrar el trata-
mIento se le da a la no respuesta, en particular cuando se pro-
duce a nIvel todo el cuestionario (no respuesta total) -la no
respuesta parCIal se trata en la lección 5 de mi Manual de Análisis
los Datos Carríón, 1999). Es importante saber que
se esta ponderando la muestra, tanto si lo queremos como
SI no: la no ponderación implica una ponderación implícita, basa-
?a en el supuesto de que los no respondientes son exactamente
.los respondientes. Ante esta situación, y dada la escasa
verOSImIlItud del por lo que los investigadores optan
P?,r una ponderaclOn explIcIta, haciendo uso de toda la informa-
ClOn de la que disponen.
, La distinción entre no respuesta total yno respuesta parcial es
Importante porque determina el tipo de solución que se va a
adoptar, basada en la mayor (no respuesta parcial) o menor (no
total) información de la que disponemos sobre los indi-
VIduos no han contestado. Frente a la no respuesta total siem-
pre se utIlIza alguna forma de ajuste mediante ponderación de los
datos de muestra. En todos los casos se trata de darle más peso
a determma?os respondientes, con el fin de que representen a los
n? Para ello es necesario que dispongamos de
que es la que se utiliza a la hora de hacer el
ajuste. a (1983, 1989) y Kalton y Kasprzyk
(1988), vaya dlstmgUIr entre los siguientes tipos de ponderación:
La última de las técnicas que vaya explicar utiliza los rechazos
temporales para estimar las características de los rechazos defini-
tivos: si los rechazos temporales tienen tales características, así
habrán de ser los rechazos definitivos. Lo mismo que en el pro-
cedimiento anterior, en este caso también se hace el supuesto que
los rechazos temporales son iguales que los definitivos, lo cual
habría que comprobarlo. La experiencia de Smith, quien utiliza el
método con el GSS de 1980, no es muy optimista, en la medida
que no encuentra variables relacionadas con el rechazo, quizá
porque no se han utilizado las variables convenientes o porque el
rechazo es un hecho que ocurre al azar, producto de un estado
Uso de los rechazos temporales
Siguiendo a Smith (1983), uno de los métodos que más se utiliza
a la hora de estimar el efecto de la no respuesta es el de la extra-
polación basada en la dificultad de obtener las respuestas de los
entrevistados que contestan. Lo primero que se hace es obtener
una medida de la dificultad (varIable: dificultad): por ejemplo,
número de visitas o llamadas al hogar. A partir de aquí se busca
alguna variable del estudio que correlacione con la variable difi-
cultad: por ejemplo, participación en la fuerza de trabajo. Supo-
niendo que se pudiera establecer una función lineal entre ambas
variables, podríamos utilizar esta asociación para imputar la dis-
tribución de la variable entre los no respondientes.
El procedimiento está basado en el supuesto de que la dificul-
tad de responder está relacionada con la no respuesta final. Si,
por el contrario, los no respondientes finales son distintos de los
difíciles de encontrar, el procedimiento dará malas estimaciones
de las características de los no respondientes. Aunque el método
parece dar buenos resultados, especialmente en encuestas posta-
les (Dunkelberg y Day, 1973; Armstrong y Overton, 1977), exis-
ten algunos estudios (Stephan y McCarty, 1958) que ponen en
guardia sobre su uso generalizado, recomendándolo para la esti-
mación de las características de los no contactos finales antes que
para el estudio de los rechazos (Smith, 1983, pp. 396-399).
Extrapolaciones basadas en la dificultad
Figura 8.
Ejemplo de ponderación según datos
poblacionales.
Clase
N
h
n' r'

W
h

h h
Hombres 2.400 156 65 0,42 15,38 2.400
999,70
Mujeres 2.600 195 65 0,33 13,33 2.600
866,45
5.000 351 130 0,37
5.000
1.866,15
Si estimamos la proporción de personas a favor a partir del
valor obtenido en la muestra (0,37) es muy probable que cometa-
mos un sesgo, puesto que hay un porcentaje bastante considera-
ble de entrevistados que no han contestado el cuestionario [(520-
351)/520 = 0,325 por uno]. Si estos entrevistados difieren en su
actitud de las personas que han contestado, el sesgo será im-
portante: tanto mayor cuanto mayor sea esta diferencia. El proble-
ma es que no se conoce su opinión. Ahora bien, a partir de los da-
tos disponibles, sí que se sabe que en la población hay un 48% de
hombres [(2.400/5.000) x 100], mientras que en la muestra los hom-
bres representan el de los entrevistados [(156/351) x 100];
en el caso de las mUjeres el porcentaje poblacional es del 52%, por
un 55,6% en la muestra. Vamos a suponer que esta diferencia es
atribuible, en parte, al azar (error variable de muestreo), en parte
na característica de los no respondientes: la información necesa-
ria se refiere a la población y a las personas que han contestado.
Utilizando un ejemplo, mostramos la aplicación de este tipo de
ponderación. En un estudio en una empresa que tiene N = 5.000
empleados, 2.400 hombres y 2.600 mujeres, se saca una muestra
den = 520 personas, de las que responden nI = 351. Se quiere sa-
ber cuál es la actitud de los empleados hacia un horario de traba-
jo flexible. De las 351 personas que contestan, r' = 130 están a
favor de la flexibilización (un 130/351=0,37 por uno). A partir de
" estos datos se quiere estimar el porcentaje a favor, no sólo de los
respondientes (cosa que ya sabemos), sino del total de la muestra.
La figura 8 muestra los datos necesarios para resolver el pro-
blema.
Ponderación segúnJa distribución de la población
ponderación según datos de la población, ponderación según da-
tos de la muestra, ponderación «raking-ratio» y ponderación ba-
sada en la probabilidad de respuesta. En todos los casos se trata
de ponderar la muestra para corregir el efecto de la no respuesta,
cosa distinta a la ponderación que se hace, por ejemplo, para co-
rregir afijaciones estratificadas no proporcionales -véase la lec-
ción 4 de mi Manual de Análisis de los Datos (Sánchez Carrión,
1999).
La esencia de la muestra es que sea representativa de la pobla-
ción; por lo tanto, una vez que tenemos los datos de la investiga-
ción, hay que ver si se produce tal representatividad, comparando
los datos obtenidos en la muestra (que contienen el efecto de la
no respuesta) con los de la población. Para ello se necesita cono-
cer los parámetros poblacionales con los que efectuar la compa-
ración. Tales parámetros no suelen abundar, más bien quedan re-
ducidos a los datos demográficos con los que se diseñó la
muestra (población en los estratos) y a algunas características
sociodemográficas de los entrevistados (edad, sexo, estudios,
etc.).
En ocasiones se suele confundir la ponderación poblacional
con la postestratificación (estratificación después de hacer la se-
lección de los entrevistados). Ambos procedimientos utilizan el
mismo tipo de información externa, aunque difieren en sus obje-
tivos. Mientras que la postestratificación está pensada para corre-
gir pequeños errores aleatorios de muestreo, que hacen que la
distribución de la muestra se diferencie de la poblacional, la pon-
deración trata de corregir desviaciones importantes entre la
muestra y la población, atribuibles a diferentes tasas de respuesta
entre los grupos-cIases-estratos (también corrige errores
bIes a la deficiente cobertura del marco muestral). En este sentI-
do, como tendré ocasión de mostrar en este mismo apartado,
mientras que la estratificación reduce el error de muestreo, la
ponderación siempre lo aumenta.
A diferencia de la ponderación según datos de la muestra, la
ponderación según la población no exige que conozcamos ningu-
Cuando ponderamos la muestra, tanto da que sea según los da-
tos de la población o los de la muestra, eliminamos el componente
sesgo atribuible al primer término (A). Si las medias (propor-
CIOnes) de los respondientes y los no respondientes son iguales
también se elimina el segundo (B), con lo cual desaparece
mente el sesgo. Esta circunstancia sólo se produce cuando los no
son un producto del azar dentro de las clases que
utIlIzamos para la ponderación. Aun cuando la ponderación suele
reducir el sesgo, hay un caso en el que, por el contrario, también
puede aumentarlo: esto ocurre siempre que los componentes A
R
h
= tasa de respuesta
M
h
= tasa de no respuesta
Y
rh
= media de los respondientes
Y
mh
= media de los no respondientes
donde, para cada clase h,
B(y) =A +B [6]
siendo A=:LW/Y
rh
- Y)(R
h
- R)/R, Y
B=:Lw'M, (Y
h
- Y ,)
n 11 r mIl
ta? .Sólo si dentro de cada uno de los sexos (clases-grupos que se
utIlIzan para la ponderación), respondientes y no respondientes
tienen la misma actitud (la misma media o proporción), puesto
que éste es el supuesto implícito a este tipo de ponderación -di-
cho de otra manera, el supuesto que se hace es que, dentro de
cada clase, los no respondientes son un producto del azar, una
submuestra aleatoria de todos los entrevistados. Caso contrario,
la ponderación reduce pero no elimina el sesgo. Para entender
• este hecho se puede estudiar la composición del sesgo, mostran-
do que su tamaño depende de dos factores: la variación de la me-
dia (proporción) de los que contestan entre las diferentes clases
(A) y la diferencia que pueda existir entre los que contestan y los
que no contestan dentro de cada clase (B) (Thomsen, 1973; cita-
do por Kalton y Kasprzyk, 1986, p. 2).
[5]
[4]
W
h
=N/n;'
W b = 2.400/156 = 15,38
hom re
W . = 2.600/195 = 13,33
mUjer
p=(! whr;')/(!
p = 1.866,15/5.000 = 0,3732
Cada hombre de la muestra que ha contestado representa a
15,38 de la población; cada mujer representa a 13,33. A
estos pesos podernos calcular la proporción a favor de la flexIbIlI-
dad. ¿Cómo? Ponderando los porcentajes obtenidos en cada clase
por su peso:
Éste es el valor que vamos a utilizar coino estimación de la
proporción de trabajadores a favor de la del hora-
rio. ¿Corrige esta ponderación el sesgo atnbUIble a la no respues-
a una posible deficiencia de cobertura del marco muestral (quizá
la lista de la que se sacó la muestra no tenía a todos los hombres
de la población), en parte también porque el dise.ño no dio to-
dos los individuos igual probabilidad de ser elegIdos (por eJem-
plo, si la muestra es estratificada no y, por último
(ésta es la parte que nos interesa), la diferencIa entre muestra y
población puede ser debida a la tasa de r.espuesta d.e
hombres y mujeres -Smith (1983) añadIría a esta lIsta de POSI-
bles causas algún posible error de medida (dificil que ocurra en
este caso, puesto que se trata de medir algo sencillo de medir: el
sexo, pero probable en muchas otras mediciones). Lo que hare-
mos será atribuirles a hombres y mujeres que no han contestado
el comportamiento de los hombres y mujeres, respectivamente,
que sí lo hicieron. ¿Cómo? Pues, sencillamente, asignándole un
peso a cada entrevistado que ha contestado, de manera que repre-
sente a los que no lo han hecho. En este caso, puesto que conoce-
mos el parámetro poblacional, el peso, para cada una de las cla-
ses (sexos), será igual a la razón entre el número de personas que
hay en la población (N
h
) y el número de entrevistados que contes-
taron (n;'):
Mientras que la proporción a favor se estima de la misma ma-
nera que se hizo en el caso poblacional:
p = / [8]
p = 206,4 / 520= 39,7
de respuesta es del 50%. Ante este problema de no respuesta
que, en teoría, no es necesario conocer el tamaño
clOnal de cada estrato -en la práctica se conoce, desde el mo-
mento que se utilizó para diseñar la muestra-, en lugar de esti-
mar el peso a partir de la población (W, según [4]) se estima a
partir de la muestra (w
h
): h
Mediante la ponderación según los datos de la muestra tan
sólo corregimos el sesgo atribuible a la no respuesta -recuérde-
se la ponderación poblacional además corregía los sesgos
a una mala cobertura del marco muestral, al tiempo
que realIzaba una postestratificación. Sin embargo, si se cono-
cen, lo que suele ser habitual, los parámetros poblacionales de las
variables que se utilizan para ponderar (las variables del diseño
la ponderación según la muestra también sirve para
corregIr la eventual desigual probabilidad de selección de los en-
-caso de que tal cosa ocurra. En la práctica no se de-
cIdIra entre una y otra ponderación, sino que se utilizarán ambas
en un proceso como el siguiente: '
y B son de distinto signo y el tamaño absoluto del l(rimero es la
mitad que el tamaño absoluto del segundo: IA I < 2 IB l.
Ponderación según los datos de la muestra
Para ponderar según los datos de la muestra, previamente hay que
dividirla en estratos, a los que se les asignan pesos distintos. El
peso de cada estrato es proporcional a la inversa de su tasa de res-
puesta. A diferencia de la ponderación según la población, ahora
se necesita conocer a qué clase pertenecen no sólo los respondien-
tes, sino también los no respondientes. Normalmente esta informa-
ción sólo se tiene para las variables que se utilizan en el diseño de
la muestra: región, tamaño de hábitat y alguna que otra más -sal-
vo que los entrevistadores consigan información de los no respon-
dientes, haciendo uso de sus propias estimaciones y a través de en-
trevistas a los no respondientes (véase apartado anterior).
Un ejemplo servirá para comprender este tipo de ponderación.
Se trata del mismo ejemplo que he utilizado para mostrar la pon-
deración según la población, sólo que ahora la muestra de
n = 520 personas, de las N = 5.000 que trabajan en la empresa, se
selecciona por un procedimiento estratificado, tomando 260 de
cada estrato (figura 9).
Figura 9. Ejemplo de ponderación según datos muestra.
Estrato n
h
n' r' p; w
h
wl;
h h
Norte 260 221 65 0,294 1,176 260,0 76,4
Sur 260 130 65 0,500 2,000 260,0 130,0
520 351 130 0,370 520,0 206,4
W
h
=
Wnorte = 260/221 = 1,176
w
sur
= 260/130 = 2,000
[7]
Según la figura 9, entre los trabajadores de la factoría del
Norte, el 29,4% están interesados en el nuevo tipo de horario
[(65/221) x 100]; en el caso de los trabajadores del Sur, el por-
centaje se eleva hasta el 50%. Mientras que en el Norte responde
el 85% de los entrevistados [(221/260) x 100], en el Sur la tasa
1) Primero se determinan los pesos que se necesitan para
compensar una eventual desigual probabilidad de selec-
ción de los individuos (por ejemplo, si la muestra es estra-
no proporcional): W¡.
2) Se reVIsan estos pesos para compensar las desiguales tasas de
respuesta en los distintos estratos-clases (por ejemplo, rural-
urbano, dentro de las distintas regiones geográficas): W
2
,l'
[10]
n* =
- Más se segmente la muestra en muchas clases, con pocos
elementos en cada una. En esa situación las tasas de res-
puesta son inestables -sobre una submuestra de, por
ejemplo, cinco personas, al pasar de que no conteste una a
que no contesten dos hace que la tasa de no respuesta
cambie sustancialmente-, lo que da lugar a grandes va-
riaciones en los pesos -en el ejemplo anterior, la diferen-
cia de no respuesta produciría un cambio igual de sustan-
cial en los pesos que hay que utilizar.
- Mayores sean las variaciones de tamaño de los pesos entre
las diferentes clases.
- Fijar un tamaño mínimo de las clases a utilizar en la pon-
deración. En el caso del Bureau of the Census de Estados
Unidos el tamaño mínimo es de 30 unidades. Para conse-
guir este tamaño quizá haya que agrupar las categorías de
las variables que se utilizan para formar las clases: por
ejemplo, si la ponderación se hace tomando como clases
el cruce de Comunidad Autónoma y tamaño de hábitat es
posible que haya que reducir el número de categorías' de
donde n;' y w
h
son el tamaño efectivo y el peso de la muestra, res-
pectivamente, en la clase h.
El incremento de la varianza del estimador será tanto mayor
cuanto:
El incremento de tamaño de la varianza del estimador provo-
cado por la ponderación repercute en una disminución del tama-
ño efectivo de la muestra utilizada en la investigación, de tal ma-
nera que en lugar del número de entrevistas realizadas tenemos
un número igual a n*:
Con el fin de reducir la pérdida de precisión (y de entrevistas
efectivas) se suelen utilizar algunas de estas estrategias:
[9] L=
7
El peso total (W) sería igual a:
3) Finalmente se revisan de nuevo los pesos para hacer que la
distribución de la muestra se ajuste, en determinadas ca-
racterísticas (por ejemplo, sexo y edad), a la distribución
de la población (Bailar y otros, 1978, muestran cómo se
utiliza este enfoque en la Encuesta de Población de los Es-
tados Unidos): W
3
.
21

Este procedimiento es el que utilizo en la lección 4 del Ma-
nual de Análisis de los Datos (Sánchez Carrión, 1999), imple-
mentado con SPSS, para mostrar el uso de la ponderación en el
contexto del diseño de muestras complejas (véase el apartado
4.3.2 de dicho Manual).
Cuando ponderamos, no todo son ventajas, en el sentido de
que se reduce el sesgo de las estimaciones, sino que también hay
algunas desventajas. Si bien la ponderación reduce uno de los
componentes del error medio cuadrático, el sesgo, puede aumen-
tar la varianza del estimador que estemos utilizando (el error va-
riable), lo que implica que es necesario hacer un equilibrio entre
lo que se gana y lo que se pierde. Kalton (1986, p. 4) compara la
pérdida de precisión que se produce por la ponderación con la
que se produciría si afijáramos no proporcionalmente una mues-
tra en la que las varianzas de los elementos dentro de cada clase
de ponderación fueran iguales y las varianzas de las medias en-
tre las clases fueran pequeñas, en comparación con las varianzas
de las medias intra clase. Como se sabe, en este caso el diseño
óptimo sería una afijación proporcional, mientras que cualquier
otro diseño (en particular, el no proporcional) aumentaría la va-
rianza del estimador. Bajo estos supuestos, la ponderación de la
muestra aumenta la varianza aproximadamente según un factor L,
igual a:
ambas variables, o que se tengan que limitar las clases a
las categorías de una sola variable.
- Evitar clases que tengan unos pesos muy diferentes. La
sugerencia de Kalton es que los pesos no deben estar por
encima de una relación de 3 a l. Para conseguir este ratio
quizá haya que combinar clases o, simplemente, cortar los
pesos con el fin de que no superen este ratio. De esta ma-
nera, aceptamos una menor reducción en el sesgo de la es-
timación a cambio también de un menor incremento de su
varianza.
Kish (1965, p. 431) muestra el aumento de la varianza del esti-
mador que se produce por la ponderación, tomando como referen-
cia una muestra con dos clases, con una proporción de individuos
en cada una de ellas igual a A y (1-A). A la primera se le da un
peso de 1 y a la segunda distintos pesos de valor w.:. En el si.guien-
te cuadro (figura 10) se muestran las consecuenCIas que tiene la
ponderación, para distintos tamaños y pesos de las subclases.
Figura 10. Efecto de los pesos sobre la varianza del
estimador. (Tomado de Kish, 1965, p. 431.)
Pesos (w)
A 1,5 2 5 10 50
0,5 1,04 1,13 1,80 3,03 13,01
0,2 1,03 1,08 1,51 2,30 8,68
0,1 1,02 1,05 1,29 1,73 5,32
Por ejemplo, en la figura lOse ve que con dos clases, cada
una de un 50% de la muestra, si la primera tiene un peso de 1 y la
segunda de 1,5, el aumento de la varianza será prácticamente
nulo, e igual a 1,04. Cuando el tamaño de las clases se hace más
desigual, y una (por ejemplo, la A) tiene el 20% de los entrevista-
dos y la otra el 80%, si los pesos respectivos son de 1 y 50, el au-
mento de la varianza se dispara hasta un valor de 8,68 veces el
que se habría obtenido sin ponderar la muestra.
El ejemplo que utilizo a continuación sirve para ver el efecto
que tiene la ponderación sobre la varianza. Pensemos en una
muestra estratificada por hábitat, de tamaño n = 400 personas de
las que solamente conseguimos entrevistar a 300. La figura' 11
muestra los resultados:
Figura 11.
Ejemplo de pérdida de precisión en una muestra
de )a Comunidad de Madrid.
Clase
n
h
n'
wh


h
Madrid
100 50 2,00
200
100
Área Metropolitana
200 160 1,25
250 200
Resto Comunidad
100 90 1,11
111 100
400 300
561
400
Según [9], el aumento de varianza será igual a:
L = 300 (5611160.000) = 1,05
Este aumento de la varianza del estimador se traduce en una
disminución del tamaño efectivo de la muestra, que, después de
hacer los cálculos según la expresión [10], queda en:
n* = 160.0001561 = 285
Ponderación raking-ratio
El. raking-ratio es útil cuando se quiere ponderar
como clase,s la distribución conjunta (cruce) de dos va-
nables, para las que tan sólo se dispone de su distribución univa-
riable. Tal indica Kalton (1983), su desarrollo original se
debe a Demmg y Stephan (1940). También se conoce con el
nombre de ajuste proporcional iterativo, y como tal se utiliza en
el análisis de tablas de contingencia, para ajustar las casillas a los
marginales de la tabla, según un modelo teórico determinado
(Sánchez Carrión, 1984).
300
400
700
297,67
402,33
700
300
400
700
No A
180
222,2
402,2
No A
156,63
193,37
350
No A
157,68
192,25
350,11
A
120
177,7
297,7
A
141,04
208,96
350
A
142,14
207,75
349,89
B
No B
B
No B
B
No B
Paso 2. Se multiplica la primera columna por
350/297,7 = 1,175 Yla segunda por
350/402,2 = 0,870. Después de realizar los cálculos
obtenemos la tabla siguiente:
región A Y400 en el tamaño No B). Puesto que se entiende que
cada tipo de región y hábitat está más relacionado con la no res-
puesta que cada una de estas variables por separado, se desea for-
mar clases con cada uno de los cuatro tipos resultantes del cruce
de las variables, con el fin ponderar la muestra para ajustar la no
respuesta. El procedimiento raking-ratio, tal como muestro a con-
tinuación, permite modelizar el cruce de las dos variables a nivel
poblacional. Para ello hay que seguir una serie de pasos:
Paso 3. Multiplicamos la fila uno por 300/297,67=1,01 y la
dos por 400/402,37=0,994. El resultado es la tabla
siguiente:
Paso 1. Se multiplica la primera fila por 300/25 = 12 Yla
segunda por 400/45 = 8,888. El resultado aparece en
la siguiente tabla:
El procedimiento seguiría hasta hacer que los marginales de
las tablas que se van creando a cada paso se igualaran a los mar-
ginales originales -tal como se puede ver a partir de las tablas
10 15 25 300
20 25 45 400
30 40 70
350 350 700
H B
á
b No B
i
t n
a
a
t N
a
Según el procedimiento raking lo que se es desarrol!ar
pesos que hagan que las distribuciones de. las vana-
bIes auxiliares de la muestra se ajusten a las dIstnbucIones mar-
ginales de la población (si se trata de pobla-
ción) o a los totales marginales de las dIstnbucIOnes de la
muestra (si se trata de la ponderación según datos de la
Como decimos, hay casos en los que sólo conocemos la dIstnbu-
ción marginal de dos o más variables, pero sin embargo quere-
mos utilizar como clases de ponderación su distribución conjunta.
En este caso está justificado el uso del procedimiento raking-ratio.
Un ejemplo, en el que se consideran dos variables con dos cate-
gorías cada una, puede servir para ilustrar el fundamento del pro-
cedimiento.
Se saca una muestra de 80 personas, de una población de 700.
De las 80 personas, 70 contestan el cuestionario. A nivel de la
población conocemos las de. u?a de las va-
riables región y hábitat, pero no su dIstnbucIOn que
fine las clases que se quieren utilizar en la ponderacIón. En la fI-
gura 12 se muestran los datos:
Según los datos de la figura 12 se conoce el número de
entrevistados en cada cruce de las variables región y hábitat (por
ejemplo, 20 en la casilla A/No B), pero se desconoce este
a nivel de la población -aunque sí se sabe cuánta gente VIve en
cada región y en cada tamaño de hábitat (por ejemplo, 350 en la
Región
Figura 12. Ejemplo de aplicación del procedimiento
raking-ratio.
precedentes, a cada paso se produce una mayor .en-
tre los marginales. En la medida la etapa practlca-
mente se ha conseguido este proposIto, se dejan sus resultados
como definitivos. De acuerdo con esta tabla, los pesos de cada
una de las clases de ponderación serían igual a:
son asistentes, aunque algunos van a clase más que otros: cuanto
más asistente, más probable es que el alumno se encuentre en
clase el día de la entrevista, y viceversa. La entrevista se hace en
clase, con una sola visita. A los alumnos se les pregunta cuántos
días faltaron a clase durante la semana anterior a la entrevista:
P.36 Durante la pasada semana, ¿cuántos días faltaste a clase?
B(44) 4 3 2 1 o
Y
h
= 1.499,5/217,2 = 6,9
Se entiende que los alumnos que fueron muchos días repre-
sentan a los alumnos muy asistentes y los que fueron pocos días
a los poco asistentes. Como de los raramente asistentes es muy
probable que haya muy pocos alumnos en la muestra, a los que
resultan entrevistados se les asigna un peso elevado para com-
pensar por este hecho, de manera que representen a todos los de
su grupo. Asumimos que la muestra está llena de los muy asis-
tentes, por lo que se les da un peso pequeño, ya que tienen que
representar a menos alumnos. Con los datos siguientes construyo
un ejemplo, que muestra el efecto del método a la hora de esti-
mar la importancia que le atribuyen los alumnos a la Estadística,
en una escala que va de 1 a 10 puntos (figura 13).
De acuerdo con los datos de la figura 13, al calcular la impor-
tancia media de la Estadística con los datos brutos se obtiene un
valor de 1.164,1/167 = 7,0. Estos datos, puesto que están basados
en una sobrerrepresentación de los muy asistentes, que son los
que mejor valoran la Estadística, es de suponer que inflan la me-
dia. Mejor será utilizar los pesos de cada uno de los grupos de
asistentes para recalcular este estadístico:
El resultado de la ponderación según el procedimiento Politz-
Simmons es que la media baja una décima, para quedar en 6,9
puntos. La diferencia entre ambas medias, sin y con pondera-
ción, no es muy grande debido a la escasa diferencia de valora-
ción de la Estadística que hacen los muy y los pocos asistentes y
W
= 142,14/10 = 14,2
AIB
W = 207,75/20 = 10,4
AINoB
W = 157,86/15 = 10,5
NoAIB = 19225/25 = 77
WNoAINoB' ,
Ponderación según la probabilidad de respuesta
Existen diferentes procedimientos que utilizan dificultad
la que se obtuvo la información de los respondIentes con el .fm
de ponderar la muestra y ajustar la no respuesta. Entre
rentes métodos de ponderación se encuentra el de Pohtz-SIm-
mons (1949), sobre el que ya tuve ocasión de en aparta-
do anterior, y que ahora voy a algo mas detemdamente
-se puede ver la relación de procedImIentos en Kalton (1983) y
Kalton y Kasprzyk (1986). . _, . . .
Originalmente el procedimiento se dIseno eVItar las reVIsItas
y para estimar el efecto de la no respuesta a l.os contac-
tos. Según este método, al hacer las se obtlene .mforma-
ción de cuántos de los cinco días preVIOS estaba el en
casa. De esta manera agrupamos a los entrevistados seIS clases,
ponderando la muestra de manera invet;sa a probabIlIdad de
en casa: los que estuvieron los cinco dIas reCIben un peso de 1, los
que estuvieron cuatro de los cinco, un peso de 5/,6; los 9-
ue
se encon-
traban tres de los cinco días, un peso de 4/6; y aSI ..
El método lo he utilizado en estudios de alumnos umversIta-
rios, con entrevista en clase. Se supone que todos los alumnos
Éstos serían los pesos que habría que utilizar para !a
muestra, tal como se hacía en el ejemplo de segun
datos de la población, sólo que ahora dos vanables. Para una
mayor discusión del método, Kalton remIte, entre otros, a los tra-
bajos de Oh y Scheuren (1983).
Figura 13. Ajuste Politz-Simmons de unos datos de
alumnos Facultad de CC.PP. y Sociología
de la U. Complutense.
(1) (2) (3) (4) (5) (6)
Ph
n
h Yh
ntYh (5) *l/P
h
00 1 98 7,0 686,0 686,0
1.00 4/5 40 7,1 284,0 355,0
2.00 3/5 19 6,9 131,1 218,5
3.00 2/5 5 6,0 30,0 75,0
4.00 1/5 5 6,6 33,0 165,0
Total 167 1.164,1 1.499,5
donde (1) = Códigos pregunta P.36
(2) = Probabilidad de estar en clase en los cinco días
(3) = Número de alumnos en grupo
(4) = Puntuación media de la asignatura de Estadística
(5) = Cálculo de la media de la muestra
(6) = Cálculo de la media ponderada
al escaso número de individuos poco asistentes. Tanto este tipo
de ponderación corno las que he explicado previamente tienen
interés en la medida que las variables utilizadas para ponderar
estén muy relacionadas con las variables del estudio; cuando la
relación es escasa o nula la ponderación apenas tendrá efecto a la
hora de reducir el sesgo, mientras que puede aumentar la varian-
za del estimador. Un problema de este procedimiento es que con-
sidera que todos los individuos (alumnos) son potenciales asis-
tentes, sólo que con mayor o menor grado de accesibilidad -no
se distingue entre rechazos (no asistencias) y ausencias. Otro
problema se deriva del uso de pesos que, contrariamente a la
recomendación hecha al hablar de la ponderación según datos de
la población, supera en mucho la razón de 2 a 1-en este caso el
ratio llega a 6 a l.
4. La no respuesta
en la investigación
comercial y social
de nuestro país
La situación en la que se encuentra el problema de la no res-
puesta, expuesta en las páginas precedentes, y la preocupación
por todos los aspectos relacionados con la calidad de la encuesta
me ha llevado a plantear una investigación original sobre el esta-
do de la cuestión en nuestro país. Corno se ha podido ir viendo
en las hasta donde yo conozco la única y
escasa reflexlOn publIca que se ha producido entre nosotros so-
bre el terna de la no respuesta hay que situarla en los institutos
nacionales de estadística -.en particular yo conozco el caso del
y del EUSTAT vasco; este último tiene una serie de publica-
CIOnes, entre las que se encuentra una sobre tratamiento de la no
respuesta (Platek, 1987). En la investigación que ahora introduz-
co se analiza la no respuesta en el contexto de los estudios co-
merciales y sociales, que son la mayoría de los que se realizan
en este país -aun cuando el objetivo de los estudios es distinto
la recogida de la información se suele hacer siguiendo una
ma metodología.
Lo normal en las investigaciones comerciales-sociales es tra-
tar el problema de la no respuesta mediante el procedimiento de
la sustitución (véase 3.2) -además de en algunas investigaciones
trata de replicar una investigación realizada por Lepkowski
y Groves, utilizando las investigaciones que tienen lugar
en el Survey Research Center de la Universidad de Mi-
chigan.
2) Se saca una submuestra de 50 unidades a partir de todas
las no respuestas obtenidas después de realizar el procedi-
miento normal de selección de los entrevistados, a las que
se les pasa una «hoja de no respuesta» (DeMaio, 1980).
3) En el cuestionario se codifica la visita en la que se obtuvo
la entrevista y si ésta pertenece a un individuo selecciona-
do en primera opción o, por el contrario, se trata de una
sustitución (campo n.O 5 del cuestionario «sustantivo»).
Esta información permite estudiar las diferencias, si es que
las hay, entre los respondientes y los sustitutos de los no
respondientes (los sustituidos).
Puesto que se quiere estudiar la no respuesta y el efecto de la
práctica regular de las sustituciones en España, el diseño de
la muestra y la selección de los entrevistados se hizo por el pro-
cedimiento normal que se sigue en la investigación social y co-
mercial, salvo la selección última de los entrevistados, donde se
sustituyeron las rutas por un procedimiento de pseudoaleatoriza-
ción mediante el uso de las secciones censales, desarrollado por
Emilio Martínez Ramos -el procedimiento trata de evitar los
problemas que surgen con las rutas cuando se trabaja con la sec-
ción como unidad secundaria de muestreo, y simula el tipo de
trabajo de campo que se realiza con listado previo de las unida-
des de la sección. De esta manera se obtuvo una descripción co-
dificada de las incidencias acaecidas en el transcurso de una en-
cuesta, tanto para las entrevistas realizadas (sin o con sustitución)
corno para las fallidas.
4.1 Conclusiones de la investigación
La primera conclusión, y quizá de la que se deriva la más impor-
tante de las enseñanzas de esta investigación, tiene que ver con el
elevadísimo número de sustituciones que se han producido para
llegar a recoger la información de las personas finalmente entre-
del CIS, tan sólo conozco un caso, de investigación de audien-
cias, realizada por Emilio Martínez Ramos, en el que no se acep-
ta la sustitución (comunicación personal)-, 10 que ha hecho que
no sólo se abandonara el estudio de la no respuesta, presente en
toda discusión metodológica, sino que además .este abandono
haya venido acompañado de una utilización acrítlca la meto-
dología, sin que apenas se haya evalUaCI?n de. sus
efectos. Por ejemplo, si miramos lIbros utilIzados en la Investlga-
ción social, por 10 demás recomendables para trat.ar otros
del muestreo o de la encuesta, como los de, por ejemplo, Rodn-
guez Osuna (1991, 1993) o de D'Ancona (1996),
que en ninguno se hace referencIa a este problel?a -salvo .la SI-
guiente referencia, que aparece en la p. 206 lIbro de Cea. «En
cada estrato muestral se aplica además un de cuotas ?e
edad y sexo para corregir las desviaciones pudIeran produ:cIr-
se por la incidencia de las a partlcIpar en la Inves.tlga-
ción y las ausencias en los domIcIlIos»-.; ,se
la no respuesta en libros utilizados en la InVestlgacIOn comercIal
(p.e. Ortega Martínez, 1990) -sí que aparece manuales tradu-
cidos del inglés (p.e., 997; Kmnear y Tayklor,
1994)- y es necesario recurnr a lIbros del entorno del INE,
corno de Sánchez Crespo (1984) o Azorín y Sánchez Crespo
(1986), para verlo tratado.
Con el fin de estudiar este terna de la no respuesta, en concre-
to su tamaño, total y desagregado tipos, ap:oveché un
de investigaciones sobre percepción de nesgos denvados de la In-
dustria, realizada en Huelva capital (novien,tbre, y sobre
hábitos de consumo, realizada en la autonoma astu-
riana (julio, 1994). En ambo.s el de se ha
realizado siguiendo el estandar en.la practica pro-
fesional. A los cuestionarios utllIzados para los ternas ob-
jeto de estudio se añadieron otro par, a cumplImentar por el en-
trevistador:
1) En el primero se recoge, de manera codificada, la inf?rma-
ción contenida en la hoja de ruta, a la que se le anad.en
aproximadamente 10 preguntas sobre el con el In-
formante del hogar (su reacción ante la entreVIsta) la
respuesta (cuando la hubiera). Parte de este cuestIOnano
Asturias
N.O %
7.339 79,5
586 6,3
327
95
7
28
129
4.385 47,5
521 5,6
180 1,9
1.452 15,7
214 2,3
1.893 20,5
9.232 100,0
1) En primer lugar, tal como indicábamos al empezar a hablar
de las conclusiones, se produce un número de contactos
muy grande para conseguir las 730 entrevistas de la en-
cuesta: para obtener estas entrevistas ha sido necesario es-
Figura 15. Tamaño de cada uno de los tipos de no
respuesta en las encuestas comerciales y
sociales. Datos de sendas encuestas en Huelva
capital y Comunidad Autónoma de Asturias.
Nota: En el caso los datos de Huelva, la suma de todas las situaciones suma más de 4.385
cas?,s, ya que habna .añ?d.ir los hoga!es visitados por segunda vez, y los hogares donde
abno la puerta el proplO mdlV1duo selecclOnado y posteriormente se negó a la entrevista' es
por ello que el tratamiento ha sido de múltiple respuesta. '
el procedimiento del diagrama de la figura 14 se
obtuvIeron los resultados que muestra la figura 15.
.A partir de los datos de la figura 15 se pueden extraer las si-
gUIentes conclusiones, referidas al estudio de Huelva -los datos
de Asturias confirman las conclusiones obtenidas en Huelva:
Huelva
N.O
%
.
Entrevistas no realizadas
3.804 86,5
- Viviendas no encuestables
501 11,3
Vacías
199
Oficinas
45
Residencias
10
2. a residencia
14
Otras
233
- Ausencias hogar
1.999 45,6
- Ausencia p. seleccionada 207 4,6
- Negativa portero
70 1,6
- Negativa hogar
982 22,4
- Negativa p. seleccionada
45 1,0
Entrevistas realizadas
730 16,6
Total contactos
4.385 100,0
I
no
(portero-ofici nas)
I
nuevo contacto
I
no está/no contesta
(sustitución)
I
no está p. seleccionada
(nueva visita)
I
I
contesta
(2. a visita)
¿Se llega hasta el hogar?
I
I

'1---1------,1
no contacto (informante) contacto (informante)
I
I
1
'"''' '0""'0 recdOO:da
contesta no contesta
(La visita) (sustitución)
Figura 14. Situaciones que se producen en la selección de
las personas entrevistadas. Entre paréntesis se
incluye la clave que se anota en el campo 5 del
cuestionario.
vistadas. Pero antes de continuar con las conclusiones permítase-
me que ofrezca un diagrama (figura 14) que muestra cómo se
procede a la hora de realizar las entrevistas, partiendo de que se
ha localizado un hogar entrevistable (no oficina o residencia); a
partir de este diagrama será más fácil entender las conclusiones
que se desgranan en las páginas que siguen.
Mirando el diagrama vemos que se sustituyen aquellos hoga-
res que no son contactados en la primera visita, bien porque se
trate de un hogar no entrevistable (p.e. una oficina), porque el
portero impida el acceso a la vivienda o porque, aun accediendo
al hogar, no se consiga el contacto (p.e. por ausencia) o éste re-
sulte en una negativa. Cuando se consigue el contacto, seleccio-
nando a la persona a entrevistar dentro del hogar, cabe que di-
cha persona esté y acceda a contestar nuestras preguntas o que
decida no participar en la encuesta, siendo entonces sustituida.
Si la persona seleccionada no está presente, se efectuará una se-
gunda visita (única situación en la que se produce la revisita),
anotándose en el cuestionario como entrevista hecha en segun-
da visita si la persona contesta, o procediendo a sustituirla si
tampoco estuviera en el hogar o rechazara participar en la en-
cuesta.
tablecer 4.385 contactos con otros tantos hogares, 10 que
significa un ratio de una entrevista conseguida por cada
seis contactos -esta cifra es parecida (algo inferior) a la
que se produce en el contexto de las investigaciones del
CIS, que son las únicas para las que tengo información
(véase datos en 2.2). Este número tan elevado de contactos
limita la fiabilidad de los resultados obtenidos con la hoja
de ruta, lo cual es fácil de comprender, puesto que su
cumplimentación fidedigna y con cierto nivel de detalle en
todos estos casos resultaría más costosa que la misma rea-
lización de las 730 entrevistas.
2) En segundo lugar, hay una selección dominante de las per-
sonas más accesibles. Es de suponer, aunque no se puede
demostrar, que dada la facilidad con la que se produce la
sustitución, las personas seleccionadas deben de pertene-
cer al grupo de las muy accesibles, dejando fuera de la
muestra las personas que no sólo rechazan participar, que
probablemente seguirían negándose a contestar, a pesar de
todos los intentos que se hicieran por entrevistarlas (revisi-
tas), sino también aquellas que son más difíciles de con-
tactar, pero que si se intenta localizarlas mediante nuevas
visitas al hogar terminan siendo entrevistadas.
3) Por último, resulta difícil de estudiar el efecto de las revisi-
tas en los resultados, puesto que solamente se hacen en
aquellos casos en los que se consigue hacer el listado de
los miembros del hogar sin que luego se pueda hacer la en-
trevista, y esta circunstancia se produce raramente: de las
633 ocasiones en las que consta en el cuestionario la visita
(junto a las 97 sustituciones suman las 730 entrevistas con-
seguidas), el 83,6% de los casos son entrevistas hechas en
primera visita.
Según los datos anteriores, una vez que se consigue seleccio-
nar a la persona que hay que entrevistar, esta persona casi siem-
pre (83,6% de las veces) está en casa y acepta ser entrevistada. Si
comparamos este dato de las primeras visitas con el que ofrezco
en la figura 7, referido a una encuesta con revisitas, donde se ve
que tan sólo hay un 33% de entrevistas conseguidas en la primera
visita, vemos la diferencia tan grande que hay entre ambos: ¿a

qué ser debida? Parte de la diferencia hay que atribuirla a
la dIstmta forma de contabilizar las revisitas: en el contexto del
Research Center, que es el instituto que hizo el estudio de
la fIgura 7, se cuentan las visitas desde el primer no contacto con
hogar, que en nuestro caso, tal como he dicho, las vi-
sItas empIezan a contar desde el momento en que se ha seleccio-
a la que hay que entrevistar. Otra parte de la expli-
cacIOn, dIfIcIl de pero exenta de lógica, hay que
buscarla en la actuacIOn del entrevIstador, en el sentido de que,
de entre los miembros del hogar mayores de 18
anos que hay en el hogar, casi siempre (en el 83,6% de los casos)
seleccIOna a uno que en ese momento se encuentra en casa con
10 cual no hay necesidad de segundas visitas. '
.La situación descrita lleva a que tengamos que plantearnos
cual es el grado de representatividad de la muestra, debido al nú-
mero elevado de 9ue se produce. ¿Qué garantiza
que las personas sustItutas son Iguales que las seleccionadas en
primera instancia y que no fueron entrevistadas por ausencia o
rechazo? Com? explicábamos en 2.2, al menos hay algo en 10
que unas (sustItutas) y otras (sustituidas) difieren: las primeras
y las segundas no; y en la medida que este hecho esté
correlaCIOnado con las características que se estudian en la en-
cuesta, tendrán consecuencias -imaginemos
un de partIcIpacIón ciudadana: está claro que con este
procedImIento los participativos estarán sobrerrepresentados.
Esta forma de hacer la selección de las personas que se entrevis-
tan no resulta, desde el punto de vista de la teoría del muestreo
satisfactorio. El problema es que, tal como hemos visto,
cuando n? se hacen sustituciones y se revisitan los hogares/per-
vanas veces el problema de la representatividad sigue sub-
en la medida que las tasas de no respuesta que se ob-
tIenen s?n muy altas, en cifras que pueden estar sesgando de
manera Importante la estimación de los parámetros poblaciona-
les. Quizá por esta razón, unido a que resulta mucho más barato
y sencillo de aplicar, es por 10 que las muestras que se realizan
de los grandes centros de investigación uni-
(tIP? Michigan, o NORC, de Chicago) o de
la publIca (INE, en el caso de España) utilizan
procedImIentos como el que estamos estudiando o, directa-
Tipologia de la no respuesta
comercial 4. la no
pica de 4,69 puntos -dichas desviaciones, para un tamaño me-
dio de muestra de todas las encuestas de 756 casos, casi duplican
los errores esperados por el uso del muestreo-. Cualquiera que
sea la validez que le demos a este argumento como crítica a la
falta de representatividad de las muestras debida al procedimien-
to técnico utilizado, lo cierto es que los procedimientos seguidos
mayoritariamente, entre los que se encuentra el uso de las sustitu-
ciones sin revisitas al hogar, dejan que desear desde un punto de
vista teórico -otra cosa son los argumentos ad hoc, de tipo pro-
fesional, y basados en su experiencia, que utiliza cada investiga-
dor para justificar su forma de proceder, que también tienen su
legitimidad.
¿Qué otras conclusiones se obtienen de esta investigación?
En primer lugar tenemos una tipología de los no respondientes
(véase figura 15). Tomando los datos de Huelva -los datos de
Asturias vienen a confirmar las conclusiones a las que se llega en
Huelva-, se ve que el tipo de no respuesta más frecuente es la
ausencia del hogar (45,6%), seguido de las negativas del hogar
(22,4): entre ambas categorías suman el 68% de todas las situa-
ciones que se produjeron al intentar conseguir la entrevista. Le si-
guen en importancia las unidades no encuestables, con un 11,6%
de los casos -cifra semejante a la que encuentra el INE en la
Encuesta de Población Activa, según la figura 2. Tal como se ha
dicho, tanto las ausencias como las negativas se contabilizan des-
pués de realizar una sola visita al hogar. Esta razón es la que ex-
plica el elevado porcentaje de no contactos y ausencias del hogar;
de seguirse la práctica de volver a visitar estos hogares, el por-
centaje de ausencia disminuiría mientras que, previsiblemente,
crecerían los rechazos.
De esta figura también se desprende una conclusión que me
parece interesante, puesto que contradice la opinión generalizada
de que la actitud no cooperante de los porteros es una causa im-
portante de no respuesta: sólo el 1,6% de los 4.385 intentos de
contacto terminan con una no entrevista por culpa del portero, lo
cual es una cifra insignificante.
mente, pasan de la selección probabilística de los individuos
para aplicar cuotas en esta fase del proceso -normalmente
manteniendo la selección probabilística hasta llegar al hogar.
Crespi (1988) ofrece datos de Estados Unidos, referidos a las
encuestas preelectorales, en un 98% de los casos hechas telefó-
nicamente, que muestran la importancia que tienen los diseños
no probabilísticos en este tipo de investigaciones -por falta de
información, vamos a asumir que sus conclusiones son generali-
zables al conjunto de las investigaciones comerciales y sociales,
aunque es lógico pensar que en las electorales, por la rapidez
con la que hay que hacer la investigación, se produzcan más ca-
sos de todo aquello que agiliza la investigación (p.e. el uso de
las cuotas, la selección de cualquier adulto que se encuentre en
la casa, etc.). Por ejemplo, entre los datos que Crespi facilita se
encuentran los siguientes:
- El 46% de las 343 investigaciones estudiadas utilizan cuo-
tas en alguna fase de la muestra (A. c., p. 26).
- El 68% se ayudan de la ponderación para corregir las
desviaciones que se producen en sus muestras por relación
a aquellas características, normalmente sociodemográfi-
cas, para las que existe información a nivel de la pobla-
ción (A. C., p. 33).
- El 31% de todas las encuestas no efectúan revisitas para
tratar de conseguir las entrevistas (A. c., p. 43).
- A la hora de seleccionar un adulto dentro del hogar, el
41% entrevista a cualquiera de los que se encuentran en la
casa (A. c., p. 49).
- En aquellos casos en los que no se aplican sustituciones o
cuotas, y en cambio se hacen revisitas, las tasas de no res-
puesta oscilan entre el 30% y el 50% (A. C., p. 47).
Todas las circunstancias mencionadas, así como otras que no
señalamos pero que se incluyen en la obra de Crespi, hacen dudar
del carácter representativo de las muestras obtenidas, lo que en
el caso del autor mencionado explicaría -a mi modo de ver
erróneamente, por las razones que daré en el capítulo 5- las
desviaciones que se producen entre las predicciones y los resulta-
ele:ctclrales, de un valor medio del 5,67% y una desviación tí-
La pregunta que se me ocurre es la siguiente: ¿qué habría ocu-
rrido si los 1.999 hogares no contactados en una primera visita
hubieran sido revisitados, hasta conseguir la entrevista o el recha-
zo -o, eventualmente, un no contacto más cualificado? Evidente-
mente no lo podemos saber con certeza, pero podemos realizar un
ejercicio de simulación, suponiendo que estos 1.999 hogares hu-
bieran tenido un comportamiento semejante al de los que sí fue-
ron contactados -entre los que destacan las negativas de hogar.
Teniendo en cuenta el total de entrevistas que quedan después de
eliminar las unidades no entrevistables (501) Ylas ausencia de ho-
gar (1.999), las 982 negativas equivalen al 52,1% de todos los
contactos realizados con hogares. De producirse un porcentaje
equivalente de negativas entre los hogares no contactados (los
1.999) -ennúmeros absolutos ello equivale a 1.042 hogares-, el
número de rechazos total se elevaría a 982 + 1.042 = 2.024, equi-
valente, en términos relativos, al 46% de todos los contactos esta-
blecidos.
Seguramente el cálculo anterior es muy aproximado, y se po-
dría ajustar estableciendo todo tipo de supuestos sobre la naturaleza
de los 1.999 no contactados. Probablemente muchos de estos no
contactos lo seguirían siendo aun después de realizar varias visitas
al hogar -en mayor porcentaje que el 6,6% de nunca contactados
que arroja la Encuesta de Población Activa, según datos de la fi-
gura 2-, lo que haría menor el número de negativas, a costa del
incremento de las ausencias, pero en cualquier caso parece que la
cifra de no respuesta supera con creces las del Survey Research
Center o del National Opinion Research Center. ¿Se trata sólo de
un problema atribuible a la idiosincrasia de la sociedad española,
que según estos datos habría que calificar de poco cooperante con
las encuestas, o la razón hay que buscarla en el tipo de procedi-
miento que se ha seguido? Probablemente haya un poco de las dos
cosas: España no es Estados Unidos, en el sentido de que la gente
se cree menos eso de la participación social -la sociedad españo-
la, a pesar de la democracia, se sigue articulando socialmente so-
bre la familia-, y la práctica de la encuesta podría mejorar. El
problema es que mientras se siga obviando el problema de la no
respuesta mediante el uso generalizado de las sustituciones (o de
las cuotas), ni se podrá saber cuál es el tamaño real de la no res-
puesta, ni las posibilidades de reducirla después de una práctica
regular de no aceptación de las sustituciones, que siempre agudi-
zaría el ingenio para desarrollar procedimientos de obtención de
las entrevistas.
Caracteristicas de la no respuesta
Con el fin de estudiar las características de la no respuesta, entre
otras cuestiones se incluyeron en la hoja de ruta una serie de pre-
guntas sobre el sexo, la edad y la relación con el cabeza de fami-
lia de las personas que rechazaban contestar -también se reco-
gió esta información de los ausentes-, las razones de la negativa
y el modo como se establecía el contacto. A continuación se van
ofreciendo estos resultados.
Sexo, edad y relación con el cabeza de familia de los re-
chazos y de los no contactos por ausencia.
El siguiente cuadro (figura 16) muestra el sexo, la edad y la
relación con el cabeza de familia de la 41 personas que se nega-
ron a realizar la entrevista y de las 51 que, después de una segun-
da visita, fue imposible contactar. A efectos de comparación se
muestra la misma información para las 730 personas entrevis-
tadas.
Figura 16. Sexo, edad y relación con el cabeza de familia
de las negativas y ausencias (no contactos)
de la encuesta.
Edad
% Hombres Media D.T. % c.f % Esposa Base
Negat. p; seleccionada 51,2 42,4 16,6 46,3 29,3 ( 41)
Ausencias p. selec. 72,5 37,5 14,2 54,1 17,6 ( 51)
Total p. entrevistadas 46,6 40,1 17,4 38,5 31,6 (730)
D.T. =Desviación típica
c.f. =Cabeza de familia
Cuando se producía una negativa a contestar, bien fuera por parte
del hogar (lo normal) o de la persona seleccionada (más raro), en
la hoja de ruta se preguntaba por la razón del rechazo. A tal fin
se ofrecía una r e l a ~ i ó n de motivos sacada de un estudio que están
realizando en la actualidad Lepkowsky y Groves, con datos del
Survey Research Center. En la figura 17 se muestran los resulta-
dos obtenidos.
En dicha figura se ve que la razón más argumentada para justi-
ficar la negativa a contestar es la falta de tiempo de los entrevista-
dos (69,4% de respuestas), seguida a larga distancia del rechazo
por «no saber nada del tema» (9,2%) y el rechazo «porque no»
(7,5%). Cada una de las demás razones apenas representan las
respuestas de un pequeño número de personas. Dando por supues-
to que para saber por qué la gente contesta o no contesta a las en-
cuestas es necesario realizar otro tipo de investigación distinta a la
propia encuesta, ¿qué conclusiones se puede sacar de las respues-
tas a esta pregunta? -sobre la pertinencia de la encuesta para co-
nocer «porqués» se puede ver la opinión de Jesús Ibañez, quien
Razones rechazo
tactar en una primera visita, para lo cual habría que empezar por
eliminar la práctica de las sustituciones, al menos aquellas que se
efectúan ante una primera visita infructuosa.
Las conclusiones del párrafo anterior quedan refrendadas si
tenemos en cuenta que el 70,2% de las personas que actúan de
informante a la hora de hacer la selección dentro del hogar son
mujeres, con una media de edad de 43 años -datos contenidos
en la hoja de ruta. Una vez más, todo parece apuntar a que a la
sustitución de los entrevistados, que rechazan contestar o están
ausentes de su hogar, se une la intervención de los entrevistado-
res que, enfrentados al dilema de tener que volver al hogar a en-
trevistar al varón ausente o entrevistar allí mismo al ama de casa
informante, en más de una ocasión terminan sucumbiendo a la
tentación y optan por el camino más fácil: entrevistar al ama de
casa, máxime si tenemos en cuenta que esta práctica es casi im-
posible de detectar en la supervisión que se hace del proceso de
recogida de la información.
En primer lugar es relevante la pequeña infrarrepresenta-
ción de los hombres en la muestra final (46,4%, datos sin
ponderar), lo cual se puede explicar porque es el sexo que
predomina entre las negativas (51,2%) y, particularmente,
entre las ausencias (72,5%).
- También me parece muy interesante comprobar, en línea
con los resultados obtenidos en otras investigaciones (véa-
se la literatura de este mismo texto), la sobrerrepresenta-
ción de amas de casa (categoría «esposas») en la muestra
definitiva: 31,6% entre las 730 personas entrevistadas por
29,3% entre las negativas y 17,6% entre las ausencias.
- En el sentido opuesto a la conclusión anterior, los «cabeza
de familia» aparecen infrarrepresentados en la muestra de-
finitiva, tal como se desprende de comparar su número
(38,5%) con el que aparece entre las negativas (46,3%) o,
especialmente, las ausencias (54,1%).
Los datos de las conclusiones anteriores vienen a mostrar, con
la limitación ya comentada del reducido número de casos sobre
los que se basan, algo que me parece muy interesante, y que
complementa las conclusiones obtenidas en otras investigaciones
de las que aquí mismo he dado cuenta (véase 2.2): la diferencia
que hay, por relación al sexo, edad y relación con el cabeza de fa-
milia, entre respondientes y no respondientes es más atribuible al
componente de no contactos de la no respuesta (las ausencias)
que a las negativas. Quiere ello decir que el sesgo que se produce
en estas variables se podría reducir si se siguiera un procedimien-
to más incisivo de recogida de la información, revisitando todos
aquellos hogares y personas seleccionadas que no se logran con-
Comparando las características de las personas que se niegan
a contestar o que no son contactadas con las entrevistadas se ve
que hay diferencias. Aun cuando el lector puede sacar sus propias
conclusiones mirando la figura 16, hay una serie de datos que a
mí me parecen destacables (lo reducido del número de negativas
y ausencias, 41 y 51 casos, respectivamente, limita la significa-
ción estadística, que no sociológica, de las conclusiones; para
que significaciones sociológica y estadística fueran a la par sería
necesario aumentar el número de casos de ambos grupos):
*
71
2
2
5
N. o
1.770
1.689
Vendedor
Recogedor de donativos
Representante religioso
Cobrador
Miembro partido político
No hubo confusión
Total
* = menos de 0,5%.
Figura 18. Confusión del entrevistador con otra persona.
% N.O de
negativas casos
Telefonillo 85,7 91
Através puerta cerrada 54,1 314
Através puerta abierta 56,4 1.224
Cara a cara dentro de la casa 3,8 132
Otros 90,0 10
Total 53,7 1.771
Figura 19. Porcentaje de negativas, según forma
de contacto con el hogar.
Modo de contacto y resultado del contacto
que consta esta información solamente en 71 casos el entrevista-
do dijo confundir al entrevistador con un vendedor, siendo el res-
to de las confusiones mínimas.
Un factor que influye en la tasa de respuesta es la forma como se
establece el contacto con el entrevistado potencial. A tal fin, en la
hoja de ruta se incluyó una pregunta que precisamente estudiaba
este tema. Los se muestran en la figura 19.
*
*
*
7,5
6,0
2,1
0,8
0,6
1,1
69,4
9,2
2,1
0,9
100,0
(1.025)
Muy ocupado
No sabe nada tema
Desconfía encuesta
Encuesta es pérdida de tiempo
Encuesta es despilfarro
Falta de interés
Entrevistado nunca contesta
Gobierno ya sabe todo de él
Porque no
No da razón
Se lo va a pensar
Incapacidad persona seleccionada
Otros
* = 1 caso.
Figura 17. Razones por las que los entrevistados rechazan
contestar a la encuesta (datos en porcentaje).
en este caso diría que todas las respuestas de los entrevistados ca-
bría englobarlas en una única razón: «no contesto porque no con-
testo» (A. c., 1969, p. 83 Yss.). Quizá la única conclusión, yade-
más positiva para los que nos dedicamos a hacer encuestas, sea la
escasa presencia de «militantes confesos» de la no respuesta: su-
mando los que «nunca contestan» (0,8%), más los que dicen que
no «porque no» (7,5%) o que simplemente le cierran las puertas
en las narices al entrevistador sin dar una razón (6,0%, según cate-
goría «no da razón») el grupo militante se sitúa en tomo al 14,3%
de todas las negativas razonadas.
Siguiendo el diseño de Lepkowsky y Groves, se incluía en la
hoja de ruta una pregunta para saber si el entrevistador era con-
fundido con otra persona, tipo vendedor o cobrador, lo cual po-
dría estar influyendo negativamente en la obtención de la infor-
mación (figura 18).
El resultado de analizar los datos muestra que no existe pro-
blema a este respecto, puesto que de los 1.770 contactos en los
!
La DOl'Ja<la (le la encuesta: el caso de la no reS¡:ll.lesta
1t ~ 'll"rtmsmmr U!lIlliIIItA
Los datos son concluyentes: lo mejor que se puede hacer para
conseguir la entrevista es meterse dentro de la casa (prácticamen-
te éxito asegurado: 3,8% de negativas), mientras que si solamente
se logra establecer contacto a través del telefonillo, el fracaso
también está prácticamente asegurado (85,7% de negativas).
5. Los Limites de La encuesta
En los apartados anteriores hemos visto el problema de la no res-
puesta, su elevada dimensión, en tendencia ascendente, y la difi-
cultad (¿imposibilidad?) de encontrarle solución desde un punto
de vista técnico-estadístico. En el apartado 3.1 hemos visto que
los distintos procedimientos que se utilizan para evitar la no res-
puesta (revisitas, incentivos, etc.) no consiguen evitar este proble-
ma, que incluso con el paso de los años se ve agravado. En el
apartado 3.2 hemos tenido ocasión de explicar que resulta muy
difícil de medir el sesgo que se puede producir como consecuen-
cia de la no respuesta y, además, tal como explico en 3.3, las dife-
rentes técnicas de ponderación que se suelen utilizar para tratar de
eliminar el sesgo que eventualmente se haya podido producir de-
bido a la falta de respuesta de una parte de la muestra, puede que
no sólo no lo eliminen sino que además aumenten el error varia-
ble de los estimadores que se estén utilizando (sobre los errores
de muestreo véase 2.1). En el marco de las investigaciones co-
merciales y sociales estas dificultades suelen llevar a dos tipos de
estrategias, que relajan los principios de la teoría del muestreo
aplicados a la selección de los potenciales entrevistados. Por un
lado, se tiende a sustituir a todos los hogares/personas selecciona-
con revisitas, con el que yo me identifico, puesto que se mantie-
ne respetuoso con el único criterio científico que justifica la
bondad de las investigaciones: la selección de las personas de
manera consecuente con la teoría del muestreo, confiando en
una reducción del tamaño de la no respuesta o, en su defecto, en
un conocimiento de sus características que permita paliar los
problemas que plantea.
y si lo que ha ocurrido hasta ahora me hace ser escéptico so-
bre la posibilidad de resolver, desde un punto de vista técnico, el
problema de la no respuesta, ¿cabe pensar que el problema se irá
solucionando con el paso del tiempo, quizá porque disminuya la
no respuesta? Mi respuesta a esta pregunta es negativa, y ello por
varias razones que paso a exponer. En primer lugar, dudo que
esté justificado pensar que las sQciedades donde se realizan las
encuestas están totalmente integradas, hasta hacer posible la par-
ticipación en la encuesta de todos los ciudadanos seleccionados
en la muestra. El supuesto es fundamental, puesto que de su cum-
plimientose deriva que podamos usar la teoría del muestreo, que
justifica su utilización siempre y cuando todos los individuos
participen en las muestras. En segundo lugar, también tengo du-
das de que sea cierto otro supuesto que suele subyacer al uso de
las encuestas, consistente en pensar que el hecho de intervenir en
ellas es, automática e independientemente de cuál sea la naturale-
za de la encuesta, una forma de participación democrática de los
ciudadanos en la sociedad -este es un argumento que utilizaron
Gallup (1948) y Gallup y Rea (1940) para justificar la pertinen-
cia de la encuesta como herramienta para medir la opinión públi-
ca, a la que previamente se había considerado como el «pulso de
la democracia»-, que junto a la participación en los procesos
electorales cerraría el ciclo de intervenciones ciudadanas en los
asuntos públicos de un país. Sería como si de las respuestas de
los individuos a las encuestas se habría de derivar un beneficio
para sus intereses: con la información que facilitan, los gober-
nantes diseñarán mejores políticas y los empresarios mejores pro-
ductos y servicios, conocedores ambos de cuáles son sus necesi-
dades (las de los ciudadanos). Más bien pienso que las encuestas
de opinión son un instrumento desarrollado para el control, con
una doble función: por un lado permiten a quienes las encargan
conocer (en el sentido constructivista con el que utilizo este con-
dos en la muestra que no son contactados o que no desean partici-
par en la encuesta por otros que muestran una disposición favora-
ble (véase el capítulo 4). Por otro lado, en muchas investigaciones
directamente se obvian diseños probabilísticos a la hora de dise-
ñar la muestra, utilizando un sistema de cuotas, bien total (aplica-·
do a todas las fases del diseño muestral) o parcial, aplicado a la
selección última del entrevistado, pero siguiendo un diseño pro-
babilístico hasta esa fase. La investigación realizada para estudiar
las sustituciones con dos muestras, en Huelva y Asturias, además
de los datos del Centro de Investigaciones Sociológicas, nos han
permitido ver el elevado número de sustituciones que hay que rea-
lizar (seis o más) para obtener cada entrevista, lo que comprome-
te la representatividad teórica de la muestra. En el caso de que se
hagan cuotas, por definición se deja de estar en condiciones de
decir nada sobre la representatividad: puede que la muestra lo sea y
puede que no, el problema es que falta un referente teórico (la teo-
ría del muestreo) que justifique la representatividad de la muestra
y la posibilidad de hacer inferencias a partir de ella (sobre este
tema véase Smith, 1983). Hay un tercer diseño muestral, en prin-
cipio el más fundado teóricamente, aquel en el que se sigue un
muestreo probabilístico de principio a fin, haciendo revisitas y sin
sustituir a los no respondientes, pero en el que se plantea el pro-
blema de la elevada tasa· de no respuesta, por encima del 30%,
que también introduce dudas sobre la representatividad de las
muestras obtenidas mediante este procedimiento.
En los tres casos anteriores (uso de sustituciones, cuotas o
revisitas), la falta de representatividad de la muestra se suele tra-
tar de evitar mediante el recurso a la ponderación. En el aparta-
do 3.3 tuve ocasión de explicar que el uso de pesos no evita los
posibles sesgos de la encuesta y, por el contrario, casi garantiza
que el error variable de muestreo aumente de tamaño. Es decir,
aunque no todos los procedimientos son iguales desde el punto
de vista del diseño, y con ello del tratamiento de la no respuesta,
sí que los tres tienen carencias que ponen en cuestión su capaci-
dad, desde un punto de vista técnico (el tercero de los ojos es-
crutadores de los que hablaba en la introducción a este libro),
para conseguir muestras que sean completamente representativas
de la población que se esté estudiando. Evidentemente, desde un
punto de vista teórico es más acertado el muestreo probabilístico
! I ~
cepto en el libro) la incidencia que están teniendo sus actuaciones
en la sociedad para, a partir de este conocimiento, reorientarlas
según sus intereses -que pueden o no coincidir con intereses ge-
nerales de la población-; por otro lado, la misma realización de
la encuesta sirve de instrumento que introduce en la sociedad los .
problemas particulares, en forma de preguntas de un cuestiona-
rio, y las soluciones, también particulares, en forma de respues-
tas/alternativas a las preguntas, de las personas que las encargan
-se trataría de una función parecida a la que se les atribuye a los
medios de comunicación, como definidores de la «agenda» pú-
blica (véase la teoría del agenda setting en McCombs y Shaw,
1972). Por las dos razones anteriores es por lo que digo que las
encuestas pueden beneficiar a algunos pero no necesariamente a
la totalidad (ni siquiera la mayoría) de los miembros de una so-
ciedad. Este supuesto se une al anterior, puesto que si dudamos
que todas las encuestas sean beneficiosas para todos los ciudada-
nos no podemos esperar que todos vayan a participar en ellas, lo
cual nos puede llevar a plantear el problema no sólo en términos
de por qué unas personas no responden a algo tan interesante
~ i n o , también, de por qué algunas otras contestan a algo sobre
cuya bondad existen dudas. Por las razones que acabo de dar
pienso que no es fácil que el tamaño de la no respuesta, aun en
aquellos casos en los que se sigue más fielmente las directrices
de la teoría del muestreo, pueda reducirse a niveles en los que la
representatividad esté completamente garantizada.
De estar justificado mi cuestionamiento de los supuestos de
tipo sociopolítico (integración social y bondad de la encuesta)
que subyacen al uso de la encuesta, de los que acabo de tratar en
el párrafo anterior, la pérdida relativa de representatividad de las
muestras que se utilizan en las encuestas, producto de la no res-
puesta, no habrá que considerarla como coyuntural sino como
consecuencia, precisamente, de que no se cumplen los supuestos
desde los cuales se pretende justificar esta técnica, algo que pre-
visiblemente seguirá ocurriendo, incluso de manera amplificada,
en un futuro inmediato. Si esto es así, y las muestras no son total-
mente representativas, pierde valor relativo su justificación en
base a la teoría del muestreo (la metodología) y su utilización
habrá que basarla en su capacidad para responder a los intereses
sociales: los de aquellos que realizan materialmente las encuestas
y los de quienes sienten que se benefician de los resultados que
se obtienen en su aplicación.
Si desde un punto de vista técnico y sociopolítico acabamos
de ver las dificultades existentes para resolver los problemas de
representatividad que se siguen de la no respuesta, ¿qué podemos
decir cuando nos enfrentamos a este problema contemplándolo
con nuestro ojo epistemológico? ¿Qué conclusiones se derivan de
un análisis epistemológico del problema de la no respuesta? Vea-
mos. Al hablar de falta de representatividad estoy hablando de
sesgo, en la medida que este concepto estadístico es el que per-
mite medir lo representativa que pueda ser una muestra: diremos
que una muestra es representativa de la población cuando no tie-
ne sesgo, pudiendo medirse este concepto, tal como se explica en
[1], viendo la diferencia entre el valor esperado del estadístico
(obtenido a partir de la gente que contesta) y el parámetro pobla-
cional (relativo a toda la población, incluidos respondientes y no
respondientes). A diferencia del error variable de muestreo, el fa-
moso ±2% que aparece en las fichas técnicas de las encuestas,
que es posible medirlo siempre y cuando las muestras sean pro-
babilísticas -es decir cuando se sabe cuál ha sido la probabili-
dad que ha tenido de ser elegido cualquier individuo (o una com-
binación de ellos) de la población de la que se extrajo la
muestra-, el sesgo es mucho más dificil, cuando no imposible,
de medir. Es decir, mientras que, al menos teóricamente, es posi-
ble llegar a acotar el margen de error (variable) y la certidumbre
de nuestras muestras (el famoso 95% de confianza), a condición
de que en cada etapa de la selección de la muestra se siga esta es-
pecie de mandamiento probabilístico que ha de regir el compor-
tamiento de los investigadores (conseguir que siempre se conozca
la probabilidad de selección de cada individuo o combinación de
individuos... y si todos tienen igual probabilidad, mejor que me-
jor), cuando queremos calcular el sesgo nos encontramos con
problemas debido a que su cómputo escapa de nuestras manos,
en la medida que exige un conocimiento del valor (parámetro) de
la población (véase la formula para calcularlo en [1]). Y aquí em-
piezan las dificultades, prácticas y epistemológicas. En primer
lugar, dicho valor normalmente será desconocido, pues si cono-
ciéramos el parámetro poblacional no estaríamos haciendo una
encuesta, cuyo fin es precisamente estimarlo -cosa distinta es
que conozcamos otro parámetro diferente al investigado, quizá a
partir de los datos (¿exactos?) del censo de población, que se
pueden utilizar para ponderar la muestra... con los problemas
apuntados en 3.3. Y en segundo lugar, y todavía más importante
desde esta perspectiva epistemológica, ¿realmente existe un valor
poblacional con el que contrastar nuestra encuesta, independiente
de ella y por tanto válido para todas las encuestas que traten de
conocerlo? Entramos aquí en el problema epistemológico de dis-
cutir sobre la eventual existencia de ese valor, poblacional y, lo
que ahora es más importante, verdadero. Hay toda una tradición
de sociología de la ciencia dedicada a reflexionar sobre los pro-
cesos de construcción del conocimiento científico, que muestra
precisamente el carácter negociado de dicho conocimiento, y que
cuestiona el enfoque tradicional de la ciencia, que acepta esta ne-
gociación a la hora de determinar los llamados aspectos externos
de la ciencia (qué cosas se conocen), manteniendo los internos
(la naturaleza del conocimiento adquirido) al margen de toda
determinación/negociación social (véase una introducción a este
tema en Solís, 1994, que en el título de su libro, Razones e intere-
ses, ya deja planteados los términos del debate). Desde un punto
de vista más aplicado a la encuesta, y sin que sus autores preten-
dan entrar en discusiones sobre la naturaleza de la ciencia, tam-
bién hay toda una tradición de investigadores que estudian la in-
fluencia que tienen en las respuestas obtenidas en las encuestas
los entrevistadores, el cuestionario (la forma como están redac-
tadas las preguntas y su orden) y el modo de obtener la informa-
ción (encuesta postal, entrevista personal y entrevista telefónica),
para concluir que según cuáles sean estas condiciones los resulta-
dos que se obtienen pueden ser distintos, sin que se pueda decir
que unos son mejores que otros (más verdaderos) (sobre este
tema véanse, p.e., Schuman y Kalton, 1968; Schuman y Presser,
1981; Converse y Presser, 1986).
Sólo a título de muestra ilustrativa de este fenómeno de in-
fluencia inevitable de los elementos de la encuesta en las res-
puestas podemos ofrecer algunos casos extraídos de la literatura
-en colaboración con mis alumnos yo mismo he investigado el
efecto que tiene el modo de obtener la información en las res-
puestas que dan los entrevistados: en un caso para comparar las
respuestas a unas mismas preguntas formuladas en cuestionario
postal, entrevista personal y entrevista telefónica asistida por or-
denador; y en otra investigación para estudiar el efecto que tiene
la utilización de un bolígrafo que no deja marca en un cuestio-
nario autocumplimentado con preguntas sensibles, de contenido
sexual). Schuman y Presser (1981, pp. 282-283) muestran dife-
rentes ejemplos en los que el uso de la palabra «prohibir», como
alternativa a «no permitir», modifica las respuestas que dan los
entrevistados a diferentes preguntas, siendo mayor el número de
los que «no permiten» (p.e. la exhibición de películas pornográfi-
cas en televisión) que aquellos que están dispuestos a prohibirlas.
Igual ocurre cuando las preguntas incluyen u omiten la formula-
ción explícita de las opciones «no sabe-no contesta» (Schuman y
Presser, 1981, pp. 120-121) o la utilización de alternativas inter-
medias (p.e. ni a favor ni en contra del tema estudiado) (Converse
y Presser, 1986, pp. 36-37), elevándose el número de gente que
está dispuesta a elegir entre las restantes alternativas de respuesta
ofrecidas en la pregunta cuando no tienen la posibilidad de elegir
aquellas opciones. El orden de las preguntas también afecta a las
respuestas, como se ve en un ejemplo de Schuman y Kalton
(1968, p. 656; ejemplo tomado de Hyman y Sheatsley), que mues-
tra cómo aumenta el número de personas que favorecen la presen-
cia de periodistas soviéticos que informen libremente desde Esta-
dos Unidos cuando dicha pregunta va precedida de otra en la que
los afectados son periodistas americanos informando libremente
desde la extinta Unión Soviética (ejemplo de 1950, replicado
posteriormente en 1980 con resultados parecidos). También el or-
den de las preguntas tiene importancia en un ejemplo del que dan
cuenta Schuman y Kalton, donde se ve cómo aumenta el número
de personas que dicen haber sido víctimas de algún delito cuando
la pregunta que mide esta circunstancia va precedida de otras
preguntas de actitud hacia distintos tipos de delitos (A. C., 1968,
p. 656). La raza de los actores favoritos de los entrevistados se ve
enormemente influida por la raza de los entrevistadores, tal como
se demuestra en otra investigación de Schuman y Presser (1981,
p. 48): cuando los entrevistadores son negros, los actores preferi-
dos son mayoritariamente negros; lo mismo ocurre cuando los
entrevistadores son blancos, siendo en este caso los actores favo-
ritos citados por los entrevistados de esta misma raza. En el con-
texto de la entrevista telefónica, Oksenberg y otros (1986) YGro-
ves y Fultz (1985) muestran, respectivamente, los efectos de la
voz y del sexo de los entrevistadores en la tasa de rechazos que
consiguen y en el nivel de optimismo de los entrevistados acerca
de su situación económica. Por último, en referencia al efecto del
modo de obtener la información (postal, entrevista personal o en-
trevista telefónica), un reciente artículo de Fowler, Roman y Di
(1998) muestra que las preguntas que piden a los entrevistados
una descripción de su estado presente tienden a obtener resulta-
dos más positivos cuando hay un entrevistador por medio que
cuando la pregunta aparece en un cuestionario postal.
El número de ejemplos podría hacerse interminable, pero to-
dos ellos coincidirían en los dos puntos siguientes. Uno tiene que
ver con los diferentes resultados que se obtienen dependiendo de
la forma concreta que adopte la encuesta, tal como he explicado
en el párrafo anterior. El segundo punto se refiere a la dificultad
(imposibilidad) que encuentran los autores que realizan las in-
vestigaciones para decidir que unas formas son mejores que
otras: ¿qué palabra debemos utilizar, prohibir o no permitir?,
¿damos la opción «no sabe-no contesta», con lo cual la gente
puede que la elija por comodidad, o la omitimos, haciendo que
los entrevistados se vean un poco forzados a elegir entre las res-
tantes opciones? Y, ¿qué es más correcto, preguntar antes por los
periodistas americanos o por los rusos, sabiendo cómo van a
cambiar los resultados dependiendo de la alternativa que adopte-
mos? 0, ¿qué características han de reunir los entrevistadores
para que no influyan en los entrevistados?, ¿es posible ser neutro
sin «ser»? A partir de estos problemas asociados a la encuesta te-
nemos que pensar que las diferencias que se obtienen son pro-
ducto de que no existe una sola y verdadera respuesta (un valor
verdadero) a las preguntas que aparecen en los cuestionarios, to-
talmente independiente del acto de investigación -al menos tra-
tándose de preguntas que miden características de los entrevista-
dos para las que no existe un consenso sobre su medición, que es
el caso más común en las encuestas. Es por ello que resulta difi-
cil hablar de la existencia de sesgo cuando se desconoce uno de
los elementos (el valor poblacional) que permiten calcularlo. Y
aun sin entrar en detalles sobre el otro elemento del cálculo del
sesgo, el valor esperado del estadístico calculado en la muestra,
hemos de decir que en su formulación está implícita también la
existencia de otro valor verdadero (el de una población, igualo
distinta a la que estudiamos, de la cual sean representativas las
infinitas muestras obtenidas). Es decir, no se conocen ni el pará-
metro poblacional ni el valor esperado del estadístico, que son
los dos elementos necesarios para calcular el sesgo, que a su vez
es el criterio científico utilizado para medir la bondad de la en-
cuesta. En estas circunstancias, la moraleja es clara. Solamente
haciendo el supuesto de la existencia de un valor verdadero se
pueden utilizar los criterios clásicos de cálculo de los errores de
muestreo, lo que muestra la necesidad que siempre hay de sus-
tentar los conocimientos técnicos sobre supuestos heurísticos de
dificil (yo pienso que de imposible) demostración: se acepta que
son ciertos para poder operar pero no se pueden demostrar; y
esto vale tanto si aceptamos (posición que critico) como si nega-
mos (posición que propongo) la existencia de un valor verdade-
ro, ligando así en los procesos de conocimiento el destino de
toda tecnología con su respectiva epistemología, y de ésta con las
circunstancias sociales de los que la sustentan.
Sí, pero a pesar de todo, se mueve. Parodiando a Galileo, ésta
podría ser la respuesta al planteamiento que estoy haciendo,
cambiando el movimiento de la Tierra alrededor del Sol por la
capacidad de acierto de las encuestas a la hora de tratar de cono-
cer los fenómenos que estudian. Dicho de otra manera, podría-
mos preguntarnos si, independientemente de todo este «rollo»
sobre la no respuesta y su influencia en los errores fijos y varia-
bles, y sobre la existencia o no existencia de un valor verdadero,
es posible acertar a la hora de medir alguna característica de la
población, para mostrar por la vía de los hechos, en el caso de
que la respuesta fuera afirmativa, la bondad de la encuesta -los
ingleses suelen decir que la mejor forma de saber cómo está el
pudding es probarlo. Puesto que las encuestas preelectorales son
casi las únicas para las que se supone, erróneamente, que existe
un valor poblacional verdadero (el resultado obtenido por los
partidos el día de las elecciones) con el que comparar las estima-
ciones de la encuesta, es común recurrir a este tipo de estudios
para dilucidar las bondades i) de la encuesta como herramienta
predictiva y, más en concreto, ii) de cada una de las diferentes es-
trategias investigativas, por ejemplo muestreos probabilísticos y
por cuotas, con sus correspondientes tratamientos de la no res-
puesta, eliminación frente a sustitución de los no respondientes
-Ordas (1984, p. 17) muestra esta dificultad de evaluar la bon-
dad de la encuesta al tratar los problemas que surgen cuando se
quieren comparar las ventas reales, algo aparentemente fácil de
medir, con las estimaciones hechas por las encuestas. Desde un
punto de vista teórico, la reflexión sobre la primera de las bonda-
des (la encuesta como herramienta predictiva) llevaría a una dis-
cusión sobre la forma de validar todo conocimiento, tema sobre
el cual ya hice una pequeña introducción en el primer capítulo de
este libro. Dicho brevemente, el valor de verdad de todo conoci-
miento social está relacionado con los recursos que tienen sus
autores para hacerlo valer mediante un proceso de negociación
social-en Wallis, 1979, se pueden ver distintos ejemplos de sa-
beres que no triunfaron en su momento, algunos, como la hipno-
sis, para hacerlo posteriormente, debido a la debilidad social de
sus valedores. La capacidad de gestión social de unos resultados
será determinante para que tengan éxito, ligando así el resultado
obtenido en la encuesta por los partidos con los resultados que
obtienen el día de las elecciones.
En el caso de la encuesta, de las consideraciones hechas en
este libro sobre la influencia de sus elementos (entrevistado, en-
trevistador, cuestionario y modo de generar la información), en
los resultados podría pensarse que es posible utilizarlos de mane-
ra que se produjera cualquier resultado, por ejemplo una inten-
ción de voto a Izquierda Unida del 20%. La falta de recursos de
dicha organización y su entorno para gestionar dicho resultado
hasta convertirlo en votos el día de las elecciones -se incluye
aquí, entre otras, su incapacidad para encontrar a alguien social-
mente legitimado que esté dispuesto a producir dicho resultado y
a los grupos de comunicación necesarios para divulgarlo-, con
el consiguiente descrédito de la encuesta, debería ser motivo
para disuadir a quien tuviera esta intención. Todo conocimiento
es social, y se tienen que dar unas condiciones sociales para que
el saber no sólo sea pensable sino que además «funcione» social-
mente, cosa que no ocurriría en el ejemplo que estoy discutien-
do. Desde un punto de vista aplicado, mirando los resultados de
las 343 encuestas preelectorales estudiadas por Crespi, algo
complementario a la contemplación de las encuestas de cada
proceso electoral aisladamente (p.e. las encuestas estadouniden-
ses de 1948, las británicas de 1992, las españolas del 96, etc.),
con la perspectiva que da una visión de conjunto, vemos que las
desviaciones entre los resultados de las encuestas y los de las
elecciones son importantes -aunque la importancia siempre es
relativa al objetivo perseguido por las personas que las utilizan.
Crespi (1988, p. 23) muestra que el error medio cometido por to-
das estas encuestas, de un tamaño medio de 756 entrevistas, en la
predicción del voto estuvo entre el 5,65% y el 6,75%, dependien-
do de la forma de calcular dicho error, con una desviación típica
entre 4,69 y 5,10 puntos, y con unos errores mínimo y máximo
de 0,01% y 33,25%, respectivamente -Worcester(1996, p. 8)
muestra datos de las encuestas británicas, referidos solamente a
las elecciones generales del período 1945-1992, donde los erro-
res son inferiores (media de aproximadamente 3,7% para las 56
encuestas consideradas); entiendo yo que este menor error quizá
es debido a la mayor estabilidad de dichos procesos electorales
de carácter general, si los comparamos con la variedad de elec-
ciones (estatales, primarias, federales, referendums, etc.) que
analiza Crespi, en las que es de suponer que haya una mayor
inestabilidad del voto, haciendo así más difícil su predicción.
Las cifras que muestra Crespi sobre el error cometido en las pre-
dicciones es casi el doble de lo que sería esperable en función
del error variable de muestreo, y si no fuera porque las encuestas
preelectorales cumplen exitosamente otros papeles añadidos al de
la predicción (básicamente los de control de los procesos electo-
rales), quizá hace tiempo que habrían perdido parte del crédito
que tienen -o serían consideradas en términos menos absolutos
de lo que actualmente se consideran.
y cuando comparamos el resultado obtenido por cada uno de
los dos grandes tipos de encuestas (por cuotas y probabilísticas),
con sus repercusiones sobre la no respuesta, vemos que, como
en los toros, hay diversidad de opiniones. Mientras que según
Crespi apenas hay diferencias entre ambos procedimientos
(A. c., 1988, pp. 26-30), Worcester (1996, p. 8), con datos referi-
dos a las encuestas preelectorales británicas del período 1970-
1979, muestra que las encuestas que utilizaron cuotas ofrecieron
mejores resultados que las probabilísticas: 6,3% frente a 3%
de error medio. Para aumentar la diversidad de opiniones, tam-
bién refiriéndose a las elecciones británicas, pero del período
1959-1979, Smith (1983, p. 397) analiza las encuestas hechas
por dos institutos que usaron muestras probabilísticas (NÜP) y
cuotas (Gallup) para mostrar la ligera ventaja predictora del pri-
mero (una décima de punto). ¿Qué se puede decir de ambos mé-
todos? Pues parece que la conclusión depende de quién sea la
persona que hable (escriba) y el tipo de referente profesional de
bondad al que se adscriba (la experiencia frente a la ciencia).
Dos artículos, y su posterior discusión por profesionales relevan-
tes del campo de la investigación, publicados en el Journal 01
the Royal Statistical Society, serie A, uno a cargo de un profesio-
nal de empresa (Market & Opinion Research International Ltd.)
y otro de profesionales de un instituto de investigación social
(Social & Community Planning Research) son un buen ejemplo
de la defensa de ambas posiciones desde las legitimidades que
dan la experiencia (el primero de los autores) o la solvencia de
la teoría del muestreo (los segundos) (Worcester, 1996; Lynn y
Jowell, 1996). Mientras que los institutos comerciales defienden
las cuotas (y las sustituciones), en especial para hacer encuestas
preelectorales, por su coste, rapidez y facilidad de implementa-
ción, los investigadores académicos y administrativos se suelen
decantar por el uso de diseños probabilísticos, basándose en la
legitimación de orden científico (la teoría del muestreo) que los
justifica. Si se les pregunta a los primeros cuál es la base sobre
la que se sustenta la representatividad de sus muestras, habida
cuenta que sólo han utilizado parcialmente el azar en la selec-
ción de las personas entrevistadas, su respuesta será que la base
es su experiencia del día a día, que les dice que las muestras por
cuotas (también las sustituciones) «funcionan». La misma pre-
gunta, dirigida a los académicos, obtendrá corno respuesta que
la representatividad del tipo de muestreo que utilizan está garan-
tizada por el procedimiento probabilístico que se ha seguido en
todas las fases de su diseño. Pero... ¿qué es «funcionar», si no se
conoce el valor poblacional, por relación al cual se podría deci-
dir acerca de la bondad de los resultados obtenidos en la encues-
ta? Y, ¿no hemos visto que el problema de la no respuesta, entre
otros, puede echar por tierra el carácter representativo de la
muestra, por muy probabilística que se pretenda? Es decir, ni
(sólo) desde la experiencia ni (sólo) desde la teoría se puede
garantizar la calidad, medida en este caso en términos de
representatividad, de las muestras, ni que un procedimiento
(cuotas frente a probabilístico) sea mejor que otro. Parece que
junto a las invocaciones a la experiencia y a la ciencia hay algo
más, intereses y capacidades para negociar la verdad, que produ-
cen diferentes puntos de vista sobre la bondad de las técnicas
empleadas, a pesar de que se utilice corno referente, aparente-
mente, la misma información -la reflexión sobre los intereses,
como elementos constitutivos de la ciencia, daría lugar a un li-
~ bro distinto a éste, propio de la sociología de un tipo de conoci-
miento específico, al que denominamos científico.
Después de las conclusiones que he ido desgranando a lo lar-
go de estas páginas deseo acabar con un par de reflexiones. La
primera tiene que ver con el orden de problemas relacionados
con el qué hacer mañana mismo, enfrentados al hecho de tener
que hacer una encuesta. La segunda trata de mostrar algunas con-
secuencias que se derivan del uso estándar de esta herramienta
cognitiva.
Puesto que, tal como he ido explicando, el número de gente
que no contesta a las encuestas es importante, parece inevitable
hacer sustituciones; sobre todo si se pretenden mantener los cos-
tes actuales y el tamaño de la muestra en límites que no incre-
menten grandemente el otro tipo de error que se produce en el
muestreo, el error variable (error típico del estimador utilizado).
Entiendo que este uso de las sustituciones se debe de hacer de
manera controlada, teniendo en cuenta que la teoría del muestreo
-la única que existe para legitimar la forma de proceder a la
hora de hacer encuestas- no las justifica, máxime si para cada
entrevista hay que hacer seis o más contactos (sustituciones). En
concreto, pienso que en la generalidad de las encuestas es nece-
sario hacer revisitas (una o dos) cuando no se produce el contacto
con el hogar o con la persona seleccionados, al tiempo que hay
que facilitar el número de sustituciones que se han efectuado
para conseguir el número de entrevistas realizadas.
La segunda reflexión tiene que ver con la necesidad de atri-
buir a la encuesta (el conocimiento científico) un valor más rela-
tivo, entendiendo el carácter humano, y por ello limitado, de la
información que se produce con su uso. Parece como si la en-
cuesta, en un mundo científico de reflexividad, complejidad y
autoorganización, en el que emerge con fuerza la existencia de
11:,:
unos sujetos activos (los tradicionalmente considerados objetos
investigados) que «negocian» con los investigadores (los
tradicionalmente llamados sujetos del saber) el conocimiento que
sobre ellos se pretende generar, quedara al margen de todas estas
influencias y todavía pretendiera enarbolar la bandera de una
concepción del conocimiento científico, cuestionada, que conde-
na a dichos sujetos al papel de objetos pasivos de conocimiento.
Si hasta parece que en la mismísima física de partículas, paradig-
ma de cientificidad, se admite la interacción entre lo observado y
el observador para producir una medición final de carácter pro-
babilístico (principio de indeterminación de Heisenberg), resulta
difícil sostener los supuestos neutralistas (del método) y realistas
(del objeto) en la aplicación de la encuesta, pretendiendo no sólo
predecir, por ejemplo, quién va a ser el ganador de las próximas
elecciones -ignorando el carácter socialmente construido de tal
predicción-, sino además haciéndolo, injustificadamente, según
he pretendido mostrar en este libro, con decimales y márgenes de
error. Las implicaciones sociopolíticas de esta concepción realis-
ta del saber son enormes, en la medida que bajo su invocación,
consciente o inconscientemente, se trata de naturalizar un orden
social en el que la negociación entre personas y grupos con inte-
reses distintos se sustituye por la actuación directiva de los exper-
tos/científicos, pretendidamente neutros, que ofician de nuevos
sacerdotes detentadores de la verdad. Esta actitud deja a la mayo-
ría de la población el papel de rebaño de un señor de nuevo tipo,
en esta nueva religión monoteísta, excluyente, en la que a pasos
agigantados se va convirtiendo la ciencia. Hago mías las palabras
de Desrosiéres (alto cargo del INSEE francés, organismo equiva-
lente al INE español), escritas en un apartado titulado Indicado-
res y democracia, con las que reflexiona sobre la presentación
que se hace de los indicadores estadísticos, sobre todo en los me-
dios de comunicación, «según un modelo metrológico realista
proveniente de las ciencias de la naturaleza del siglo XIX» (A. c.,
1996, p. 55): «Sería paradójico -dice Desrosiéres- que, en las
ciencias sociales, se cree un foso entre un sector reflexivo (para
el que los modos de construcción y de negociación del saber so-
cialmente aceptado hace parte del objeto mismo de la ciencia) y
otro sector que perpetuaría el modelo científico antiguo de una
realidad anterior a su indicador y preocupado por definir la medi-
ción más "fiable" de esa realidad. La ciencia y la democracia ten-
drían mucho que ganar con una puesta al día de las condiciones
sociales de enunciación de los indicadores, en la investigación y
en el espacio público» (A. C., 1996, p. 55). Ídem para la encues-
ta, y que así sea.
Bibliografia citada
Alderete, Jesús (1996): «¿Utilizamos muestras representativas?». Investigación y
Marketing, 50, pp. 32-35.
Anderson, A. B., A. Basilevsky y D. P. 1. Hum (1983): «Missing data: a review of
the Iiterature». En P. H. Rosi, 1. D. Wright y A. B. Anderson (eds.) Handbook
olSurvey Research. Nueva York: Academic Press.
Armstrong, 1. Scott, y Terry S. Overton (1977): «Estimating nonresponse bias in
mail surveys». Journal 01Marketing Research, 14, pp. 396-402.
Azorin, Francisco, y José Luis Sánchez Crespo (1986): Métodos y aplicaciones
del muestreo. Madrid: Alianza Universidad Textos.
Bailar, B. A, L. Bailey y C. A. Corby (1978): «A comparison of some adjustment
and weighting procedures for survey data». En N. K. Nambooridi (ed.) Survey
Sampling and Measurement. Nueva York: Academic Press.
Barrera, Antonio, y Luis Castro (1996): «Análisis de la no respuesta en encuestas
electorales». Ponencia presentada al IX Seminario de Investigaciones Políticas
y Sociológicas de AEDEMO.
Bermúdez, R. M. (1981): «Procedimientos de evaluación aplicados a las encues-
tas de población española». Estadística Española, n.O 92, pp. 39-46.
Bowles, Tim (1989): «Data collection in the United Kingdom». Journal 01 the
Market Research Society, vol. 31, n.o 4, pp. 467-476.
Bradburn, Norman M. (1992): «A response to the nonresponse problem». Public
Opinion Quarterly, vol. 56,pp. 391-397.
Brehm, 1. (1993): The phantom respondents: opinion survey and polítical repre-
sentation. Aun Arbor: University ofMichigan Press.
Bryce, James (1889): The American Commonwealth. Londres: Macmillan & Co,
Ud. Reproducido parcialmente en Christenson, M. Reo, y Robert O. Williams
(eds.) (1962): Voice ofthe People: Readings in Public Opinion and Propagan-
da. Nueva York: McGraw-Hill Book Company.
Burchell, B., y C. Marsh (1992): «The effect of questionnaire lenght on survey
response». Quality & Quantity, 26, pp. 233-244.
Calvi, G., y A. Vannucci (1995): L'elettore sconosciuto. Analisi socioculturale e
segmentazione degli orientamenti politici nel 1994. Bolonia: Il Mulino.
Cannari, L., y D. Alessio (1992): Mancate interviste e distorsione degli stimatori.
Banca d'Italia: Servizio Studi.
Cannel, C. F., F. 1 Fowler y K. H. Marquis (1965): «A report on respondent's rea-
ding of the brochure and letter and an analysis of respondent's level of infor-
mation». Aun Arbor, MI: Institute of Social Research de la Universidad de
Michigan.
Cea D'A.ncona, M. Ángeles (1996): Metodología cuantitativa. Estrategias y téc-
nicas de investigación social. Madrid: Síntesis.
Claudio Bosio, Albino (1996): «Grazie, no!: il fenomeno dei non rispondenti».
Quaderni di Sociologia, vol. XL, 10, pp. 31-44.
Comunidad de Madrid (1992): Actitudes y representaciones sociales de la pobla-
ción de la Comunidad de Madrid en relación con los Censos de Población y Vi-
vienda de 1991. Madrid: Consejería de Economía de la Comunidad de Madrid.
Converse, Jean M., y Stanley Presser (1986): Survey questions: handcrafting the
standardized questionnaire. Londres, Sage University Papers.
Crespi, Irving (1988): Pre-election Polling: Sources ofAccuracy and Error. Nue-
va York: Russel Sage Foundation.
- (1989): Public Opinion, Polls and Democracy. San Francisco: Wets View
Press.
Chromy, l, y D. Hovitz (1978): «The use ofmonetary incentives in National As-
sesment Household surveys». Journal ofthe American Statistical Association,
n.o 363, septiembre, pp. 473-478.
De Heer, Wim, y Abby Israels (1992): «Response trends in Europe». Ponencia
presentada en la 152 Conferencia de la Asociación Americana de Estadística,
Boston.
DeMaio, Theresa 1 (1980): «Refusals: who, where and why?». Public Opinion
Quarterly, vol. 44, pp. 223-23.
Desrosiéres, Alain (1996): «Reflejar o instituir: la invención de los indicadores
estadísticos». Methodologica, n.o 4, pp. 41-57.
Dillman, Don (1978): Mai/ and Telephone Surveys. Nueva York: John Wiley &
Sonso
Dillman, Don, 1 Gorton Gallegos y James H. Frey (1976): «Reducing refusal ra-
tes for telephone interview». Public Opinion Quarterly, vol. 40, 1, pp. 66-77.
Dohrenwencl, B. S. (1970): «An experimental study ofpayments to respondents».
Public Opinion Quarterly, vol. 34, pp. 621-624.
Dunkelberg, W. C., y George S. Day (1973): «Nonresponse bias and callbacks in
sample surveys». Journal ofMarketing Research, 10, pp. 160-168.
Ferber, R., y Sudman, S. (1974): «Effects of compensation in consumer ex-
penditure studies». Annals of Economic and Social Measurement, vol. 3,
pp. 319-331.
Fowler, Floyd l, Anthony M. Roman y Zhu Xiao Di (1998): «Mode effects in a
survey of medicare prostate surgery patients». Public Opinion Quarterly, vol.
62, pp. 29-46.
Frankell, Martin R., y Lester R. Frankel (1987): «Fifty years of survey sampling
in the United States». Public Opinion Quarterly, vol. 51, pp. 127-138.
Gallup, George H., y Saul Rea (1940): The Pulse ofDemocracy. Nueva York: Si-
mon and Schuster.
Gallup, George H. (1948): A Guide to Public Opinion Pol/s. Princenton: Princen-
ton University Press. Reproducido parcialmente en Christenson, M. Reo, y
Robert O. Williams (eds.) (1962): Voice of the People: Readings in Public
Opinion and Propaganda. Nueva York: McGraw-Hill Book Company.
García España, Enrique (1969): Diseño de la Encuesta General de Población.
Madrid: Instituto Nacional de Estadística.
Goyder, John (1985): «Nonresponse in surveys: a Canadian-United States compa-
rison». The Canadian Journal ofSociology/Cahiers Canadiens de Sociologie,
vol. 10, 3, pp. 231-251.
Goyder, John y Jean McKenzie Leiper (1985): «The decline in survey response: a
social value interpretation». Sociology, vol. 19,1,55-71.
Goyder, John (1987): The Si/ent Minority: Nonrespondents in Sample Surveys.
Boulder, Colorado: Westwiew Press.
Groves, Robert M. (1987): «Research on survey data quality». Public Opinion
Quarterly, vol. 51,3, pp. 156-172.
- (1989): Survey Errors and Survey Costs. Nueva York: John Wiley & Sonso
- (1993): Materiales del curso Survey Errors and Survey Costs. Escuela de Ve-
rano de la Universidad de Michigan.
Groves, Robert M., y Nancy H. Fultz (1985): «Gender effects among telephone
interviewrs in a survey of economic attitudes». Sociological Methods and Re-
search, vol. 14, pp. 31-52.
Groves, R. M., R. B. Cialdini y M. P. Couper (1992): «Understanding the decision
to participate in a survey». Public Opinion Quarterly, 56, pp. 475-495.
Hansen, M. H., YW. N. Hurwitz (1946): «The problem of non response in sam-
pie surveys». Journal of the American Statistical Association, vol. 41,
pp. 517-529.
Hoinville, Geralcl, Roger Jowell y Asociados (1978): Survey Research Practice.
Londres: Heinemann Educational Books.
Holahan, C. 1 (1977): «Effects of urban size and heterogeneity on judjed appro-
piateness of altruistic responses: situation vs. subject variables». Sociometry,
40, pp. 378-382.
House, James S., y Sharon Wolf (1978): «Effects of urban residence on interper-
sonal trust and helping behavion>. Journal of Personality and Social Psycho-
logy, vol. 36, n.o 9, pp. 1029-1043.
Hox, 1. 1., Y E. D. De Leeuw (1994): «A comparison ofnon response in mail, te-
lephone and face to face surveys». Quality & Quantity, 28, pp. 329-344.
Ibáñez, Jesús (1969): «Investigación profunda y motivación». En Instituto Na-
cional de Publicidad, Marketing para Publicitarios. Madrid: Instituto Na-
cional de Publicidad.
- (1985): Del Algoritmo al Sujeto. Perspectivas de la investigación social. Ma-
drid: Siglo XXI.
Instituto Nacional de Estadística (1991): Evaluación de la Calidad de los Datos
de la Encuesta de Población Activa de J990. Madrid: Instituto Nacional de
Estadística.
Kalton, Graham (1983): Compensatingfor Missing Data in Surveys. Ann Arbor:
Universidad de Michigan, Institute for Social Research.
- (1989): Compensating for Missing Survey Data. Curso impartido en el VII
Seminario de Estadística, organizado por el Instituto Vasco de Estadística.
Kalton, Graham y Daniel Kasprzyk (1986): «The treatment of missing survey
data».SurveyMethodology, vol. 12, 1, pp. 1-16.
Kinnear, Thomas C., y James R. Taylor (1994): Investigación de mercados: un
enfoque aplicado. Madrid: McGraw-Hill.
Kish, Leslie (1965): Survey Sampling. Nueva York: John Wiley & Sonso Existe
versión en castellano (1972): Muestreo de Encuestas. Méjico: Trillas.
Lin, I-Fen, y Nora Cate Schaeffer (1995): «Using survey participants to esti-
mate the impact of nonparticipatioll». Public Opinion Quarterly, vol. 59,
pp. 236-258.
Lynn, Peter, y Roger Jowell (1996): «How might opinion polls be improved?: the
case for probability sampling». Journal of the Royal Statistical Society, A,
159, Part 1, pp. 21-28.
Madow, W. G., 1. Olkin yO. B. Rubin (1983): Incomplete Data in Sample
Surveys. Nueva York: Academic Press.
Malhotra, Naresh K. (1997): Investigación de mercados: un enfoque práctico.
México: Prentice Hall.
Marquis, K. (1979): «Survey response rates: sorne trends, causes and correla-
tes». Trabajo presentado en la 2nd Biennial Health Survey Methods Re-
search Conference, Washington OC, National Center for Health Services
Research.
Marsh, C. (1982): The Survey Method: the Contribution ofSurveys to Sociologi-
cal Explanation. Londres: Allen & Unwin.
McCornbs, M. E., YD. L. Shaw (1972): «The agenda-setting function of mass
media». Public Opinion Quarterly, vol. 36, pp. 176-187.
Moser, C. A., y G. Kalton (1977): Survey Methods in Social Investigation. Lon-
dres: Heinemann Educational Books.
6
Murgui, Santiago, Juan Muro y Ezequiel Uriel (1992): «Influencia de las sustitu-
ciones en la calidad de los datos en la Encuesta de Condiciones de Vida y Tra-
bajo en España (ECVT)>>. Estadística Española, n.O 139, pp. 137-149.
Muro Romero, 1. de Dios, 1. L. Raymond Bara, Luis Toharia Cortés y Eze-
quiel Uriel Jimenez (1988): «La Encuesta de Población Activa y la En-
cuesta de Condiciones de Vida y Trabajo». Estadística Española, n.o 119,
pp. 379-405.
Nederhof, A. 1. (1987): «When neutrality is negative». Quality & Quantity, 21,
pp. 425-432.
Oh, H. L. Y F. Scheuren (1983): «Weighting adjustment for unit non response».
En W. G. Madow, 1. Olkin y D. B. Rubin (eds.) Incomplete Data in Sample
Surveys, 2 vols., Teoría y Bibliografia. Nueva York: Academic Press.
Oksenberg, Lois, Lerita Coleman y Charles F. Cannell (1986): «Interviewer's voi-
ces and refusal rates in telephone surveys». Public Opinion Quarterly, vol. 50,
pp. 97-111.
Ordas Asensio, Alfonso (1984): «Control de calidad de la investigación de merca-
do». Investigación y Marketing, 15, pp. 13-17.
Ortega Martínez, Enrique (1990): Manual de investigación comercial. Madrid:
Pirámide.
- (1990b) «El error en la investigación de mercado». Investigación y Marketing,
32, pp. 5-14.
Ortí, Alfonso (1993): «El proceso de investigación de la conducta como proceso
integral: complementariedad de las técnicas cuantitativas y de las prácticas
cualitativas en el análisis de las drogodependencias». En Colegio de Doctores
y Licenciados en CC. Políticas y Sociología (ed.) Las drogodependencias:
perspectivas sociológicas actuales. Madrid: Colegio de Doctores y Licencia-
dos en CC. Políticas y Sociología.
O'Neil, M. (1979): «Estimating the non response bias due to refusals in telephone
surveys». Public Opinion Quarterly, vol. 43, pp. 218-232.
Platek, R. (1987): Metodología y tratamiento de la no respuesta. Vitoria: Instituto
Vasco de Estadística (EUSTAT), cuaderno n.O 10.
Politz, Alfred, y Willard Sirnnl0ns (1949): «An attempt to get the "not-at-homes"
into the sample without callbacks». Journal ofthe American Statistical Asso-
ciation, 44, pp. 9-31.
Rodríguez Osuna, Jacinto (1991): Métodos de muestreo. Cuadernos Metodológr-
cos n.o 1. Madrid: Centro de Investigaciones Sociológicas.
- (1991) (1993): Métodos de muestreo. Casos prácticos. Cuadernos Metodoló-
gicos n.o 6. Madrid: Centro de Investigaciones Sociológicas.
Rositi, F. (1995): «Ideologia del sondaggio: considerazioni impolitiche». en AS-
SIRM e RAI Convegno su Ragione democratica e qualitá di sondaggi. Milán,
7 de abril.
Ross, H. L. (1963): «The inaccessible respondent: a note on privacy in city and
conntry». Public Opinion Quarterly, vol. 27, pp. 269-275.
Sánchez Carrión, Juan Javier (1984): «Análisis de tablas de contingencia: mode-
los 10g-lineaD>. En 1. 1. Sánchez Carrión (ed.) Introducción a las Técnicas de
Análisis Multivariable. Madrid: Centro de Investigaciones Sociológicas.
- (1996): «La calidad de la encuesta». Papers, 48, pp. 127-146.
- (1999): Manual de Análisis Estadísticos de los Datos. Madrid: Alianza Edito-
rial, Manuales (2.
a
ed. ampliada).
Sánchez Crespo, 1. L. (1984): Curso intensivo de muestreo en poblaciones finitas.
Madrid: Instituto Nacional de Estadística.
Santesmases Mestre, Miguel (1985): «Estimación de las respuestas de los "no
sabe/no contesta" en los estudios de intención de voto». Investigación y Mar-
keting, n.o 17, pp. 5-8.
Schleifer, S. (1986): «Trends in attitude toward and participation in survey rese-
arch». Public Opinion Quarterly, vol. 50, pp. 17-26.
Schuman, Howard, y Grahan Kalton (1968): «Survey methods». En Gardner Lind-
zey y ElIiot Aronson (eds.) The Handbook of Social Psychology. Reading,
MA: Addison-Wesley.
Schuman, Howard, y Stanley Presser (1981): Questions and answers in attitude
surveys. Experiments on question form, order and contexto Nueva York: Aca-
demic Press Inc.
Sharp, Laura M. (1984): «Researchers and respondents in the 1980s». Public
Opinion Quarterly, vol. 48, pp. 680-685.
Singer, E., H. Hippler y N. Schwarz (1992): «Confidentiality assurances in surveys:
reassurance or threat?». International Journal of Public Opinion Research, 4,
pp. 256-266.
Smith, Tom W. (1983): «The hidden 25 percent: an analysis ofnonresponse on the
1980 General Social Survey». Public Opinion Quarterly, vol. 47, pp. 386-404.
Smith, T. M. F. (1983): «On the validity ofinferences fram non random samples».
Journal ofthe Royal Statistical Society, A, 146, parto 4, pp. 394-403.
Solís, Carlos (1994): Razones e intereses. La historia de la ciencia después de
Khun. Barcelona: Paidós.
Steeh, C. (1981): «Trends in Nonresponse Rates». Public Opinion Quarterly, vol.
45, pp. 40-57.
Stephan, Frederick, y Philip 1. McCarthy (1958): Sampling Opinions. Nueva York:
John Wiley & Sonso
Stephenson, C. Bruce (1979): «Probability sampling with quotas: an experiment».
Public Opinion Quarterly, vol. 43, pp. 477-496.
Stinchcombe, Arthur L.; Calvin Jones y Paul Sheatsley (1981): «Non response
bias for attitude questions». Public Opinion Quarterly, vol. 45, pp. 359-375.
Thomsen,1. (1973): «A note on the efficiency ofweighting subclass means to re-
duce the effects of nonresponse when analyzing survey data». Statistik Tids-
krij1, 4, pp. 278-283.
Traugott, Michael W. (1987): «The importance of persistence in respondent selec-
tion for preelection surveys». Public Opinion Quarterly, vol. 51, pp. 48-57.
Wadsworth, J., J. Field; A. M. Johnson; S. Bradshaw y K. Welling (1993):
«Methodology of the National Survey of Sexual Attitudes and Lifestyles».
Journal ofthe Royal Statistical Society, A, 156, Part 3, pp. 407-421.
WalIis, Roy (ed.) (1979): On the Margins of Science: the Social Construction 01
Rejected Knowledge. Sociological Review Monograph, marzo, 27.
Weeks, M., y otros (1980): «Optimal times to contact sample households». Public
Opinion Quarterly, vol. 44, pp. 101-114.
Wilcox, 1. B. (1977): «The interaction of refusals and not-at-home sources of res-
ponse bias». Journal ofMarketing Research, vol. XIX, pp. 592-597.
Worcester, Robert (1996): «Political polling: 95% expertise and 5% luck». Jour-
nal ofthe Royal Statistical Society, A, 159, Part 1, pp. 5-20.

Sign up to vote on this title
UsefulNot useful