PARTE I LA LOGICA DE LA INVESTIGACION SOCIAL TEMA 1. LOS PARADIGMAS DE LA INVESTIGACIÓN SOCIAL.

1.1 Khun y los paradigmas de la ciencia Paradigma fue utilizada tanto por Platón en el sentido de modelo como por Aristóles en el sentido de ejemplo. Desde sinónimo de teoria a articulación interna de una teoria, desde sistema de ideas de orden precientífico a corriente de pensamiento o escuela, desde procedimiento de investigación ejemplar a equivalente a método. La reflexión de Khun tiene como objeto el desarrollo histórico de las ciencias y constituye un rechazo a la concepción tradicional de la ciencia entendida como acumulación progresiva y lineal de nuevos logros. Según Khun, existen momentos revolucionarios enlos que la relación de continuidad con el pasado se interrumpe y se inicia una nueva construcción, cita el desarrollo de la física óptica, para la cual la luz estaría constituida por fotones (ondas y particulas) teoría que nació en este siglo porque antes se enseñaba que la luz era un movimiento ondulatorio transversal. En el siglo XVII la concepción dominante era la de la óptica newtoniana, según la cual la luz estaba constituida por corpúsculos materiales. El paso de una visión teórica a otra es tan global y tiene consecuencias tan radicales sobre la disciplina implicada, que Khun no duda en utilizar el término "revolución" y habla precisamente de "revolución científica". ¿Qué entiende Khun por paradigma?. Con este término designa una perspectiva teórica: a) compartida y reconocida por la comunidad de científicos de una determinada disciplina. b) Fundada sobre adquisiciones que preceden a la disciplina misma c) Que actúa dirigiendo la investigación en términos tanto de: C1) identificación y elección de los hechos relevantes a estudiar como de C2) formulación de hipótesis entre las que situar la explicación del fenómeno observado, y de C3) preparación de las técnicas de investigación empíricas necesarias. Sin un paradigma una ciencia no tendría orientaciones y criterios de elección: problemas, métodos, técnicas son igualmente legítimos. El paradigma representa la guía para la ciencia: proporcionan a los científicos no sólo un modelo, sino también algunas indicaciones indispensables para construirlos. En cuanto aprende un paradigma el científico adquiere teorías, métodos y criterios. Es algo amplio y también más general que una teoría: es una visión del mundo. Khun define ciencia normal como aquellas fases de una disciplina científica durante las cuales predomina un determinado paradigma, que es compartido por la comunidad de 1

científicos. Khun subraya que el paradigma es una característica definitoria de las ciencias maduras. Se abre la posibilidad dentro de una determinada disciplina, de varios paradigmas, y la sociología pasa de ser preparadigmática, a ser una disciplina multiparadigmática. Sigue siendo fundamental en el concepto de paradigma su carácter preteórico, en último término metafísico, de "visión que orienta"; de imagen del mundo, o mejor aún, como escribe Friedrichs, de "imagen fundamental que una disciplina tiene de su objeto" que guía y organiza tanto la reflexión teórica como la investigación empírica, y como tal precede a ambas. 1.2 Tres cuestiones de fondo Nos limitaremos a un examen de carácter histórico sobre la evolución de la disciplina. Sabemos que entre las funciones de un paradigma está también la de definir los métodos y las técnicas de investigación aceptables en una disciplina. Existen dos grandes marcos generales de referencia que han orientado históricamente la investigación social desde su nacimiento: la visión "empirista" y la "humanista". Se trata de dos divisiones orgánicas y fuertemente contrapuestas de la realidad social de los modos de conocerla, que han generado dos bloques coherentes y muy diferenciados entre sí de técnicas de investigación. Son concepciones generales sobre la naturaleza del a realidad social, del hombre y sobre el modo en que éste puede conocer aquélla. Tales interrogantes pueden ser reconducidos a tres cuestiones fundamentales: ¿existe la realidad (social)?, ¿Es conocible?, ¿Cómo puede ser conocida? … en otras palabras: Esencia, Conocimiento, Método. La cuestión ontológica. Concierne a la naturaleza de la realidad social y su forma. Se nos interroga sobre si los fenómenos sociales son "cosas en sí mismas" o "representaciones de cosas" La cuestión epistemológica. Relación entre el quién y el qué. Concierne a la cognoscibilidad de la realidad social, y ante todo pone el acento sobre la relación entre estudioso y realidad estudiada. Si el mundo social existe en cuanto tal independientemente del actuar humano, será legítima la aspiración de alcanzarlo, de conocerlo con distancia objetiva, sin temor de alterarlo en el transcurso del proceso cognoscitivo. Las características (la forma) que el conocimiento puede adquirir están estrechamente ligadas a la respuesta dada a este problema: éstas pueden ir desde "leyes naturales", deterministas dominadas por las categorías de causa-efecto, a leyes menos imperativas, a generalizaciones de distinta forma, a ninguna forma de generalización. La cuestión metodológica. Es la cuestión del "cómo". Se refiere a la instrumentación técnica del proceso cognoscitivo. Resulta difícil separar las concepciones sobre la naturaleza de la realidad social de las reflexiones sobre su cognoscibilidad, y éstas de las técnicas utilizables para su conocimiento. 1.3 Positivismo

2

El paradigma positivista es: el estudio de la realidad social utilizando el marco conceptual, las técnicas de observación y medición, los instrumentos de análisis matemático, los procedimientos de inferencia de las ciencias naturales. Por marco conceptual entendemos las categorias de "ley natural", de causa-efecto, de comprobación empírica, de explicación… Por técnicas de observación y medición entendemos: el uso de variables cuantitativas incluso para fenómenos de naturaleza más cualitativa, los procedimientos de medición aplicados a orientaciones ideológicas, capacidades mentales, estados psíquicos. Finalmente, por procedimientos de deducción entendemos: el proceso que a partir de lo conocido permite avanzar hipótesis sobre lo desconocido, y por tanto el paso de la observación particular a la ley general, la utilización de la teoría para fines de previsión, la inferencia a partir de la muestra a la población total. La ciencia es universal y el método científico es único. Las ciencias de la sociedad no son distintas de las de la naturaleza y el modo de pensar positivo que ha llevado a conquistas tan grandes en el campo de la astronomía, de la física, de la biología, está destinado a triunfar también cuando se pasa de los objetos naturales a los sociales: a la religión, a la política, al trabajo. El primer intento de aplicar esta perspectiva teórica global a la investigación empírica fue el de Durkheim. Comte no se ocupó de cosas sino de conceptos. Durkheim sin embargo se esforzó por traducir los principios del pensamiento positivo en praxis empírica, es el primer científico social, el primer sociólogo positivista verdadero. La primera regla , que es la fundamental, impone considerar los hechos sociales como cosas. Hechos sociales, que tienen las mismas propiedades que las cosas del mundo natural. Y de ello se derivan dos consecuencias. Por una parte, los hechos sociales no están sujetos a la voluntad del hombre, sino que ofrecen resistencia a su intervención, lo condicionan y lo limitan. Por otra, precisamente como los fenómenos del mundo natural, los hechos también funcionan según sus propias reglas. Poseen una estructura determinista que el hombre, a través de la investigación cientifica puede descubrir. De ahí la asunción, no obstante sus diferentes objetos, de una unidad metodológica sustancial entre mundo natural y mundo social. La primera afirmación, es pues, existe una realidad social fuera del individuo. La segunda afirmación, es, esta realidad social es objetivamente conocible. La tercera afirmación, es, esta se puede estudiar con los mismos métodos de las ciencias naturales. La manera de proceder de este conocimiento es fundamentalmente inductivo, entendiendo por inducción "el paso de los particular a lo universal", de la observación empírica, de la identificación de regularidades y repeticiones en las fracciones de realidad empíricamente estudiada, se llega a generalizaciones o a leyes universales. En el procedimiento inductivo está implícita la asunción de una orden y una uniformidad de la naturaleza, de principios organizadores de carácter universal, y el cometido científico es, precisamente, descubrirlos. Con respecto a la forma de este conocimiento en la mayoría de los casos adoptarán las características de un nexo causa-efecto. 1.4 Neopositivismo y postpositivismo Dentro de la visión positivista se ha desarrollado, a lo largo del siglo XX, un proceso continuo de revisión y adaptación, movido justamente por la conciencia de sus propias

3

limitaciones intrínsecas y del intento de superarlas. La tranquilizadora claridad y linealidad del positivismo del siglo XIX deja libre el terreno para un positivismo del s. XX mucho más complejo, articulado y en algunos casos no exento de contradicciones y puntos oscuros; sin dejar sin embargo de cumplir con algunas premisas de base, como el realismo ontológico y la posición preeminente que defiende la observación empírica como medio para conocer dicho mundo. Los dos momentos del neopositivismo son, el periodo que va de los años treinta a los años sesenta y del postpositivismo con el que se suele identificar su evolución a partir de finales de los años sesenta. Una de las primeras revisiones del positivismo del siglo XIX la llevó a cabo la escuela conocida con el nombre de positivismo lógico, que ha dado origen al neopositivismo. Este movimiento se formó en torno a las discusiones del "Circulo de Viena" y sobre cuyas posiciones se formó un grupo análogo en Berlín. La emigración a EEUU de algunos representantes acreditados de esta escuela difundió el pensamiento neopositivista y su influencia sobre las otras disciplinas, la sociología incluida. En EEUU se desarrolló, a partir de los años treinta, un rico filón de investigación sociológica empírica. La nueva visión asigna un papel central a la crítica de la ciencia, pasando al del análisis crítico de cuanto es elaborado en las teorías de cada disciplina. De ahí el rechazo a las "grandes cuestiones" y a todas las metafísicas definidas exentas de sentido en tanto que indemostrables. En cambio se dedica la máxima atención a los problemas metodológicos de cada ciencia, a la sintaxis de su lenguaje y de sus elaboraciones teóricas, ala crítica de sus tesis y a los procedimientos de validación de las elaboraciones conceptuales a través de la verificación empírica. Se otorga importancia a las cuestiones epistemológicas, es comprensible la influencia que tuvo sobre la metodología de las ciencias, incluidas las ciencias sociales. Uno de los postulados el neopositivismo es que el sentido de una afirmación deriva de su verificabilidad empírica, de la posibilidad de poder formular a partir de ella una definición operativa para controlar su validez."El siginificado de una proposición es el método de su verificación". La principal consecuencia fue su forma de hablar, un lenguaje extraido de las matemáticas y las estadísticas, el lenguaje de las variables. La variable con sus características de neutralidad, objetividad y operatividad matemática, se convertía así en la protagonista del análisis social, de esta manera se despersonaliza. Ya nada podía ser como antes, la concepción de la ciencia del s.XX estaba muy lejos de las sólidas certezas del positivismo del s. XIX, en el que dominaba la concepción "mecánica" de la realidad, la seguridad en las leyes inmutables, la fe en el progreso científico. La mecánica cuántica, la relativización del espacio y del tiempo efectuada por Einstein, introducen elementos de probabilidad y de incertidumbre sobre puntos cruciales, como el concepto de la ley causal, la objetividad-inmutabilidad del mundo exterior e incluso sobre las categorias clásicas del espacio y el tiempo. El momento crucial de este cambio se localiza en el paso de la física clásica a la cuántica, perdiéndose la certidumbre de la ley, que quiebra el ideal clásico de la ciencia como sistema acabado de verdades necesarias. Las teorías científicas ya no están destinadas a explicar los fenómenos sociales mediante esquemas de naturaleza lógica coercitiva, y la ley determinista es sustituida por la ley probabilística, que implica elementos de accidentalidad, la presencia de perturbaciones y fluctuaciones. Si esto es válido para el mundo natural, será más válido para el social.

4

de la cuantificación y de la generalización.1 Los inicios La visión inicial de la "sociología comprensiva" debe a Max Weber a principios de este siglo. la centralidad del método "científico" en la investigación social. del a etnometodología. Por tanto. es decir. 5 . El hombre no puede conocer sino sólo conjeturar. El nuevo positivismo. seguida por la reinterpretación del planteamiento original que se ha ido concretando a partir de los años sesenta sobre todo en la sociología americana. con la "no falsificación" de la teoría por parte de los datos. La orientación postpositivista dice que la observación de la realidad no es una fotografía objetiva. así como la neutralidad del lenguaje observador. bajo un único título podemos incluir la investigación social. y siempre expuesta al riesgo de una posible falsación. mediante la prueba de que la teoría es confirmada por los datos: sino que se realiza solamente en negativo. de condicionamientos sociales y culturales. De este planteamiento se deriva un sentido de provisionalidad de cada hipótesis teórica. son simplemente compatibles con ella. fundado sobre las bases de la operacionalización.XX. y la analogía de fondo entre el método de las ciencias sociales y el de las ciencias naturales. es decir.5.XIX al del s. El positivismo moderno. No existe la discontinuidad que hemos identificado en el paso desde el positivismo del s. Los procedimientos operativos. las modalidades de obtención de datos. por tanto. 1. mediante la constatación de que los datos no contradicen la hipotesis. Pierde las certidumbres. Este procedo no conlleva una anulación del espíritu empirista. las operaciones de medición.. cuando dice que las leyes son probables y abiertas a revisión. pero no repudía el fundamento empirista. de la sociología fenomenológica. clasificando bajo el término general de "interpretavismo" todas las visiones teóricas para las cuales la realidad no puede ser simplemente observada. derrroca incluso la última de las certezas positivistas. y que ha dado lugar a las diversas corrientes del interaccionismo simbólico. La tesis de la teoricidad de las observaciones empíricas. y de que. La comparación entre teoría y descubrimiento empírico no puede darse en positivo. Se produce una importante apertura a las técnicas cualitativas. ha recorrido un largo camino desde la interpretación ingenua de las leyes deterministas del positivismo originario. Y la comprobación positiva no se da en tanto que los mismos datos podrían ser compatibles también con otras hipótesis teóricas. pero sin menoscabar la centralidad de las cuantitativas. la afirmación de que no existe una línea clara de separación entre conceptos teóricos y datos observados. nunca válida definitivamente. tanto la elaboración de la metodología como los primeros intentos de investigación empírica. Se mantiene.5 Interpretativismo 1. sino que tiene que ser interpretada. sino que depende de la teoría incluso el simple registro de la realidad depende de la ventana mental del investigador.Categoría de falsabilidad. las elaboraciones estadísticas. no sufren variaciones de fondo. tiene en su base el lenguaje de siempre. la de la objetividad del dato obtenido. diferentes entre sí pero unidas por la atención común a la interacción individual. Criterio de validación empírica de una teoría o hipótesis teórica.

sino un principio de elección: sirve para establecer un campo de investigación. La neutralidad valorativa de las ciencias histórico-sociales sigue siendo un fundamento irrenunciable. su unicidad e irrepetibilidad. asumiendo un papel orientativo con respecto a la investigación. el punto de vista específico en el que ésta se coloca. Incluso privados de una función valorativa. Nosotros explicamos la naturaleza mientras que entendemos la vida síquica. aún así no se puede impedir en su interior presupuestos de valor. captar las dimensiones del propósito y la intención de la acción humana. como en los de la posibilidad de llegar a enunciados con cierto carácter de generalidad. el conocimiento se producirá solamente a través de un proceso muy distinto. introduce la separación entre ciencias nomotéticas. sino de interpretación: entender el objetivo de la acción. delimitando su propio campo. Una vez establecida la neutralidad valorativa como primera condición para la objetividad de las ciencias sociales. para las ciencias del espiritu. siendo más evidente en él la conciencia del problema que la capacidad para darle una respuesta unívoca.Dilthey aúna en su polémica tanto el idealismo hegeliano como el positivismo comtiano. es decir. Weber insistió en la necesidad de que las ciencias histórico-sociales estén libres de cualquier juicio de valor. que tendrían en común "la misma fe en la historia como progreso necesario a través de fases igualmente necesarias" a partir de una visión de la historia entendida como "construcción del hombre. Mientras que el objeto de las ciencias naturales lo constituye una realidad externa al hombre.2 Max Weber: Objetividad y orientación hacia la individualidad. aun reconociendo la realidad del condicionamiento. es de método. 1. es decir. Weber se adhiere en este punto a la distinción de Rickert entre "juicio de valor" y "relación de valor". aun así no se puede impedir que éstos intervengan en la elección de los problemas que hay que estudiar.5. el de la comprensión. independencia de los juicios de valor. orientadas a captar la individualidad de los fenómenos. en primer lugar. encaminadas a la identificación de leyes generales y ciencias idiográficas. La preocupación de Weber es no caer en el individualismo subjetivista y en el psicologismo. La relación de los valores viene a designar la dirección particular del interés cognoscitivo que mueve la investigación. entre el cumplimiento del deber científico de ver la realidad de los hechos y el cumplimiento del deber práctico de defender los propios ideales. Esta última "no es un principio de valoración. aun partiendo de una orientación hacia la individualidad. También el componente 6 . en el que indagación procede de manera objetiva para llegar a la explicación causal de los fenómenos. Windelband. de la interrelación individual. "la capacidad de realizar la distinción entre el conocer y el valorar. Se trata de comprensión racional de las motivaciones de la acción. Las ciencias sociales. los valores siguen estando presentes. Éste es el principio al que debemos atenernos más solidamente. Si las ciencias histórico-sociales no pueden admitir en su interior presupuestos de valor. Y para Weber el método es el de "comprender". basando su diferencia justamente en la relación que se instaura entre investigador y realidad estudiada. No de intuición. cumpliendo con lo que podríamos llamar una "función selectiva". es decir. se distinguen de las ciencias naturales por su "orientación hacia el individuo" Orientación que. que así se mantiene también en el curso del proceso cognoscitivo. y que devuelve por tanto al hombre su libertad. según Weber. al no darse esta separación entre observador y realidad estudiada. Dilthey realiza en su Introducción a las ciencias del espíritu una celebre distinción entre ciencias de la naturaleza y ciencias del espíritu. el quiere salvar la objetividad de la ciencia social tanto en los términos de su "neutralidad valorativa".

a cualquier forma de evolucionismo. Para Weber el número y el tipo de las causas. Los tres tipos ideales de poder identificados por Weber. la oposición a cualquier filosofía de la historia. en una perspectiva "micro". contradictoria y desordenada. que han determinado un acontecimiento individual cualquiera. pero sí es alcanzable el de esbozar las condiciones que los hacen posible.de identificación con el otro. Todo comportamiento tiene una racionalidad íntima propia. pues. Son cáscaras vacías. cuando se trata de la individualidad de un fenómeno. por tanto. de leyes. De este modo. son ideales en el sentido de que son constucciones mentales del hombre. un sentido interior.. son modelos teóricos que ayudan al investigador a interpretarla. No hablemos. Esas formas se reconstruyen a través de un proceso de abstracción que. 7 . el Estado. procede a coordinarlos dentro de un marco coherente. escribe Weber. no es una cuestión de leyes. tradicional y racional-legal ha existido nunca en su forma pura. sino una cuestión de conexiones causales concretas. Weber se movió en un plano macrosociológico. el poder carismático. presente en el Verstehen. ontológica entre las ciencias naturales y las ciencias sociales es la irreductibilidad de las segundas a los métodos de investigación de las primeras. el poder. mucho más compleja. y la cuestión causal. una abstracción que nace del reconocimiento empírico de uniformidad. y su interacción es la que crea las estructuras. de enunciados de posibilidad. En definitiva. Desarrollos posteriores Todas las posteriores perspectivas tienen en común las características fundamentales del planteamiento weberiano: el fuerte convencimiento antideterminista. es de hecho siempre infinito. El movimiento en EEUU en los años 60 desarrolla la perspectiva weberiana en su dirección natural. la diferencia fundamental. no deben ser confundidos con la realidad. ¿cómo es posible llegar a un conocimiento objetivo con caracteres de generalidad? Para Weber los tipos ideales son formas de actuación social que pueden encontrarse de modo recurrente en la manera en que los individuos se comportan. la burocracia. Si la sociedad está edificada a partir de las interpretaciones de los individuos. Los tipos ideales. interesado en comprender fenómenos macroestructurales como la economía. es decir. ficciones exentas de vida. en cambio. Estos han sido construidos de modo ideal heurístico.3. El tipo ideal es. resulta inalcazable el objetivo de establecer los factores determinantes de un acontecimiento social o un comportamiento individual determinados. sino de conexiones causales o mejor dicho utilizando una expresión tomada de Boudon. ¿Cómo puede nacer la objetividad desde esta orientación individualista? Si el punto de partida está representado por el individuo y por el sentido subjetivo de su acción. aislando algunos elementos dentro de la multiplicidad del dato empírico. La realidad es. tiene como fin la interpretación racional: identificarse con el otro "para comprender". También la crítica respecto a cualquier intento de explicar la acción humana a partir del sistema social y de los factores de condicionamiento presentes en él proviene de las aportaciones de Weber. Las uniformidades que el investigador persigue y encuentra en su interpretación de la realidad social no son las leyes. 1.5. la posibilidad de una selección de entre la infinidad de los elementos determinantes. desarrollan una función heurística en el sentido de que dirigen su conocimiento. la religión. en una perspectiva de historia comparada. debemos observar dicha interacción para entender la sociedad.

dominado por el mito del método y el dato. Si la vida humana es en su esencia distinta de la del mundo natural. En la tensión entre teoría y comprobación empírica. se desplaza la atención del contenido al método. adoptar "el lenguaje de las variables". Las nuevas corrientes a partir de los años 60 neocomprensivas pusieron el acento. no descuida las grandes problemáticas sistémicas ni la dimensión institucional de la sociedad. y nuevas tendencias. por tanto. Se trata de un proceso de reducción progresiva (reduccionismo) que ha atravesado varias fases. de los problemas de la operacionalización de los conceptos a laos problemas prácticos de la obtención de análisis de datos privados de bagaje teórico y metodológico. todo ello niega la posibilidad de ir más allá 8 .6 Críticas. por tanto. es decir. hemos visto que se prestaba una gran atención y cuidado a la formulación y el desarrollo de técnicas y procedimientos empíricos. En definitiva este proceso de reducción se concluyó desplazando la atención del método al dato. privilegiar la segunda ha significado excluir del ámbito de las consideraciones teóricas aquellos interrogantes que no fueran inmediata y simplemente traducibles a procedimientos empíricamente comprobables. silenciaba precisamente la dimensión individual. asimilando la realidad social y la acción humana a algo objetivamente estudiable. conviertiéndose aquí en el objeto primario de la investigación. El enfoque subjetivista elaborará. sino recoger y describir los datos con la ingenua ilusión de que los datos hablen por sí mismos. En primer lugar. Asímismo. Por lo que se refiere al paradigma positivista. especialmente en el periodo del neopositivismo. Las diferencias de fondo implican también una diferencia de técnicas y de procedimientos de investigación. en el carácter subjetivista del planteamiento original weberiano. La radicalización de esta tendencia ha llevado a una especie empiricismo antiespeculativo. el aspecto humano. La primera consideración crítica sostiene que el subjetivismo extremo excluye la posibilidad misma de la existencia de la ciencia y en particular de la ciencia social. en detrimento de la profundización del contexto de los descubrimientos. En Weber está todavía muy presente la tensión por la superación de la subjetividad: él no excluye la posibilidad de llegar a formas de generalización cognoscitiva. aun partiendo de la atención sobre el individuo. que darán lugar al cuerpo de la denominada "investigación cualitativa" 1. procedimientos y técnicas propias de observación y de análisis de la realidad empírica. Dos criticas de fondo. acentuando los problemas de comprobación o de confirmación de la hipótesis en la actividad científica. por último. por el contrario. ars inveniendi. desplazaron la atención sobre el mundo de la vida cotidiana y la interacción intersubjetiva. perspectivas radicales.El programa "subjetivista" es ante todo una reacción frente al palnteamiento "objetivista" positivista. y una parte relevante de sus exposiciones metodológicas está dirigida al intento de conciliar causalidad y comprensión. La realidad es una pura construcción subjetiva. en el que el objetivo del científico social ya no es formular teorías y después comprobarlas empíricamente. entonces tendrá que ser estudiada con métodos diferentes de los positivistas. se reducen los límites de la exploración teórica. El subjetivista no puede. es decir ars probandi. En segundo lugar. que.

de la lucha contra la pobreza y las desigualdades. consideración del "poder" como categoría explicativa que está en el origen de todas las relaciones y la estructuras sociales. El postmodernismo sería un "ir más allá" de los logros del modernismo. El postmodernismo. entendido como heredero directo del Iluminismo: ejercicio crítico de la razón sobre el hombre. b) rechazo de la racionalidad. comenzó a desarrollarse y a crecer también la denominada microsociología. que había dominado hasta ese momento la elaboración teórica y la investigación social. de la opacidad. de la multiplicidad de verdades locales y contextuales. 9 . y d)exaltación de lo "Otro". de la contradicción. han cobrado autonomía respecto a laos individuos y a sus elecciones. la década de los sesenta. basada en el orden y la racionalidad. en una crítica que podemos sintetizar brevemente en cuatro puntos: a) rechazo de teorías generales. las dinámicas interpersonales. c) exaltación del as diferencias. confianza en la ciencia. sobre la naturaleza y sobre la sociedad. En segundo lugar. a favor de la paradoja. del desarrollo y la difusión del movimiento feminista. sin embargo. compartían el hecho de poner en el centro de interés y de la investigación sociológica los pequeños hechos de la vida cotidiana. acusadas de totalitarismo homogeneizante. de la linealidad. aún teniendo también origen en la interacción individual. se acusa al enfoque interpretativo de excluir de sus intereses lo que debería ser objeto de la reflexión sociológica por excelencia: las instituciones. de las revueltas urbanas con fondo racial. de la visión de múltiples facetas alternativas e irreconciliables. Se consolidaron nuevas perspectivas teóricas. las microinteracciones entre los individuos. El último cuarto del siglo XX ha representado un periodo de reto en la historia de la investigación. en la simplicidad de la explicación científica y en el carácter acumulativo del saber. El modernismo. y el desarrollo de la teoría crítica y de nuevas perspectivas radicales que se colocaron en abierta polémica con la complaciente alianza entre neopositivismo y funcionalismo. celebración de las diversidades. de las minorías. podemos definir de manera muy simple este movimiento a partir de lo que rechazaba. universales. a favor de planteamientos y lenguajes teóricos múltiples en una exaltación de la fragmentación y de la no unidad de la explicación científica. También la no separación entre el estudioso y lo estudiado contribuye a esta negación. Éste sucedia a una década tumultuosa en la historia de las sociedades occidentales. Se les acusa de microsociologismo. de negación y represión de las diferencias entre las sociedades con el fin de perpetuar las aspiraciones hegemónicas del mundo y la cultura occidental. neoweberianos. con el nacimiento de enfoques neomarxistas. identificación con los oprimidos.del individuo y niega la objetividad del conocimiento. de imperialismo cultural. Aparte de estas macroperspectivas. rechazo del carácter acumulativo de la ciencia. de los movimientos por los derechos civiles. de las protestas estudiantiles. que. de la simplicidad del conocimiento científico. de lo distinto. que encabezaba diversas escuelas de pensamiento y diversas visiones teóricas. Corre el peligro de dejar fuera de su ámbito problemático los aspectos de la sociedad que.

en la que los pasos cruciales. de Sampson y Laub Debate entre investigación cuantitativa y cualitativa ha sufrido diferente etapas. al nacimiento de nuevas revistas científicas expresamente dedicadas al enfoque cualitativo. es posible insertar amplias porciones de técnicas cualitativas. propuestas. reflexiones. en el origen de esta investigación se encuentra una curiosa coincidencia: el hallazo. el planteamiento rígidamente interpretativo. examinaremos analíticamente las diferencias entre ambos enfoques. en los sótanos de la biblioteca de la Law School de la Universidad de Harvard.1.y con numerosos interrogantes en común. Iniciaremos este capítulo describiendo dos investigaciones. manuales… Ahora ilustraremos los paradigmas fundadores. así como un radio de acción necesariamente más limitado respecto al planteamiento cuantitativo. subrayando.la delincuencia juvenil . dos investigaciones realizadas sobre la misma temática . también por exigencias didácticas. descuidando tanto la infancia. ha llevado a la elaboración de nuevas técnicas de recogida y análisis del material empírico. Por otra parte. como el inicio de la edad laboral y el 10 .1. en el que el investigador trata de "ver el mundo con los ojos del sujeto estudiado". Existen múltiples posiciones intermedias y que. Hipótesis Los delitos cometidos principalmente por adolescentes. lo que éstos han generado sobre el terreno de la metodología.1 Paradigma Neopositivista: Crime in the making. 30 ambos criterios proporcionaron productos de alto valor y contribuyeron al avance de la disciplina. sobre todo dentro del criterio cuantitativo. investigaciones. En los sesenta el problema se replanteó a partir de una serie de importantes contribuciones teóricas. de unas 60 cajas que contenían el material original de una imponente investigación longitudinal.60 domino sobre todo la perspectiva cuantitativa. deciden reanalizar los datos para responder a los nuevos interrogantes que entretanto había planteado el desarrollo de la teoría y de la investigación a los estudiosos de la desviación de los menores.50. ante este inesperado hallazgo. las diferencias entre los dos puntos de vista. a partir de los ochenta la investigación cualitativa experimentó un agitado desarrollo. una realizada bajo la inspiración del paradigma neopositivista y la otra con la insignia del paradigma interpretativo: hemos elegido. La primera investigación que analizamos es fácilmente atribuible a la inspiración y a la instrumentación técnica de la corriente neopositivista. recogida a lo largo de 24 años (1939-63) Sampson y Laub. A continuación. en la que según algunos hay que buscar el origen del comportamiento antisocial. 2. para destacar mejor las diferencias entre los dos enfoques. como la edad adulta. Años 20. Crime in the Making. exige una identificación y una implicación mayor.CAPITULO 2 INVESTIGACIÓN CUALITATIVA CUANTITATIVA E INVESTIGACIÓN 2. que ha avivado el debate metodológico. En esta comparación entre perspectiva cuantitativa y cualitativa haré referencia de forma sustancial a dos "tipos ideales" de investigación. los estudios de sociología criminal se han concentrado sobre todo en esta edad. En los años 40.

varones. obteniendo información y datos sobre ellos en momentos sucesivos de su curso de vida. …) referidos por los sujetos mismos. y se consultaron los autos oficiales del sistema judicial. Todo ello en una visión global que se propone superar "el reducido marco de las perspectivas sociológicas y sicológicas hasta ahora dominantes en la criminología. Se registraron todos los comportamientos no sólo ilegales ( robo. Este punto de vista implica la necesidad de superar la formulación sincrónica o "transversal" (cross sectional) característica de estudios realizados sobre un grupo de individuos "fotografiados" en un momento determinado. sobre los argumentos: contexto familiar y delincuencia juvenil. familia desestructurada. Datos recogidos sobre 500 autores de delitos jóvenes. a sus familias y a sus profesores. estaba representada por la variable dicotómica colocada en la base del plan de muestreo de los 500 + 500 sujetos. 2. las variables dependientes de la investigación. destacan: a) marco teórico b) observaciones empíricas c) resultados de los análisis d) vuelta a la teoría. relaciones sociales adultas y cambio en el comportamiento criminal. blancos.3 Observación empírica y resultados del análisis Indice del "comportamiento desviado no oficial". Estos dos indicadores de desviación son.2 Diseño de la investigación La investigación de Sampson y Laub es un análisis secundario de los datos recogidos treinta años antes. hurto. los segundos en escuelas públicas de la misma zona. beber. Los primeros fueron localizados en dos correccionales. La parte expositiva de los resultados de la investigación cubre cinco capítulos del libro. con el fin de registrar los eventuales delitos cometidos. modelos comparados de crimen y desviación. trabajadores sociales.1. entre 10 y 17 años y sobre 500 jóvenes "normales". se reunieron las informaciones procedentes de las distintas fuentes y se construyeron tanto índices de desviación para cada comportamiento. papel de la escuela. para pasar a estudios diacrónicos ( o "longitudinales" ) a través de los cuales se sigue a un grupo de individuos durante un periodo determinado. barrio y cociente intelectual. juegos de azar. policías y jueces. origen étnico. por sus padres y por los profesores. en último término. hacer novillos. 11 . Los capitulos se desarrollan todos del mismo modo lineal.…) sino también de simple "mala conducta" (fumar. 2. esbozan las líneas fundamentales de una posible "teoría del control social informal articulada por edades" en la que para cada edad se discuten tanto las variables de fondo tradicionalmente consideradas las causas del comportamiento desviado (pobreza.1. Este indice representaba la desviación no oficial. como un índice de desviación global ( con puntuación entre 1 y 26). en parte a causa de la utilización de datos limitados a los adolescentes y a un momento determinado" para integrar la criminología en una perspectiva de "trayectoria vital". escaparse de casa. pueden introducir cambios radicales en la actitud social del individuo. continuidad en el tiempo del comportamiento. daños. infancia antisocial…) como los mecanismos informales de control social operativos en ese momento del ciclo de vida. Se les hizo un seguimiento sistemático entre 1939-48 con entrevistas a ellos mismos. sobre la base de un plano de correspondencia particularmente cuidadoso: para cada uno de los 500 autores de delito fue elegido un joven "normal" con las mismas características de edad. También se recogió información entre los vecinos. La desviación oficial.matrimonio. Sampson y Laub. del grupo de los compañeros y de hermanos/as.

De esta manera. con tres categorías: cómodo. ¿Qué significa eso? Significa que las variables estructurales no tienen un efecto directo sobre el comportamiento desviado. La variable dependiente de todo el modelo está representada por el comportamiento desviado. 12 . según los casos. "desviación del padre". la relativa al control familiar. "estatus socioeconómico". Cuando se analiza el modelo completo (variables estructurales básicas y variables procesales familiares. etc. una situación de disgregación familiar favorece episodios de abandono por parte de los padres (ausencia de control.Los autores distinguen en cada capítulo entre variables básicas o estructurales y variables de proceso o procesales. En resumen. ligadas a la relación afectiva con los padres. marginal. dada por el número de niños. "trabajo de la madre". facilita el surgimiento de comportamientos desviados. favorece el comportamiento desviado). el efecto de las variables estructurales básicas casi desaparece. y encuentran siempre fuertes correlaciones: entre las variables básicas y las variables procesales (correlación interpretable en el sentido de que las condiciones estructurales de la familia influyen en los lazos afectivos y la relación pedagógica). Ordenan las variables en tres bloques: las instrumentales básicas. los dos autores plantean un modelo teórico construido en dos fases. sino mediatizado por las variables "intervinientes" representadas por el vínculo-control familiar. abandono. por lo que concierne a la primera fase. con valor 1 cuando el niño ha crecido sólo con uno de los padres. Ponen en relación los tres bloques de dos en dos. trabajo…) a las que Sampson y Laub otorgan un papel fundamental en el proceso que lleva a la desviación. a su vez. disgregación familiar. escuela. a la presencia/ausencia de supervisión materna y a situaciones de rechazo. "desviación de la madre"… Identifican cinco "variables procesales familiares". las variables estructurales básicas influirían sobre el comportamiento desviado no de modo directo. "dimensión de la familia". Descripción de las variables por parte de los autores.). clasificada en tres categorías. y comportamiento desviado como dependiente). "movilidad residencial". Por ejemplo. las procesales familiares y las dos dependientes (comportamiento desviado). Sobre esta base. Pero a igual control y cuidado por parte de los padres hacia los hijos. dependiente. Las variables básicas o estructurales son las variables clásicas (pobreza. Vuelta a la teoría. y este hecho. los autores extraen de sus datos la conclusión de que "los procesos familiares de control informal tienen un importante efecto inhibidor sobre la delincuencia de los adolescentes. un 73% está mediatizado por las variables procesales familiares. se tratará de desviación "oficial" o de desviación "no oficial". todas las relaciones empíricas encontradas entre las variables son resultados esperados de acuerdo con la teoría. sino que su acción está mediada por las variables procesales. hostilidad por parte de los padres. las variables de proceso o procesales hacen referencia a las relaciones informales (familia. pobre. Los autores emplean el instrumento estadístico de la regresión múltiple. al empleo o no de castigos físicos. Los autores calculan que del total del efecto de las variables estructurales sobre la delincuencia. "nacimiento en el extranjero". entre variables procesales y desviación (el debilitamiento de los lazos familiares la favorece). distinguen nueve variables estructurales básicas: "hacinamiento habitacional". asumidas todas juntas como independientes. etc. criminalidad de los padres…) . entre variables básicas y desviación (la situación familiar precaria. como ya se ha precisado. Resultados del análisis. Estos resultados vienen a apoyar su "teoría integrada de los controles sociales informales". cesa la influencia de la disgregación familiar sobre la potencial desviación de los hijos.

al cual añadia resúmenes y reflexiones diarias y semanales.2 Paradigma interpretativo: Islands in the street. Así llegan a lo que llaman "modelo teórico dinámico del crimen. dedicó al estudio 10 años. ya en edad más adulta. transición a la edad mediana 32-45. del matrimonio. sucesivamente de cinco a diez dias. Por ello decide estudiar bandas de diferentes ciudades ( Los Ángeles. pasaba con ella un mes entero. decide desde el principio que su estudio debe ser comparado para entender lo que las bandas tienen en común y lo que en cambio es específico de cada una de ellas. Boston) de diversas connotaciones étnicas y de dimensiones distintas. en las ciencias sociales así como en las políticas públicas. expresa elocuentemente la diferencia de planteamiento metodológico existente entre las dos investigaciones. se llevó a cabo mediante registro de apuntes. desviación y control social informal a lo largo del ciclo vital". Estudió 37 bandas. Para empezar. Al reconocer la importancia tanto de las "variables estructurales" como de las "procesales". del grupo de compañeros. Dividen el curso de los primeros 45 años de edad en 5 fases. el hecho de que las bandas no hayan sido comprendidas como organizaciones ha impedido nuestra comprensión de su comportamiento. N. y en conclusión reformulan de manera detallada el modelo propuesto resumidamente al principio. respecto a la mayoría del as investigaciones realizadas con observación participante. 2. de los hermanos. sin embargo. y para cada fase destacan el papel del os factores que favorecen el surgimiento (o el mantenimiento) del comportamiento desviado y de los que. tienden a inhibirlo. en cambio. hemos fracasado en comprender adecuadamente a los individuos que están en las bandas. 2. hasta el punto de llegar a ser herido en enfrentamientos con bandas rivales y de ser repetidamente detenido por la policia.1. de Jankowski ¿conseguiremos desarrollar y someter a control empírico un modelo teórico capaz de explicar el crimen y la desviación en la infancia. del trabajo. Él. compartiendo su cotidianidad. La recogida de datos. durante los cuales participó plenamente en la vida de las bandas. aclaran que las segundas son las que en último término explican la mayor parte de la variación tanto en la desviación en la adolescencia como en el proceso de salida del túnel de la delincuencia. en los últimos tres años de la investigación transcurrió de tres a seis días con cada una de ellas. Infancia 0-10. en la adolescencia y en la edad adulta? Nosotros. son el "explicar" asumido como objetivo en el primer caso y la insistencia en el "comprender" en el segundo. de una organización determinada.2. aplican un esquema de análisis relativamente parecido al papel de la escuela. introduciéndose en sus actividades. edad adulta joven. Tras la aceptación por parte de una nueva banda. nunca hemos comprendido completamente las bandas. que consisten en el estudio de un grupo específico. adolescencia 10-17. 17-25.En los capitulos sucesivos.York. La simple diferencia léxica entre ambos fragmentos. Diseño de la investigación y recogida de datos La investigación de Jankowski es un ejemplo de "observación participante". 13 . 25-32. transición a la edad adulta joven.

La banda debe ser aceptada por los residentes como parte integrante del barrio. El autor elabora el concepto de carácter (término preferido al de personalidad).2 Hipótesis No encontramos la reflexión teórica sistemática que lleva a la elaboración de hipótesis que son controladas empíricamente. La capacidad de establecer estos vínculos será uno de los principales determinantes de la supervivencia a largo plazo de la banda. que se deriva de las características mismas del enfoque interpretativo que procede de modo esencialmente inductivo. La finalidad es la de proporcionar servicios sociales y económicos a sus miembros. aislamiento social y necesidad de contar sólo con uno mismo. La reflexión de Jankowski se desarrolla en tres líneas: el individuo y su relación con la banda. expulsados con un sistema escolar demasiado poco formado académicamente. Las áreas de renta baja de los suburbios metropolitanos americanos "están en realidad organizadas en torno a una intensa competición que llega hasta el conflicto. Él no ve en las bandas una desviación patológica de las normas sociales. obtendrá su apoyo.3 Interpretación del material empírico ¿quién entra en una banda y por qué? Jankowski rechaza las respuestas tópicas por proceder de familias desestructuradas. sino que más bien interpreta la adhesión a ellas como una elección racional. los individuos que viven en los barrios de renta baja entran en 14 . la banda y la comunidad. que a menudo llega a la agresión física y que está presente en todas las expresiones del comportamiento. Éste tendría la connotación de un intenso sentido de la competición. la vida es una lucha en la que sobreviven sólo los más fuertes y de la cual se deriva un fuerte instinto de supervivencia. la relación de la banda con la comunidad en la que está incluida: la fuerte cohesión interna no es suficiente para garantizar su supervivencia: ésta solo puede estar asegurada por la integración de la banda en la comunidad local. A cambio. La banda decidirá aceptar su ingreso si éste satisface las necesidades de la organización. de control y de valores compartidos. para el acaparamiento de los escasos recursos.no he encontrado confirmaciones empíricas para estas proposiciones. El individuo pide entrar en la banda porque piensa que le conviene. "La teoría ha interpretado hasta ahora a las bandas en términos de desorganización social: en una situación carente de orden. Las demandas que hace este individuo a la sociedad encuentran en la banda un posible instrumento de realización. pues. Se desarrolla. la banda como organización. individualista y rebelde. Se limita a presentar su investigación y expone las conclusiones a las que su experiencia le ha llevado. Yo. está exenta de burocracia.dice Jankowski . que puede obtener ventajas en términos económicos. y la de su propia supervivencia como organización.2. La banda es un sistema social cuasiprivado y cuasisecreto gobernado por una estructura de liderazgo que tiene roles definidos. El tercer aspecto. al cual debe proporcionar unos servicios.2. de lo que se derivaría individualismo. de la desconfianza hacia los demás. Persigue sus objetivos sin importarle si son legales o no. un orden social alternativo al tradicional y la banda surge como respuesta organizativa para aumentar la competividad de sus miembros. porque en la banda encuentran un sustituto de la familia. evitando un fuerte condicionamiento teórico inicial: la teoría tendrá que ser descubierta en el curso de la investigación. o bien por imitación. de estatus y de poder.2. la banda ofrece ese orden social y esa seguridad de los cuales sienten necesidad los jóvenes sin medios de los barrios". 2. en términos de protección de la policia y de los "piratas rivales".

la relación está estructurada en fases lógicamente secuenciales. no propone teoría e hipótesis empíricamente controlables. Diversión. La forma de proceder de Jankowski es totalmente distinta. entrelazadas. El investigador cualitativo a menudo rechaza intencionadamente la formulación de teorías antes de empezar el trabajo sobre el terreno. En este cuadro toma una importancia esencial el análisis sistemático de la literatura: ésta. Refugio y escondite. un cierre prematuro del horizonte. la vuelta a la teoría. Elaboración teórica e investigación empírica proceden. al ver en ello un condicionamiento que podría inhibir su capacidad de "comprender" el punto de vista del sujeto estudiado. resultado del análisis. Parece apropiado hablar de "teoría que surge de los datos". cuando rechaza las explicaciones sicosociales tradicionales respecto a la decisión de entrar en una banda. 2. Nunca hay una separación entre teoría y resultados empíricos. Una geometría circular que de la teoría sale y a ella vuelve.1 Planteamiento de la investigación Las dos investigaciones se diferencian desde la estructuración de las diversas fases que llevan desde el planteamiento del interrogante inicial hasta el último capítulo. la relación entre teoría e investigación es abierta. observaciones empíricas. Su estrategia operativa es claramente distinta a la de Sampson y Laub:no partió con hipótesis las fue construyendo sobre la marcha.3 Investigación cuantitativa e investigación cualitativa: Una comparación Empleando como ejemplo las dos investigaciones apenas presentadas. sino más bien por clasificaciones y tipologías. queremos comparar analíticamente las respuestas que las técnicas cuantitativas y cualitativas han dado a los problemas más relevantes de la investigación social. por tanto. pero todas basadas en el cálculo de lo que se mejor para ellos en ese momento determinado. de hecho. Sampson destaca por su geometría: exposición de la teoría. Las 6 motivaciones que ha encontrado: Incentivos materiales. es la que sugiere la hipótesis de las que partir. En el caso de la investigación cuantitativa inspirada por el paradigma neopositivista. según un planteamiento deductivo (la teoría precede a la observación) que se mueve en el contexto de la "justificación".la banda por varias razones. En la investigación cualitativa que deriva del paradigma interpretativo. el análisis de los datos. Su capítulo teórico inicial es ya una mezcla de teorías y conclusiones. 15 . logra hacernos entender cómo llegó a esa conclusión a partir de las entrevistas realizadas y no sobre la base de un prejuicio teórico. interactiva. su formulación en forma de "modelo" empíricamente controlable. de la corroboración empírica de la teoría formulada previamente. en una clara aplicación del paradigma interpretativo.1 la relación establecida entre teoría e investigación. a favor de una lista articulada de motivaciones de tipo racional. a partir de la experiencia vivida. conclusiones teóricas. que en cada capítulo se reemplantea: marco teórico. de esa pérdida de peso de la teoría acumulada en la comunidad científica se deriva una importancia menor de la reflexión sobre la literatura. Tabla 2. 2. la obtención de datos. Es la expresión de un orden conceptual que ha guiado la forma de proceder de los dos estudiosos y que nace de una visión de la investigación entendida como proceso racional y lineal.3. No hay introducción. la planificación de la investigación. El resultado es radicalmente distinto al de la investigación precedente: el objetivo ya no está representado por "modelos causales" en los que las variables están conectadas entre sí por relaciones de causa-efecto. en los dos enfoques es muy distinta. es decir.

en el sentido de que la presencia de un observador extraño no dejará a los sujetos totalmente indiferentes. la clarificación de los conceptos y su operacionalización en variables tienen lugar incluso antes de iniciar la investigación. Un investigador cualitativo no se habría movido nunca de esta manera. en el curso de la investigación mism. y que hay que agotar no sólo en términos operativos sino también en términos teóricos. Tomemos el concepto de "disgregación familiar" en la investigación de Sampson y Laub. Los conceptos que son elementos constitutivos de la teoría y al mismo tiempo son los que permiten que la teoría sea sometida a control empírico. en cambio. Se trata de técnicas de investigación cuyas diferencias son muy extremas. Y simétricamente. lo más dentro posible del sujeto de análisis. uno de carácter psicológico-cultural y otro que podríamos definir de carácter físico-espacial. su transformación en variables empíricas observables. considera que el enfoque naturalista (intervecnción sobre la realidad en la que el investigador se abstiene de cualquier manipulación) es un requisito básico para realizar su investigación empírica. El investigador cualitativo se sitúa. cuantitativa i cualitativa es la relación general con el ambiente estudiado. Uno de los problemas que debe afrontar el investigador social es el de la reactividad del objeto de estudio. Otra diferencia entre inv. El primero concierne a la interacción psicológica estudioso-estudiado. propia del observador "científico" neutral y distanciado. es decir. o al menos considera admisible un cierto margen de "manipulación controlada". habría utilizado lo de "disgregación familiar" como un concepto "orientador" que predispone a la percepción. para contar. La observación participante misma rara vez es perfectamente "naturalista". De esta doble perspectiva se derivan dos hechos. La investigación cualitativa. en la familia uno o los dos padres están ausentes. él estudia lo que . El investigador cuantitativo se coloca en un punto de observación externo al sujeto estudiado. Ya sólo el hecho de investigar el comportamiento humano puede implicar alteraciones del comportamiento mismo. todos los instrumentos del análisis cualitativo distintos de la observación implican siempre una intervención sobre la realidad.Hay también un uso diferente de los conceptos. Los autores operan con él del siguiente modo: valor 1 (disgregación) cdo. Más en general. es muy probable que se comporten de forma no natural. esto permite registrar empíricamente el concepto pero también conlleva la desventaja de una fuerte reducción y empobrecimiento del mismo. para comunicar. La segunda articulación de la relación entre estudioso y realidad estudiada se refiere a la relación del investigador con cada individuo estudiado. mediante su "operacionalización". por otro lado. en cambio. y presenta muchas graduaciones en su interior. le parece importante. una diferencia básica entre paradigma neopositivista y paradigma interpretativo se encuentra en la definición del objeto de la investigación. por lo menos en forma de estímulo para hablar. la investigación cuantitativa no siempre es tan manipuladora como en el caso del experimento. Las dos formas de hacer investigación encuentran dos ilustraciones típicas y opuestas en las técnicas del experimento y de la observación participante. El planteamiento neopositivista no está preocupado por este problema ya que considera que el problema de la reactividad del objeto no representa un obstáculo básico. valor 0 en el resto de los casos. con la intención de ver la realidad social "con 16 . sintetizable en el primer caso como "comprobación empírica de la hipótesis" y en el segundo como "descubrimiento del punto de vista del actor social". Como hemos señalado previamente. Entre ellas existen múltiples matices. Estudiar a los individuos no es como estudiar a las hormigas o los átomos: si las personas saben que son observadas. En el enfoque positivista. como investigador.

de su experiencia. mientras que la investigación cualitativa es más flexible. análisis secundario. de su cultura y valores. es un problema que también existe en la investigación cuantitativa ya que el investigador ve el mundo filtrado por las lentes de su punto de vista. se derivan otras dos características que distinguen a ambos enfoques. Sucede todo lo contrario en el caso de la investigación cualitativa. e incluso cuando no puede considerársele así. En cambio. se refiere a la interacción física entre estudioso y estudiado. Recogida de datos La diferencia entre los dos enfoques se basa en el grado en que los procedimientos están estructurados. abierto. En el caso de la investigación de Sampson y Laub. que en la interacción empática con el sujeto estudiado se expone al riesgo de una implicación emotiva y. Pero la exigencia de proximidad fisico-espacial con el objeto estudiado está presente en todas las técnicas cualitativas. se hace todo lo posible para reducir al mínimo su interacción con el investigador.los ojos de los sujetos estudiados". en cambio. Nunca se mantiene neutral o indiferente. Suele ser por cuestionario. En la investigación cuantitativa el investigador está preocupado por la posibilidad de generalizar los resultados. de alargar o acortar la observación según la conveniencia… Normalmente. caracterizada en uno de los casos por la distancia y separación. La concepción de la investigación como "observación" y "estudio" implica una consideración de los individuos estudiados como objetos. La primera se refiere a la representatividad de los sujetos estudiados. En el caso cuantitativo el diseño de la investigación se construye teóricamente antes del inicio de la recogida de datos. y el uso de la muestra estadísticamente representativa es la señal más evidente de esta preocupación. una vez construida la muestra de los 500 autores de delito y de los 500 no autores de delito. El caso de la observación participante sirve una vez más de ejemplo del punto de vista de la investigación interpretativa. al contrario. en la investigación cualitativa está desestructurado. la concepción de la investigación como "interacción" implica naturalmente un papel activo del sujeto estudiado. experimento de laboratorio. el individuo estudiado es considerado pasivo. Pero es igualmente cierto que el problema se le plantea mucho más marcadamente al investigador cualitativo. una vez definidos algunos criterios de fondo a observar. resulta evidente la diferencia radical entre ambos enfoques respecto al papel del objeto estudiado. Podríamos decir que el 17 . modelado en el curso del proceso. En el planteamiento cuantitativo.3. al menos en el campo de las ciencias sociales. y está rígidamente estructurado y cerrado. Esto pone de manifiesto el problema de la objetividad en la investigación cualitativa. no necesita conocer físicamente a ninguno de los sujetos estudiados. el investigador era libre de elegir las bandas más adecuadas para su objetivo. Nadie mantiene la posibilidad de un ideal absoluto de ciencia objetiva y libre de valores. en la que el encuentro entre estudioso y estudiado es una condición previa para la comprensión. la investigación cuantitativa tiene un diseño rígido. El segundo hecho. En la vertiente cualitativa. La investigación cuantitativa no suele prever contacto físico alguno entre estudioso y estudiado.2. de interpretaciones fuertemente unilaterales. éstos se mantenían para siempre y de forma rígida como los sujetos a estudiar. Tenía además la libertad de entrevistar a quien quisiera. idóneo para captar lo imprevisto. En la investigación de Jankowski. y en el otro por la proximidad y el contacto. sino que tiende a desarrollar una relación de identificación empática con los sujetos. Por todo ello. 2. De este planteamiento cerrado o abierto. por tanto.

mientras que al contrario. La investigación cualitativa no persigue este objetivo de estandarización. objetivos y estandarizados. precisos… atributos hard. aunque sea a costa de perderse el seguimiento de situaciones atípicas y de mecanismos no generalizables. Tomemos por ejemplo la investigación sobre "comunistas y católicos" llevada a cabo en un barrio de Bolonia a finales de los años setenta por un antropólogo americano. A lo largo de la investigación se dio cuenta de que su objetivo era inalcanzable. Si acaso le interesará una especie de representatividad sustantiva. flexibles. Lo contrario puede decirse del investigador cualitativo. una matriz de números ordenados en filas y columnas donde se han codificado las mismas informaciones para todos los casos. En la investigación de orientación cuantitativa éstos son fiables. pidiendo a los entrevistados que le atribuyan una calificación del 1 al 10. Al investigador cualitativo no le interesa en absoluto la representatividad estadística. busca llegar siempre a datos hard: por ejemplo en el caso de la actitud hacia un representante político. que en un caso es descubrir las uniformidades del mundo humano y en el otro es comprender las manifestaciones en su individualidad. dado que el investigador asume informaciones distintas según el caso. subjetivos. En la investigación cuantitativa todos los sujetos reciben el mismo tratamiento. Esta uniformidad se produce porque el objetivo final de la recogida de informaciones es la "matriz de los datos". que irán de un sobrio "no me gusta" a juicios ricos de color y matices personales. igual que algunos sacerdotes. que antepone la comprensión. Al contrario. algunos activistas comunistas se mostraron desconfiados.3 Análisis de los datos El análisis de los datos representa quizás la fase de una investigación social en la que resulta más visible la diferencia entre el enfoque cuantitativo y el cualitativo.investigador cuantitativo está preocupado por la representatividad del fragmento de sociedad que está estudiando. 2. la cultura de los entrevistados. Naturaleza de los datos. sociológica. con distinto nivel de profundización según la conveniencia. los puntos de vista. relativos…así la popularidad de un hombre político se obtendrá siguiendo las perspectivas. no habían sido preseleccionados al inicio de la investigación. que se decide sobre la base no ya de fórmulas matemáticas. y se preocupa en cambio de su riqueza y profundidad… atributos soft.3. sin embargo. la falta de homogeneidad de las informaciones es su principal elemento constitutivo. los distintos grados de articulación y profundización. no se plantea el problema de la objetividad y de la estandarización de los datos. sino del juicio del investigador mismo. Los sujetos a entrevistar. más que por su capacidad de comprender. éste empleo la técnica de la observación participante que acompañó con una serie de entrevistas con "observadores privilegiados". es decir blandos. La investigación cualitativa. respetando las formulaciones y las ópticas de cada uno. se revelaron como informadores preciosos individuos que no habían sido incluidos previamente entre los sujetos a entrevistar. Se utilizaron tanto entrevistas en profundidad "no estructuradas" como entrevistas estructuradas (mismas preguntas a todos los sujetos). El segundo elemento diferenciador entre investigación cuantitativa e investigación cualitativa es el constituido por la uniformidad o no del instrumento de investigación. El instrumento de investigación es uniforme para todos los casos o en cualquier caso uniformador. La investigación cuantitativa. El fuerte impacto de la instrumentación matemática y estadística empleada en el caso 18 . Este planteamiento distinto se atribuye a la diferencia del objetivo cognoscitivo.

contra la propiedad en la comunidad y fuera de ella). Distingue también los contextos en los que esa violencia se realiza. siempre a través de las variables de manera impersonal. hecho que como veremos más adelante. es "comprender a las personas". El autor creó. trataría de obtener la variable dependiente "violencia". la investigación cualitativa adopta un planteamiento para el análisis de los datos completamente diferente. exhibición). "explicar la variación" de la variable dependiente "violencia".cuantitativo. pues. del mismo modo en que en el enfoque cuantitativo el objetivo era "explicar la variación de las variables". las cuatro variables independientes mencionadas. coherentemente con su ubicación dentro del paradigma interpretativo. en lugar de llevar a cabo su análisis por variables. acusándole de asumir impropiamente el modelo científico de las ciencias naturales. El objeto del análisis ya no está representado por la variable. 19 . llegados a este punto. por tanto. con indicadores adecuados. se pregunta las causas de la violencia en el comportamiento de los individuos que pertenecen a las bandas. en el que falta un aparato estadístico-matemático. asumiendo la necesidad de una perspectiva global. desarrollan su investigación sobre la base de las correlaciones entre variables dependientes e independientes. Esta acusación se hace en nombre de la irreductibilidad del "hombre" integral a una serie de variables distintas y separadas. cada una de las cuales diferencia cuatro casos en función de los cuatro factores emotivos mencionados que desencadenan la violencia (miedo. a partir de las variaciones de las variables independientes. a lo largo de su trabajo. Jankowski. Se pondría. la cualitativa es case-based. es decir. El objetivo del análisis. El enfoque interpretativo critica este modo de proceder.. hemos "explicado estadísticamente" la variación de la variable "delincuencia". El análisis de los datos se hará en efecto. de relaciones entre las variables. La diferencia más importante se localiza en la lógica que guía el análisis mismo. Él identifica cuatro factores desencadenantes de la violencia: el miedo. En contraste. Como puede verse. residentes fuera de la comunidad. Un investigador cuantitativo. limitado al mero auxilio para la organización del material empírico. los autores llegan a la conclusión de que. captar la correlación entre las variables independientes y las variables dependientes. ambición. de porcentajes de las variables. Distingue los episodios de violencia según sean expresiones de violencia individual o de violencia organizada (por la banda). le objetivo del análisis. identificando seis (violencia contra miembros de la misma banda. como meta. Jankowski. será "explicar la variación" en los valores de las variables dependientes. "los procesos de control social informal puestos en práctica por la familia y por el colegio proporcionan la clave interpretativa a fin de lograr la explicación causal de la delincuencia en la infancia y en la adolescencia. obtiene así una tipología de 48 tipos. La investigación cuantitativa es variable-based. frustración. él lo hace por sujetos. de otras bandas. Se hablará de medias de las variables. con los instrumentos estadísticos oportunos. y la aportación de instrumentos informáticos. residentes de la comunidad. sino por el individuo en su totalidad. la frustración y la exhibición. contrastan con la sobriedad de un análisis cualitativo. Sampson y Laub. puede ser interpretado en el sentido de que hemos encontrado la "causa" de la variable delincuencia. la ambición. y del mismo modo trataría de obtener. y los clasifica en su globalidad según diversos tipos. una clasificación constituida por 12 situaciones. si todos los delincuentes proceden de familias con padre violento mientras que aquellos con padre no violento son todos no delincuentes. más exactamente de una perspectiva holística en el análisis del comportamiento humano.

ésta nos sugiere que los militantes estudiados están repartidos de forma equilibrada entre "dicotómicos" y "articulados". podemos sacar las siguientes conclusiones: mientras que. entre los segundos las visión dicotómica es preponderante (más de dos tercios).9 10. Las dos formas clásicas de presentación de los datos en las tradiciones cuantitativas y cualitativa son.una de las cuales es el término bueno con el que no s identificamos. clasificando las respuestas a cada temática diferente en categorías. Resultados. es decir. En la investigación cualitativa. Sin embargo. permitiendo al lector "visualizar" a los entrevistados. Una de las variables así obtenida se definió como "visión dicotómica de la realidad".9 PCI 31. respectivamente. la cita confiere al dato una dimensión pictórica totalmente desconocida para la simple tabla. entre los primeros los "dicotómicos" están en minoría (menos de un tercio). Tabla 2. Con pocos números ilustra una importante carácterística de la ideología de los activistas como es la relación entre afiliación política y orientación ideológica. estos datos presentan un límite doble.9 25.Queda poco que añadir sobre las diferente relación que investigación cuantitativa y cualitativa tienen con las técnicas matemáticas y estadísticas. la formalización matemática es considerada no sólo inútil.6 25. Pero tiene una sensibilidad más articulada para 51. En primer lugar.1 hablamos de perspectiva relacional. 2. En segundo lugar. Pongamos como ejemplo una investigación realizada en Italia a mediados de los años sesenta sobre los militantes de base de la Democracia Cristiana y del Partido Comunista. y atribuyendo a cada categoría un valor numérico.7 Total 100 ¿Qué nos dice esta tabla? Si nos fijamos en la columna relativa al total de los entrevistados (DC +PCI).2 100 Totalmente dicotómica Predominantemente dicotómica Concibe la realidad como lucha entre posiciones.4 38. y máxima es la utilización de las técnicas estadísticas para analizar los datos y para inferir generalizaciones de la muestra a la población. la tendencia a interpretar las fuerzas agentes en la sociedad en términos de "frentes contrapuestos… dos partes. sino incluso dañina y es completamente ignorada.5 32. y la otra es el enemigo al que enfrentarse y eventualmente vencer y destruir" DC 5. el mismo hecho de reproducir las palabras del entrevistado permite "ver la realidad con los ojos de los sujetos estudiados" de un modo más efectivo.8 las alternativas De ningún modo dicotómica 16.4. si consideramos separadamente a los militantes de DC y de PCI. así como la fotografía de un personaje permite un 20 . por lo que el esfuerzo par operar con los conceptos en términos matemáticamente tratables es máximo. En un caso el lenguaje de las matemáticas es entendido como el lenguaje de la ciencia. la "tabla" y la "narración".5 38.3. Se estudió a 108 activistas (54 democristianos y 54 comunistas) mediante entrevistas conducidas de 6 a 7 horas.9 3.7 100 DC+PCI 18.

éstos no son instrumentos unilaterales.1 hemos denominado perspectiva narrativa. y el interrogante del investigador siempre está guiado por la pregunta de "que causa qué" y bajo qué condiciones. la cualitativa se interroga sobre los cómo. en un nivel superior de abstracción. debería poder establecer relaciones entre las variables o conexiones entre los casos. (recordemos Jankowski). En este caso el análisis de los datos se realiza con instrumentos cuantitativos. en la que las variables se pueden agrupar en "causas". en los casos más afortunados. fragmentada de los datos. Mientras que la investigación cuantitativa se pregunta por los porqués. Podemos añadir finalmente. el tipo ideal es una categoría conceptual que no tiene un correlato exacto y específico en la realidad. aun naciendo de la observación de casos reales. para que el lector pueda comprender mejor el universo real que está detrás del dato numérico. Muy frecuentemente se presenta el denominado "estudio de caso". Alcance de los resultados. los libera de los detalles y de los accidentes de la realidad para extraer sus características esenciales. Tabla 2. sino también proporcionar sistematizaciones y síntesis de orden superior. el análisis cuantitativo aporta una primera síntesis a través de la correlación entre las variables y llega a una unidad conceptual en el modelo causal e incluso. utilizables sólo por uno o por el otro tipo de investigación. con el fin de utilizar el "modelo" así obtenido como concepto-límite con el que iluminar e interpretar la realidad misma. La narración sirve para ejemplificar los resultados. Si bien tabla y narración son dos formas típicas de presentar los resultados en la investigación cuantitativa y en la cualitativa. Ya que el objetivo de la investigación no debería ser sólo describir la realidad. El investigador que sigue el enfoque interpretativo raramente utiliza la tabla para mostrar sus variables relevantes. Es muy común el caso de investigaciones de planteamiento neopositivista en las que la narración se emplea con fines ilustrativos. Será la lógica del mecanismo de causa-efecto la que guiará la mente del investigador cuantitativo: hemos dado un ejemplo de ello en la investigación de Sampson y Laub. en tanto que se reacio a aplicar categorizaciones propias a las respuestas y a las actitudes de los entrevistados. purificándolos. 21 . La conclusión de una investigación debería ir más allá de la simple exposición de distribuciones de variables o ilustraciones de casos. una investigación llevada a cabo sobre una única situación específica. sobre variables numéricas a través de tablas y análisis multivariados. en cierto sentido. Diferencia entre el enfoque cuantitativo y el cualitativo con respecto a los dos mecanismos de la "explicación" y de la "interpretación". Como hemos tenido ocasión de decir en el capítulo 1. en la formulación de expresiones sintéticas que adoptan una forma cercana a la de las "leyes" de las ciencias naturales. "efectos" y "condiciones". por así decirlo. la investigación cualitativa no puede actuar sobre un número muy grande de casos. la tabla y la narración son dos formas de presentación elemental y. que el modelo causal enlaza las variables entre sí. Tras haber fragmentado al individuo en variables.conocimiento muy distinto y mucho más completo respecto de la mera descripción de sus rasgos externos. Mucho más raro es el caso contrario. En el enfoque cualitativo es más difícil encontrar maneras de sintetizar las informaciones suficientemente generales y compartidas por los investigadores. mientras que la tipología representa el esquema teórico que une a los sujetos (lógica de la "clasificación"). con la misma función que cumple una fotografía en un artículo de periódico. El problema de las generalizaciones. Es una construcción que.

A las técnicas cualitativas se les imprime un carácter precientífico. Los procedimientos y los instrumentos utilizados son demasiado distintos. 22 . pues. por último. más que de una reflexión filosófica y epistemológica nueva. La tercera postura. inversamente relacionadas. pero con un matiz importante. son investigaciones realizadas sobre la base de una de las dos perspectivas. En mi opinión. La profundización tiene un coste. corresponde a la postura de quien habiéndose decantado por el paradigma neopositivista. dice el autor. Considero difícil que un mismo investigador sea capaz de llevar a cabo una investigación que utilice por igual instrumentos de producción y análisis de datos cualitativos y cuantitativos. caracterizados por divergentes planteamientos filosóficos de fondo. por tanto. que. El segundo punto de vista. no difieren entre sí por meras cuestiones técnicas. las dos formas de hacer investigación. paradigma neopositivista y paradigme interpretativo. utilizar los dos planteamientos dentro de un mismo diseño de investigación. sin embargo. y el precio a pagar se establece en términos del número de casos estudiados. y presagia el desarrollo de una investigación social que. Ahora bien. abarque un mayor número de sujetos. sostiene la plena legitimidad. más representativa será su muestra de la situación real y. muy difundido entre los científicos sociales de orientación cuantitativa. que las técnicas cualitativas puedan aportar una contribución válida a la producción y el análisis de los datos sociales. más legítimamente podrán inferirse sus resultados a la población total. no niega. indudablemente. opte por un enfoque o por el otro ( o por ambos). No creo que los métodos cuantitativos o cualitativos representen dos declinaciones puramente técnicas de un mismo modo sustancial de entender el mundo social y la finalidad de la investigación. Pero el número de casos está ligado a la posibilidad de generalizar los resultados. me hace pensar que muy dificilmente y en casos raros se pueda mostrar una flexibilidad semejante. de la constatación pragmática de que indudablemente a la sociología y a la investigación social les han llegado contribuciones preciosas y fundamentales tanto de investigaciones cuantitativas como de investigaciones cualitativas. En conclusión. utilidad e igual dignidad de los dos métodos.Profundidad y amplitud están. se sirven de técnicas tomadas del otro enfoque. los estudios que se citan como ejemplos de investigación que utilizan los dos enfoques. Cuanto más amplia sea la investigación. pues cumplen una función de estimulación intelectual en una especie de "tormenta de ideas". 2. los resultados de la investigación cuantitativa presentan. sino imposible. y es el resultado. según las circunstancias y las oportunidades. sino que son la expresión directa y lógica de dos visiones epistemológicas distintas. considero difícil. De las tres posturas presentadas comparto esta tercera. Y los defensores respectivos de las dos posturas afirman que la suya es la exacta.4 Dos formas diferentes de conocer la realidad social ¿ Es mejor hacer investigación social utilizando la perspectiva cuantitativa o la cualitativa? ¿Se puede afirmar que uno de los dos enfoques es superior al otro desde el punto de vista "científico"? Pueden distinguirse tres posturas al respecto. sin embargo. Su formación. una mayor capacidad de generalización que los resultados de la investigación cualitativa. e incluso la estructura misma de su personalidad científica. es decir. representan dos puntos de vista incompatibles en tanto que son inconmensurables epistemológicamente. y que la antagonista es la equivocada. aunque como mera instrumentación auxiliar y adicional. Esta postura ha crecido en los últimos años. encontrando que son adecuadas para la fase exploratoria de la investigación. En realidad. La primera es la de los que mantienen que enfoque cuantitativo y enfoque cualitativo.

tanto si se desarrolla sobre el plano del examen lógico-formal de la teoría como si aborda el tema de su congruencia con la realidad. Se elige una perspectiva.1. esa misma exigencia de distintos ángulos visuales que en el museo nos hace girar alrededor de la estatua para poder captarla efectivamente en su totalidad. como no hay una representación absoluta y "verdadero" de la realidad. y ni siquiera el más importante. Pero esto no es un límite. contexto del descubrimiento y contexto de la justificación.1 Estructura "tipo" de la investigación cuantitativa La investigación científica es un proceso creativo de descubrimiento que se desarrolla según un itinerario prefijado y según procedimientos preestablecidos que se han consolidado dentro de la comunidad científica. Una de las definiciones más comunes de la ciencia es la de "acumulación sistemática de conocimiento". Pero éste no es más que un aspecto. No existe un retrato absoluto. Por una parte implica el control: "Los conceptos y los procedimientos empleados. denominó respectivamente.Para concluir. del proceso de investigación científica. 3. es un proceso colectivo. y vuelve a la teoría. técnicas cuantitativas y cualitativas conducen a conocimientos diferentes. La primera regla fundamental de la investigación empírica es que debe desarrollarse dentro de un marco compartido colectivamente. no hay reglas lógicas en cuyos términos se pueda construir una "maquina descubridora" que desempeñe la función creativa del genio" La labor del científico no consiste únicamente en producir teorías. El atributo "creativo" es importante en esta definición. Y esta fase. en tanto que existe la necesidad de una aproximación múltiple y diferenciada a la realidad social para poder conocerla efectivamente. y los resultados de sus intuiciones deben poder ser comprobados también por otros". Las cinco fases del proceso de investigación El itinerario "tipo" que un investigador social sigue en la realización de una investigación consiste en un recorrido cíclico que comienza por la teoría. Pero puede haber una infinidad de ellas.1. deben estar estandarizados. La traducción empírica de la teoría 3. y evoca las capacidades personales del investigador. enfoque neopositivista y enfoque interpretativo. "La ciencia es pública no privada" escribió Merton. "El acto del descubrimiento escapa al análisis lógico. sino un enriquecimiento. debe seguir unas reglas muy precisas. En el primer estadio no es posible establecer reglas ni procedimientos. Por otra. Es un itinerario trazado más o menos de la misma forma en todos los manuales de investigación empírica 23 . es porque me he aupado a hombros de gigantes" dijo Isaac Newton. Reichenbach. su perspicacia e inteligencia intuitiva. el episodio de la iluminación repentina. introdujo una distinción entre el momento de la concepción de una nueva idea y el relativo al modo en el que ésta es presentada. La investigación científica. sino también en ponerlas a prueba. implica la acumulación: " Si he conseguido ver más lejos. incluso por el más intuitivo de los sociólogos. Capitulo 3. atraviesa las fases de recogida y análisis de los datos. El marco de referencia colectivo que el científico social debe tener presente en la realización de su investigación se articula en dos momentos: la estructura lógica del itinerario de la investigación y la instrumentación técnica a utilizar.

a esos mismos materiales organizados de tal forma que puedan ser analizados. estandarizando las respuestas de las entrevistas abiertas. es decir. en términos de generalidad. es decir. Generalmente se da el nombre de informaciones a los materiales empíricos brutos aún no sistematizados. de transformación de las hipótesis en afirmaciones empíricamente observables. Terminada la recopilación del material empírico.Fases Teoría Procesos Deducción Hipótesis Operacionalización Producción de los datos Análisis de los datos Resultados Inducción (diseño de la investigación) Organización de los datos (matriz-datos) Interpretación La primera fase es la teoría. La tercera fase es la de recopilación de datos y a ella se llega a través del proceso de operacionalización. La hipótesis representa una articulación parcial de la teoría. se pasará a la cuarta fase. que suele consistir en 24 . sometiendo los textos a una plantilla de análisis del contenido… La matrizdatos representa el punto de partida para el análisis de los datos. El segundo tiene que ver con la elección del instrumento y de los procedimientos de registro de los datos. y se coloca en un nivel inferior respecto a ella. Este proceso es muy complejo y puede ser dividido en dos momentos. de un "plan de trabajo" que establece las diversas fases de la observación empírica. La teoría es "general" mientras que la hipótesis es "específica". la del análisis de los datos. La segunda es la hipótesis. uniformando las fuentes estadísticas. o sea a la transformación de los conceptos en variables. denominada asímismo matriz "casos por variables" (C x V). El primero se refiere a la operacionalización de los conceptos. etc. que será precedida por la organización y sistematización de los datos obtenidos. en entidades registrables: por ejemplo. En la investigación el proceso de organización de los datos consiste generalmente en transformar las informaciones en una matriz rectangular de números. ésta se obtendrá por ejemplo. y el de datos. La decisión sobre estos aspectos lleva a la definición de lo que se denomina el diseño de la investigación: la definición. la matriz de los datos. se podrá operacionalizar el concepto de éxito profesional a través de la renta o bien a través de la consecución de un empleo mejor que el paterno. pues. codificando de forma sistemática las respuestas a los cuestionarios. y el paso entre las dos se produce a través del proceso de la deducción.

2. y ésta no es desarrollada ni toma cuerpo hasta la fase del análisis de los datos. Teoría Teoría es un conjunto de proposiciones orgánicamente relacionadas. para llegar a su confirmación o a una reformulación. encomendadas únicamente a su moralidad personal. el investigador vuelve al punto inicial. Pero en cualquier caso el itinerario de referencia sigue siendo el trazado por el esquema. mediante un proceso de inducción. hay sin embargo investigaciones que empiezan con un embrión de teoría. que son deducidas de regularidades empíricas y de las cuales pueden deducirse previsiones empíricas. y más en general. 3.1.2 De la teoría a las hipótesis 3. Aunque el esquema base prevé que la investigación no comience antes de un repaso exhaustivo de la teoría y la formulación de hipótesis muy precisadas. el equilibrió entre deducción e inducción puede resultar diferente. tal proposición es deducida de uniformidades empíricas ya que Durkheim.elaboraciones estadísticas realizadas con la ayuda de una calculadora o un programa de análisis estadístico. Deducida de regularidades empíricas: la teoría nace de la ( y se confirma en la) constatación de repeticiones en la realidad observada. en el que a partir de los resultados empíricos se comparan éstos con las hipótesis teóricas. el relativo a la teoría del suicidio de Durkheim. es una proposición causal. que presenta las características de abstracción ( conceptos mencionados de individualismo. Abstracción y generalización: la teoría trasciende las expresiones empíricas específicas tanto desde el punto de vista conceptual (abstracción) como desde el del campo de aplicación (generalización). Productividad de previsiones empíricas: de una teoría extraída de la observación de determinadas regularidades empíricas se pueden deducir acontecimientos en otros contextos diferentes. Generalización. en un proceso cíclico que podríamos visualizar. el suicidio altruista y el anómico. cohesión social y suicidio tienen significado abstracto respecto a la realidad observada ). El esquema. Fundamento teórico del suicidio egoísta: “Cuanto más elevada sea la tasa de individualismo en un determinado grupo social. mayor será la tasa de suicidios en ese grupo”. por individualismo se entiende una situación social y cultural en la que la persona es plenamente libre en las elecciones de la vida. en la de una espiral. que identifica tres ideales de suicidio: el suicidio egoista. Conjunto de proposiciones: sistema coherente de afirmaciones que a menudo asume el carácter de proposiciones causales. dedujo y controló empíricamente su teoría a través del 25 . que une individualismo y suicidio. a la cual se llega a través de un proceso de interpretación de los análisis estadísticos realizados en la fase anterior. con la teoría de origen. En la relación con la teoría. a la teoría. más que en la forma de círculo. Ilustramos lo apuntado hasta aquí con el más clásico de los ejemplos. La quinta fase es la de la presentación de los resultados. comienza en la teoría y a la teoría vuelve. La proposición teórica enunciada. Otras veces se salta toda la fase de la recogida de datos en tanto que la investigación utiliza datos ya existentes. que formulan un alto grado de abstracción y generalización respecto a la realidad empírica. en tanto que la conexión que Durkheim propone se considera válida para un amplio conjunto de la sociedad. en la que teoría e investigación están conectadas en el proceso de acumulación del conocimiento sociológico. Por último. es decir.

Ante todo.análisis d elas fuentes estadísticas de su tiempo. demasiado confusas como para poder ser operacionalizadas. difícilmente será susceptible de esas transformaciones. La teoría formulada por Inglehart sobre el cambio de valores de las generaciones crecidas en la posguera serían distintos de los de las generaciones precedentes: de una orientación predominante de sentido materialista a otra que ha sido definida como “postmaterialista”.2 Hipótesis Una proposición teórica debe poder articularse en hipótesis específicas. por una parte. Una segunda hipótesis se refiere a la desigualdad relevancia de este distanciamiento generacional entre los países. 3. Si una teoría es imprecisa y confusa. tal proposición da lugar a previsiones empíricas. El criterio de la controlabilidad empírica es el criterio mismo de la cientificidad. “Es mejor una teoría equivocada que una teoría vaga”. depresión económica. debería ser máxima en Alemania: durante la primera guerra mundial los alemanes padecieron carestía. graves conflictos internos y la tragedia de la 2ªGM. que se deriva de la teoría pero que espera al control empírico para poder ser confirmada. una fuerte inflación. a través de oportunas definiciones operativas. 26 . Estas hipótesis son empíricamente controlables. 3. aunque las condiciones sociales y ambientales cambien.2. De la teoría general de Durkheim pueden deducirse una serie de hipótesis específicas. tendremos que encontrar en todos los países occidentales un fuerte distanciamiento entre jóvenes y ancianos respecto a la escala de valores. Si la teoría es válida. Por otra parte. Causas: los cambios de las condiciones de vida en los años de formación de los ciudadanos. La validez de una teorización depende de su convertibilidad en hipótesis empíricamente controlables. en la posguerra experimentó un persistente estancamiento económico que le llevó a grados de bienestar inferiores a los de muchos otros países europeos y claramente inferiores a los de la propia nación en la primera mitad de siglo. La hipótesis es una afirmación provisional aún por probar. Por ejemplo.2. la diferencia debería ser más marcada en las naciones en las que mayor ha sido el salto de la calidad de vida entre los que crecieron antes y después de la segunda guerra mundial. su menor abstracción ( o mayor concreción) en términos conceptuales y su menor generalidad ( o mayor especificidad) en términos de extensión. Por hipótesis entendemos una proposición que implica una relación entre dos o más conceptos. En las ciencias sociales el riesgo de teorías vagas. respecto de la teoría. que se coloca en un nivel inferior de abstracción y de generalidad respecto a la teoría y que permite una traducción de la teoría en términos empíricamente controlables. La transformación de la teoría en hipótesis Presentamos a continuación algunos casos de traducción de una teoría en hipótesis específicas. es especialmente elevado. la tasa de suicidio es más alta en las sociedades protestantes que en las católicas. El caso de Inglaterra debería ser opuesto: antes de la 2ªGM era el país europeo más rico. Dos son las características distintivas de la hipótesis. Mientras que en la posguerra conocieron un periodo de bienestar económico extraordinario y de paz social. Ello como consecuencia del hecho de que la orientación de los valores que se constituye en los años de formación tiende a mantenerse durante toda la vida. y es lo más obvio. su carácter de provisionalidad. De esta teoría general pueden derivarse hipótesis específicas.3.

es probable que eluda el conflicto relativo a la elección… absteniéndose” Otras veces puede descubrirse una nueva teoría durante la fase empírica. y analiza sus datos para ver cuál de ellas se verifica efectivamente en el caso empírico analizado. Pero después. 27 . Los experimentos pretendían abordar un problema muy simple: controlar cómo variaba el rendimiento de los trabajadores de un determinado departamento al variar la iluminación. en segundo lugar. aún reconduciendo la iluminación a los niveles del punto de partida. el punto de vista “estructuralista”. finalmente. Un análisis detallado del perfil de abstencionistas reveló que se trataba en gran parte de mujeres que habían votado anteriormente a la Democracia Cristiana. en primer lugar. expuestas a los flujos de las nuevas ideas. sometibles a control empírico. la mayoría inconscientes. Por ejemplo. el rendimiento se mantenía elevado. los autores sometieron a control empírico dos hipótesis: que el abtencionismo electoral sea un fenómeno de apatía política. Al principio se constató que con el aumento de la iluminación crecía la productividad. Tomemos el caso de una investigación sobre las decisiones escolares individuales. sin embargo a su análisis. aunque en este caso no tanto por factores estructurales externos como por factores psicológicos internos. La práctica de la investigación no siempre se desarrolla tal como la hemos descrito: primero la elaboración de la teoría. luego la definición de las hipótesis. persiguiendo sus objetivos lo mejor que pueden. que sirven de guía para el “diseño de la investigación”. para explicar un hecho anómalo o un resultado inesperado. precede. que mantiene “que la acción humana es canalizada por vínculos externos que no dejan espacio para hacer elecciones realmente importantes. que ve al individuo condicionado. y se comparan con ellos a posteriori. sino que están sometidos a efectos que les atraen hacia una meta determinada” El autor parte de tres hipótesis precisas de comportamiento. quisieron mostrar a los partidos su descontento y resentimiento. Todas las hipótesis que hemos mencionado son fácilmente traducibles en términos operativos y. investigación sobre abtencionismo electoral en Italia. por lo tanto. los autores se esperaban una mayor abstención en los estratos periféricos de la sociedad. por consiguiente. Para explicar este resultado imprevisto los autores recurrieron a la teoría de las “presiones cruzadas”. aún haciéndose después de la recogida de datos. según la cual “cuando el elector es sometido simultáneamente a estímulos de igual intensidad pero dirección opuesta. que “asume que los individuos actúan… conforma a ciertos propósitos. el punto de vista de la no intencionalidad. a los que menos alcanza la capacidad movilizadora y comunicativa de los partidos. que señalara el desacuerdo entre la parte más moderna del país y la vieja política. categorías socialmente centrales. o bien un fenómeno de protesta por parte de los electores que. Sucede frecuentemente que las hipótesis se desarrollan después de haber recogido los datos. manteniéndose alejados de las urnas. Otras veces se recurre a la teoría después de haber analizado los datos. en contradicción con ambas hipótesis. debido a la disminuida capacidad de los partidos de movilizar a los electores a través de sus aparatos organizativos. el punto de vista de la “intencionalidad”.Los que abrazan los valores postmaterialistas. En la segunda hipótesis los autores se esperaban un mayor abstencionismo entre los jóvenes varones de las grandes ciudades del norte. y. no son empujados por efectos propulsores. los datos expresaron un resultado sorprendente. Sin embargo. En la primera hipótesis. En este caso la elaboración teórica. deberían ser más numerosos cuanto más rico es el país.

El primer paso del proceso de traducción empírica de los conceptos consiste en aplicarlos a objetos concretos. una vez que tales entidades se vuelven concretas. y que a través de la operacionalización de los conceptos se realiza la traducción empírica de una teoría. por ejemplo.3 De los conceptos a las variables. A veces el tema es nuevo. abstracto o concreto. se empezó a delinear una nueva corriente teórica dentro de la sociología del trabajo. Los conceptos. Sobre la alteración de la secuencia regular teoría-hipótesis-observación hay que decir que en ocasiones la observación viene antes que las hipótesis por razones de fuerza mayor. los conceptos son los instrumentos. A partir de los resultados de estos experimentos. toda la red teórica se hará concreta. de los específicos objetos estudiados. es decir. y puede incluir todo tipo de signo o procedimiento semántico. Ése es. el autoritarismo puede ser operacionalizado a través de las respuestas a preguntas de actitud y asumir una puntuación de 0-5. “el término tiene un significado muy general. Es el medio a través del cual el hombre puede conocer y pensar. y por tanto la investigación se mueve en un plano eminentemente descriptivo. y será posible establecer las mismas conexiones entre los conceptos transformadores en entidades empíricamente observables.Y se descubrió que la variable determinante a efectos de rendimiento laboral no era la iluminación. cercano o lejano. del género y de la especie… de un periodo histórico como de una institución histórica (Renacimiento o Feudalismo). que llamamos unidades de análisis. y es el fundamento de toda disciplina científica. la participación electoral y la criminalidad de 28 . para establecer tal conexión”. desconocido. como poder. Si la teoría es una red de conexiones entre entidades abstractas representadas por los conceptos. que consiste en conocer a través de conceptos universales. Por ejemplo. y los únicos instrumentos. pueden hacer referencia a construcciones mentales abstractas que son imposibles de observar directamente. del hombre como de Dios. felicidad… Podemos decir. etc. es decir. que los conceptos son los “ladrillos de la teoría”. Se puede tener un concepto de la mesa como del número tres. Hay que señalar que. por tanto. el caso del “análisis secundario”. para permitir sucesivos análisis divesificados. a menudo. cualquiera que sea el objeto al cual se refiere. la de las denominadas “relaciones humanas”. sino que quiere abarcar intencionadamente un amplio campo de problemáticas. “La teoría tiene un sentido para la ciencia empírica sólo en la medida en que logra conectarse con el mundo empírico provechosamente. Otras veces la observación no parte de una teorización específica. 3. en establecer las reglas para su traducción en operaciones empíricas. Desde el concepto parte el puente que conecta la orilla teórica con la del mundo empírico observable. se puede dar una definición operativa del poder de un cargo empresarial a través del número de subordinados que dependen de él. sino el hecho de sentirse el centro de atención y objeto de experimento. en convertirlos en atributo o propiedad de objetos. El segundo paso para hacer empíricamente operativo el concepto-propiedad consiste en dar una definición operativa de él. además. cuando se aplica un segundo análisis a datos recogidos por otros investigadores en un momento del tiempo precedente. la teoría no está tan bien definida como para admitir hipótesis claras y precisas. universal o individual. ¿Cómo podemos transformar estos conceptos en entidades empíricamente observables?. Con el término “concepto” nos referimos al contenido semántico (significado) de los signos lingüísticos y de las imágenes mentales.

debemos establecer ante todo la unidad de análisis. Éste término tiene un sentido amplio y se emplea con el significado general de “traducir del lenguaje teórico al lenguaje empírico”. por último en la aplicación de las mencionadas reglas a los casos concretos estudiados: está es la fase de la operacionalización en sentido estricto. la operacionalización es un “hecho”. Concepto Propiedad Variable Operacionalización (Clasificación. registrando cada episodio una serie de informaciones con el objetivo de comprobar si las explosiones de conflicto. “la medición consiste en la atribución de números a objetos o acontecimientos siguiendo determinadas reglas” En realidad cuando no se dispone de unidades de medida es inapropiado hablar de medición: en estos casos el paso de la propiedad a la variable consiste en una operación distinta a la medición. a cada una de las cuales se le asigna un valor simbólico diferente. nosotros hemos utilizado el término operacionalizar. medición. en la investigación empírica. en sentido estricto se refiere al paso de las propiedades a las variables. consiste en una clasificación o en una ordenación. Llamamos variable a la propiedad así operacionalizada. dado que “las partes de Francia que habían de ser el foco principal de esa revolución son precisamente aquellas en que más acusado es el progreso”. La definición operativa se hace todavía en el plano teórico. Aceptando una sugerencia de Tocqueville. para quien la revolución francesa se desarrolló en las áreas más acomodadas del país. El tercer paso consiste. representa el puente crucial que une dos vertientes. el término “medir” es inapropiado. que hemos utilizado al describir el paso de propiedad a variable. Las ciencias naturales han impuesto el término medir para referirse a la operación general. el plan de trabajo empírico). y en general a situaciones de privación relativa más que de privación absoluta. Una reflexión teórica no tiene la necesidad de definir unidades de análisis exactas. que. la definición operativa es un “texto”. La unidad de análisis de una investigación dirigida a controlar la teoría enunciada también podría estar representada por un núcleo territorial. a propósito del término operacionalizar. Llegados a este punto es necesario hacer una aclaración terminológica.4 unidad de análisis La Unidad de análisis representa el objeto social al que se refieren. Sin embargo.un municipio se pueden operacionalizar a través del porcentaje de votantes sobre electores de unas elecciones determinadas y el tanto por mil de delitos sobre la población. Aún así. la operacionalización es su traducción práctica. se podría llevar a cabo una investigación tomando como unidad de análisis la región. Al definir el “diseño de la investigación” (es decir. Como ha escrito Marradi. Para definir este proceso. para el caso de la clasificación o de la ordenació. que según los casos. se 29 . normalmente constituido por un número. las propiedades estudiadas. en el recorrido más amplio que conecte teoría e investigación. ordenación. y de violencia estaban ligadas a situaciones de cambio social que había originado expectativas no satisfechas. como hicieron Gurr y sus colaboradores. Llamamos modalidades a los estados opercionalizados de la propiedad. cómputo) 3. En el lenguaje corriente habríamos dicho “medir”. Ésta podría estar representada por le episodio de rebelión social. o bien en un cómputo.

asociaciones. La teoría de la privación relativa aplicada al radicalismo político también podría ser controlada empíricamente tomando como unidad de análisis el individuo. Si hacemos una distinción. En la que la unidad de análisis está representada en la mayoría de los casos por mensajes de la comunicación de masas. el grupo-organización-institución. los siguientes tipos de unidades de análisis: el individuo. como a veces se hace. reportajes… Concluimos este epígrafe con una anotación terminológica: llamamos casos a los ejemplares de una determinada unidad de análisis incluidos en una investigación. sectas religiosas. unidades administrativas locales (por ejemplo. el acontecimiento y el producto cultural.1. Este “colectivo” puede ser un conjunto de individuos o bien un grupo-organización-institución. para las regiones de Francia en la época de la revolución. escrita. el ejemplo más común lo constituyen las fuentes estadísticas oficiales. y está representada por el individuo. instituciones públicas. de grupo-organización-institución cuando la mayoría de las variables está representada por las que llamaremos “variables colectivas estructurales” o “globales”. Conjunto de individuos. que denomina el tipo de objeto social al que se refieren las propiedades. grupos étnicos. guerras. Esta unidad se localiza en el tiempo y en el espacio. Un cuarto caso está representado por las situaciones en las que la unidad de análisis es el acontecimiento. Los distintos tipos de unidad de análisis La unidad de análisis más frecuente. y la unidad de registro está constituida por el colectivo mismo. fábricas. oral o audiovisual: artículos de periódicos. Unidades de análisis de este tipo son bastante frecuentes en las investigaciones sociales. basadas en conjuntos “territoriales” de individuos. 3. en las investigaciones de tipo sociológico. el conjunto de individuos. podemos identificar. En este caso las variables derivan de operaciones matemáticas realizadas sobre variables registradas de forma individual. Hablamos en cambio. en organizaciones-instituciones: sindicatos. otros acontecimientos son huelgas. pandillas. Mientras que la 30 . partidos. el ayuntamiento). sobre los cuales se recogen los datos. bandas juveniles. algún indicador de bienestar económico y de intensidad del ímpetu revolucionario. etc.). Los casos son los ejemplares de esa determinada unidad de análisis que son estudiados. otro tipo de unidad de análisis está constituido por lo que podríamos llamar representación simbólica-producto cultural. Un segundo caso bastante frecuente es aquel en que la unidad de análisis está representada por un colectivo. ceremonias religiosas. ene este caso la unidad de registro se coloca en un nivel inferior respecto a la unidad de análisis. organizaciones laborales (hospitales. hasta sociedades enteras y los paises mismos. textos literarios. definiendo “la población de referencia” de la investigación. programas electorales. procesos judiciales. transmisiones televisivas. espectáculos teatrales. y de poner en relación las dos variables. golpes de estado. discursos políticos. La unidad de análisis es una definición abstracta. Acontecimiento electoral.trataría pues de encontrar. entre unidad de análisis y unidad de registro.4. otras veces podrá haber diferentes criterios de selección. en las investigaciones sociales está representada por el individuo. … Finalmente. Hemos dicho que la traducción empírica de un concepto (que es abstracto por definición) se produce asignándolo como propiedad a un objeto social concreto (“unidad de análisis”) En una primera aproximación. A menudo se intentará extraer una muestra casual. fotografías. Pensemos en grupos: familias.

como propiedad. pues el concepto ha tenido que ser aplicado a un objeto convirtiéndose en propiedad. sobre un mismo caso. consumo de cigarrillos. En este caso las variables consideradas. podemos decir que las variables son el elemento central del análisis empírico. 3. se habla de variables. En el primer caso se habla de estudio longitudinal y en el segundo caso. En las cc naturales el primer caso es muy frecuente y el experimento se fundamenta en variaciones en el tiempo de variables (hago variar X y observo como varia Y). Una variable puede “variar” entre diversas modalidades. consiste más precisamente en la propiedad operacionalizada de un objeto. medicamento que se suministra un paciente y queremos ver como afecta a los glóbulos blancos. o bien entre los casos. Puede ser asociado. en su forma operacionalizada. En las CC sociales sin embargo es más frecuente la segunda situación. al mismo tiempo. En este caso esa propiedad. y constituyen los objetos específicos de la investigación empírica. pero si el estudio se realiza sobre la población española es invariante. peso de un objeto (propiedad). No hay correspondencia biunívoca entre “concepto” y “variable”. sobre el mismo sujeto. para hacerlo haremos variar las dosis de los medicamentos. con otros enfermos de cáncer y constatamos si a estados de enfermedad/salud diferentes corresponden también diferentes grados de consumo de cigarrillos. Del mismo modo que hemos dicho que los conceptos son los ladrillos de la teoría. Una propiedad. varían entre los sujetos.5 Variables Por variable entendemos un concepto operacionalizado. Entre concepto. ya no es llamada variable. en este caso dos variables varían en el tiempo. Por ejemplo. comparamos un grupo de pacientes sano. y adopta el nombre de constante.unidad de análisis es singular y abstracta. ordinales y cardinales Una clasificación muy importante de las variables se refiere al tipo de operaciones que pueden efectuarse sobre ellas. de estudio transversal. En ambos casos. Características lógico-matemáticas de una variable a las que están en la base de esa clasificación. puede resultar invariante en el subconjunto específico de los objetos estudiados.6 Variables nominales. la de las variables que varían simultáneamente entre las unidades de análisis (ello por el carácter de no manipulabilidad de las mayoría de las variables sociales). La variación de una variable puede producirse de dos formas: en el tiempo. puesto que puede adoptar los estados de macho o hembra. aunque variable en principio. enfermedad. dado que un concepto puede ser operacionalizado de distintos modos. El género por ejemplo es variable. En cambio. la nacionalidad es una propiedad que puede variar entre los individuos. observando como varia la concentración de glóbulos blancos en la sangre. el de la variación en el tiempo y el de la variación entre los sujetos. en tanto que hacen referencia a las operaciones 31 . pero lo hace explícita y por lo tanto controlable. 3. La definición operativa no elimina la arbitrariedad. los casos son múltiples y concretos. Ejemplo. para someter a control empírico que el cáncer de pulmón está correlacionado con el consumo de cigarrillos se procede de forma diferente. propiedad y variable existe la misma diferencia que entre peso (concepto). y peso del objeto medido a través de una balanza. a diferentes unidades de análisis. correspondientes a los diversos estados de la propiedad.

de la naturaleza de las operaciones empíricas realizadas para el registro de los datos.1. una jerarquía. exclus. (variables nominales. ordenación. en el sentido de que cada caso que examinamos debe poder ser colocado al menos en una de las categorías previstas. la clasificación. no la nacionalidad media). es decir para operacionalizar los estados de la propiedad en el momento de su traducción en variable. Las únicas relaciones que podemos establecer entre las modalidades de una variable nominal son las relaciones de igual y de desigual. en este caso. Procedimientos de operacionalización que pueden agruparse en cuatro clases ( clasificación. y. Hasta las estadísticas más comunes. en efecto. operaciones de igual y desigual) o matemáticas (por ejemplo. las cuatro operaciones aritméticas) a las cuales se pueden someter sus valores. y b) exclusividad mutua. Estados de la propiedad Discretos no ordenables Discretos ordinables Discretos enumerables Continuos Procedimiento de operacionalización Clasificación Ordenación Cómputo Medición Tipo de variable Nominal Ordinal Cardinal Cardinal Características Operaciones de los valores posibles = = Nombres Números con caract. Esta distinción toma como referencia el análisis de los datos. empleado y desempleado… tales variables se denominan dicotómicas y presentan la importante propiedad de poder ser tratadas estadísticamente 32 . Un caso particular de variables nominales es aquel en el que las modalidades son sólo dos: hombre y mujer. de este segundo requisito se deriva también la unicidad del criterio de división. cómputo y medición). Estados “no ordenables” son aquellos entre los cuales no es posible establecer un orden. La operación que permite pasar de la propiedad a la variable es. Nos encontramos en los niveles inferiores de formalización matemática.6. el genero puede ser varón o mujer). dependen de las características lógico-matemática de la variable (se puede calcular edad media de una muestra de individuos. Ordinales Números con características Cardinales Números con características cardinales = > = > + = > + = < = < x: = < x: 3. ordinales y cardinales). como la media o un índice de asociación. Diferenciaremos las variables en tres grandes tipos. la operación de clasificación es la primera y la más sencilla operación realizable en toda ciencia. Las categorías en las que los estados de la propiedad se clasifican deben cumplir el requisito de la a) exhaustividad. dependiendo estrechamente. Llamamos modalidades a los estados de la variable operacionalizados y valores a los símbolos asignados a las modalidades.lógicas (por ejemplo. Variables nominales Con estados discretos se entiende que la propiedad puede adoptar solamente una serie de estados finitos: no hay posibilidad de estados intermedios (la religión puede ser católica o musulmana. en el sentido de que un caso no puede ser clasificado en más de una categoría.

sino utilizables sólo para variables colocadas a un invel superior de operacionalización. entre las modalidades de una variable de este tipo podrán establecerse no sólo relaciones de igualdad y de desigualdad ( una edad de 20 años es distinta a una de 22). 3. es decir puede asumir infinitos estados intermedios en un determinado intervalo entre dos estados cualquiera. Esto permite aplicar a las distancias las cuatro operaciones que se aplican a los números y por tanto permite realizar sobre las variables todas las operaciones matemáticas y las elaboraciones estadísticas más sofisticadas. sino que tendrá que utilizar un criterio que preserve el orden entre los estados. no fraccionables. sino también las cardinales. es decir de “mayor que” y “menor que”.6. en absoluto) 3. No se conoce la distancia existente entre las distintas modalidades.con instrumentos normalmente no aplicables a las variables nominales. Dado el carácter cardinal de los valores. Variables cardinales Los números asignados a las modalidades tienen pleno significado numérico. en el caso de un cuestionario. bastante. no sólo relaciones de orden (20 años es menor que 22) sino también pueden efectuarse operaciones de suma y de resta entre los valores. en absoluto. No sólo permite establecer relaciones de igualdad y desigualdad entre las modalidades.2. es decir asume estados finitos. Tenemos en cambio un cómputo cuando: a) la propiedad a registrar es discreta. Se conoce la distancia existente entre dos valores y entre estas distancias también pueden aplicarse las operaciones de multiplicación y de división. La medición es cuando concurren las dos condiciones siguientes: a) la propiedad de medir es continua. y b) existe una unidad de cálculo. es decir una 33 . poco. Variables de este tipo son la edad. Porque derivan de propiedades originariamente constituidas por estados discretos. Se pueden obtener variables cardinales a través de dos procesos de operacionalización de la propiedad: la medición y el cómputo. el número de hijos. y b) contamos con una unidad de medida preestablecida que nos permite comparar la magnitud a medir con una magnitud de referencia. en la clase social.6. puesto que existe una unidad de referencia.3. O porque derivan de propiedades continuas. en una jerarquía militar. El proceso de medición conlleva el redondeo del número real correspondiente al estado medido en un número de cifras compatible con la aproximación que hemos establecido para nuestra medición. Las variables pueden ser ordinales por dos motivos. que gozan de las propiedades ordinales de os números. Es posible determinar estas distancias o intervalos. la renta. entendiendo por pleno le hecho de que no sólo presentan las propiedades ordinales de los números. Variables ordinales La propiedad que registra adopta estados discretos ordenables. que han sido registradas en una secuencia solamente ordinal por carencia de instrumentos de medición. en preguntas en las que el entrevistado deba escoger la respuesta entre las categorías ordenadas de tipo: mucho. pero no de las cardinales. poco. como título académico o clase social. sino también instaurar relaciones de orden. bastante. La atribución de los valores a cada una de las modalidades ya no podrá ser causal. Piénsese en el título de estudio. Por ello casi siempre se utiliza la serie de los números naturales. Ése es el caso de las citadas preguntas de un cuestionario que prevén respuestas graduadas ( de tipo: mucho.

Al tratarse de propiedades discretas (la unidad de cálculo es indivisible).2 hijos. Podemos encontrar hasta hoy numerosos intentos de superar ese límite. En este caso. INDICADORES E ÍNDICES Hemos dicho que en el proceso de traducción empírica. En una familia. deviene en una propiedad. Sin embargo. de propiedades discretas. y más en general propiedades continuas relativas a la estructura psicológica y de los valores del individuo. por la longitud. y de variables cardinales que derivan. por la dificultad de aplicar una unidad de medida a las actitudes humanas. Nos referimos en particular a la “técnica de las escalas” que desde los años veinte se propuso medir opiniones. Hemos hablado de variables cardinales que derivan. en las elaboraciones siguientes. cohesión social… pueden considerarse propiedades continuas. por la masa. sobre todo. ni pueden realizarse redondeos (una persona puede tener 2 hijos. y es operacionalizado. un concepto se liga a un objeto (unidad de análisis) deviene en una propiedad. la variable podrá dar lugar a decimales tras operaciones matemáticas: por ejemplo. es decir. 3. número de habitaciones … ). por el tiempo. Por otra parte. el porcentaje de desempleados sobre la población activa. En cuanto a las técnicas de elaboración estadística aplicables a las variables. mediante medición. éstas se pueden dividir fundamentalmente en dos grandes grupos: las técnicas para las variables cardinales y las técnicas para las variables nominales. en la fase de cómputo no puede haber decimales. es decir registrado en 34 . El caso de las variables derivadas es especialmente importante cuando la unidad de análisis está representada por un grupo territorial de individuos. podrá obtenerse un número medio de 0. (número de hijos. mediante cómputo. de propiedades continuas. desde la religiosidad al ordenamiento político. es objeto (unidad de análisis). En muy pocos casos disponemos de técnicas pensadas específicamente para las variables ordinales. En física se distingue entre variables fundamentales y variables derivadas. los metros cuadrados habitados disponibles por persona derivan de una división entre dos variables cardinales: una que se refiere a una propiedad continua (la superficie de la habitación) y otra a una propiedad discreta ( el número de componentes de la familia).unidad elemental que está contenida un determinado número finito de veces en la propiedad objeto. que varían de forma gradual entre los individuos. actitudes y valores ("la medida de las actitudes” es el nombre con el que se conoce esta rama disciplinar). esas propiedades no lograr pasar la condición de propiedad continua a la de variable cardinal por un defecto en la fase de operacionalización en concreto. Un subconjunto de variables cardinales está representado por las variables cuasicardinales. por la velocidad. por ejemplo. por la temperatura: las derivadas. El objetivo es acercarse a “mediciones” en sentido estricto. y es operacionalizado.3). la operacionalización consiste en “contar” cuántas unidades de cálculo están incluidas en la cantidad de propiedad que posee el objeto. Las variables del primer tipo. o una tasa de fecundidad de un país igual a 1. El porcentaje de votos obtenido por un determinado partido sobre los votos válidos en una determinada provincia. También en las ciencias sociales muchas variables cardinales derivan de operaciones realizadas sobre otras variables cardinales.7 CONCEPTOS.7 habitaciones por persona. autoritarismo. Las fundamentales están representadas. Las propiedades más características de las ciencias sociales. son infrecuentes en las ciencias sociales. a variables en las que la distancia entre dos valores sea conocida. Las segundas no son más que funciones matemáticas de las variables fundamentales. pero no 2. por la densidad.

3) su operacionalización y 4) la formación de los índices. es argumentar y justificar su elección. de cara a la comunidad científica. la participación en los ritos religiosos puede ser indicador de conformismo social más que de religiosidad. Para la dimensión ritual de la religiosidad hemos mencionado la participación en los ritos colectivos. Por ejemplo. o un comportamiento político y una moral sexual inspirados en las convicciones religiosas. traducibles a la realidad. y que puede haber – y normalmente los hay. por lo que se define como una relación de indicación o representación semántica (o sea del significado). Un indicador puede estar relacionado con más de un concepto. el concepto (general) no se agota con un único indicador (específico). Ejemplos de indicadores del componente consecuencial podrían ser los actos de caridad llevados a cabo por una persona. y la segunda es la parte que le es ajena. En el ejemplo de la religiosidad . operacionalizado con el número de veces que una persona va a la iglesia al mes (variable). La primera fase es una pura reflexión teórica.forma de variable. La elección entre esta multiplicidad la hará el investigador con su propio criterio y la única obligación que tiene. etc. en las sociedades cultural y políticamente dominadas por las instituciones eclesiásticas. y es. Por una parte. pero la práctica religiosa sí que lo es. incluso de contenido semántico radicalmente distinto. en general. esta fase corresponde a la identificación de los cuatro componentes que hemos mencionado (ritualista. “específicos”. por ejemplo. Indicadores. 35 . ligados ambos por afinidad de significado. siempre tendremos que privilegiar indicadores para los que la parte de indicación sea máxima y la parte ajena sea mínima. en la que el concepto es analizado en sus principales componentes de significado (“dimensiones”). Hemos dicho que el indicador es una representación parcial de un concepto. Naturalmente. más general. pero no “demostrar” que es correcta. más fácilmente observable desde el punto de vista empírico que un concepto general. son conceptos más sencillos. Está correlacionada en el sentido de que un concepto específico también es. Así. La segunda fase consiste en la identificación de los indicadores correspondientes a cada dimensión. tendremos dificultades mayores para darle una definición operativa.múltiples indicadores de un mismo concepto. Por otra. Podemos clasificar los conceptos en función de un contínuum dado por el distinto grado de generalidad-especificidad. la fe en dios no es observable. Resulta evidente que la relación entre concepto e indicador es sólo parcial. la lectura de los textos sagrados. Distingue dos partes en un indicador: la parte de indicación y la parte ajena. la oración individual. Podemos decir que la observación empírica de un concepto no directamente observable pasa por la sucesión de cuatro fases: 1) la articulación del concepto en dimensiones. Se trata de descender. Por ejemplo. experiencial…). que están ligados a los conceptos “generales”. de conceptos generales a conceptos específicos. es el de religiosidad. La primera es la parte de contenido semántico que éste tiene en común con el concepto del que es adoptado como indicador. Una tercera cuestión es la relativa a la arbitrariedad de la elección de un indicador. Pero si el concepto a operacionalizar. el concepto de práctica religiosa es definido como propiedad de los sujetos humanos. De ahí la necesidad de recurrir a más de un indicador para registrar operativamente el mismo concepto. un indicador lo puede ser de más de un concepto simultáneamente. en lugar de la práctica religiosa. 2) la elección de los indicadores. puesto que eso es demostrable.

el valor verdadero no observado ni observable del concepto que la variable pretende registrar. por el motivo que sea. ante conceptos complejos para los cuales sus datos son inadecuados. puede decirse que el valor observado. o se trate de réplicas de la investigación sobre los mismos individuos. y llegando a utilizar indicadores con una parte de indicación excesivamente modesta. Número de veces que una persona va a misa al mes. Desgraciadamente. que recorre la fase de articulación en dimensiones seguida por la definición de los indicadores y por su obtención operativa. por lo que se obtendrá en todas las encuestas una tasa media de participación electoral “observada” sistemáticamente superior a la “verdadera”. como devotos. El error aleatorio es un error variable. Podrá tratarse deun indice unidimensional que “ordena” la religiosidad según una puntuación de las características ordinales. es decir. no religiosos. sigue a la recogida de datos en lugar de orientarla. Su valor medio sobre el total de los casos observados no es igual a cero. son frecuentes los casos de investigadores que. o bien de un índice tipológico que. representa el desfase entre concepto (teórico) y variable (empírica). en el sentido de que el “valor observado” tiende sistemáticamente a sobreestimar o subestimar el “valor verdadero”. cuando esta elección. a su transformación en variables. “clasifica” la religiosidad en tipos diferentes entre si y no graduables. el valor de la variable empírica tal y como es registrado por el investigador. si han ido a votar. La cuarta y última fase es la de la construcción de los índices.8 Error total Error de medición o error total. que varia de registro a registro. es decir.En la tercera fase se procede a la operacionalización de los indicadores. Por lo tanto. Este error tiene dos componentes: el error sistemático y el error aleatorio. Por ejemplo. existe una difundida tendencia por parte de los entrevistados a no declarar la abstención. El itinerario de la traducción de un concepto en operaciones empíricas. 3. y varía al pasar de una 36 . la participación electoral. Hay que tener especial cuidado en elegir los indicadores para operacionalizar conceptos complejos. no siempre se realiza en la secuencia temporal presentada hasta el momento. o que la mide llegando a una puntuación cuasicardinal. practicantes. y los dos componentes del error. tratan de arreglárselas con lo que tienen a disposición. se encuentra ante la imposibilidad de planificar la obtención de los indicadores según su análisis conceptual. Formalmente: Valor observado = Valor verdadero + Error sistemático + Error aleatorio (variable) (concepto) Lo que equivale a escribir: Error = Valor observado – Valor verdadero = Error sistemático + Error aleatorio El error sistemático (distorsión) es un error constante. en el sentido de que se presenta en todas las investigaciones: ya se trate de investigaciones sobre individuos diferentes. por ejemplo. sino que toma un valor positivo o negativo. cuando el investigador no observa directamente los datos sino que utiliza datos ya recogidos. forzando la correspondencia semántica entre indicador y concepto. conformistas. es el resultado de la suma de tres partes. En particular. Varía en hipotéticas réplicas del mismo registro sobre el mismo individuo.

muestra de individuos a otra. Se trata de oscilaciones que tienden a una media (valor esperado) igual a cero, sobre todas las réplicas posibles del registro y sobre todas las muestras. En resumen, si el error sistemático es la parte del error común a todas las aplicaciones de una determinada investigación; el error aleatorio es la parte de error específica de cada una de las investigaciones. ¿En qué fases del recorrido que conduce de los conceptos a las variables surgen estos errores? Hemos visto que este paso se articula en dos fases: una fase teórica, que podríamos llamar de indicación, que lleva a la elección de los indicadores, y una fase empírica, que hemos denominado de operacionalización y que consiste en la obtención de los indicadores mismos. En ambos momentos podemos cometer un error: un indicador puede ser elegido mal o puede ser operacionalizado mal. • El error en la fase de indicación, es decir, en la elección de los indicadores adecuados para representar un determinado concepto, es un error de tipo sistemático. Por ejemplo, tomar como indicador de participación política de una persona el hecho de que esté inscrita o no en un sindicato, puede ser una elección afectada por error sistemático: de hecho, la inscripción en un sindicato puede expresar un cierto conformismo social o la preocupación de proteger los intereses propios o un comportamiento que se reproduce cada año por inercia, más que una participación política real. Un indicador será más válido cuanto mayor sea su parte indicante y menor su parte ajena. El error cometido en la fase de operacionalización puede ser tanto sistemático como aleatorio. En una investigación realizada a través de entrevistas sobre una muestra de sujetos, el proceso de operacionalización se articula en diversos momentos, y en cada uno de ellos podemos cometer errores, podemos distinguir 3 fases: a) la fase de la selección de las unidades estudiadas b) la fase de recogida de los datos, que llamaremos de observación, y c) la fase de tratamiento de los datos. Podemos cometer errores en cada una de estas fases.

Errores de selección. Errores debidos a que en una investigación no se actúa sobre la población total sino sobre una muestra de sujetos. Tres tipos diferentes de errores de selección. El Error de cobertura, la lista de la muestra de sujetos es incompleta. Error de muestreo, realizar la investigación sobre una muestra, lleva a un error que con otra muestra habría sido diferente. El Error de no respuesta, algunos sujetos a pesar de estar en la muestra pueden negarse a contestar. Errores de observación. Pueden ser achacados a cuatro fuentes. Errores debidos al entrevistador,(registro erróneo de una pregunta) al entrevistado,( comprensión errónea de una pregunta) al instrumento,(preguntas mal formuladas) al modo de administración, (no es lo mismo por teléfono, por correo, en directo…). Errores en el tratamiento de los datos. Errores de transcripción, de codificación, de memorización en el soporte informáticos… Pueden ser tanto sistemáticos como aleatorios. El error global de una investigación es imposible de evaluar. Escapan de nuestro control demasiados componentes; y si bien los intentos de considerar la investigación a examen como una de las posibles réplicas del mismo diseño de investigación permitirían evaluar 37

el error aleatorio, no ocurre lo mismo con el sistemático, que por definición se presenta en todas las posibles réplicas de las investigación y escapa por lo tanto a cualquier examen. Lo que sí se puede medir es un componente de este error global, el error de muestreo: existe un sector de la estadística que ha desarrollado técnicas de estimación del error provocado por el hecho de actuar sobre una muestra en lugar de sobre la población total examinada. Como es el único cuantificable, muchos investigadores consideran este error como si fuera el error total de la investigación. 3.9 FIABILIDAD Y VALIDEZ Con respecto a la fase que hemos llamado de “observación”, los psicométricos han elaborado dos nociones sobre las que queremos profundizar aquí: la fiabilidad y la validez. La fiabilidad tiene que ver con la “reproducibilidad” del resultado, e indica el grado en el que un determinado procedimiento de traducción de un concepto en variable produce los mismos resultados en pruebas repetidas con el mismo instrumento de investigación (estabilidad) o bien con instrumentos equivalentes (equivalencia). Cuando pesamos un mismo objeto varias veces y la medición coincide la mayor parte de las veces concluimos que la báscula es fiable. La validez en cambio, hace referencia al grado en el que un determinado procedimiento de traducción de un concepto en variable registra efectivamente el concepto que se pretenda registrar. Si el coeficiente intelectual regristra efectivamente la riqueza de un país, si el PIB registra efectivamente la riqueza de un país. Está claro que en este caso no es la repetición de la prueba lo que permite controlar este tipo de error. Generalmente se asocia la fiabilidad al error aleatorio y la validez al error sistemático. Por ello, la fiabilidad es más fácilmente verificable que la validez, puesto que el error aleatorio puede localizarse a través de repeticiones de la observación sobre el mismo sujeto; mientras que la validez es más difícil de identificar, puesto que el error sistemático, que está en su base, se presenta constantemente en cada observación, y por tanto hace que no se pueda conocer el estado efectivo de la propiedad estudiada. 3.9.1 Fiabilidad

La primera forma de fiabilidad que ha sido estudiada es la estabilidad en el momento de la observación. Ésta puede medirse a través de repetir la observación y en calcular la correlación entre los dos resultados. Es difícil de aplicar en las ciencias sociales por dos motivos: la reactividad del sujeto humano y el cambio que puede introducir en el sujeto entre la primera y la segunda exploración. La primera exploración no deja inalterada la propiedad que queremos registrar; por ejemplo, el recuerdo del primer test o el aprendizaje que se ha adquirido después pueden alterar el resultado del segundo. Además, la repetición en el tiempo permite controlar las incidencias que varían de un momento de la administración a otro, pero no los otros dos tipos de variación accidental antes mencionados, atribuibles al instrumento y a las modalidades de investigación. Se ha propuesto una segunda definición de fiabilidad en términos de equivalencia, en la que la fiabilidad se mide a través de la correlación entre dos procedimientos distintos, aunque muy similares entre si. La primera técnica es la denominada subdivisió a mitad, en la que la fiabilidad se obtiene por la correlación entre dos mitades del mismo test.

38

Un procedimiento similar es el de las formas equivalentes: dos test se denominan paralelos cuando se consideran que miden el mismo valor verdadero subyacente, y difieren sólo en el error casual. Una tercera solución para medir la fiabilidad es la que se basa en el supuesto de que los errores aleatorios varían no solo entre test y test, sino también entre pregunta y pregunta dentro de un mismo test. Así, se han propuesto las medidas basadas en la coherencia interna, en las que la fiabilidad del test se estima a través de la correlación de las respuestas a cada pregunta con las respuestas al resto de las preguntas. Todas las técnicas que hemos presentado, no obstante, han sido concebidas dentro de la psicometría, teniendo presente como único procedimiento de operacionalización el test psicológico, consistente en una bateria de preguntas, es decir, una serie de preguntas sobre el mismo argumento. Sigue siendo mucho más difícil de evaluar la fiabilidad de una investigación en otras situaciones: por ejemplo, cuando, manteniéndose siempre la unidad de análisis representada por el individuo, se quieren registrar comportamientos específicos o bien cuando la unidad de análisis es distinta al individuo. En vista de la dificultad de la repetición, se mantiene válido al planteamiento de fondo de que la fiabilidad de una investigación puede ser controlada a través de investigaciones múltiples con instrumentos distintos. 3.9.2. Validez Si tras un error de validez hay un error sistemático, es muy difícil darse cuenta, puesto que éste se reproduce de forma constante en todas las investigaciones. Generalmente el error de validez se sitúa en el paso del concepto al indicador y nace del “error de indicación”, en el que ya nos hemos detenido. La validez de un determinado indicador es, en efecto, mucho más complicado de reconocer, y es muy difícil de medir. El concepto de validez se puede articular en torno a dos aspectos y con dos procedimientos de convalidación correspondientes: las denominadas validez de contenido y validez por criterio. La validez de contenido se sitúa en un plano teórico, e indica que el indicador o los indicadores seleccionados para un determinado concepto cubren de forma efectiva el significado del concepto. Puede darse sólo en un plano puramente lógico (por eso hablan de “convalidación lógica”); está consiste en una descomposición analítica del concepto estudiado, correspondiente a la fase de articulación de un concepto en dimensiones que hemos citado anteriormente, con el objetivo final de cerciorarse de que todas las dimensiones están cubiertas por los indicadores seleccionados. El segundo tipo de validez ha sido definido como validez de criterio: en este caso, la convalidación se basa en la correspondencia entre el indicador y un criterio externo que por algún motivo se considera correlacionado con el concepto. Este criterio puede estar representado a) por otro indicador ya aceptado como válido b) por un hecho objetivo, generalmente de carácter conductual. Dada la posibilidad de cuantificar esta correspondencia, también se ha propuesto para este tipo de validez el nombre de validez empírica, contrapuesta con la precedente validez de contenido, que sería denominada “validez teórica”. Terminología que sin embargo no debe inducir a creer que la validez es empíricamente mensurable; de hecho, lo que se mide con este procedimiento es la correlación entre dos indicadores y no la correspondencia entre el indicador y su concepto. La validez por criterio ha sido clasificada en varios tipos. Tenemos la validez predictiva, que consiste en relacionar el dato del indicador con un acontecimiento sucesivo unido a

39

él. Un test de actitudes referente a una determinada profesión puede convalidarse por la comparación entre su resultado y el sucesivo rendimiento en el trabajo. Se habla de validez simultánea cuando el indicador está correlacionado con otro registrado en el mismo momento temporal. Un tipo importante de validez simultánea es la validez por grupos conocidos, en la que el indicador se aplica a sujetos cuya posición sobre la propiedad a examen es conocida. Por ejemplo, un indicador de religiosidad puede aplicarse a personas pertenecientes a grupos religiosos y habitualmente asiduos de la iglesia, para controlar si efectivamente, como se espera, el indicador registra valores especialmente altos de religiosidad para estas personas. Los manuales de psicometría incluyen un tercer tipo de validez denominada validez de constructo. No se trata más que de una combinación de los dos tipos de validez anteriores. La conformidad de un indicador a las expectativas teóricas en términos de relaciones con otras variables. Existe una correlación inversa entre nivel de instrucción y prejuicio racial. Si establecemos un nuevo indicador de prejuicio, su validez de constructo puede ser evaluada según su conformidad con estas expectativas: si las expectativas no son confirmadas, podemos concluir que probablemente el indicador considerado no es un indicador válido de prejuicio. El procedimiento se basa en consideraciones teóricas y en la referencia a otros indicadores ya aceptados como válidos; de ahí que pueda considerarse una combinación de los dos criterios de convalidación ilustrados anteriormente. Concluimos esta larga reflexión sobre el error total subrayando la importancia de este argumento y una llamada de atención sobre la necesidad de que el investigador ponga especial cuidado en este punto. Los errores cometidos en la fase de transformación de los conceptos en variables son muy graves pues, al ser colocados al inicio de la fase empírica, perjudican todo el posterior desarrollo de la investigación.

40

2 Corroboración empírica de la relación causal Preliminarmente aún debemos introducir un apunte terminológico. la clase es la variable independiente. la causa es la variable independiente. y la tendencia política es la variable dependiente. Si queremos tener elementos empíricos que confirmen la afirmación teórica de que el individualismo social produce una elevada tasa de suicidios. El problema de la causalidad existe en todas las ciencias. La noción de causa queda confinada en el reino de la teoría. consideramos que el la “causa”. pero sigue siendo insuficiente. El simple hecho de que X e Y varíen conjuntamente de una forma previsible. Si C. debemos poder observar situaciones con diferentes grados de individualismo. y variable dependiente a la variable influida. 4. de la que. manteniéndose constantes todas las otras posibles causas de Y. debemos poder observar una variación de la variable independiente. Esta formulación expresa algunas de las características del nexo causal ( condicionalidad. Cuando una variable influye en otra llamamos variable independiente a la variables que influye.CAPITULO 4 CAUSALIDAD Y EXPERIMENTO 4.2. en el plano teórico. y que una transformación en X preceda siempre a una transformación en Y.1. sucesión. entonces (y sólo entonces) E siempre producido por C. y el efecto es la variable dependiente. “conocimiento y ciencia consisten en darse cuenta de las causas y no son nada fuera de esto”. es decir. relativo a la distinción entre variables dependiente y variables independientes. En primer lugar. entonces ( y sólo entonces) E siempre. y debemos resignarnos a la imposibilidad de comprobar empíricamente las leyes causales. Pero si observamos empíricamente que una variación de X es seguida regularmente por una variación de Y. nunca puede asegurarnos que X produzca una transformación en Y. 4. El elemento esencial que añade este enunciado está representado por la idea de producción: no se limita a afirmar la existencia de una “conjunción constante” entre dos fenómenos. contamos con un fuerte elemento empírico de corroboración de la hipótesis de que X es la causa de Y. ya que en muy pocos casos pueden valerse del principal instrumento para evaluar empíricamente una relación causal: el experimento. en el plano empírico (lo podemos plantear en el plano teórico). constancia y univocidad). Si C. En la relación entre clase social y tendencia política. Podemos decir que el hecho de que “el pensamiento causal pertenece completamente al nivel teórico y que las leyes causales nunca puedan ser demostradas empíricamente” es una opinión comúnmente compartida. Si la relación de dependencia es de tipo causal. el efecto es generado por ella". pero resulta especialmente relevante en las ciencias sociales. sino que se afirma que “más allá de ser acompañado por la causa. Nunca podemos decir.1 CONCEPTO DE CAUSA Desde siempre el hombre ha tratado de entender cómo un fenómeno podía influir en otro. que la variación de X “produce” la variación de Y. 41 . Covariación entre variables independientes y dependientes.

Análisis de la covariación y experimento Los científicos disponen de dos técnicas básicas para controlar empíricamente una afirmación causal: el análisis de la covariación en su realización natural y la situación artificial del experimento. en lugar de variable independiente estudiada X. Si decimos que una socialización impregnada de valores religiosos (X) genera en la edad adulta una actitud más intolerante hacia las ideologías distintas (Y). que nace de la observación de que la variación de la variable independiente X precede a la variación de la variable dependiente Y. artificial para el experimento. simultáneamente.2. pero. Dirección causal Debemos. mientras que el de covariación pertenece al empírico. es posible establecer la dirección del nexo causal mediante el criterio de la sucesión temporal.2. 4. Hay que añadir que deben excluirse algunas direcciones causales por imposibilidad lógica.2. En el lenguaje estadístico.3. Si decimos que existe un nexo causal entre clase social y tendencia política. Mediante la manipulación de la variable independiente. “Covariación no significa causalidad”. si la tasa de suicidios en las regiones aumenta al pasar de regiones católicas a protestantes.No podríamos proceder a observaciones empíricas sobre la influencia de la cohesión social en la tasa de suicidios si observáramos situaciones en las que la variable independiente (cohesión social) es constante. estar en condiciones de observar que al variar la variable independiente se obtiene una variación de la variable dependiente. Dos adjetivos: natural para el análisis de la covariación. que. camino que puede recorrerse sólo en el caso del experimento. puesto que se realiza en el laboratorio y la variación de la variable independiente es producida por el investigador.2. prevé la posibilidad de una variación artificial (manipulación) de una de las dos variables. debemos poder observar. Al variar la variable independiente. consistente en analizar las covariaciones tal y como se presentan en las situaciones sociales no manipuladas por el investigador. Por ejemplo. una covariación nunca puede ser alegada como única prueba empírica para afirmar la existencia de una relación causal. todas las religiones protestantes son alemanas y las católicas son francesas. pero que no se produce lo contrario. como veremos en breve. tenemos que asegurarnos de que no sean esas otras variables las verdaderas causas del cambio en la variable dependiente Y. Podemos establecer empíricamente este hecho de dos formas. 4. éste sólo puede existir en la dirección que va de la primera variable a la segunda (es imposible que un individuo cambie de clase social como consecuencia de una modificación de sus tendencias políticas) 4. el concepto de causalidad pertenece al ámbito teórico. 42 . el hecho de que la primera variable preceda en el tiempo a la segunda establece la dirección del nexo causal. al mismo tiempo.4. una variación de la variable dependiente. Cuando no podemos utilizar esta estrategia. no estamos en disposición de discernir si la causa de la distinta tasa de suicidios es la religión o la nacionalidad. se dice que debemos poder observar una “covariación” entre las dos variables. Control de las variables superfluas Cuando forzamos a la variable independiente X a cambiar de valor.

el género. la educación. servirán para aclarar las dos formas de enfrentarse al problema. transformando la Z en una constante para eliminar su efecto. el procedimiento se complica si queremos mantener bajo control muchas variables simultáneamente. la clase social… sin embargo. puesto que hemos comparado entre sí grupos en los que la edad era constante. los dos grupos de ciudadanos. e Y es la variable dependiente “voto”. y dentro de estos tres grupos se observa la covariación entre propaganda televisiva y voto. en efecto “confusas”: los que más ven la TV son también los más ancianos. sólo nos interesa la propaganda televisiva. los que más ven la televisión son las personas que están más tiempo en casa. ¿podemos concluir que la televisión ha jugado a favor de este candidato. Se entiende por relación espuria una covariación entre dos variables X e Y que no deriva de un nexo causal entre sí. Este último problema puede ser superado mediante el recurso de la depuración (control estadístico) de los efectos de las terceras variables Z. que se realiza por medio de 43 . Sabemos que sobre el voto influyen una infinidad de variables “independientes”.1. ¿Ellos votan al candidato A porque son más ancianos o porque ven más la televisión.Dos ejemplos. como la edad. para simplificar. Jóvenes. para ver si al variar la exposición a la propaganda televisiva X. en los que la misma cuestión (el impacto de la proopaganda televisiva sobre las tendencias políticas de los ciudadanos) se aborda con los dos distintos procedimientos. Si encontramos una correlación entre las dos variables. ya no podemos seguir con las sospecha de qué quienes más han visto la televisión son también los más ancianos. los que han visto la televisión y los que no la han visto. de la transformación de las variables extrañas en constantes. Si la relación se mantiene. Las dos variables son. que. de la determinación por vía matemática y de la consecuente eliminación de los efectos de las variables extrañas. es decir ha influido en el voto en esa dirección?. dado que tendremos que hacer comparaciones entre grupos cada vez más pequeños de casos. mujeres más que hombres. Naturalmente. Dos candidatos A y B. varia también el voto Y. de mantener bajo control las variables de perturbación potencial. no podemos saber si la verdadera causa que orienta el voto es la edad o la exposición a la propaganda televisiva. también dividida en “voto para el candidato A/ para el candidato B”. Análisis de la covariación Se trata de entrevistar a una muestra de sujetos. en el sentido de que entre los más expuestos a la propaganda televisiva encontramos también una frecuencia mayor de voto para el candidato A. En un caso como éste el investigador dispone de dos modos de asegurarse de que la relación entre X e Y no se deba en efecto a la acción externa de Z sobre las dos variables: el procedimiento del a) control. el objetivo del investigador es relacionar las variaciones de las dos variables X e Y. ancianos más que jóvenes… Si las personas que ven más la TV son más ancianas que la media. De hecho. Analizando la covariación entre X y Y en grupos de igual edad. es decir. adultos y ancianos. En el primer caso se trata.3. la variación de Z provoca (por una acción causante) la variación simultánea de X e Y sin que entre estas últimas exista un nexo causal. no son distintos entre sí sólo por esta variable: probablemente. 4. han utilizado la TV durante la campaña electoral. sino del hecho de que ambas están influenciadas por una tercera variable Z (edad). es decir. No. y el de la b) depuración. vamos a imaginar dividida en las dos alternativas “ha seguido/no ha seguido la campaña electoral en televisión”.? En este caso la covariación entre audiencia televisiva y voto representaría un ejemplo clásico de lo que se denomina en sociología relación espuria. Por lo tanto si X es la variable “exposición a la propaganda televisiva”. no estamos en condiciones de poder afirmarlo.

el investigador produce una variación de X en una situación controlada y a continuación mide cuánto varia Y. y la de la regresión múltiple si las variables que hay que mantener bajo control son más de una. Experimento Existe otra via para resolver este problema. se tienen bajo control todas las posibles variables de perturbación. que tiene lugar en una situación artificial construida por él. que se basa en un modo distinto. ni está más instruido queel grupo no expuesto a la televisión: la asignación de los individuos a cada uno de los grupos se ha efectuado. En el primer caso nos encontrábamos en una situación de análisis de la covariación. 44 . más anciano. en la del experimento. digamos para tener bajo control las “terceras variables” no es necesario que estén fisicamente “bajo control”. de forma que obtengamos una medida de la correlación ente X e Y depurada de los efectos del resto de variables. analizando la relación entre X e Y cuando éstas asumen valores constantes en los casos analizados. por término medio. en ambos casos se estudia una covariación entre una variable independiente X supuesta como causa y una variable Y supuesta como dependiente. Si con la elección resultante. En el primer caso la intervención del investigador se sitúa después de la recopilación de los datos. no de analizar los datos. en cambio. En el segundo. plantee un diseño de investigación con las siguientes características: que seleccione una muestra de 200 ciudadanos y los subdivida aleatoriamente después en dos grupos de 100. En el segundo caso el investigador controla previamente la producción misma de los datos. En el primer caso el investigador observa y analiza. se produce una covariación entre exposición a la campaña televisiva X y voto Y – por ejemplo. a variables preestablecidas por el investigador y registradas en la fase de la recopilación de los datos.2. en la mayoría de las investigaciones sociales nos encontramos más frecuentemente en la situación de observar covariaciones que en la de construir experimentos. que él se limita a analizar. resulta que en el grupo expuesto a la televisión ha habido mucho más votos para el candidato A-. sino de producir los datos a analizar. Supongamos que el investigador.3. al asignar por sorteo los sujetos al grupo experimental y al grupo de control. dicha covariación ya no está expuesta a los riesgos de “espuriedad” del caso anterior. tras una entrevista sobre el voto de los sujetos estudiados. De hecho. Diferencias. Aunque el experimento constituye la respuesta más rigurosa al problema del estudio empírico de la relación causal. El grupo expuesto a la televisión no es. En el experimento. también las no registradas o directamente desconocidas por el investigador y efectivamente los dos grupos comparados se diferencian sólo por la variable experimental. la hace variar. pidiendo a un grupo que siga la campaña por televisión y al otro que se mantenga rigurosamente alejado de ella. ni tiene un presencia femenina más alta. “produce” puesto que manipula desde el exterior la variable independiente. es decir. los procedimientos de control estadístico del análisis de la covariación son aplicables sólo a un número finito y explicitamente conocido de variables. en el segundo. si conocemos las relaciones de las terceras variables entre sí y con la variable dependiente podemos calcular la correlación existente entre X e Y teniendo en cuenta estos efectos. Sin entrar en detalle acerca de estos procedimientos de estadística multivariada.elaboraciones estadísticas: la técnica de la correlación parcial si la variable que se quiere controlar es sólo una. 4. es decir. intencionadamente “al azar”. de hecho.

para controlar empíricamente el principio de conservación de la energía –que establece que calor y trabajo son formas equivalentes de energía -.4.e Yt.Irrelevancia del registro (procedimiento del medición): el valor de Yt no se resiente del registro precedente de Yc de la misma unidad. distinguió entre la experiencia observadora y la experiencia provocada por la intervención manipuladora del hombre. De ahí se deriva la incapacidad para observar el efecto de X sobre Y. pero nunca las dos cosas simultáneamente. ya que un individuo o ha estado expuesto a la propaganda electoral o no lo ha estado. Llegados a este punto. la diferencia entre los dos valores de Y revela el efecto causal.4. después del tratamiento. y por tanto. Sin embargo. De la imposibilidad de una observación simultánea sobre la misma unidad Yt e Yc se deriva la incapacidad de observar el efecto de X sobre Y. sino que además pudo determinar cuantitativamente la magnitud de la relación (“ley”) existente entre calor y energía. y si indicamos con u la unidad de análisis sobre la que hemos efectuado el experimento. que Holland llama. se registra Yc.186 julios (a la unidad de medida de la energía se le dio el nombre del experimentador). La tesis de invariación consiste en suponer: . eso no quiere decir que no sea posible llegar a soluciones parciales. solución científica y solución estadística. y fue Galileo quien colocó el experimento en la base del conocimiento científico moderno. Se suponía que el trabajo mecánico producido por las palas haría aumentar la temperatura del agua. El experimento encuentra una formulación filosófica y sus primeras aplicaciones científicas en el siglo XVII. aunque no sea posible llegar a una solución empírica definitiva y segura del problema de la inferencia causal. En particular. existen dos vías practicables para este propósito. En 1. Éste es el denominado problema fundamental de la inferencia causal. respectivamente. El experimento se distingue de la forma de experiencia que se deriva de la observación de los hechos en su desarrollo natural. podemos decir que el efecto causal. Es evidente la imposibilidad de observar el valor Yt e Yc en la misma unidad al mismo tiempo. está representado por la diferencia algebraica: 45 . de controlar empíricamente la presencia de un nexo causal. . La solución científica La solución científica es alcanzable si se puede adoptar una de las dos tesis (indemostrables) siguientes: la tesis de invariación o la tesis de equivalencia. En otras palabras. construyó un instrumento en el que unos pesos descendientes ponían en rotación unas palas en un contenedor de agua. Finalmente. a principios del siglo. El experimento no sólo permitió a Joule demostrar la existencia de este nexo causal. Fue Bacon quien.850 el físico inglés James Prescott Joule. sino que Y puede ser registrada en un momento precedente. estableciendo que una caloría corresponde a 4.1. Yc e Yt ya no tienen que ser registradas simultáneamente sobre la misma unidad.Estabilidad temporal: el valor de Yc puede ser sustituido por una medida del mismo Yc en un momento previo. en una determinada unidad u. se modifica X y se registra Yt.4 El experimento en las Ciencias Sociales Podemos definir el experimento como una forma de experiencia sobre hechos naturales que ocurre como consecuencia de una intervención modificadora y deliberada por parte del hombre. 4. Si Yc es la temperatura del agua antes del tratamiento (antes de la administración de la energía mecánica).

se podría tomar la diferencia entre un año sin nada y un año con fertilizante pero hay que tener en cuenta que las variaciones climatológicas tampoco son idénticas en dos años diferentes. otros acontecimientos políticos concomitantes. El efecto causal será t = Yt(u) – Yc (v) sobre dos unidades u y v al mismo tiempo. No obstante.4. aceptar la irrelevancia del primer registro. Piénsese siempre en el ejemplo del efecto de la propaganda televisiva sobre el voto. el individuo podría contestar del mismo modo en la segunda entrevista aun habiendo cambiado de opinión. en tanto que la primera medición de la temperatura del agua no influye en la segunda medición de la temperatura. La estabilidad temporal de Yc es poco fiable: en el tiempo transcurrido entre las dos encuestas el sujeto podría haber modificado su intención de voto no por el efecto del debate televisivo. La solución estadística Tanto la tesis de la variación como la de la equivalencia son normalmente inaceptables en las ciencias sociales. En el ejemplo agrícola. además. Y piénsese en la aplicabilidad de la tesis de la invariación en un experimento en el que se le pregunta a un individuo cuál es su intención de voto antes de la exposición al debate televisivo entre los dos candidatos (Yc). por eso lo más correcto sería tomar dos campos conlindantes. La diferencia entre los dos valores de la variable dependiente Y representa el efecto causal sólo si la tesis de la invariación es sostenible. sobre la otra unidad (u). El valor de Yc debería mantenerse estable como en el corto intervalo de tiempo que transcurre entre el inicio y el final del experimento. Es decir: Yc(u) = Yc (v) Yt (u) = Yt (v) En este caso la medición de Yc (valor de la Y cuando X= c) se realiza sobre una unidad (v). Se acepta la estabilidad temporal de Yc porque no existen otras formas de variación de energía. en tiempos distintos. Supongamos que quiere controlarse el efecto de un fertilizante en un campo. 4. efectuar lo mismo en ambos campos y que uno fuera abonado y el otro no. se le expone al debate televisivo y se registra de nuevo su intención de voto (Yt).2. También la tesis de la equivalencia de las unidades es inadmisible en las ciencias sociales. y la medición de Yt (valor de Y cuando X = t). es presumible que dos campos contiguos derivados de la división en dos de un único terreno puedan ser considerados iguales para todas las variables ligadas a la 46 . sino por otros motivos. por ejemplo. Y el efecto causal vendrá dado por Yt (u) – Yc (v). Es posible. esta asunción es indemostrable. La no influencia de la primera medición también es difícil de sostener: recordando lo que ha dicho que habría votado en la primera entrevista. en tanto que no es posible encontrar dos unidades equivalentes.Efecto causal t = Yt (u) – Yc (u) sobre la misma unidad. Por eso la temperatura del agua antes de la rotación de las palas puede considerarse idéntica a la temperatura del agua que se habría registrado al final del experimento si las palas no se hubieran movido. También en este caso la tesis de equivalencia es indemostrable. para no parecer incoherente. la lectura del periódico. un intercambio de opiniones con su cónyuge.

como la composición del terreno. debe poder manipular los valores de la variable independiente X. la irrigación. Piénsese en dos experimentos 47 . en cambio. En las ciencias sociales no se pueden encontrar unidades idénticas. Nótese en fin que. debe poder atribuir a los grupos los diferentes valores de la variable X. los que responden a todos los requisitos del método. al primer grupo se le asigna el nombre de grupo experimental y al segundo el de grupo de control. Como veremos. la lógica del experimento no cambie aunque la variable X tome más de dos valores y tampoco cambia la lógica del experimento si las variables independientes X son más de una. La segunda distinción. en aras de la sencillez.5 Experimentos de laboratorio y experimentos de campo La primera distinción se refiere al contexto en el cual se realiza el experimento. en cambio.productividad. excepto en las diferencias accidentales. 4. sobre los cuales registrar la variación Y. Sometiendo a uno de los dos grupos. la exposición al sol. de lo que se derivan dos únicos grupos (grupo experimental y grupo de control). interpretable como “valor medio” (por lo que E(Yt) es la media de los valores Yt en el grupo de sujetos sometidos a X = t). En otras palabras. es decir. En psicología cuando el valor X = t es la variable independiente corresponde a la exposición de un grupo a un determinado tratamiento (presencia). La solución estadística. No es posible encontrar dos individuos idénticos. estaremos en disposición de cuantificar el efecto causal. Hay que decir por último.1. Los dos grupos obtenidos serán equivalentes en la media de todas las variables que caracterizan a los individuos. Si esto no es posible. uno a un valor (c) y el otro a un valor diferente (t) de la variable X y observando en los dos grupos los resultados medios de las variables Y. y el valor X = c corresponde a la no exposición al tratamiento (ausencia). a los que exponer a dos valores distintos de la variable X para ver cómo se modifica la variable Y entre ellos. que esta vez será el efecto causal medio: Efecto causal medio T = E (Yt) – E (Yc) sobre dos grupos “aleatorizados” donde E es el “valor esperado”. no se respeta alguno de los requisitos básicos del método experimental. etc. Experimentos de laboratorio La diferencia entre experimentos de laboratorio y experimentos de campo es sencilla: es la distinción entre el experimento llevado a cabo en una situación artificial y el experimento que se realiza en un contexto de la vida real. las variaciones meteorológicas. y los casos en los que. Grupos con estas características se obtienen mediante un proceso de aleatorización: la muestra inicial de sujetos a los que someter al experimento es subdividida en dos grupos asignados al “azar” a los individuos en un grupo o en el otro. sino de algo distinto. ¿Cuál es entonces la solución?.5. 4. Tras haber distribuido a los sujetos en los grupos. que conditio sine qua non para la realización de un experimento es la capacidad de control del investigador sobre la variable independiente (manipulabilidad). una de las diferencias epistemológicas fundamentales entre ciencias sociales y ciencias naturales. no se trataría de un “verdadero experimento”. hemos supuesto hasta ahora que la variable X toma sólo dos valores (presencia/ausencia). tiene por objeto los procedimientos de realización y distingue entre el caso de los experimentos “verdaderos”. Pero es posible obtener dos grupos de individuos que sean estadísticamente equivalentes para poder exponer a uno de ellos a un valor de X y al otro a un valor de X diferente.

Se dividen los experimentos en tres grupos: Implicación de los sujetos estudiados (impact studies) Aquellos a los que se les pide su opinión (judgement studies) Aquellos en los que se requiere la observación sobre los sujetos experimentales (observational studies) Estudios de implicación. la intervención manipuladora del investigador actúa sobre los sujetos mismos. en el doble sentido de: a) posibilidad de mantener fuera del ambiente experimental variables e influencias externas no deseadas. en el que se asignan a unos sujetos tareas que requieren concentración mental en situaciones perturbadas por varias formas de ruidos producidas artificialmente. como hemos dicho. como la interferencia con las actividades de la vida cotidiana. Desde este punto de vista. realizado en un instituto escolar. y de b) posibilidad por parte del investigador de establecer hasta en los detalles más mínimos las condiciones de realización del experimento. El laboratorio permite crear situaciones y realizar observaciones que no son posibles en el ambiente natural: piénsese en la creación de dinámicas de grupo especiales. son más fácilmente realizables en laboratorio. El elemento que caracteriza el laboratorio está representado por el control. para replantearlos en una situación purificada de los deshechos de las accidentalidades. la influencia ejercida por los roles sociales. Por lo que respecta al primer punto. precisamente por las características de control sobre el ambiente que éste ofrece. y por las relaciones dentro de los grupos. En resumen el laboratorio experimental de las ciencias sociales permite al investigador extirpar de la realidad social unos factores específicos. registrando en un test el rendimiento de clases perturbadas por el ruido del tráfico vial y de clases no sujetas a esa perturbación.dirigidos a estudiar la perturbación producida por el ruido sobre la concentración mental. consistía en observar de cerca y aclarar el mecanismo de la obediencia para hacer tal 48 . ya que permite al investigador producir (y repetir) situaciones experimentales que se diferencian entre sí sólo por un pequeño detalle: por ejemplo. puede experimentar si un ruido con intermitencia regular provoca un efecto distinto puede experimentar si un ruido con intermitencia regular provoca un efecto distinto que un ruido con intermitencia irregular o que uno continuo. etc. realizado en un laboratorio. también en las ciencias sociales. aislándolos del confuso contexto en el hecho que se manifiestan. El primero. En cuanto al segundo punto. en el caso mencionado de los ruidos. Por último. que por efecto de la dinámica experimental son inducidos a comportamientos que pueden ser distintos de los que tendrían en una situación de espontaneidad. El segundo. estableciendo detalladamente todas las modalidades de desarrollo. en el laboratorio el investigador tiene la posibilidad de “construir” su propio experimento. Un ejemplo es el experimentos sobre la obediencia a la autoridad. y así sucesivamente. el objetivo del aislamiento del ambiente experimental con el fin de minimizar la acción de factores externos. el laboratorio persigue. aunque. el laboratorio se caracteriza por una gran flexibilidad. las dos condiciones que caracterizan el experimento – la manipulación de las variables independientes y la aleatorización – pueden obtenerse tanto en laboratorio como en experimentos de campo. o bien en la posibilidad de estudiar mecanismos de interacción gestual y verbal entre personas a través de una cámara de vídeo o de un espejo unidireccional.

Al alumno se le ataba a una silla y se le fijaba un electrodo en el pulso. por parte de personas adultas. Una de las dificultades por parte de las mujeres de alcanzar el mismo éxito social que los hombres se debe a un prejuicio negativo hacia las mujeres por parte de las mujeres mismas. se invitaba al laboratorio a dos personas para tomar parte en un estudio sobre “memoria y aprendizaje” y el investigador que dirigía la prueba explicaba que se trataba de un estudio sobre los efectos del castigo sobre el aprendizaje. extracción social… La serie de experimentos aclaró algunos de los mecanismos de obediencia a la autoridad. Dejo perplejos a los investigadores “la voluntad exasperada. podemos citar un estudio sobre el prejuicio hacia las mujeres. Las mujeres juzgaron más positivamente los mismos cuadros cuando éstos eran atribuidos a hombres si eran cuadros que no habían ganado el premio. y ello con el fin de controlar la hipótesis de que cuanto más lejanas de la realidad son las representaciones. el profesor era un sujeto desconocedor. en este caso en la figura de un profesor universitario. La violencia era representada tanto por escenas recitadas en vivo por actores como por filmaciones televisivas de esas escenas grabadas en la realidad. de llegar hasta el grado extremo de obediencia a la autoridad (no individuos sádicos) gente normal. El experimento se repitió con más de 100 sujetos. no motivada por una especial agresividad pero que puede convertirse en cómplice de un proceso de destrucción. de diferente edad. las variables independientes (X) manipuladas fueron en este caso dos: el género del artista ( a la mitad de las mujeres se les dijo que el autor era un hombre y a la otra mitad que era una mujer ) y el éxito del cuadro ( a la mitad de las mujeres se les dijo que el cuadro había obtenido un premio y a la otra mitad se le dijo que simplemente había optado a un premio). de diferentes clases sociales. convencido de que participaba en un experimento sobre aprendizaje. Experimentos basados en la opinión de los sujetos. mientras que este prejuicio negativo hacia la artista-mujer no se daba en el caso de los cuadros que habían sido declarados ganadores de premios… un trabajo que es equivalente al del hombre es juzgado inferior hasta que no recibe un reconocimiento oficial. A un sujeto se le asignaba el papel de profesor a otro de alumno. En realidad. tenía que aprender de memoria una lista de asociaciones de palabras por cada error se le administraba una descarga de intensidad creciente.cosa en un laboratorio de sicología. género. se les mostraba una diapositiva del cuadro y se les sometía a un cuestionario con cinco preguntas de evaluación sobre el cuadro mismo. mientras que el alumno era un colaborador del investigador y no recibía ninguna descarga (fingía recibirlas). En estas circunstancias. Las mujeres leían una breve biografía sobre el artista. 96 niños de entre 3-5 años en cuatro grupos de 24 unidades (niños y niñas en mismo número. Estudios basados en la observación los efectos imitativos de naturaleza agresiva inducidos en los niños después de la exposición a escenas de violencia transmitidas por la televisión. un grupo tuvo la función de control. o de dibujos animados. Los otros tres fueron expuestos a una escena recitada con un actor que cumplía acciones violentas e 49 . agresivos y no-agresivos). inducía a una persona a cumplir acciones que iban cada vez más en contra de su conciencia. más débil es su impacto. un representante de la autoridad. incluso ante escenas de dolor creciente y peticiones de que se suspendiera el experimento. Se mostraron ocho cuadros a 120 mujeres. El experimento estaba dirigido a comprender hasta que punto una persona está dispuesta a obedecer a la autoridad.

Los dos grupos volvían a interactuar enseguida. luego era llevado a una sala donde tenía ante si diferentes oportunidades de juego. La dinámica relacional entre los grupos se transformaba rápidamente de amistosa rivalidad a abierta hostilidad. El resultado hay que atribuirlo a alguna forma de interacción inconsciente entre profesor y alumno: “el tono de voz del profesor. El primero sobre las dinámicas de grupo. En este estudio. Segundo experimento “la profecía que se autocumple”. sino que requerían la colaboración del otro grupo. Las expectativas de A en relación al comportamiento de B pueden influir en B hasta el punto de que éste lleva a la práctica en efecto el comportamiento esperado. Experimentos de campo. su forma de actuar –seguramente de forma totalmente inconsciente – comunica a los alumnos sus expectativas. Esta comunicación puede 50 . El experimento demuestra que las relaciones interpersonales están condicionadas por el contexto estructural en el que las personas son colocadas y tienen que actuar. la segunda los grupos los dictaba el monitor y eran totalmente separados del otro grupo (se elegían nuevos amigos dentro del grupo) y en la tercera los dos grupos competían. Más predisposición de agresividad por parte de los varones. Dos ejemplos.5. señalando al azar a cinco alumnos de cada clase como alumnos que podían progresar rápidamente. Los niños expuestos a las escenas violentas manifestaron reacciones agresivas en doble medida respecto al grupo de control. es decir sobre los mecanismos que llevan a la formación de la solidaridad hacia los miembros del propio grupo (ingroup) y de la hostilidad hacia aquellos que están fuera de él (outgroup). Se hizo un test de inteligencia a los alumnos de un colegio de un barrio pobre y de inmigrantes.2. El niño después era sometido a una experiencia de frustración. su expresión facial. 4. la variable independiente está constituida por los objetivos del grupo. con diferentes fases. la hostilidad se deshacía y se formaban vínculos que transpasaban los límites de los grupos anteriores. Se confirmó sólo parcialmente la hipótesis de la relación entre realismo de la escena y comportamiento agresivo: los niños expuestos a las escenas reales mostraron más agresividad que aquellos expuestos a los dibujos animados. creando un conflicto de intereses entre los grupos.inusuales contra una muñeca de goma hinchable. afirmando que los niños “desaventajados” de las minorías étnicas americanas tienen a menudo un rendimiento escolar deficiente porque eso es exactamente lo que se espera de ellos. Otro a una grabación sobre una filmación televisiva de las mismas acciones y el tercero a escenas similares de dibujos animados que reforzaban la irrealidad de la escena. y la dependiente. La relación profesor-alumno. y en particular sobre las modalidades de desarrollo del sentido del “nosotros” y del “ellos”. Experimentos que se realizaban en campamentos. la primera se agrupaban al azar. se falseo el resultado a los profesores. por el tipo de relaciones interpersonales. Al final la cuarta fase. por razones éticas. pero la diferencia resultó ser moderada. Los resultados evidenciaron una fuerte influencia del efecto de la imitación. En la aplicación experimental. La mayoría de las acciones agresivas de los niños reproducía las vistas en las representaciones. y demostraron que éstas inducían una efectiva mejora en el rendimiento de esos alumnos. los dos autores crearon en los profesores expectativas positivas con respecto a algunos alumnos. a los dos grupos en conflicto se les colocaba frente a objetivos que no podían alcanzarse por el grupo solo. Durante el año escolar se volvieron a hacer test y estos alumnos efectivamente fueron progresando como había avanzado el falso resultado del test de inteligencia. la mitad representada por juegos agresivos y la otra por juegos no agresivos.

las características técnicas y organizativas que definen el experimento: el número de grupos experimentales. También se utiliza un procedimiento que emplea aleatorización casual y emparejamiento. aunque. sobre todas las variables. 4. con X la variable independiente (“tratamiento” o “estímulo” en la terminología de la psicología experimental ).1 Diseño “sólo después” a dos (o más ) grupos 51 . Asignación de los sujetos a los grupos. La aleatorización es la forma más común de obtener grupos que difieran.1. e indicaremos: con R la aleatorización de los sujetos en los grupos. sin entrar en consideraciones sobre la estructura de lo que se define como diseño experimental. Combinándolos dan lugar a una multiplicidad de posibles diseños experimentales. Dos elementos que caracterizan el método experimental: la asignación de los sujetos a los grupos y la manipulación de la variable independiente. como veremos algunos autores introducen casos particulares de esta situación en los denominados experimentos ex post facto ). Si no se cumple la segunda condición. Así se obtienen grupos equivalentes. con Y la variable dependiente (“observación” o “respuesta” ) 4. tenemos los denominados cuasiexperimentos. un criterio alternativo que puede seguirse es el emparejamiento. La variable independiente está representada por una variable nominal y su variación entre los grupos experimentales consiste en que cada grupo presenta una modalidad o categoría distinta de dicha variable. sólo en pequeñas variaciones accidentales.6 experimentos y cuasi experimentos La distinción entre experimentos de laboratorio y experimentos de campo se basa en el contexto ambiental en el que se desarrolla el experimento. la eventual repetición de las observaciones. grupos…) de sujetos idénticos para algunas variables clásicas. el número y las modalidades de las variables independientes. Volviendo a las dos características del experimento representadas por la manipulación de la variable independiente y por la aleatorización de los sujetos en los grupos.ayudar al alumno a cambiar su concepción de sí mismo. Cuando la asignación casual no es posible.1 Experimentos verdaderos Al describir los diversos tipos de diseños experimentales emplearemos la representación gráfica de Campbell y Stanley. Éste procedimiento es inferior a la aleatorización por eso se emplea cuando es imposible emplear ésta. el modo en el que han sido formados. asignando después un componente de la pareja al primer grupo y el otro al segundo grupo (experimento Sampson y Laub). y después se asignan por sorteo a los dos conjuntos los componente de cada pareja. podemos concluir afirmando que el primer elemento no puede faltar (si falta nos situamos en la investigación basada en el análisis de la covariación. Manipulación de la variable independiente.6. 4. consistente en formar parejas de sujetos idénticos sobre características que se consideran relevantes para la cuestión estudiada. Se forman parejas (tríos. sus motivaciones y sus capacidades cognitivas.6.

2. las dos modalidades de la variable independiente X están representadas por “presencia/ausencia”: es decir. y el otro por la ausencia de exposición al estímulo (grupo de control). b) se manipula la variable independiente de forma que en un grupo asuma la modalidad X1 y en el otro la modalidad X2. El efecto causal inducido por la variación de X se mide por la diferencia Y2-Y1. Se trataría de: a) Subdividir por sorteo a los niños en dos grupos b) exponer a un grupo a la transmisión televisiva y no exponer al otro y c) examinar el comportamiento de los niños en la siguiente sesión de juego. Diseño “antes-después” a dos (o más ) grupos Y1 R Y3 X2 Y4 Efecto causal: (Y4-Y3) – (Y2-Y1) Este diseño experimental presenta. X1 (grupo de control) X2 (escenas reales) X3 (filmaciones) X4 (dibujos animados) Y1 Y2 Y3 Y4 R 4. tras la exposición a los distintos estadios de la variable independiente X. sobre todas las variables. sean equivalentes.R X1 X2 Y1 Y2 Efecto causal : Y2 . uno por la exposición al estímulo experimental (que da lugar al grupo experimental). al efecto de esta manipulación la diferencia entre las medias de los grupos de la variable dependiente (Y2 – Y1) registradas después de haber provocado la variación de X. contiene todos sus elementos esenciales: la aleatorización. es decir. el registro de la variable dependiente tras la exposición. por lo que se habla de diseño experimental a grupos multiples. Se obtiene una variante de este diseño cuando la variable X adopta más de dos estados. como sucede con otros diseños experimentales que veremos en breve.1. Éste es el más sencillo de los diseños considerados “experimentos verdaderos”. Podemos atribuir. La aleatorización garantiza que los grupos. En el caso más simple. Por lo tanto. La variable dependiente Y se mide sólo después de la exposición al estímulo experimental y no antes y después de dicha exposición. antes de la exposición al estímulo. los dos grupos difieren sólo en el valor distinto de esta variable. que presenten. X e Y: a) los sujetos se subdividen. también un registro antes de la exposición (de ahí X1 Y2 52 . mediante aleatorización. en dos grupos. pues.6. y c) se observa en los dos grupos el valor medio de la variable dependiente Y. la exposición al estímulo. además del registro de la variable dependiente después de la exposición al estímulo. Experimento de Bandura sobre la influencia de la violencia televisiva.Y1 El experimento se desarrolla en tres fases: R. valores medios iguales (salvo oscilaciones accidentales).

Los dos registros de la variable dependiente también se denominan pretest y postest. Obsérvese que (Y4-Y2) (Y3-Y1) = (Y4-Y3) (Y2-Y1). representadas por el género del artista y por su éxito. Puede influir en las respuestas del postest.Y6) se puede seraparar el efecto del estímulo del de la interacción entre pretest y estímulo. Diseño factorial Son aquellos en los que las variables independientes son más de una. que este efecto de perturbación es igual en los dos grupos y que. no influye en las diferencias de los dos grupos.1. especialmente si los dos test no se administran con mucha distancia el uno del otro. El diseño experimental que sigue se ha propuesto precisamente con el objetivo de controlar este efecto.4.6. Este diseño experimental une variaciones de la variable independiente entre los grupos y variaciones en el tiempo dentro del mismo grupo.6. puesto que la aleatorización garantiza la equivalencia inicial de los dos grupos. Nos encontramo frente a un efecto de interacción entre pretest y estímulo. Con simples diferencias entre los seis valores de los pretest y postest (Y1…. Diseño de Solomon a cuatro grupos Y1 Y3 R X1 X2 X1 X2 Y2 (diseño 2) Y4 Y5 (diseño 1) Y6 (Y4-Y2) : Efecto causal + efecto de eventual no equivalencia igual a (Y3-Y1) (Y4-Y2) (Y3-Y1): efecto causal depurado de la no equivalencia (Y4-Y3): efecto causal + efecto de eventual no invariación igual a (Y2-Y1) (Y4-Y3) (Y2-Y1) : efecto causal depurado de la no invariación. el pretest añade un control adicional sobre esta equivalencia. que puede distorsionar el experimento. 4. Puede ser que sus respuestas no expresen sus opiniones reales sino lo que se socialmente deseable. El diseño pretest presenta algunas desventajas.1. no obstante. Sin embargo. no se le escapará al lector la complejidad de un diseño tal y el coste mayor que conlleva el hecho de utilizar cuatro grupos para estudiar el efecto de sólo dos estados de la variable independiente. Sin embargo. 53 . Este diseño experimental combina los dos diseños anteriores. con consecuencias sobre el postest que no pueden distinguirse de las diferencias producidas por la exposición al estímulo. 4. El pretest no es esencial en los experimentos verdaderos. sumando las ventajas del primero (ninguna interferencia por parte del pretest) a los del segundo (disponibilidad del prestes como punto de partida antes del estímulo). Podría afirmarse. Frecuente en el campo de los estudios de evaluación.3. En el estudio sobre el prejuicio hacia las mujeres teníamos una situación en la que las variables independientes eran dos. Y también podría ocurrir que el pretest influya en los dos grupos de forma distinta. por lo tanto.la denominación “antes-después”.

La comparación se basa. pero que era un actor/actriz. pues. en grupos no equivalentes que difieren entre sí también por otras características.6. Cuasiexperimentos Son experimentos que tienen tratamiento. Dada la imposibilidad de aislar el efecto del estímulo 54 . neutro) el diseño deviene en 2 x 3 y se necesitarán 6 grupos (y seis actores. postest y grupos experimentales. representa evidentemente un grave menoscabo de la lógica experimental. El hecho de que el investigador ya no pueda tomar como punto de partida la equivalencia de los grupos antes de su exposición al estímulo. Resultado éste que no podría haberse obtenido por dos experimentos separados con una sola variable independiente.2. lo que significa que tenemos dos variables independientes (o factores). Tras la discusión debía atribuirse una puntuación de popularidad-simpatía al resto del grupo. y dos mujeres. cada una de las cuales asume dos valores. Resultado del experimento. Si inicialmente los grupos no son equivalentes. Uno adoptaba el papel de lider otro el papel de sumisión. sumiso. X1 X1 R X2 X2 Z1 Z2 Y3 Y4 Z1 Z2 Y1 Y2 Si en cambio la variable independiente Z toma tres valores (dominante. uno por grupo). sino que permite estudiar también el efecto de la interacción entre las variables independientes. el investigador nunca podrá saber si las diferencias que obtiene entre los grupos sobre los valores de las variable dependiente se deben a la no equivalencia inicial o al efecto del estímulo. además de por el tratamiento cuyos efectos están bajo examen. actor incluído. En términos estadísticos. La hipótesis de los investigadores era que la puntuación estaba condicionada por los estereotipos sociales relativos a los comportamientos considerados convenientes para los hombres y para las mujeres. el diseño se convierte en 2x2x2 y los grupos serán ocho. mientras que su interacción sí que es altamente significativa. dentro de los cuales incluyeron a un individuo que fingía ser un sujeto experimental. dos hombres. La principal ventaja del diseño factorial radica en el hecho de que coloca al investigador en condiciones de estudiar no sólo el efecto aislado de las variables independientes sobre la variable dependiente. se dice que las variables “género” y “comportamiento” presentan un efecto principal (main effect) no significativo. si quisieramos añadir al diseño inicial 2x2 una tercera variable independiente (por ejemplo. observaciones. En este experimento las variables independientes son dos: género del actor X y su comportamiento Z. Se trata de dos variables dicotómicas (X1 hombre. la edad también está dicotomizada en “joven” y “adulto”). 4.Cuatro grupos de discusión. compuesto cada uno por 5-8 sujetos. Z2 sometido). y que puede obtenerse sólo en un diseño factorial como el descrito. Como puede verse. X2 mujer. Z1 dominantes. diseño factorial 2x2. pero que no emplean la aleatorización para crear comparaciones de las que poder deducir los efectos del tratamiento. el diseño experimental se complica rápidamente con el crecimiento del número de las variables independientes y de su número de categorías. hombre y mujer era rechazados por el grupo cuando transgredían los estereotipos ligados al género.

por tanto. no obstante. algunos autores llegan a negar legitimidad a la existencia misma de la categoría de los cuasiexperimentos. se deba no tanto al efecto del estímulo. de la variación de X en el tiempo y en el mismo grupo.1. Al mismo tiempo. se pueden aplicar diseños experimentales muy próximos a la lógica de los “experimentos verdaderos” y que producen resultados interesantes no alcanzables a través de la investigación basada en el análisis de la covariación. Esta vez las dos observaciones se efectúan sobre el mismo grupo. si se produce una variación en la evolución de la tendencia de Y entre Y3 e Y4 simultáneamente a la variación de X. en la investigación social es a menudo imposible aleatorizar los sujetos en los grupos. acusándola de ser una categoría híbrida y confusa. este diseño experimental es muy importante como sucedáneo del diseño experimental “sólo después” a dos (o más) grupos. Sin embargo. Es necesario proceder de tal forma que entre las dos observaciones Y1 e Y2 no se produzca otro hecho – además de las variaciones de X – que también pueda influir en Y. Por tanto.2.6. Se trata. es aconsejable recurrir a este diseño sólo cuando no es posible aplicar otros diseños experimentales o cuasiexperimentales. es necesario que le pretest no influya en el postest. En cualquier caso. Por ello. mezclándose con el efecto del estímulo. el investigador no puede hacer deducciones causales sobre el efecto de la variable independiente sobre la dependiente. en el que teníamos dos grupos. este diseño compara no ya los valores medios. no podemos tener un “verdadero experimento”.sino a una tendencia de Y ya en curso. En realidad. La diferencia respecto al diseño precedente radica en el hecho de que. por sus estrictos límites. y no entre grupos. El diseño consiste en una sucesión de registros de la variable dependiente Y. Piénsese en todos los programas de evaluación que no disponen de un grupo de control. no es excluye que este tipo de diseño cuasiexperimental pueda proporcionar contribuciones cognoscitivas útiles. para evitar que la diferencia en el valor de Y antes y después de la exposición al estímulo. en particular en todas las situaciones en la que los grupos son preconstruidos. Por lo tanto. Dicho esto. es improbable que se deba al efecto del pretest 55 . este diseño presenta la ventaja de estar poco perturbado por la influencia del pretest sobre el postest. 4. uno expuesto al estímulo y uno no expuesto. se produce una variación de la variable independiente X y se registra si este hecho introduce una variación en la evolución de la tendencia de Y. situaciones a las que.2.6. 4. sino las tendencias de Y antes y después del estímulo. Con respecto al diseño anterior.2 Diseños en serie temporal interrumpida Se trata siempre de un diseño sobre un solo grupo. y poco perturbado también por la concurrencia de acontecimientos externos incontrolados entre dos registros sucesivos. llegados a un cierto punto. en la secuencia temporal. Entonces podíamos comparar los registros Y2 e Y1 atribuyendo la diferencia al efecto del estímulo. Diseño “antes-después” a un solo grupo Y1 X Y2 Efecto registrado: Y2 – Y1 Si sólo hay un grupo. y el sucesivo registro de la variable dependiente.experimental de todos los demás efectos.

por lo que parece aceptable su atribución a una acción causal de X.1. 4. o a la concurrencia de otros factores desconocidos. exponer a un grupo al estímulo y no exponer al otro. realizar el pretest.2. Se empleó un diseño de este tipo para estudiar el controvertido efecto de la pornografía sobre los delitos sexuales. que indica su origen separado y su no equivalencia.Y3. Diseño “antes-después” a dos grupos sin asignación causal. puesto que éstos ya desde 1. ya no podemos hablar de experimento estamos ante la lógica del análisis de la covariación. Cuando no puede manipular. registrando los incrementos de conocimiento repecto al registrado antes de empezar. Un simple análisis antes-después habría sido engañoso para evaluar el efecto de esta medida sobre los delitos sexuales. y después volver a aplicar el postest a los do grupos.---Y1 Y2 Hemos atribuido el nombre de cuasiexperimentos a aquellas situaciones en las que el investigador no puede asignar al azar los sujetos en los grupos experimentales. se les denomina Expostfacto (para remarcar que se basan en hechos ya acaecidos). por ejemplo.6. aunque no pueden ser 56 .3. Ejemplo: evaluar clases de inglés audiovisual. Se trata de un diseño aplicable sólo en casos particulares. La disponibilidad de la serie temporal de los datos con relación a la variable dependiente (tasa de delitos sexuales) permitió aplicar un “diseño a serie temporal interrumpida”. presentan un diseño que recuerda mucho al de los experimentos. una serie de medidas legislativas de liberalización de la prensa pornográfica condujo a una mayor difusión de ésta. dado que permite que el investigador no trabaje sobre las puntuaciones absolutas de la variable dependiente. una con la enseñanza innovadora y otra con la tradicional. que resienten sólo en parte el nivel de origen del pretest.956. Existen situaciones de investigación que exentas de aleatorización y manipulación. atribuible a la nueva normativa. Mediados de los 60 en Dinamarca. 4. Se trata de tomar dos grupos. sino sobre la variación postest/pretest.2. puesto que se trata de efectos presentes en ambos grupos que no influyen en las diferencia entre los dos. que demostró la existencia efectiva de una contribución positiva a la tendencia de disminución de los delitos. en el estudio de los efectos producidos por un cambio normativo determinado. Y1 X1 Y2 --------------------Y3 X2 Y4 Efecto registrado: (Y4-Y3) – (Y2 – Y1) Esquema parecido al del epígrafe 6. Dos clases. Los dos grupos no son equivalentes.4. pero el pretest proporciona informaciones sobre las diferencias preexistentes entre los grupos. estaban disminuyendo. La presencia del grupo de control elimina los efectos de perturbación debidos a acontecimientos entre el pretest y el postest y a la influencia del pretest sobre el postest. pero siempre puede manipular la variable independiente. Diseño “ex postfacto” X1 Emparejamiento X2 ----.2 aunque desaparece la letra R con las flechas que dirigían a los dos grupos que indica la aleatorización y aparece una línea horizontal entre los grupos.6.

Hay cuestiones que pueden ser estudiadas sólo con este método.incluidos ni en experimentos ni en cuasiexperimentos. una de carácter metodológico: se trata del método de investigación que mejor permite enfrentarse al problema de la relación causal. 57 . Planteamiento. Artificialidad del ambiente. la historia de la investigación social muestra que se han obtenido importantes avances con el método experimental. la posibilidad de construir experimentos diferenciados entre sí por un solo elemento. por la coexistencia de otros factores que los esconden. El otro problema es el de la selección de los sujetos. los resultados no son a menudo generalizables a la población total. Esta limitación conlleva una escasa representatividad de la muestra. Sabemos que el error de muestreo y la amplitud de una muestra son inversamente proporcionales. por la amplitud de la muestra y por los criterios de selección de los sujetos experimentales La primera cuestión surge porque los experimentos sólo pueden realizarse sobre muestras muy reducidas. influyendo inconscientemente en el comportamiento de los sujetos. recordemos la sumisión a la autoridad. desarrollándose en un laboratorio. • Artificialidad se divide en dos aspectos: la artificialidad del ambiente y el de la reactividad de los sujetos experimentales. El hecho ya ha acaecido. se suelen presentar en los manuales de metodología en el capítulo de experimentos. La segunda ventaja se refiere a la naturaleza de los problemas que permite afrontar: el método experimental permite aislar. comportándose quizá de forma diferente a como lo harían de forma natural. 4. Reactividad de los sujetos experimentales. se eligen otros sujetos con características lo más parecidas posible a las de este grupo. Desventajas del método experimental en sus aplicaciones a las ciencias sociales bajo dos títulos generales: artificialidad y no representatividad. ya que se inspiran en la lógica experimental tanto en el diseño como en el tratamiento de los datos. Los grupos experimentales no pueden aspirar a ser muestras representativas de la población. confunden y distorsionan. y por el ruido de fondo presente en la vida real. nos permite alcanzar una conclusiones acerca de la causalidad que no pueden conseguirse a través del análisis de la covariación. tiene con ver con el hecho de sentirse observados.7 VENTAJAS Y LIMITES DEL EXPERIMENTO Ventajas. La flexibilidad de este método. estimulando una relación de autoridad innatural diferente a la de la vida real. • La no representatividad. y se comparan las medias de la variable dependiente en los dos grupos. que encubre la señal de los fenómenos menos llamativos. extrayéndolos del flujo de la vida cotidiana. por motivos de comodidad suelen ser elegidos dentro de un determinado ambiente. pero no expuestos al estímulo. El experimento es aplicable sólo a determinados fenómenos y a determinadas situaciones sociales. fenómenos específicos que en condiciones naturales no podrían ser estudiados de una forma tan sistemática. Por dos motivos. Una de las formas que adopta la reactividad es el efecto del experimentador: las expectativas de quien realiza el experimento. El objetivo del experimento es la causa-efecto A pesar de todas las desventajas vistas. los sujetos ya han sido expuestos a un estímulo.

El experimento es un método de investigación social que se presta muy bien al estudio de problemas específicos. 58 .

2 LA ESTANDARIZACIÓN O INVARIACIÓN DEL ESTÍMULO 5. Ya Marx en el año 1. el entrevistador sabe que en el curso de la entrevista debe tocar el tema del interés por la política pero puede formular las preguntas como considere más oportuno. La estrategia de recoger informaciones preguntando directamente a los sujetos implicados en los fenómenos sociales abarca situaciones muy diversas. los mismos hinchas…) Las preguntas están estandarizadas. Pregunta y respuesta estandarizada. a todos los sujetos se les plantean las mismas preguntas con la misma formulación. en ocasiones escrita. no era necesario estudiar toda la población. La formulación de preguntas suele ser de forma oral. 5. La interpelación a un individuo consta de dos elementos: la pregunta y la respuesta. respuesta libre. Todo esto da lugar a tres instrumentos de investigación distintos: . al censo… Por encuesta de muestreo entendemos. por teléfono… el denominador común es la pregunta.1.2. un modo de obtener informaciones: a) preguntando. LA ENCUESTA POR MUESTREO Es la técnica de investigación social cuantitativa más difundida.1 La encuesta por muestreo en la investigación social Dos formas de recoger información: observar y preguntar. bastante. Es decir. 5. bla. sino que un estudio realizado sobre una muestre oportunamente preseleccionada podría producir resultados igualmente exactos.La entrevista estructurada . (P: ¿le gusta la política? R: Depende. cara a cara. Dichas preguntas se plantean directamente a los individuos que constituyen el objeto de la investigación. Ambas pueden formularse de forma estandarizada o bien su formulación puede ser libre. investigación sobre la afición futbolística. nada) Pregunta estandarizada. a los presos. sondeo electoral.5. poco.La entrevista libre En este capítulo nos dedicaremos sólo al primer caso.880 utilizó el cuestionario. para conocer la distribución de un número determinado de variables en una población determinada. van desde la encuesta periodística al estudio de mercado. (P: ¿le gusta la política ? R: mucho.El cuestionario . b) a los mismos individuos objeto de la investigación c) que forman parte de una muestra representativa d) mediante un procedimiento estandarizado de cuestionario y e) con el fin de estudiar las relaciones existentes entre las variables. el afianzamiento del principio de que. Criterio objetivista frente a criterio constructivista 59 . (Si es sobre la condición social de los presos. ) Ni pregunta ni respuesta estandarizada. pero el verdadero salto cualitativo en el ámbito de las técnicas de encuesta se realizó al consolidarse el concepto de representatividad y la introducción de los procedimientos de muestreo. bla.

recogido o registrado. el cuestionario y por consiguiente la encuesta por muestreo. En segundo lugar.Primer dilema es el que contrapone a los que consideran que la realidad social existe fuera del investigador y es plena y objetivamente cognoscible por éste. Uniforma al individuo.3 El objetivo del mínimo común denominador El objetivo fundamental de la postura objetivista-uniformista es evidente. como si todos los destinatarios estuvieran dotados de igual sensibilidad. es un acontecimiento único. sino “construido” o “generado” en la interacción entre el sujeto que estudia y el sujeto estudiado. considera que existen sino unas leyes como en el mundo físico. rapidez. el dato social puede ser registrado objetivamente. unas regularidades en los fenómenos sociales y en los comportamientos humanos. para la cual el dato social no es observado. con un lenguaje conductista. Enfoque uniformista frente a enfoque individualista Segundo dilema confronta las posiciones que podríamos llamar uniformistas e individualista. Uniformista. no cambiar el orden de las preguntas. si unas uniformidades empíricas. conducen hacia el mismo punto: la neutralidad del instrumento de investigación (del que también forma parte el entrevistador). 60 . es decir.2. y los que ven en el acto mismo de conocer una alteración de la realidad.2. 5. Posición objetivista. con un procedimiento no muy distinto al de la “observación” en las ciencias naturales y por otra. no puede dar testimonio de las realidades en las que vive por debajo o por encima del nivel consentido por el cuestionario. que son clasificables y estadarizables. ignora que la sociedad es desigual. Hay dos. Dirigido a la comparabilidad de las respuestas. la invariación del estímulo. indigentes. es decir. Según el criterio objetivista. Esto nos lleva a la estandarización del instrumento de investigación. viejos. la preocupación principal del entrevistador debe ser la de no alterar el estado del objeto estudiado. cada acción social. la posición que podríamos definir como constructivista. madurez. hace una elección: la de privilegiar la búsqueda de uniformidad respecto a la búsqueda de la individualidad. que se consideran comparables porque todos los entrevistados han sido sometidos a las mismas preguntas y en situaciones de entrevista prácticamente uniformes. evitar cualquier cambio. Dejando fuera a los analfabetos. el cuestionario es igual para todos y se administra a todos del mismo modo. clandestinos… 5. En el momento en que el investigador elige el instrumento de recogida de las informaciones al que se dedica este capítulo. cada caso. le coloca al nivel del hombre medio. incluso la más ligera modificación en las palabras puede distorsionar la respuesta. la relación entrevistado-entrevistador debe estar despersonalizada. en primer lugar.2. Individualista. Las soluciones que se dan tanto al primer dilema (despersonalizar la relación entrevistadoentrevistador) como al segundo (estandarizar las preguntas y las respuestas). pero quién nos garantiza que la uniformidad de los estímulos corresponde a una uniformidad de los significados. Limitaciones de un cuestionario o esquema estandarizado de investigación. la búsqueda de lo que tienen en común los individuos y no de lo que les distingue: la elección de limitarse a estudiar ese mínimo común denominador en el comportamiento que puede ser uniformado. el cuestionario obliga al sujeto a un nivel determinado.

Falta de opiniones. pero la formulación de un cuestionario es una labor complicada y difícil.clasificado. no tenga una opinión al respecto. que requiere gran empeño y una gran atención. Los primeros son personas perfectamente coherentes en sus contestaciones a lo largo del tiempo. Converse acuño el término de non-attitude. En la dinámica de la entrevista se crea una especie de presión por responder por la cual. Si una actitud tiene una fuerte connotación en sentido positivo o negativo en una cultura determinada. por tanto. comparado a pesar de la individualidad de los sujetos y que puede ser registrado a pesar de la variabilidad de las dinámicas entrevistado-entrevistador. que sobre algunas de estas temáticas. Al estudiar los resultados de un panel. 5. de una encuesta longitudinal realizada reentrevistando a las mismas personas en momentos sucesivos. Es segundo es el de la falta de opiniones (o de las pseudo-opiniones) La deseabilidad social. como la baja correlación entre las respuestas dadas a la misma pregunta por los mismos individuos en dos encuestas sucesivas. La técnica del cuestionario no es capaz de distinguir las opiniones intensas y estables de aquellas débiles y volubles. Analizaremos el problema de la fiabilidad del comportamiento verbal desde dos puntos de vista. muchos entrevistados eligen al azar una de las respuestas posibles. nacidas quizás en el acto de la pregunta misma.3 LA FIABILIDAD DEL COMPORTAMIENTO VERBAL Hay una segunda objeción de fondo que toca aspectos que tienen que ver con si la encuesta por muestreo es o no empíricamente practicable. el cuestionario es percibido como un test de inteligencia. Estos hechos sugerían que los entrevistados podían clasificarse en dos categorías de personas muy distintas: los estables y los que contestan al azar. los otros son individuos “sin una opinión real sobre el tema en cuestión. un cierto número de entrevistados no haya reflexionado nunca seriamente y que.. Al entrevistado se le presenta una secuencia de afirmaciones y para cada una de ellas se le pregunta si está de acuerdo o en desacuerdo. es decir. La pregunta estandarizada registra la opinión pero no su intensidad ni su convencimiento. considerando el “no sé” como de incapacidad mental. pero que por alguna razón se sienten obligados a contestar” y que contestan al azar. Los antropólogos han abandonado la idea de que las contestaciones a las preguntas son un dato estable en el estudio del comportamiento humano. El investigador no puede distinguir cuáles de esas respuestas están basadas en opiniones profundamente arraigadas y emotivamente comprometidas y cuáles son simplemente opiniones superficiales. y su redacción. El primero es el que tiene que ver con la denominada deseabilidad social de las respuestas. ¿El comportamiento verbal es una fuente de exploración fiable de la realidad social?. Es posible. 5. que en una determinada cultura se da a una actitud o comportamiento individual determinados. tras aprender que lo que la gente dice que ha hecho o hará no corresponde al comportamiento efectivo.4 Fondo y forma de las preguntas Un cuestionario puede parecer una secuencia banal y simple de preguntas. una operación elemental. es la valoración socialmente compartida. una pregunta que se refiera a ella puede dar lugar a respuestas fuertemente distorsionadas. 61 . Converse notó algunos hechos inexplicables.

si se quiere llegar a la matriz-datos. opiniones. título académico. por la manera de plantearse por parte del entrevistador… Pregunta relativas a comportamientos. juicios y valores. Se refieren a motivaciones. en cambio. un abanico de posibles respuestas de ente las que se le invita a elegir la que considere más apropiada. un campo más sólido que el anterior. edad. Podemos añadir que el primer punto puede ser sustituido para los investigadores noveles por la atenta consulta a los cuestionarios anteriormente empleados por otros investigadores. La pregunta cerrada. En manos de un buen entrevistador la pregunta abierta llega siempre a un resultado no ambiguo y dentro del marco de referencia deseado por el investigador. es aquella en la que al entrevistado se le presenta además de la pregunta. En resumen: las respuestas a preguntas abiertas tienen que ser codificables ( o sea. Si bien con algunas variaciones. valoraciones. con la elección de la contestación de entre las opciones propuestas. A posteriori conlleva un alto grado de arbitrariedad por parte del codificador. Mientras en el caso de la pregunta cerrada. actitudes y comportamientos Iniciamos el tema con la cuestión de las preguntas. Es necesaria una fase ulterior la denominada “codificación” de las respuestas: es decir. tendrá que haber una postcodificación. lugar de nacimiento. ya hemos alcanzado el objetivo final de la encuesta en la investigación cuantitativa: la matriz de datos (clasificación de las respuestas dentro de un esquema estandarizado válido para todos los entrevistados) con la pregunta abierta. profesión. orientaciones. Es una de las primeras decisiones del investigador en el momento de formular una pregunta. la espontaneidad de la respuesta. para hacer posibles las comparaciones y los sucesivos análisis cuantitativos.4. Los autores han propuesto diversas clasificaciones al respecto. Preguntas relativas a propiedades sociodemográficas básicas. Pregunta abierta. estamos todavía a mitad del camino que conduce a la matriz de datos. 5. Copiar preguntas de otros cuestionarios no es plagio. sentimientos. La pregunta abierta es aquella que el investigador plantea dejando plena libertad al entrevistado en la formulación de la respuesta. Pero esta forma de proceder tiene un alto coste y no es practicable para grandes muestras. Son las preguntas más difíciles de formular y sus respuestas pueden estar fácilmente influidas por la forma en que la pregunta se expresa. Los comportamientos son inequívocos y además son empíricamente observables. 5. éstas pueden reconducirse en último término a la distinción entre propiedades sociodemográficas básicas. por su colocación en el cuestionario. si le confiere carácter de pregunta abierta o de preguntas cerradas. La ventaja es la libertad de expresión.Para la redacción de un buen cuestionario son necesarios: a) la experiencia del investigador. si no hay una precodificación. clase social originaria.1 Datos sociodemográficos.2 Preguntas abiertas y preguntas cerradas. estado civil) La mayoría de estas preguntas se plantean en todas las encuestas por muestreo y para ellas existen formulaciones estándar a las que conviene adaptarse. Descripción de las características sociales básicas del individuo (género. actitudes y comportamientos. se registra lo que dice que hace o ha hecho. 62 .4. Preguntas relativas a actitudes. Nos situamos en el campo de las acciones. y c) la claridad de las hipótesis de investigación. estandarizadas). su clasificación en un número finito y limitado de categorías. b) el conocimiento de la población a la que se administra el cuestionario.

la pregunta cerrada implica una condición absolutamente esencial: que todas las alternativas posibles están presentes en el abanico de respuestas ofrecidas al entrevistado. Cuando los sujetos estudiados son varios centenares o miles. ya que el primero no puede aportar explicaciones. a) el lenguaje del cuestionario debe adecuarse a las características de la muestra estudiada.5 Formulación de preguntas La manera en que se formula la pregunta puede influir en la respuesta. 1. La pregunta cerrada presenta algunas ventajas. dispersos en un amplio territorio. pues. cuando se trata de cuestiones delicadas.. por motivos esencialmente prácticos de costes y de factibilidad.¿Cómo podemos – se pregunta Cicourel – controlar que los entrevistadores utilicen todos el mismo marco teórico de referencia e interpreten cada hecho. En algunos casos la pregunta cerrada no es practicable: cuando las posibles alternativas de respuesta no están perfectamente claras para el investigador. empleando las mismas estructuras de significado en contextos diferentes con las mismas reglas interpretativas?. 63 . persona entrevistada. Sugerencias ligadas al lenguaje . Se mantiene vigente. a la sintaxis y al contenido mismo de las preguntas.Sencillez en el lenguaje. accesibles sólo a través de una entrevista en profundidad. es decir. a) la pregunta cerrada ofrece a todos el mismo marco de referencia. Es. cuando los entrevistados tienen un nivel cultural muy bajo y están poco habituados al lenguaje abstracto de las respuestas precodificadas. y la investigación utiliza un gran número de entrevistadores. Una misma pregunta puede tener interpretaciones distintas. a través de sus respuestas preestablecidas. aclara al entrevistado cuál es el marco de referencia presupuesto y ofrece el mismo marco a todos los entrevistados. b) el cuestionario autocumplimentado exige un lenguaje más sencillo que el cuestionario con entrevistador. por lo que la pregunta abierta se ha ido abandonando progresivamente en las grandes encuestas de muestreo. La táctica de añadir al final de la lista la opción “otros” es necesaria. cuando éstas son demasiado numerosas o tratan de cuestiones demasiado complejas. incluso pequeños cambios durante la expresión verbal de las preguntas pueden producir variaciones sensibles en las respuestas. 5. c) Las respuestas propuestas no tienen el mismo significado para todos Por lo dicho aquí. se impone la opción de la estandarización del instrumento de investigación. b) Las alternativas propuestas por la pregunta cerrada influyen en las contestaciones. de forma idéntica. pero poco eficaz. etc. El entrevistado tiende a elegir entre las propuestas. para investigaciones sobre muestras de dimensiones reducidas. la pregunta cerrada. b) La pregunta cerrada facilita el recuerdo c) Estimula el análisis y la reflexión. Las encuestas por muestreo sobre grandes muestras se realizan actualmente con cuestionarios de preguntas cerradas. Tres limitaciones: a) Deja fuera todas las alternativas de respuesta que el entrevistador no ha previsto. como veremos más adelante.

Falta de opinión y “no sé”. La concreción del caso facilita en cambio la reflexión. Utilizar puntos de referencia temporales relativos a acontecimientos más relevantes que el estudiado. Precisión en el tiempo. se recomienda que no sean más de cinco. 16. Además de preguntar si se mantiene al corriente de la política (actitud) y si lee los periódicos (comportamiento). 15. 64 . Expresión en jerga. sobre todo si es negativo 7. y además. Es pues una buena regla. Comportamientos y actitudes. O personas que por pereza no se terminan de leer las baterías de preguntas y contestan siempre el “bastante de acuerdo”. No pueden ser demasiado numerosas. 5. Tendencia a elegir las respuestas que expresen acuerdo a dar contestaciones afirmativas más que negativas. La pregunta abstracta puede dar lugar con facilidad a respuestas genéricas o normativas. Deben evitarse tanto las preguntas explicitamente múltiples. 10. el entrevistador debe poner el acento e su profesionalidad científica. Deben evitarse 11. también puede hacerse una pregunta que implique un conocimiento específico.Palabras con una fuerte connotación emotiva. Deben ser concisas. Las actitudes son por naturaleza mucho más imprecisas. Preguntas con respuesta no unívoca. Evitarlos. Comportamientos asumidos. Extensión de las preguntas. 12. Las preguntas deben construirse de tal forma que produzcan diferencias en las respuestas del total de los entrevistados. Intensidad de las actitudes. y muchos darán repuestas al azar antes que pedir explicaciones. Preguntas embarazosas. como aquellas sobre cuestiones queno estén lo bastante articuladas. Preguntas sintácticamente complejas. 2. Deseabilidad social de las respuestas. La precisión en un periodo de tiempo definido facilita el recuerdo y hace más difícil la superposición del comportamiento ideal al real. 4. 14. Preguntas tendenciosas. 9. cuando el objeto de la pregunta lo permite. Efecto memoria. El registro de la intensidad requiere una profundización mediante ulteriores preguntas. la identificación con el problema real. 19. Descartado. puesto que los entrevistados sienten vergüenza a la hora de admitir que no entienden. 6. c) favorece una respuesta más articulada. Preguntas no discriminantes. Concreción – abstracción. Hay cuestiones delicadas que son extremadamente difíciles de investigar con el instrumento del cuestionario. puede irritar al entrevistado. ambiguas y expuestas a respuestas normativas que los comportamientos. debería estudiarse a través de preguntas abiertas. centrar la pregunta sobre un comportamiento en lugar de quedarse en el ámbito de la opinión. la extensión de la respuesta está directamente relacionada con la extensión de la pregunta y. Definiciones ambiguas.c) incluso en presencia de un entrevistador tampoco hay que contar con sus intervenciones explicativas. 17. Establecer límites temporales al recuerdo. si se presentan oralmente. aunque cuando se trata de cuestiones complicadas puede ser preferible la pregunta más larga. Aquiescencia. Las consideraciones son similares a las del punto anterior. Número de las alternativas de respuesta. 3. No se puede preguntar a quién votó si antes no hemos preguntado si votó. 20. 18. Sintaxis lineal y simple 8. 13. o superficiales. Evitar el uso de términos ambiguos. Más frecuente en personas menos instruidas. dado que a) facilita el recuerdo. y también hace más difícil el malentendido. b)da más tiempo al entrevistado para pensar.

el investigador aporte también la formulación exácta de la pregunta que los ha producido. según la técnica denominada “de embudo” que consiste en formular primero preguntas amplias. consideradas de forma aislada. Éste es un requisito básico de cientificidad para esta técnica de investigación social. el cuestionario debe estar estructurado de tal manera que se mantenga viva la atención en todo momento. en ciertos casos la respuesta a una pregunta puede estar influida por las preguntas que la preceden. El efecto contaminación. a veces se pueden utilizar diarios o instrumentos análogos. para centrarse progresivamente en los aspectos más específicos. En los ejemplos anteriores cada una de las preguntas de la batería se formulaba en términos absolutos. Cuando el comportamiento a estudiar se refiere no sólo al pasado. a la mitad del cuestionario preguntas potencialmente embarazosas. 5.6 BATERIA DE PREGUNTAS Es frecuente el caso de preguntas que al ser formuladas todas del mismo modo. el hecho de que siempre. en la fase del análisis de los datos pueda construir índices sintéticos que resuman en una única puntuación las repuestas dadas a las diversas preguntas de la batería. En conclusión. Las respuestas están fuertemente influenciadas por la manera en que se formulan las preguntas. La relación es asimétrica. el entrevistador que tiene experiencia y el entrevistado que no sabe porqué es interrogado. hay quien sugiere colocarlas al final. Conviene tener en cuenta ante todo la dinámica de la relación entre entrevistado y entrevistador. se recomienda poner las preguntas más complicadas en las partes centrales de la entrevista. sigue siendo perfectamente válida la sugerencia que hemos avanzado al principio de este tema. los temas tratados en el cuestionario se desarrollen en un orden lógico. en el sentido de que cada elemento de la batería es una entidad autosuficiente. 21.Presentar al entrevistado listas de posibles respuestas. El segundo criterio a tener en cuenta tiene que ver con el interés y el cansancio del entrevistado. Extensión del cuestionario en torno a los 45 minutos en cara a cara y sobre los 25 minutos si es telefónica. como las relativas a las características sociodemográficas. se presentan al entrevistado en un único bloque. Orden de la pregunta. Un tercer criterio es el de la secuencialidad de la entrevista. son las baterías de preguntas y tiene como objetivo: a) ahorrar espacio y tiempo b) facilitar la comprensión del mecanismo de respuesta c) mejorar la validez de la respuesta d) permitir que el investigador. que fluya la entrevista como una conversación natural. Hay que decir que esta dependencia es sobre todo relevante en lo que se denomina “análisis de una variable”. en cada presentación de datos extraídos de un cuestionario. La primera tarea pues será tranquilizar al entrevistado. En el orden de las preguntas hay que seguir el paso de preguntas generales a particulares. La primera parte del cuestionario consistirá en que el entrevistado se sienta a gusto y hacerle entender cómo funcionará la entrevista. 65 . Es importante distinguir entre el caso en que se formula en términos absolutos y aquel en que se formula en términos relativos. es decir. para evitar basarnos en el recuerdo. en la lectura de los porcentajes de respuesta a cada una de las preguntas. al principio preguntas fáciles. dejando para el final las más tediosas pero que no requieren una reflexión. se ha demostrado que la atención y el interés del entrevistado siguen una curva creciente hasta la mitad de la entrevista y después decrece. a la que el entrevistado puede contestar independientemente de las otras preguntas. sino también al presente y al futuro.

aquella en la que la respuesta nace de una comparación con las otras respuestas posibles. Por ejempolo. la entrevista telefónica y el cuestionario autocumplimentado (dentro de éste. a medida que se los lea. conlleva también el mayor peligro de este tipo de formulación. el más importante es el cuarto: se plantean al entrevistado baterías de preguntas precisamente con el objetivo de condensar las respuestas en una puntuación única. de los cuatro motivos antes mencionados que justifican la organización de las preguntas en batería. En conclusión. en cambio.Una pregunta en términos relativos es. importante. de su actuación. constituida por la posibilidad de comprimir en poco tiempo y en poco espacio una serie de múltiples estímulos. “a continuación le voy a leer una serie de problemas de nuestra sociedad. la principal ventaja de las baterías de preguntas.7 MODALIDADES DE RECOGIDA DE DATOS Tres modos de administrar un cuestionario: la entrevista cara a cara. 5. pidiéndole que haga su evaluación de cada uno de ellos (puntuar de 1 a 10) éstas son preguntas en términos absolutos.1 Entrevista cara a cara El entrevistador asume una posición fundamental. poco importante o nada importante” Términos relativos. será conveniente una especial vigilancia por parte del investigador y del entrevistador al formular y al proponer este tipo de pregunta.7. aquella que se formula en términos relativos) es a menudo mejor a efectos de la valoración del punto de vista del entrevistado. que se aplica en particular en el ámbito de la denominada “medición de las actitudes”. de la manera que plantea y conduce la relación con el entrevistado. La pregunta que implica una comparación (es decir. Cuáles considera usted que son los tres más importantes”. 66 . usted debe decirme si lo considera un problema muy importante. Por tanto. O bien se le puede pedir que coloque a los políticos de las lista por orden de preferencia. Términos absolutos. puesto que permitir diferenciar sus distintas posturas. En principio lo más común eran las entrevistas cara a cara pero éstas fueron sustituidas en los años ochenta por las entrevistas telefónicas. depende gran parte de la calidad de la entrevista. debido a el rápido incremento del coste de las entrevistas. Por ejemplo se le puede presentar al entrevistado una lista de políticos. “ a continuación le voy a leer…. Un procedimiento que en la investigación social hace especialmente uso de las baterías es el de la técnica de las escalas. apta para operacionalizar esa particular actitud a examen. En el caso de las escalas. 5. El tono insistente de la batería y la repetición del esquema de respuesta pueden producir fácilmente dos de los errores de repuesta más comunes: el de las preguntas dadas al azar (seudeopiniones) y el de las respuestas mecánicamente iguales entre sí (response set). consideremos la pregunta sobre los “problemas más importantes del país”. la técnica más importante la constituye el cuestionario postal). la saturación de los ciudadanos respecto a cualquier tipo de entrevista. Para cada uno de ellos. o que elija a los tres que más le atraigan: y éstas son preguntas en términos relativos. la desconfianza hacia los extraños a causa de la creciente criminalidad… Junto a estas dos formas siempre ha habido espacio para los cuestionario autocumplimentados.

Un perfil ideal lo presenta una mujer casada de mediana edad. Desventajas: 67 . Facilita enormemente el trabajo de la preparación de los entrevistadores y su supervisión. Motivaciones.2. El problema es el de reducir el efecto del entrevistador. Rasgos que deben presentar los entrevistadores: Características. a través del tono de voz del entrevistador. que se ubica claramente dentro de la corriente objetivista. Las expectativas se transmiten a menudo de forma inconsciente en la dinámica de la entrevista. la modalidad más difundida de administración de los cuestionarios. Ante todo al entrevistador se le debe informar del tipo de interacción existente entre él mismo y el entrevistado. Cuál es la disposición psicológica del entrevistador hacia su trabajo y hacia la entrevista en cuestión. énfasis al leer las preguntas o las alternativas de respuestas. todos con idéntica legitimidad. diplomada. estandarizando su comportamiento y limitando el margen de discrecionalidad mediante una fase de formación. para limitar su variabilidad subjetiva e interpretativa y evitar que se den indicaciones discordantes. orientada a una permisividad.La técnica que estamos presentado es la del cuestionario estandarizado. Preparación. sino que se dedique tiempo y relevancia considerable también a la exposición de los objetivos de la investigación 5. de sus gestos faciales. y de que en el mundo existe toda una amplia gama de opiniones y de comportamientos. Una persona con sentido común. Las ventajas se resumen en los siguientes punto: Gran rapidez de realización. Deberá tener una actitud amistosa pero a la vez neutral.7. Se hacen necesarias instrucciones detalladas sobre cómo debe comportarse en estos casos. Entrevistas Telefónicas En los últimos años se ha producido un boom de entrevistas telefónica. ama de casa y de clase media. En todo caso. En investigaciones de gran magnitud el entrevistador debe inhibirse de cualquier comportamiento que pueda influir en el entrevistado. aburrida y desmotivada del entrevistador sólo puede repercutir negativamente en el entrevistado. que logre transmitir implícitamente al entrevistado la idea de que no hay respuestas correctas o equivocadas. así como la intervención de supervisores a los que los entrevistadores puedan dirigirse en caso de necesidad. De ahí que en los encuentros preliminares de instrucción para los entrevistadores no se traten sólo las cuestiones prácticas. encuentros de control durante la encuesta. Una actitud pasiva. Presenta menos resistencias a la concesión de la entrevista y mayor garantía de anonimato. Permite utilizar directamente el ordenador en la fase de recogida de datos. Con el mismo coste cubre también a los entrevistados localizados en las áreas periféricas del país. Expectativas. deberán distribuirse instrucciones escritas y deberán preverse encuentros preparatorios preliminares. Costes muy inferiores a los de la entrevista cara a cara. de los mecanismos de aquiescencia y de influencia subliminal que suelen crearse.

no podemos contar con la certeza de que no hay errores de cumplimentación. el del censo. la inmediatez con la que se obtienen los resultados y se pueden alcanzar grandes muestras de la población. La limitación del tiempo disponible obliga a una simplificación de los interrogantes. La encuesta individual. 68 . las más graves son la primera (falta de contacto) y la última (presión por el tiempo). de no poder hacer entrevistas “largas” o profundizar demasiado en los temas. Por otra parte la ausencia de un contacto personal en la entrevista telefónica hace más formal la relación. La encuesta de grupo. 5. Podemos distinguir dos casos fundamentales de autocumplimentación : la encuesta de grupo y la individual.3. El hecho de estar obligados a mantenernos en la superficie. El entrevistador no puede recoger datos no verbales Algunos sectores sociales más marginales no tienen teléfono Los ancianos y las personas con título académico inferior suelen estar muy subrepresentadas en la entrevista telefónica. por ejemplo. hace menos probables los errores más burdos. y exige preguntas cortas y respuestas con un reducido número de alternativas. La presión por responder (sobre el entrevistado) y la ansiedad por el correr del tiempo (en el entrevistador) condicionan enormemente la dinámica de la entrevista telefónica y justifican la opinión generalizada de que las respuestas dadas por teléfono son más superficiales que las obtenidas en una entrevista directa.El entrevistado se siente menos implicado en la entrevista La relación con el entrevistado se deteriora antes (debe ser mucho más corta que un cara a cara) Resulta imposible emplear en el curso de la entrevista material visual.7. Por otro lado su instantaneidad. hace que este instrumento resulte poco adecuado cuando la investigación requiere una información detallada. Una segunda limitación radica en la autoselección de los que contestan. disponible para las aclaraciones. La entrevista telefónica obliga a la simplificación de las cuestiones y de las problemáticas. convierte este instrumento en muy adecuado para estudios a gran escala. Cuestionarios autocumplimentados Es el cuestionario que el sujeto rellena solo. De todas las limitaciones. Esta técnica de recogida de datos no ofrece ahorros extraordinarios respecto al procedimiento de la entrevista cara a cara. De esta forma se resuelven los errores de cumplimentación y la autoselección también se evita. la que se hace en una clase de estudiantes. mientras que en la cara a cara una buena entrevistadora pueden conseguir con paciente insistencia que les reciba incluso una anciana indecisa. sin que haya un entrevistador. en ella se reduden en gran medida las dos limitaciones recordadas antes: la presencia de una persona encargada durante la cumplimentación. el hecho de que se puedan acumular en una única encuesta temas dispares y el consiguiente abaratamiento de los costes. La primera ventaja es el enorme ahorro en los costes de investigación. además el hecho de que se controle que todos los cuestionarios repartidos sean rellenados evita el riesgo de la autoselección. en ella es necesario diferenciar entre situaciones con y sin vínculos sobre la devolución del cuestionario rellenado. Un caso de devolución vinculada es. la principal limitación es que no lo rellena el entrevistador. persona instruida para esta tarea.

Características de los entrevistados. La tasa de éxito repecto a las contestaciones depende de varios factores. En el cuestionario autocumplimentado la ausencia del entrevistador excluye uno de los requisitos previos de la pregunta abierta: en efectos. que son muy inferiores a los de la entrevista cara a cara. 69 . Babbie clasifica de adecuada una tasa del 50%. Entrevistas computarizadas (electrónicas) Abordaremos muy brevemente las entrevistas que utilizan el ordenador en la fase de recogida de datos. 5. el caso que queremos tratar con cierta atención es el del cuestionario postal. al caso de la cumplimentación individual sin vínculos con la devolución del cuestionario. a) Envio del cuestionario con carta de acompañamiento b) Envio de la carta de solicitud c) una segunda carta de solicitud con una copia del cuestionario y d) llamada telefónica de solicitud. El problema principal de esta técnica lo representan las devoluciones de los cuestionarios. familiaridad con la comunicación escrita Falta de controles sobre la cumplimentación Imposibilidad en cuestionarios complejos Extensión del cuestionario: no puede superar ciertos límites. Extensión del cuestionario. podemos mencionar cuatro: Institución que patrocina la investigación.4. El más completo consta de cuatro momentos. Consiste en enviar por correo el cuestionario a una lista de nombres que representan a la población estudiada. no es fácil superar el 50%.Pasando por último. ésta tiene sentido en una relación dinámica con el entrevistador. que puede guiar. Tanto en los cuestionarios telefónicos como autocumplimentados es necesario reducir al mínimo las preguntas abiertas. mejor resultado un segmento específico Tipo de solicitud. el cuestionario a rellenar y un sobre para la devolución con franqueo a cargo del remitente.7. estimular y grabar. adjuntando una carta de presentación de la investigación. buena una del 60% y nuy buena una del 70% o más. Ventajas: Ahorros en los costes Mayor flexibilidad para contestar por parte del entrevistado Mayor garantía de anonimato respecto a la entrevista cara a cara Ausencia de distorsiones debidas al entrevistador Accesibilidad a entrevistados residentes en zonas muy distantes del centro de recogida de datos o aisladas Desventajas Bajo porcentaje de respuestas Distorsión de la muestra debido a la autoselección Nivel académico de la población estudiada: debe ser medio-alto.

Capi. por ello se prevé una especie de ensayo general. Son determinantes la forma en que se presenta el entrevistador. Después de la formulación del cuestionario en su versión definitiva comenzará la encuesta verdadera. etc. se añade otra ventaja importante: la posibilidad de efectuar encuestas longitudinales. de la dotación de un ordenador portátil para cada entrevistador puede amortizarse rápidamente con el ahorro en las fase de codificación e introducción de los datos antes mencionados. Simultáneamente a la encuesta. la preparación de los entrevistadores y el contacto inicial con los sujetos que van a entrevistarse. El pre-test. El entrevistador. Desaparecen las fases de codificación y de introducción de datos. La preparación y la supervisión de los entrevistadores. por parte de una empresa de sondeos. tanto en términos de apariencia exterior como de motivaciones que expone. 5. el investigador debe conocer perfectamente el problema objeto de estudio antes de empezar a redactar las preguntas. El contacto inicial con los sujetos entrevistados. Después se procede a la redacción del cuestionario. A este encuenttro le seguirán las entrevistas de prueba. con la que se conoce el pretest. Un primer encuentro entre el equipo de investigación y los entrevistadores. Para poder formular las preguntas adecuadas. los rechazos. Los investigadores –según Schuman y Presser – deberían comenzar con entrevistas de preguntas abiertas y utilizar sus respuestas para construir las alternativas de las preguntas cerradas. lee las preguntas en un ordenador personal portátil y transcribe las respuestas en el teclado. se contará con supervisores que tengan la función tanto de asesoramiento como de control. Problemas. Las limitaciones de los cuestionarios autocumplimentados y el de las encuestas longitudinales (saber que le están entrevistando a lo largo del tiempo puede alterar el comportamiento del sujeto estudiado). En su presentación el entrevistador deberá preocuparse por dejar claro: a) quién ha encargado la investigación b) cuáles son sus objetivos c) por 70 . Gracias a la posibilidad del ordenador de gestionar la entrevista según una programación previa. encuestas repetidas en el tiempo a los mismos sujetos.8 ORGANIZACIÓN DE LA RECOGIDA DE DATOS Fases que preceden a la recogida de datos mediante encuesta: las entrevistas exploratorias preliminares. tras lo cual se celebrará un segundo encuentro para discutir sobre el funcionamiento del instrumento. la prueba del cuestionario. se abre la fase de prueba. Teleentrevista. La ventaja económica más evidente de esta técnica radica en la eliminación de la figura del entrevistador. El entrevistado mismo lee las preguntas en la pantalla y escribe las respuestas en el teclado. El estudio exploratorio. Si se modifica el pretest debe probarse de nuevo. el entrevistador puede transmitir por módem al final de la jornada de trabajo su archivo de entrevistas al centro de recogida de datos. una de las finalidades del pretest es ver si las preguntas y respuestas son las adecuadas. Es indispensable identificar las posibles modificaciones a realizar antes del inicio de la auténtica recogida de datos. en lugar de disponer del cuestionario en un soporte de papel. describir su diseño e ilustrar detalladamente el instrumento de investigación. con el objetivo de presentar la investigación. La inversión inicial. el ordenador pasa a ser un instrumento dinámico de interacción entre el centro de recogida de datos y el sujeto entrevistados. el tiempo que dura. Cuando el cuestionario está listo en una versión casi definitiva. se añade la ventaja de agilización en el uso de cuestionarios complejos. es decir.

que a medida que pasa el tiempo va formulando nuevos interrogantes. así como e) darle seguridad sobre el anonimato de sus respuestas.9 ANÁLISIS SECUNDARIO Y ENCUESTAS REPETIDAS EN EL TIEMPO El recorrido de la encuesta por muestreo que se ha presentado hasta el momento. En segundo lugar.qué nos dirigimos precisamente a él d) resaltar la importancia de su colaboración. Es una propuesta que se ha consolidado en los últimos años en los países en los que la investigación social está más desarrollada y ha producido ya un cuerpo muy amplio de logros empíricos que plantea con urgencia el problema de nuevas formas de síntesis. en su conjunto. Además han surgido nuevas técnicas de elaboración estadística que permiten responder hoy en día.1. otros dos elementos son la institución que encarga la encuesta y la figura del entrevistado. por los continuos desarrollos teóricos de cada disciplina. a partir de los resultados de los estudios y no a partir de los datos. Se entiende por metaanálisis un método de selección. formula el diseño de la investigación. Limitaciones. Análisis secundario Es posible hacer una investigación original con datos ya recogidos por otros. porque normalmente el análisis de los datos se limita a una parte de los que éstos. La falta de control sobre las fases de la recogida de los datos puede colocar la investigador en la imposibilidad de valorar la calidad de los datos. Puede que ya no sean visibles eventuales errores cometidos en la fase de memorización o de tratamiento de los datos.9. Análisis secundario. cada vez son más frecuentes las investigaciones realizadas sobre bases de datos preexistentes. recoge los datos y después los analiza. con nuevos instrumentos de análisis. se ha hecho evidente que investigaciones efectuadas en el pasado ofrecen aún amplios márgenes para nuevas y originales profundizaciones. que hace hoy fácilmente accesible y utilizables bases de datos recogidas en cualquier parte del mundo. Ahorro sobre los costes de investigación. Hasta el momento se han desarrollado dos tendencias. integración y síntesis de estudios que tienen un mismo objeto de análisis. así como las encuestas repetidas a lo largo de tiempo. 5. no es el único posible. rigor científico. En primer lugar. La comunidad científica también se ha organizado promoviendo agencias que reunen recursos para esta fase tan cara y que luego ponen los datos al servicio de los investigadores. Durante varias décadas la investigación social ha avanzado según el modelo tradicional del investigador que plantea el problema. posibilidad de realizar estudios de gran envergadura con pocos recursos. Hemos presentado el caso en el que el mismo investigador: a) produce los datos y b) los analiza al mismo tiempo. Ventajas. 71 . Este hecho ha sido favorecido por el desarrollo de la informática. Por una parte. 5. Y ello por varios motivos. La argumentación para ganarse al entrevistado es la del anonimato. es una investigación realizada sobre datos de encuesta por muestreo recogidos procedentemente y disponibles en la forma de la matriz de datos original. a viejos interrogantes. podrían decir. En la actualidad. Pueden producir investigaciones hechas a partir de los datos disponibles en lugar de hipótesis teóricas previas. Metaanálisis.

El metaanálisis. consistentes en registrar las mismas informaciones en momentos temporales diferentes. 5. El metaanálisis aplica procedimientos estadísticos para llegar a síntesis de los resultados de las investigaciones consideradas.El análisis primero es le análisis original de los datos de una investigación. la única forma de efectuar un estudio longitudinal. La repetición de la recogida de datos sobre los mismos sujetos no representa. hemos apuntado el hecho de que una variable puede “variar” tanto entre los casos. para asegurar que las posibles diferencias surgidas entre las diversas encuestas se deban a cambios efectivos en la población y no a variaciones en la composición de la muestra. son las encuestas (transversales) repetidas. Encuestas transversales repetidas. sin embargo. Otra solución la constituye la encuesta (transversal) retrospectiva. el análisis secundario es el reanálisis de los datos para responder a las preguntas originales con mejores técnicas estadísticas. sino en distintas muestras de individuos. repitiendo en el tiempo el registro de sus opiniones políticas. (encuestas del CIS). evitando entrevistar a las mismas personas. Un estudio efectivo debería repetirse durante décadas por eso se confian estos estudios a instituciones permanentes. 5. como al hablar de experimentos. Plantean algunos problemas específicos. ver cómo varían éstas con el paso de los años. en cambio. cuando la indagación se repite en el tiempo sobre los mismos sujetos. Por ejemplo si queremos estudiar la relación existente entre el conservadurismo político y edad. Debe cumplirse además la condición de que dichas muestras sean comparables entre sí. es el análisis estadístico de una amplia colección de resultados derivados de estudios sobre los individuos.2. sin embargo. podemos registrar el conservadurismo político de una muestra de sujetos de distintas edades y ver cómo varía al variar la edad. con el fin de llegar a una integración de los resultados. una serie de preguntas relativas a su pasado. El problema general de todos los diseños de investigación que incluyen la variable tiempo radica en su coste. que consiste en una encuesta transversal normal en la que a los sujetos se les plantea.9. es una vía para incluir el factor tiempo en la indagación. o bien para responder a nuevos interrogantes con viejos datos. reducción del tamaño de la muestra que se registra en cada nueva oleada. consistente en unir datos individuales de fuentes distintas. así como recoger la variación en el tiempo de informaciones procedentes de la misma fuente. 5. La mortalidad de la muestra.1 Estudios transversales 72 .10 BASES DE DATOS EN ESPAÑA Y EN EL EXTRANJERO. El primer tipo son estudios transversales y el segundo tipo estudios longitudinales. (panel en inglés).10. pero no sobre los mismos sujetos. Encuestas repetidas en el tiempo Tanto al introducir el concepto de variable. o podemos estudiar a lo largo del tiempo una muestra constituida siempre por los mismos sujetos. como en el tiempo. de este modo se pueden relacionar informaciones individuales de distintas fuentes registradas en tiempos distintos. Otra posibilidad la ofrece la conexión de base de datos censales y administrativos. Tenemos pues la encuesta longitudinal. es un “análisis del análisis”.

A través de la colaboración con el CIS. los cambios de valores.600 estudios. Otra serie de microdatos producida por la oficina censal de los EEUU es cl Current Population Survey (CPS) se utiliza extensamente para el estudio de tendencias. en este caso microdatos. realizó encuestas de opinión sobre diversos temas sociopolíticos y para todo el territorio español. El cuestionario recoge preguntas de temas variados como: democracia e instituciones políticas. la desigualdad y la marginación social. Entre las encuestas.964. son entrevistados de nuevo. El Centro de Investigaciones sobre la Realidad Social. que se realiza anualmente en 17 países de América Latina. es el relacionado con las cuestiones de defensa y el ejército. Las series del American National Election Study ( ANES) que se inició en 1. Los temas principales de estos informes sociológicos son la situación económica y política. El Instituto Nacional de Estadística.948. Un ejemplo de ello son las muestras de microdatos integrados de uso público. valores y actitudes sociales y políticas. es otra institución pública que dispone de datos individuales. es una de las encuestas transversales repetidas de referencia internacional.960. cabe mencionar la Encuesta sobre la población activa. Se trata de ficheros ASCII con estructura de campos que recogen para cada registro individual de la encuesta los valores que toma cada variable. aunque a menudo considerados en la categoría de estadísticas oficiales. Entre los numerosos estudios existen diversas series de encuestras transversales de tipo electoral. y del que se disponen datos individuales transversales.965 con el patrocinio principal de Cáritas. En el contexto latinoamericano.En España el Centro de Investigaciones Sociológicas (CIS) es uno de los principales organismos públicos dedicado a la producción de estudios sobre la realidad social y política de España. el Latinobarómetro. La Fundación Foessa que se creó en 1. Desde 1. distribución de la riqueza. como son las encuestas.996. desde 1. facilitan datos individuales sobre participación política. son también una rica fuente de datos individuales. cultura y participación política. Los censos longitudinales que se realizan cada 10 años en Estados Unidos. esta encuesta también se produce en España. Los barómetros se realizan con una periodicidad mensual o bimensual y recogen información sobre aspectos políticos.990 a 1. además otras series monográficas sobre la pobreza. Los microdatos son los ficheros que contienen los datos individuales de una estadística. políticas sociales. los llamados barómetros de opinión pública. de cultura política o las de coyuntura política y social. ha publicado también cinco informes sociológicos sobre la situación social en España. Los datos de estos paneles rotativos son tratados normalmente como estudios transversales repetidos. economía.963 ha realizado más de 1. percepciones y opiniones sobre líderes y grupos políticos o de evaluación de 73 . después de un paréntesis de ocho meses. género o desigualdad territorial. desigualdad de género. las reformas sociales. que es trimestral y está dirigida a las unidades familiares la hace el INE desde 1. La CPDS utiliza un diseño de paneles rotativos que se caracteriza por una muestra de hogares entrevistados durante cuatro meses consecutivos y. de 1. y temas relacionados con el medio ambiente. preelectorales y postelectorales. la Oficina del Censo ha producido las IPUMS en consonancia con sus esfuerzos de difusión de los datos. se han llevado a cabo también diversas encuestas nacionales de salud de satisfacción del usuario con los servicios sanitarios. integración y pactos comerciales. aunque su finalidad principal sea la actividad estadística pública y la difusión de datos estadísticos. Otro ámbito de reciente aplicación. durante cuatro meses adicionales. En el ámbito sanitario. económicos y coyunturales.

Entre los estudios del CIS existen algunas series de encuestas longitudinales. Panel study of income dynamics.000 y 2.983. La encuesta se repitió y fue ampliando el número de países en 1. y también incluyen variables soicodemográficas como la edad.000 familias. entre ellos España. se realizan entrevistas cada dos años. se inició en 1. La cuarta ola se realizó entre 1. Fue diseñada para investigar los factores determinantes de los ingresos familiares. la religión o la moral. Con la intención de medir el grado de apoyo y las actitudes públicas hacia el Mercado Común Europeo y las instituciones comunitarias.500 entrevistados.990 y 2.000. atributos y comportamientos sociales y políticos de los ciudadanos europeos. es otro ejemplo de estudio longitudinal se realiza en 12 países de la UE. la educación. es un proyecto comparado que se llevará a cabo cada dos años en 24 países europeos. Las entrevistas personales se realizan cada año a cerca de 6.990-1. Los temas son variados. La Encuesta Mundial de valores se realizó en 10 países de Europa Occidental y repetida en otros 12 países en la primera ola entre 1.política públicas. Posiblemente una de las encuestas sociales más conocida es la General Social Servey (GSS) que realiza en EEUU desde 1. de 30 años de duración.2 Estudios longitudinales La experiencia en España es escasa debido al alto coste tanto económico como organizativo.966. el acceso a las ayudas de asistencia pública. la ocupación laboral y el nivel educativo. como posibles cambios en el estado civil.997. la fertilidad. el origen étnico. trayectorias laborales e ingresos ayudas familiares o de amigos y caracteríticas sociodemográficas.993 y otra vez en 1. 74 . las relaciones sexuales. en 1. de tipo privado.981 y 1. o al subsidio de paro. son también recopilados bajo el mismo formato de event history.972 con una periodicidad anual o bianual. El tamaño de las muestras de estos estudios oscila entre 1. Los datos de estas encuestas reflejan la fecha de inicio y salida de las historias laborales de cada individuo. Otros datos. La encuesta mundial de valores.995-1. está realizando un estudio panel sobre las desigualdades sociales en Cataluña. la Fundación Jaume Bofill. con información sobre cada trabajo específico. las relaciones interraciales.10. centradas únicamente en el ámbito electoral y de pocas oleadas de seguimiento. la religión. el género. es seguida a lo largo de su vida hasta que exista un cambio en la composición del hogar. el Eurobarómetro toca temas variados. 5.970 se lanzó una serie de encuestas que con el tiempo se han ido ampliando tanto por sus objetivos temáticos como por la cantidad de países incluidos en el proyecto. El Panel de Hogares de la UE. Las series del Eurobarómetro. han ido creciendo en número de países hasta cubrir los 15 estados miembros de la Unión Europea.968 entrevistando a una muestra de 4. Otro proyecto europeo de estudios transversales que está en la actualidad en su etapa inicial es la Encuesta Social Europea (ESS). es otra encuesta transversal que se repite en el tiempo y que incluye España. la familia. entre ellos España y que analiza el cambio de la continuidad de las actitudes. Las encuestas longitudinales empezaron en EEUU en el año 1. e incluye preguntas sobre actitudes y comportamientos. A escala autonómica. la ocupación. El ampliio cuestionario de la GSS incluye aspectos como el empleo.800 unidades familiares se caracteriza por una sobrerrepresentación de las familias con bajos ingresos.

Otro caso muy frecuente es aquel en el que el investigador prepara el cuestionario. Actualmente los modelos más comunes son otros dos.También existen series de estudios con datos longitudinales sobre educación y resultados educativos. las empresas especializadas en encuestas. Se separa enormemente el momento de la elaboración teórica.000 estudiantes de último curso de educación primaria en 1.. la difusión de la investigación social que impone muestras cada vez más numerosas. característica de las familias. pero contrata la recogida de los datos a una empresa de sondeos. la formación y disolución de la familia. Esto no existe cuando los datos los facilita una empresa. pero el proceso de recogida de la información estaba dirigido y controlado paso a paso por el investigador. el del análisis de los datos. 75 . la experiencia militar.988 y su evolución en los estudios.11 NUEVAS TENDENCIAS Y NUEVOS RIESGOS La encuesta por muestreo es la técnica de investigación más difundida e sociología y probablemente en la investigación social en general. las causas son varias: la disponibilidad de archivos de datos ya recogidos y listos para su elaboración sobre los fenómenos sociales más diversos. el empleo. Los peones de investigación. estilo profesional e impersonal. Los entrevistadores profesionales realizan diferentes entrevistas en nada de tiempo. gestionables sólo por organismos especializados. son las partes vulgares que se subcontratan. lo que va marginando la investigación local. Había antes una separación entre la función del investigador y la función del entrevistador. En los últimos años se han manifestado algunas tendencias que se contemplan con preocupación. 5. y el de la recogida de datos. Los acontecimientos de los que se compone la trayectoria incluyen la educación postsecundaria. información sobre sus padres. Antes era importante que incluso ante una clara separación de investigador y entrevistador hubiera un contacto entre ambos para saber el entrevistador las motivaciones. el investigador se limita a analizar datos ya recogidos por otros: es el caso de análisis secundario. ambiente de aprendizaje. En la NELS se entrevistan a 25.

por ejemplo podemos atribuir a las profesiones una puntuación de prestigio social. En una pregunta cerrada. es decir. Una escala es un conjunto coherente de elementos (items) que se consideran indicadores de un concepto más general. cuando las alternativas de respuesta ofrecidas al entrevistado están ordenadas. se pueden adoptar tres formas de proponer tales alternativas. ese cuasi indica la imposibilidad de alcanzar el objetivo de atribuir pleno significado numérico a las puntuaciones de las escalas. que en el caso más difundido están constituidos por preguntas. Ante todo. en tanto que ordenables. Las variables que produce la técnica de escalas son las denominadas cuasicardinales. Pero la medida de las actitudes si bien constituye el campo de aplicación más importante de la técnica de las escalas. sin embargo nuevos desarrollo teóricos. la escala es el conjunto de los elementos. Actitud es aquel conjunto de tendencias y sentimientos. cada una tiene un significado 76 . han conducido recientemente a la elaboración de modelos estadísticos capaces de producir variables para las que se realiza es “igualdad de intervalos” que equivale a la existencia de una unidad de medida. en la que la unidad de análisis es el individuo. Se trata de aplicaciones complejas y de difusión limitada (las escalas de Rasch). Podríamos decir que la actitud es el concepto general. o bien establecer una jerarquía de popularidad entre los políticos. La aplicación más frecuente de la técnica de las escalas en el campo de la sociología y de la psicología social la constituye la denominada medida de las actitudes. el concepto general es una actitud y los conceptos específicos son opiniones. temores. a partir de las respuestas y de las opiniones expresadas por los entrevistados. La primera consiste en presentar unas posibilidades de respuesta que. empleando una noción ya introducida podemos decir – limitándonos siempre el caso más frecuente – que una escala esta constituida por una batería de preguntas.CAPITULO 6. es decir. prejuicios y nociones preconcebidas. la técnica puede ser utilizada no sólo para registrar las propiedades de los individuos a través de sus respuestas a una serie de estímulos en función de las respuestas de los individuos. una expresión empíricamente registrable de ella. El elemento es el componente individual. junto con los nuevos recursos de cálculo aportados por la informática. LA TÉCNICA DE LAS ESCALAS 6. Una escala está formada por varios elementos. ideas. son semánticamente autónomas. por lo que podemos decir que el cuerpo central de las técnicas de la investigación social no va más allá de las escalas cuasicardinales. Likert y Guttman 6.2 Preguntas de respuesta graduada: La autonomía semántica de las respuestas.1 LA OPERACIONALIZACIÓN EMPÍRICA DE LOS CONCEPTOS COMPLEJOS Con la expresión “técnica de las escalas” traducimos el término inglés scaling y nos referimos a un conjunto de procedimientos creados por la investigación social para “medir” al hombre y a la sociedad. Los primeros intentos de registrar actitudes mediante el uso de escalas se remontan a mediados de los años veinte. La opinión es una de las formas en las que la actitud se hace patente. no es el único. y las opiniones son sus indicadores. Los manuales de metodología y la práctica básica de la investigación social se han centrado durante años en los tres modelos de las escalas de Thurstone. inquietudes y convicciones de una persona hacia una determinada cuestión.

en otras palabras no se dispone de una unidad de medida externa. Dos. Una vez al mes 4. Rural Intervalos de autoposicionamiento: En política suele hablarse de izquierda o de derecha. nada…) Por último están las escalas de intervalos de autoposicionamiento en las que sólo dos categorías extremas están dotadas de significado. 2. ayudándose de esta ficha ¿dónde colocaría su posición política?. hechos o partidos. aunque todos los investigadores están de acuerdo en tratarlas como si fueran variables cardinales. no necesita relacionarse con el significado de las otras alternativas presentes en la escala. Por ello no nos encontramos ante verdaderas variables cardinales. Ninguno 2. Poco 4.tres veces al mes 5. Urbano 2. Semiurbano 4. En la práctica de la investigación social es bastante común tratar como variables cardinales también las variables de segundo y del primer tipo. puede servirse de ella para darnos su opinión: Mucha simpatía o una opinión muy positiva coloque la ficha a 100 o a 95-90 Mucha antipatía o una opinión muy negativa coloque la ficha a 0 o a 5-10 Opinión intermedia. bastante.Cuasiurbano 3. Educación Primaria 3.Dos o tres veces al año 3. Nada Tipo de municipio de residencia. mientras que entre ellas se coloca un continuum en el que el entrevistado ubica su posición. en torno a los 50 o 40-60 . sino ante variables que hemos denominado cuasicardinales. por lo que esta técnica debe garantizar equidistancia entre las categorías.acabado intrínseco que. Mucho 2. Cuasirrural 6. Licenciatura. graduado de 0 a 100 grados. Preguntas con respuestas semánticamente autónomas: ¿Ha ido a la iglesia en el último año? 1. Una o más veces a la semana ¿Cuál es su título de estudios? 1. Es presumible que la subdivisión que el sujeto realiza mentalmente sobre el continuum consista en una subdivisión de éste en espacios iguales. para ser comprendido. 1. Semirrural 5. este procedimiento es subjetivo. válida para todos los sujetos estudiados así como para el sujeto que estudia. Educación Secundaria 4. Bastante 3. 3…). 77 . y al respecto existe un amplio debate entre los investigadores sociales. esta figura representa un termómetro. controvertida. Nunca 2. generalmente asignando a las categorías valores numéricos en secuencia simple ( 1. Preguntas con respuesta de autonomía semántica parcial: ¿Le interesa a usted la política? 1. Izquierda 1 2 3 4 5 6 7 Derecha 8 9 No sé 99 Querría pedirle ahora su opinión sobre algunas instituciones. poco. Diploma universitario 5. sin embargo. Un segundo caso es aquel en que las categorías de respuestas son de autonomía semántica parcial (mucho. Esta práctica es.

un único registro carece de precisión. Ej. atribuirle un punto a cada pregunta. es el primero que se la pasa por la cabeza a un profano cuando debe atribuir una puntuación total basándose en las puntuaciones de pruebas individuales: hacer la suma de los puntos de las pruebas individuales. se plantea el problema de la conveniencia de ofrecer explícitamente al entrevistado una opción central neutral. estás podrían plantearse como una elección binaria (Si/No). Es recomendable la opción “no sé” para evitar seudoopiniones. dudoso. para ser más exactos.La opción central neutral. El número de categorías de respuesta. de acuerdo. Una escala está compuesta normalmente por varias preguntas o. Tradicionalmente el formato de las preguntas individuales de las escalas de Likert está representado por una serie de afirmaciones para cada una de las cuales el entrevistado debe decir si está de acuerdo y en qué medida. El procedimiento es simple e intuitivo. Cuando la variable es de autonomía semántica parcial. bajo está denominación colocamos una amplia variedad de escalas. La oferta del punto neutral puede favorecer la fidelidad del registro en los casos en los que existan efectivamente posiciones intermedias. si la escala está compuesta por muchas preguntas. Se le puede preguntar al entrevistado si está de acuerdo o en contra de una determinada afirmación.3 ESCALA DE LIKERT Likert lo propuso a principio de los años 30. pero también puede ofrecer una escapatoria a quienes prefieren no decantarse o no exponer claramente lo que piensan. esta técnica es el procedimiento más utilizado en el estudio de las actitudes y se ha desarrollado y enriquecido notablemente respecto a las propuestas iniciales de Likert. menos fiables. El objetivo de la escala es captar la diversidad entre los entrevistados respecto a la propiedad que es registrada En las entrevistas telefónicas que implica la imposibilidad de utilizar soportes visuales ha contribuido la uso de preguntas formuladas a través de una sucesión de elecciones binarias. que. En primer lugar. cada pregunta está más expuesta a los errores accidentales. En segundo lugar. parcialmente de acuerdo. menos precisas. por varios elementos. tienen menor peso cuando la escala se basa en más repuestas. Por último. Si la escala está compuesta por pocas preguntas conviene ofrecer al entrevistado una amplia gama de posibilidades de respuesta y viceversa. puesto que no consigue discriminar entre las distintas posiciones de los sujetos respecto a la propiedad considerada. No hay acuerdo entre los expertos sobre si un formulación es preferible a la otra. que traduciremos como escalas aditivas. la complejidad de los conceptos que se pretenden registrar hace improbable su cobertura con un único indicador. En conclusión: las escalas compuestas por un único elemento son menos válidas. Inicialmente se proponían siete alternativas: muy de acuerdo. Test escolar de 30 preguntas. Nunnally cita tres razones por las que las escalas de varios elementos son superiores a las de un único elemento. en cambio. después se le pregunta en función de la respuesta si mucho o sólo bastante… aunque está formulación lleva a resultado no diferentes de los obtenidos con una sola pregunta que contenta desde el principio todas las alternativas graduadas. obligando al entrevistado a tomar una posición. o bien no hacerlo. 6. 78 .

Esta comprobación se realiza en la tercera fase. que sirve para identificar los elementos de la escala que no son coherentes con los otros. más que inductivo. El coeficiente de correlación es una medida que cuantifica el grado de relación existente entre dos variables cardinales. contiene múltiples dimensiones que la escala debe ser capaz de cubrir. Como sabemos. y r es su correlación media. Es necesario. si las variables no están correlacionadas. y que las afirmaciones no vayan todas en el mismo sentido (para obligar a los entrevistados a reflexionar. Es muy recomendable seguir una estrategia de tipo deductivo. Su fórmula es : nr A = ----------1 + r (n-1) donde n es el número de los elementos de la escala. absolutamente en contra. 79 . A continuación la escala es sometida a un muestreo de entrevistados (segunda fase). La construcción de la escala se produce en cuatro fases: a) formulación de las preguntas b) administración de las preguntas c) selección de las preguntas y determinación del grado de coherencia interna de la escala d) control de la validez y de la unidimensionalidad de la escala. a veces a cuatro. y bajo esta perspectiva han sido elegidos los elementos en la primera fase. se establecen las dimensiones de la actitud estudiada y se formulan afirmaciones que cubran los diversos aspectos del concepto general que se quiere destacar. se calcula la puntuación de cada sujeto sobre toda la escala así como el coeficiente de correlación entre esta puntuación y la puntuación sobre cada elemento individual. se plantea el problema de valorar la capacidad efectiva de la escala para conseguir el objetivo para el que fue construida. Por ello es importante que se incluyan las respuestas “no sé”. y el coeficiente alfa. que sirve para juzgar el grado total de coherencia interna de la escala. que en caso de ausencia total de correlación es cero. en contra. puesto que la coherencia de las respuestas exigirá expresar consenso en unas ocasiones y disenso en otras. Si las dos variables covarían. Una vez sometidos los entrevistados a las preguntas de las escala. La correlación elemento-escala. La coherencia interna de la escala: el Alfa-Cronbach. Remontándonos a la clasificación precedente. el coeficiente de correlación cobra un valor elevado. Debemos asegurarnos de la unidimensionalidad de la escala.parcialmente en contra. En la primera fase. Después se han reducido a cinco. la premisa que lo sostiene es que todos los elementos que la componen estén correlacionados con un mismo concepto latente. se trata de preguntas con respuestas de autonomía semántica parcial. Esos conceptos suelen ser complejos. que se basa en la matriz de relación entre todos los elementos y en su número. por tanto definir algún criterio empírico para asegurarnos de que el requisito de una dimensión común a todos los elementos sea efectivamente reconocible incluso en la percepción de los entrevistados. el coeficiente tiene un valor bajo. esto no sólo vale para las escalas de Likert. Se trata de índices que resumen esta coherencia y entre los más conocidos se encuentra el alfa de Cronbach. En general esta técnica exige un alto nivel educativo de los entrevistados. Para la correlación elemento-escala. Los instrumentos básicos que en ésta se utilizan son dos: la correlación elemento-escala. Se han elaborado algunos criterios para valorar la coherencia interna global de la escala.

por ejemplo. éste no es suficiente para garantizar la unidimensionalidad de la escala. Aunque el procedimiento de “análisis de los elementos”. el investigador tendrá en cuenta tanto las correlaciones elementos-escala como el coeficiente alfa. que los elementos impliquen dos propiedades distintas. Nunnally sugiere un umbral de 0. cuanto más altos son los valores. Eliminará los elementos con correlación elemento-escala demasiado baja. La escala se aplica. y de este modo elevará la correlación media entre los elementos r. Un alfa inferior significa que los elementos de la escala tienen poco en común. El punto de partida para el análisis lo constituye una matriz de correlación entre las variables observadas. la de los controles sobre la validez y la unidimensionalidad de la escala.70 para poder aceptar la escala. concomitante. Elevado número de elementos que son suministrados a una muestra limitada de casos. acumulando en el curso de su utilización sucesivas pruebas de validez (validez predictiva. que hemos presentado en la tercera fase. la ansiedad. en el mismo instrumento de registro (usualmente un cuestionario) pueden coexistir varias escalas. etc. la escala no es sino un aspecto de la investigación. el objetivo del análisis factorial es reducir una serie de variables relacionadas entre sí a un número inferior de hipotéticas variables independientes entre sí. son los coeficientes de correlación entre el elemento de la escala y el factor subyacente. siempre y cuando esta operación produzca un aumento en el valor de alfa. su popularidad se atribuye a su simplicidad de su estructura teórica y a su facilidad de aplicación. Cuarta fase. la correlación entre las notas en álgebra y las notas en geometría de un determinado grupo de estudiantes (si un estudiantes va bien en álgebra también va bien en geometría) podría ser reconducida al hecho de que ambas notas están influidas por un factor subyacente. se eliminarán los elementos (ítems) que presenten una menor correlación elemento-escala. con el objetivo de crear un instrumento aplicable también a poblaciones distintas de aquellas para la que la escala fue construida. entre 0 y 1. El análisis factorial.Alfa no es un coeficiente de correlación. En definitiva. pero correlacionados entre sí: lo que produciría valores satisfactorios de correlaciones elemento-escala y del coeficiente alfa. sobre la base de esta primera prueba son eliminados los elementos incoherentes y se establece la aceptabilidad de la escala. por grupos conocidos. Una técnica muy eficaz para el control de la unidimensionalidad la constituye el análisis factorial. aunque tenga esa apariencia. Comenzamos por los controles de validez y con este fin introducimos una diferencia entre la aplicación clásica de la técnica de las escalas y una aplicación simplificada. Al eliminar los elementos más insatisfactorios de la escala. una escala para registrar la autoestima. que no requiere los 80 . o bien que su número es demasiado bajo. Por ejemplo. mayor es la coherencia interna de la escala. Las escalas de Likert son las más difundidas. Las saturaciones. Nos enfrentamos ahora al problema de los controles de unidimensionalidad de la escala. Es posible. En el planteamiento tradicional la construcción de la escala es una operación que tiene una autonomía propia: se construye. toma un valor normalmente positivo. tenga como fin precisamente establecer que todos los elementos son indicadores de la misma propiedad. incluso muy distintas. la religiosidad. aun en ausencia de unidimensionalidad. Entre los sociólogos y politólogos se ha ido afirmando un punto de vista más simplificado de la técnica de las escalas: las escalas en este caso están constituidas por una decena de elementos aproximadamente. por frase) como prueba del hecho de que efectivamente es capaz de registrar la propiedad para la cual ha sido construida. a diversas investigaciones. por ejemplo. y el objetivo es explicar estas correlaciones a través de la existencia de factores subyacentes.

Esta técnica sólo utiliza elementos dicotómicos. probablemente tampoco está dispuesto a casarse con él. podemos distinguir tres-cuatro fases: la formulación de las preguntas.potentes recursos de cálculo de los ordenadores modernos. ¿ y cómo amigo personal?. 1110. El problema reside en establecer cuántos errores puede tolerar una escala para poder ser aceptada y cuáles son los procedimientos a seguir para poder minimizar dichos errores. … 5.4 ESCALOGRAMA DE GUTTMAN Nace con el fin de proporcionar una solución al problema de la unidimensionalidad de la escala. de “autonomía semántica parcial” en el caso más frecuente de cinco modalidades. de manera que quien ha contestado afirmativamente a una pregunta debe de haber contestado también afirmativamente a todas las que la preceden en la escala de dificultad. Como visitante 1 1 1 1 0 Como vecino 1 1 1 0 0 Como amigo 1 1 0 0 0 Me casaría 1 0 0 0 0 Puntuación 4 3 2 1 0 Las respuestas posibles dan lugar a una matriz dividida en dos triángulos. lo que explica se gran éxito en los años 50-60. Puntuación asignada a cada uno de los elementos. “Escala de distancia social” ¿Estaría ustede dispuesto a aceptar un negro como visitante de su país?. En la construcción de la escala de Guttman. uno constituido por respuestas todas positivas y el otro por respuestas todas negativas. ¿ y a casarse con él?. ¿y cómo vecino de su casa?. De ahí la definición de esta escala como escalograma o escala acumulativa. En cada aplicación real se producirán también respuestas al margen de las secuencias previstas en el modelo. 1100. Su escala constituye una sucesión de elementos que presentan dificultad creciente. Es por ello que sea muy posible que dos puntuaciones idénticas correspondan a respuestas muy distintas. a partir de la puntuación de la escala. Segundo problema se refiere a la falta de reproducibilidad de la escala. la negativa. el análisis de los resultados con la 81 . en principio sólo deberían ser posibles las secuencias: 1111. que luego son tratadas como escalas cardinales. la puntuación final de la escala es global y no hay manera de averiguar a qué combinaciones de respuestas corresponde una puntuación determinada. Ejemplo. que serán consideradas “errores”. Esta posibilidad de reducir. 0000. Si indicamos con 1 la respuesta positiva y con 0. a las que se les asigna arbitrariamente 1. que es uno de los puntos débiles de la técnica de Likert. sólo son posibles algunas secuencias de respuestas. 6. Si los elementos de la escala están perfectamente escalonados. Es evidente que quién está dispuesto a casarse con un negro. Desventajas. que adopta el nombre de reproducibilidad ( a partir de la puntuación se pueden “reproducir” las respuestas a cada pregunta). Cada elemento es una variable ordinal. 2. probablemente también está dispuesto a tenerle como amigo personal. su administración. como vecino de casa… mientras que quién no lo aceptaría como amigo personal. las respuestas a cada uno de los elementos es una característica típica del escalograma de Guttman.

Fase de administración. es un error la secuencia correcta debería ser 11100. por tanto hay dos errores. descartar los menos coherentes con el modelo. las respuestas que no se integran en las secuencias previstas en el modelo. Se 82 . Para la fase de la formulación de las preguntas. Esto implica que el coeficiente puede estar inflado debido a una distribución marginal de las respuestas muy asimétrica. cualquiera que sean las secuencias de las respuestas. con el fin de obtener un batería de elementos con creciente dificultad. el objetivo de esta fase es el de evaluar la escalabilidad de todos los elementos. en identificar los que hemos llamado “errores” de la escala. el hecho de que las preguntas deban proyectarse teniendo en cuenta cuál será la forma final de la escala: un conjunto de elementos de intensidad creciente. 10110 con una puntuación final de 3. el hecho técnico y en algunos casos simplificador. de que las respuestas deben darse de forma binaria. Si la escala presenta un coeficiente de reproducibilidad inferior a 0. establecer un índice de escalabilidad de la escala y establecer su aceptación o no. El coeficiente de reproducibilidad de la escala es la media de los coeficientes de reproducibilidad de cada uno de los elementos. que llamó coeficiente de reproducibilidad. en primer lugar. Los errores se identifican comparando la secuencia observada con la correcta teórica que debería obtenerse manteniendo la puntuación total del caso. Ej.-------------------------= 1 ------------------------------= -------------------------Nº total respuestas Nº elementos x Nº casos Nº total respuestas Este índice se puede tambièn interpretar como la proporción de respuestas “exactas” sobre el total de las respuestas. Medidas de reproducibilidad. se eliminan progresivamente los elementos con mayor número de errores. que mide el grado de desviación de la escala observada respecto a la escala perfecta. o sea. Las preguntas deben cubrir toda la extensión del continuum de la actitud subyacente. carácter binario de las elecciones. Edward propuso calcular un índice de repoducibilidad marginal mínima (MMR) con la siguiente fórmula: Suma proporción de respuestas en la categoría modal MMR = ----------------------------------------------------------------N Donde N es el número de elementos de la escala.90. remitimos a lo que ya hemos dicho acerca de la escala de Likert sobre la importancia de la reflexión conceptual. Su formulación es la siguiente: Nº errores Nº errores Nº respuestas exactas Cr = 1 . En segundo lugar.eliminación de los elementos que indican demasiados errores. Se trata de decidir si son lo suficientemente reducidos como para garantizar la “escalabilidad” de los elementos. Este índice indica el valor mínimo por debajo del cual el coeficiente de reproducibilidad de la escala no puede descender. Guttman propuso un índice. El procedimiento consiste. El coeficiente de reproducibilidad de cada elemento no puede descender por debajo de su proporción de respuestas en la categoría modal. Dos observaciones. recalculando el índide Cr cada vez. y la definición de un índice global de aceptación de la escala.

patria. la técnica de Guttman es aplicable cuando se está en presencia de actitudes bien definidas y escalonables. Se han realizado diversas sugerencias para mejorar el rendimiento de esta técnica.5 DIFERENCIAL SEMÁNTICO Se desarrolló en los años 50. El objetivo era crear un instrumento para determinar con la máxima estandarización. Ésta es la crítica más importante al modelo de Guttman.sugiere. como las escalas de Rasch. La puntuación final que se obtiene sobre la variable latente sigue siendo esencialmente una variable ordinal: tampoco en este caso tenemos ningún elemento para decir. También Guttman recomendó inspeccionar atentamente las secuencias erróneas. ¿es duro o blando?. como en el caso anterior de la participación política. se puede afirmar que la buena reproducibilidad de la escala se debe a una efectiva escalabilidad de sus elementos y no a la distribución marginal de las respuestas. se basa en las asociaciones que establece el entrevistado entre este concepto y otros propuestos de forma estandarizada a todos los entrevistados. por lo que los errores al final resultan numerosos. El escalograma de Guttman ha constituido un punto fundamental en el desarrollo de la técnica de las escalas. Cuando la actitud se vuelve compleja resulta difícil escalonarla en secuencias acumulativas: las categorías se pueden superponer. En segundo lugar. la respuesta suele ser que conoce el significado pero no sabe explicarlo. el significado que los conceptos adquieren para los individuos. sólo si el primero. Guttman sugirió emplear un número suficientemente elevado de elementos. el modelo es rígidamente determinista. para aumentar la sensibilidad del instrumento se pide que se clasifique la intensidad de cada opinión en una escala de siete puntos. dado que la presencia repetida de una secuencia no prevista en el modelo puede ser síntoma de otra dimensión subyacente bajo esos indicadores. Se plantea una serie de preguntas cómo. 6. Normalmente. guerra) para ti?. además de ser superior al 0. La primera es evitar elementos con tasas demasiado elevadas (superiores al 80%) de aceptación o rechazo. En segundo lugar. su escala se considera ya superada por las de tipo probabilístico. “De esta forma el diferencial semántico es esencialmente una combinación de asociaciones controladas y de procedimientos scaling. mostrando que una escala de sólo cuatro elementos puede producir valores elevados de Cr aunque los elementos sean estadísticamente independientes entre sí. se le pide a la persona que diga lo que significa. Con personas dotadas de menor capacidad de verbalización este sistema puede ser limitado. recomendadas por el mismo Guttman. Nos limitamos a presentar tres. mientras que la realidad social sólo puede interpretarse correctamente a través de modelos probalísticos que contemplen la posibilidad de error y el paso gradual entre las posiciones. por tanto.90. 83 . De hecho. que la distancia entre las puntuaciones 2 y 4 sea igual a la distancia que media entre las puntuaciones 5 y 7. ¿qué significa esto (madre. ¿es rápido o lento?. Ahora bien. instruidas y con capacidad verbal está forma puede ser válida. es también netamente superior al segundo. cuando los sujetos estudiados son personas inteligentes. comparar el Cr con el MMR. en tanto que son poco descriminantes y que elevan artificialmente el coeficiente de reproducibilidad de la escala. Osgood propone una técnica para extraer los significados que determinados conceptos adquieren para los entrevistados. Por último.

Bello – Feo 4. Ancho .Luminoso. Vacío – Lleno 24. Valiente – Cobarde 30.Deshonesto 41. Rápido – Lento 45.desagradable 19. Se recomienda al entrevistado que conteste de forma instintiva. Rojo – Verde 14. Caliente – Frio 34. Duro – blando 6. Sagrado – Profano 28.Azul 5. Bueno – Malo 2. Luminoso – oscuro 37. Fuerte – Débil 8.Ofuscado 33. de 84 18. Espeso – Fino 35. Limpio – Sucio 9. Agudo – Soso 23. Simpático . Sabroso – Insípido 12. En este caso.Superficial (Tabla 2) “el perfil” es una representación gráfica consistente en unir con una línea la puntuación media obtenida por ese objeto en cada pareja de atributos de la tabla 1. Profundo. sin reflexionar demasiado sobre cada pareja. Dulce – Ácido 7. Anguloso – Redondeado 39. Agresivo – Pacífico 25. Feliz – Triste 22. Cercano – Lejano 48. En voz alta. Punzante – Apacible 49. y por tanto debe ser siempre la misma: incluso parejas de adjetivos aparentemente ajenos al caso en examen resultan útiles para extraer significados más profundos e incluso inconscientes que tiene el objeto para el entrevistado. Amarillo. Relajado – Tenso 29. Amable – Grosero 16. Honesto. Mojado – Seco 27. Pesado – Ligero 26. Justo – Injusto 46. 1.Rico –Pobre 32. Alto – Bajo 31.Estrecho 2 3 4 5 6 7 Joven Débil Sucio Lento Lejano Tolerante Cerrado Indulgente Perdedor De derechas Triste Eficiente .Partido socialista 1 Viejo Fuerte Limpio Rápido Cercano Intolerante Abierto Intransigente Ganador De izquierdas Alegre Ineficiente (Tabla 1) Osgood también mantiene una lista de atributos bipolares que no debe tener relación con el objeto evaluado. Fresco – Rancio 44. Joven – Viejo 15. Activo – Pasivo 42. Negro – Blanco 20 Amargo – Dulce 21. Agradable. Alto – Bajo 10. pero se pueden obtener también perfiles individuales. Sano – Enfermo 50. el perfil tiene por objeto el concepto y consiste en las valoraciones medias de los entrevistados. Perfumado.pequeño 3. Tranquilo.antipático 36. Áspero – Suave 47. es decir. De valor – sin valor 13. Grave – Soprano 38.Inquieto 11. Grande .apestoso 40. Rugoso – Liso 43.en voz baja 17.

con el objetivo. Osgood y sus colaboradores afirmaban que las tres dimensiones identificadas de la evaluación. No obstante. En este capítulo no sólo nos ocupamos del estudio de las actitudes. obteniendo así para cada individuo unas puntuaciones globales sobre las tres dimensiones mencionadas. 85 . 6. la evolución en el tiempo de esta distancia puede emplearse para seguir los progresos del paciente durante una psicoterapia. fuerte-débil…). la actividad (activo-pasivo. Las técnicas sociométricas nacieron con el fin de revelar las relaciones interpersonales existente dentro de un grupo de individuos. tal como querría ser”. tan ambicioso como ingenuo. de la potencia y de la actividad rigen el espacio semántico de los individuos en la gran mayoría de los casos. y para citar una aplicación de la técnica. Estos tres factores se enumeran aquí por orden de importancia: el primero es el más relevante y parece representar lo que en las técnicas tradicionales de escalas se denominaba generalmente la “actitud” hacia un determinado objeto cognitivo. Pueden identificarse tres dimensiones fundamentales que subyacen a las diversas opiniones: la evaluación ( relacionada con las parejas bueno-malo. la contribución más original del diferencial semántico al reconocimiento de las actitudes resida en el hecho de que puso en evidencia la multidimensionalidad de los significados al introducir. la exploración de la dimensión de los significados. es decir. A partir de esta aportación al estudio de las dimensiones del espacio semántico. estas objeciones. independientemente de la cultura de los sujetos estudiados. Probablemente. …).los sujetos entrevistados basados en las respuestas de un único individuo. en un sector de estudios que se había movido hasta entonces en una perspectiva unidimensional. rápido-lento. los valores sobre cada atributo bipolar pueden sumarse. positivo-negativo…). la riqueza del punto de vista multidimensional. sino que queremos incluir las principales técnicas de las escalas. Si pedimos a un entrevistado que coloque un determinado objeto cognitivo sobre 30 parejas de adjetivos. aquellos procedimientos elaborados por las ciencias del comportamiento. La forma más importante de utilización del diferencial semántico es. La distancia entre los dos perfiles permite conocer el grado de autoestima del sujeto. no tienen como finalidad revelar variables latentes como la religiosidad o la depresión. Muchos investigadores no comparten esta afirmación generalizadora. A través del análisis factorial se puede determinar cuáles son las dimensiones fundamentales que están tras los juicios de una determinada muestra de personas entrevistadas.6 TEST SOCIOMÉTRICO Se propone un objetivo bastante distinto del que tienen en común las técnicas presentadas hasta ahora. como sucedería con una escala aditiva tipo Likert. la potencia (duro-blando. ni actitudes hacia determinados objetos cognitivos como los partidos políticos o los inmigrantes. sin embargo. las opiniones individuales resultarán estar naturalmente guiadas por la visión de conjunto (el “significado”) que el entrevistado tiene del objeto propuesto. De hecho. La técnica se ha empleado como instrumento para revelar la autoestima del entrevistado. tal como soy” y luego “Yo. principalmente entre los años treinta y los años sesenta. de “medir al hombre y a la sociedad”. pidiéndole que coloque en una batería de atributos bipolares primero el objeto cognitivo “Yo. no restan interés a la técnica como instrumento para revelar la estructura de las actitudes.

ya que todas las preferencias se producen en el interior. Por ejemplo. es poco adecuado para el análisis de grupos informales. la existencia de estratificaciones sociales. lingüísticas. El test sociométrico se presta en general al estudio de grupos estructurados. El grupo formado por los sujetos 5. Bastin. las relaciones interpersonales que se establecen dentro de grupos pequeños. Se pueden construir sociogramas distintos según las preguntas consideradas. de genero. poniéndoles en orden de preferencia. los que te han colocado entre los que no desean para el año que viene. los otros dos grupos presentan una estructura muy paritaria. Una primera elaboración la representa el análisis del estatus sociométrico individual. que giran entorno al tema de la preferencia-rechazo hacia al resto de los pertenecientes al grupo. las redes de comunicación. poniéndoles en orden empezando por el que menos deseas. y pasados tres meses desde el inicio del curso entrevistó a cuatro profesores por clase. 1. puesto que el radio de elección del sujeto debe estar limitado.El test sociométrico nace con el objetivo de estudiar. Se construye una matriz cuadrada que tenga en los datos izquierdo y superior la lista de los componentes del grupo. la organización jerárquica informal. para identificar los puntos de tensión. etc. 4 y 10) es un grupo cerrado. el grupo se articula en tres subgrupos (todas las primeras preferencias de los sujetos y casi todas las segundas se agotan dentro de cada subgrupo). ¿ Y cuáles son. de edad. los subgrupos. los que no te gustaría volver a tener en tu clase el año que viene?. Es de gran utilidad para el estudio de la dinámica de una 86 . La técnica se revela útil como instrumento de diagnóstico individual. los líderes. 3. de aislamiento y de afinidad. Adivina cuáles son. los que te han elegido entre los que querrían tenerte con ellos el año que viene. El test sociométrico consiste en un cuestionario compuesto por pocas preguntas. entre tus compañeros. etc. las vías a través de las cuales pasan las informaciones. 2. Dos de los tres grupos están conectados entre sí por los sujetos 6 y 11. las órdenes. entre tus compañeros. 11. Eligió 12 clases del primer año de un centro escolar. barreras étnicas. La elaboración de los datos es tan sencilla como la administración del cuestionario. ¿Cuáles son. Los profesores se mostraron incapaces de desentrañar las redes de relaciones existentes entre sus alumnos. mostrando la existencia de dinámicas desconocidas para los educadores. entre tus compañeros. los cotilleos. Indica cuantos quieras. que se efectua analizando para cada individuo el número de preferencias efectuadas y de rechazos recibidos. Adivina cuáles son. administró un cuestionario sociométrico a las clases: éste relevó con nitidez el mapa de las interrelaciones entre los chicos. 12 presenta un lider el 12. los que te gustaría volver a tener en tu clase el año que viene? Indica cuantos quieras. con el fin de identificar las relaciones de dominación-dependencia. 8. y se registran las preferencias/rechazos en las casillas correspondientes a cada pareja. como instrumento para captar la estructura relacional del grupo. etc. elegidos entre los que enseñaban todos los días. Y como herramientas para el estudio de la psicología de los grupos. que funcionan como intermediarios. más una persona aislada. mientras que el tercero (2. Su campo de aplicación ideal lo representa una clase escolar. los estudiantes aislados. Junto con los análisis para definir el estado relacional de los individuos se efectúan luego elaboraciones dirigidas a la ilustración de la estructura sociométrica del grupo. religiosas. pidiéndoles que describieran las relaciones que se habían establecido entre los alumnos: las amistades. en cambio. con sistematicidad y procedimientos estandarizados. 4.

Este espacio conceptual puede imaginarse como un espacio físico definido por dimensiones. que recibió un fuerte impulso también por el desarrollo de la informática y de las nuevas posibilidades ofrecidas por los ordenadores para la gestión y el análisis de datos de tipo relacional. interpretadas como medidas de proximidad. por ejemplo. la investigación llevada a cabo en 1. preguntándonos cuántas y qué dimensiones latentes están detrás de ellas. en parte por la disgregación de la construcción teórica de la “sociometría”. Posteriormente la técnica se ha desarrollado para estudiar también las relaciones funcionales. Imagínemos que tenemos frente a nosotros un mapa geográfico. eso significa que los dos candidatos están cercanos en el espacio mental de los entrevistados: si un sujeto juzga positivamente a uno. existe una alta correlación entre las puntuaciones obtenidas. elaborada por Moreno con un fin de renovación social más que de investigación científica. Considérese. Si. A partir de las 87 . de las competencias y de la utilidad ¿con quién querrías estudiar?. La problemática a la que se enfrenta la técnica de las escalas multidimensionales se parece al proceso de construcción del mapa a partir de las distancias.clase escolar.968 acerca de la opinión de los electores sobre los candidatos a las elecciones presidenciales estadounidenses de ese año. Finalmente. de las situaciones de investigación en las que se presume que existe una única dimensión fundamental subyacente bajo un conjunto de observaciones. la aproximación al estudio sistemático de las redes de relaciones sociales ha cobrado un nuevo vigor dentro de la network analysis (análisis de redes). también podemos mencionar estudios sobre la organización militar.7 ESCALAS UNIDIMENSIONALES Y ESCALAS MULTIDIMENSIONALES En los primeros epígrafes del Capitulo hemos trazado el itinerario recorrido por las ciencias sociales en los diversos intentos de “medir” al hombre y su mente: pero hemos hablado únicamente de las escalas denominadas “unidimensionales”. aplicado a 12 candidatos a las elecciones primarias. Los autores utilizaron la técnica de las escalas multidimensionales para identificar cuáles eran las dimensiones que estaban tras la opinión expresada. basados en la estimación de las capacidades. Hay otra forma de enfrentarse al problema de los conceptos complejos subyacentes a un conjunto de observaciones. Las preferencias de los entrevistados fueron recogidas con el “termómetro de los sentimientos”. Otro campo de aplicación ha sido el laboral. Y consiste en partir directamente de las observaciones. esta técnica también se ha utilizado existentes dentro de las organizaciones formales. por ejemplo. ¿a quién elegirías para tu equipo de fútbol?. Ésta es la técnica de las denominadas escalas multidimensionales. juzga positivamente a no. La tarea es fácil de realizar midiendo con un centímetro las distancias sobre el mapa y convirtiéndolas luego en kilómetros. La técnica propuesta por Moreno fue muy popular en los años cincuenta y sesenta cuando se empleó en múltiples campos. La técnica nació inicialmente para estudiar las relaciones afectivas existentes dentro del grupo. Estas técnicas de análisis toman como punto de partida las correlaciones entre los estímulos. Más recientemente. es decir. Poco a poco su utilización por parte de los investigadores se redujo sensiblemente. 6. pero existen procedimientos geométricos que nos permiten enfrentarnos a ella. y que se nos pide que construyamos una tabla con las distancias en kilómetros entre las ciudades. ¿con quién te gustaría jugar? ¿a quién invitarías a cenar?. juzgará positivamente también al otro. Supongamos que nos enfrentarnos al problema contrario: tenemos la tabla con las distancias en kilómetros y queremos reconstruir las posiciones de las ciudades sobre el mapa. La tarea es más difícil que la anterior.

Ante todo. es necesario dar un nombre a estas dimensiones. el problema es comprender si existe un espacio común a todos los que han contestado: a continuación. 88 .proximidades-distantes entre determinados objetos se nos plantea el objetivo de reconstruir el espacio conceptual en el que estos objetos son colocados. se trata de identificar cuántas dimensiones tiene este espacio: por último.

Sign up to vote on this title
UsefulNot useful