You are on page 1of 383

Publicidad

Portadilla

Trabajo de final de grado,


tesis de máster, tesis
doctoral y otros trabajos
de investigación
Oriol Amat y Alfredo Rocafort
Directores
J. Rodrigo de Larrucea (UPC y RAED) • O. Amat (UPF)
M. Oliveras (UPF) • A. Bosch (UB) • M. A. Calvo (UAB) • D. Prior
(UAB)
D. Gil-Doménech (UIC) • J. Berbegal-Mirabent (UIC) • F. Marimon
(UIC)
M. Mas-Machuca (UIC) • R. Bastida (UIC) • M. del Mar Pàmies (URV)
G. Ryan (URV) • M. Valverde (URV) • E. Oliveras (UPF)
R. Dopeso (Tecnocampus-UPF) • J. Paris (UAO, CEU)
J. M. Raya (Tecnocampus-UPF) • A. Aguirre (RAED) • S. Marín (UB)
E. Rico (UB) • F. Llorente (UB) • J. Marti (UB) • S. Torra (UB)
M. A. Gallo (IESE, Universidad de Navarra) • J. I. Saranyana (UN)
J. M. Sans i Travé (Reial Acadèmia de les Bones Lletres)
D. Celma (Tecnocampus-UPF) • E. Martínez (UdG)
J. Viñas (UdG) • A. Lozano (UPF)
Créditos

Cualquier forma de reproducción, distribución, comunicación pública o


transformación de esta obra solo puede ser realizada con la autorización de sus
titulares, salvo excepción prevista por la ley. Diríjase a CEDRO (Centro Español
de Derechos Reprográficos) si necesita fotocopiar o escanear algún fragmento
de esta obra (www.conlicencia.com; 91 702 19 70 / 93 272 04 45.

© ACCID y RAED, 2017


© Profit Editorial I., S.L. 2017
Travessera de Gràcia, 18; 6è 2a; Barcelona-08021
Diseño cubierta: XicArt
Maquetación: Gráficas Rey
ISBN: 978-84-16904-69-3
Depósito legal: B 21356-2017
Primera edición: Noviembre, 2017
Imprime: Gráficas Rey
Impreso en España / Printed in Spain
Presentación

PRESENTACIÓN

La investigación es la actividad encaminada a descubrir nuevos


conocimientos que ayudan a entender mejor el mundo y tratan de encontrar
soluciones para los problemas que se han identificado. La investigación
afecta a todos los ámbitos de las ciencias y las técnicas. Es una labor que
requiere métodos adecuados, los denominados métodos científicos. Se trata
de una materia de gran relevancia, especialmente en el mundo de la I+D
(investigación y desarrollo) en general y en el mundo universitario en
particular.
Esta publicación tiene como objeto exponer de manera panorámica los
conceptos y técnicas que pueden utilizarse para investigar.
A lo largo de los diferentes capítulos se tratan temas que pueden ser de
gran utilidad para aquellas personas que estén interesadas en iniciarse en el
mundo de la investigación. Se desarrollan tanto los aspectos relacionados con
las investigaciones más tempranas (como el trabajo final de grado o la tesis
de máster) y también las investigaciones más avanzadas (como la tesis
doctoral u otros proyectos de investigación).
La publicación se inicia con un capítulo de introducción a la investigación
y, a continuación, siguen otros capítulos dedicados a la selección del director
de la investigación y a las habilidades del investigador. También se exponen
las particularidades, similitudes y diferencias entre los distintos trabajos de
investigación.
Acto seguido, aparecen varios capítulos dedicados a las tareas que deben
realizarse en la fase inicial de toda investigación: la revisión de la literatura,
la formulación de la pregunta de investigación, la elección del marco teórico,
la formulación de las hipótesis y el diseño de la investigación.
Una vez diseñada la investigación, hay dos capítulos que exponen la
aplicación de métodos como las entrevistas, los cuestionarios y la selección
de muestras. La tarea prosigue con el análisis de los datos. De ello tratan tres
capítulos: uno dedicado a los datos cuantitativos, otro a los datos cualitativos
y un tercero a la validación de las hipótesis.
Seguidamente, se desarrollan cinco capítulos dedicados a exponer diversas
particularidades de la investigación en función de los diferentes ámbitos
científicos (ciencias sociales, ciencias de la salud, ciencias humanas, ciencias
experimentales y ciencias tecnológicas).
Los capítulos finales exponen las actividades que deben llevarse a cabo una
vez finalizada la investigación: la redacción de la investigación realizada y la
presentación en público. También se dedica un capítulo, el último, a un tema
de gran trascendencia: la transferencia de tecnología y conocimiento para que
la investigación contribuya a mejorar el mundo.
Se trata de una publicación fruto de la colaboración entre la ACCID (siglas
en catalán de la Asociación Catalana de Contabilidad y Dirección) y la
RAED (Real Academia Europea de Doctores). Ambas instituciones tienen un
firme compromiso con la investigación. La RAED es una institución
centenaria que tiene por objeto la investigación, el estudio, el fomento y la
extensión del conocimiento en su sentido más amplio. La ACCID, creada en
2002, tiene entre sus objetivos la promoción de la investigación y la
transferencia de conocimiento entre el mundo académico y el mundo de las
organizaciones.
Esta publicación ha contado con la coordinación de las dos entidades y
también han participado los presidentes de las cinco secciones de la RAED
(ciencias sociales, ciencias de la salud, ciencias humanes, ciencias
experimentales y ciencias tecnológicas).
Agradecemos al Dr. Joaquim Rabaseda las sugerencias que ha realizado.
Esperamos que este manual sea de utilidad a los estudiantes (de grado, máster
o doctorado) y también a todos aquellos profesionales que estén interesados
en investigar.
ORIOL AMAT
PRESIDENTE DE ACCID
ALFREDO ROCAFORT
PRESIDENTE DE RAED
1 Introducción a la investigación

1
INTRODUCCIÓN A LA INVESTIGACIÓN
Jaime Rodrigo de Larrucea
(UPC y RAED)

«Equipado con sus cinco sentidos, el hombre explora el universo que lo rodea y a sus aventuras las
llama Ciencia». Edwin Hubble

«El científico no es aquella persona que da las respuestas correctas, sino aquella que hace las preguntas
correctas». Claude Lévi-Strauss

Objetivos del capítulo

• Comprensión de la relación entre investigación, ciencia y método científico.


• El método científico y sus principios fundamentales: reproductibilidad y validación.
• Exposición del proceso del método científico y de sus diferentes fases.
• La formulación de teorías científicas.
• La pregunta de investigación y el plan de investigación. Las líneas de investigación.
• La tesis doctoral como inicio a la investigación.
• La carrera investigadora.
• Investigación y emprendimiento.

1.1. Introducción: la relación entre investigación, ciencia y método


científico
El capítulo presenta una visión panorámica del trabajo científico y de las
principales cuestiones planteadas en torno a la investigación, o principios
generales de la investigación en ciencia, que se detallan y particularizan en el
resto de la obra.
Más allá del método científico y la formulación de teorías y otros aspectos
conceptuales que integran la filosofía de la ciencia o epistemología (teoría del
conocimiento científico), se abordan cuestiones prácticas como el desarrollo
de la carrera profesional del investigador o la conexión cada vez más
relevante entre investigación y empresa.
La investigación científica es la búsqueda intencionada de conocimientos o
de soluciones a problemas de carácter científico. El método científico indica
el proceso que se ha de seguir en esta búsqueda, y las técnicas determinan la
manera de realizarlo. El investigador es quien practica o desarrolla la
investigación científica de acuerdo con el método científico. La investigación
científica es el instrumento a través del cual la ciencia llega al conocimiento
científico. Siguiendo a Tamayo, puede definirse la ciencia como el «conjunto
de conocimientos racionales, ciertos y probables, obtenidos metódicamente,
sistematizados y verificables, que hacen referencia a objetos de una misma
naturaleza». Igualmente Bunge dice: «La ciencia se nos aparece como la más
deslumbrante y asombrosa de las estrellas de la cultura cuando la
consideramos como un bien por sí mismo, esto es, como un sistema de ideas
establecidas provisionalmente (conocimiento científico) y como una
actividad productora de nuevas ideas (investigación científica)1».
La ciencia y la epistemología ponen en primer plano y dotan de pleno
sentido al método científico, hasta el punto de que no puede hablarse de
investigación sin hacerlo de método científico. De manera concluyente,
Bunge establece: «El método científico es un rasgo característico de la
ciencia, tanto de la pura como de la aplicada: donde no hay método científico,
no hay ciencia. Pero no es infalible ni autosuficiente. El método científico es
falible: puede perfeccionarse mediante la estimación de los resultados a los
que llega por medio del análisis directo. Tampoco es autosuficiente, no puede
operar en un vacío de conocimientos, sino que requiere algún conocimiento
previo que pueda luego ajustarse y elaborarse, y tiene que complementarse
mediante métodos especiales adaptados a las peculiaridades de cada tema2».
La investigación científica se encarga de generar el conocimiento, cuya
creación se obtiene a través del método científico, y es este el método de
estudio sistemático de la realidad que incluye las técnicas de observación, las
reglas para el razonamiento, el análisis y la predicción, la experimentación
planificada y la comunicación de los resultados experimentales y teóricos
obtenidos.
El método científico está basado en los principios de reproducibilidad y
validación y consta fundamentalmente de cinco pasos: observación, hipótesis,
experimentación, teoría, ley científica. Parte de los capítulos que integran la
presente obra desarrollan in extenso cada una de estas etapas, y el objeto de
este capítulo es el planteamiento general del método y la formulación de sus
principios generales.
Los investigadores emplean el método científico para resolver diversos
tipos de problemas. Así, el científico que se dedica a la investigación pura usa
el método para lograr nuevos conocimientos teóricos, mientras quienes se
dedican a la investigación aplicada lo emplean para la exploración y creación
de nuevos productos o procedimientos con objeto de optimizar soluciones
existentes en un ámbito determinado.

1.2. El método científico y sus principios fundamentales:


reproductibilidad y validación. Problemas planteados
1.2.1. Introducción
El concepto de método proviene del griego methodos (‘camino’ o ‘vía’) y
alude al medio que se utiliza para alcanzar una cierta meta u objetivo. El
método científico se refiere a la serie de etapas o fases que hay que recorrer
para obtener un conocimiento válido desde el punto de vista del rigor de la
ciencia, utilizando para ello instrumentos que resulten fiables.
El método científico se basa en los preceptos de validación (cualquier
proposición de la ciencia debe resultar susceptible de ser validada) y
reproducibilidad (un experimento tiene que poder ser repetible en lugares
indistintos y poder ser recreable por un sujeto cualquiera).

1.2.2. La validación o falsabilidad, bajo la filosofía de la ciencia


Para formar parte de la ciencia, una hipótesis ha de ser falsable o refutable. El
criterio de Popper para diferenciar las hipótesis científicas de las no
científicas se conoce como criterio de demarcación. Este criterio consiste en
analizar lógicamente la hipótesis o la teoría en cuestión, para determinar si es
potencialmente refutable. Si lo es, se está ante una hipótesis científica; de lo
contrario, la hipótesis sería metafísica. Según este criterio, la religión, el
psicoanálisis y la ética, por ejemplo, son teorías que tienen sentido y un valor
determinado en cada caso, pero deben ubicarse en el área metafísica y no en
el área científica3.
El criterio de delimitación popperiano entre las dos áreas citadas del
conocimiento no es aceptado por otras corrientes filosóficas, tales como el
verificacionismo en sus múltiples variantes (positivismo, etc.). El
verificacionismo considera solo como científicas aquellas hipótesis que
pueden verificarse empíricamente, es decir, aquellas que puedan comprobarse
por medios experimentales, como sucede por ejemplo con la observación
directa.

1.2.3. Baja reproductibilidad de la ciencia actual


Una de las cuestiones críticas en el desarrollo de la ciencia actual es la de su
baja reproductibilidad. Actualmente, y a la vista del número creciente de
evidencias en su contra, la premisa de que la ciencia se corrige a sí misma
porque evoluciona atendiendo a la reproducción de estudios anteriores está
puesta en entredicho.
La baja fiabilidad de las investigaciones, sin embargo, no parece estar
vinculada a una praxis científica deficiente, sino a cuestiones heterogéneas
como: el sistema de incentivos y recompensas por resultados positivos en
revistas de alto impacto, el énfasis en la obtención de descubrimientos
ambiciosos –que, eventualmente, no estarían debidamente justificados por los
resultados– o la insuficiente preparación del personal técnico e investigador.
Igualmente, pueden destacarse otras carencias potenciales de carácter
instrumental. Así, los protocolos experimentales mal diseñados, y un número
bajo de muestras y pruebas estadísticas, o incluso la inadecuación de estas
para los propósitos de la investigación de que se trate, podrían ser causas del
fenómeno citado. En la actualidad, de manera cotidiana, cualquier profesor de
universidad recibe periódicamente mensajes de correo electrónico con el
ruego de participar en encuestas de fiabilidad discutible y dirigidas
usualmente a la realización de tesis.
Estas consideraciones, entre otras, llevaron a la creación en el año 2012 de
la plataforma en línea Reproducibility Initiative, o Iniciativa en
Reproducibilidad, que tiene como objetivo facilitar las comunicaciones entre
investigadores y compañías farmacéuticas para validar y reconocer resultados
reproducibles de calidad sobre pruebas preclínicas publicadas. Las
presentaciones y los resultados obtenidos son confidenciales y, una vez
completados y confirmados, quedan sancionados con la etiqueta «validado en
forma independiente». Hay iniciativas semejantes como Science Check, que
contribuyen a validar los resultados de la investigación en el área de la clínica
médica y asegurando que estos datos adicionales estén disponibles en
repositorios de acceso abierto accesibles a todos4.
Las dudas sobre numerosos experimentos científicos actuales, en el sentido
de su baja reproducibilidad potencial, confirman una regla no escrita y
compartida por muchos investigadores académicos y de la industria, ante la
controversia. Se piensa, en este sentido, que un 50 % de los estudios
publicados, incluso en las revistas de alto impacto, no son reproducibles por
otros laboratorios.

1.3. Exposición del proceso del método científico y de sus fases


Entre los pasos necesarios que conforman el método científico, se hallan la
observación (el investigador debe estudiar el fenómeno de la misma manera
en que este se muestra en la realidad), la inducción (partiendo de las
observaciones, el científico debe deducir los principios particulares de ellas),
el planteamiento de una hipótesis (surgida de la propia observación), la
demostración o refutación de la misma, y la presentación de la tesis (la teoría
científica que se deriva). El método científico se fundamenta en los principios
de reproducibilidad y validación, y consta fundamentalmente de cinco etapas:
observación, hipótesis, experimentación, teoría y ley científica.
De manera más detallada, toda investigación científica debe contemplar las
siguientes fases:
1. La introducción
2. El planteamiento general, la motivación personal y la justificación
sobre la elección del tema de investigación, y su relevancia.
3. La pregunta de la investigación
Elemento central y crítico de la cuestión: ha de estar bien definida y
precisa, y evitar cualquier ambigüedad. Resulta crucial que la pregunta
de investigación sea adecuada, y es este el punto de salida de todo el
desarrollo académico y científico posterior.
4. Los objetivos
Los objetivos deben establecer qué quiere resolverse con las posibles
respuestas a la pregunta de investigación. Deben enumerarse
especificando qué aportación original pretende llevarse a cabo.
5. Las hipótesis
Es la solución que pretende comprobarse, basada en una suposición con
la que arranca la investigación. Una hipótesis es una proposición que se
pone a prueba. Puede ser o no ser verdadera, y se trata de demostrar su
posible validez. La confirmación o refutación de una hipótesis es una
oportunidad para plantear nuevas preguntas de investigación, o mejorar,
o actualizar, las conclusiones obtenidas.
Los resultados de una investigación pueden expresarse mediante
diferentes indicadores, por ejemplo, con índices aritméticos, tales como
frecuencias absolutas, porcentajes o tasas, índices, etc., y es frecuente
mostrar datos en tablas de gráficos, frecuencias, etc., de tal manera que
permitan la deducción de conclusiones cuantificables. El análisis
estadístico se realiza mediante técnicas como la estadística descriptiva, o
la estadística inferencial, entre otras técnicas que se examinan más
adelante en esta publicación. A partir de ellas puede asignarse un nivel de
probabilidad a los resultados obtenidos, en el sentido de decidir si el
resultado tiene su origen en los presupuestos de la hipótesis inicial, o
bien viene determinado por algún otro factor no contemplado.
6. El marco teórico
Consiste en la explicación de los fundamentos teóricos y objetivos de la
teoría, así como en la exposición de los instrumentos principales de
análisis y las formas de representación de datos. Se trata de acreditar o
refutar la hipótesis mediante la experimentación o aplicación de
investigaciones contrastadas como leyes, teoremas y otras reglas
científicas.
7. La metodología y desarrollo de la investigación
Incluye la revisión contextualizada de las metodologías adecuadas al
campo de que se trate, y debe justificar el modelo metodológico
adoptado. Respecto a la presentación y discusión de resultados, se analiza
si son correctas o incorrectas, basándose en los datos obtenidos durante la
verificación.
8. Las conclusiones
Constituyen la interpretación final de los datos y los resultados
involucrados, y con ellas acaba la investigación. Las conclusiones
resumen sistemáticamente y de forma coherente los puntos principales
del proceso. Indican el porqué de los resultados obtenidos y su potencial
valor, enunciando las teorías que pueden surgir de ellos o las
consecuencias prácticas (invenciones, patentes, etc.) que se derivan de la
tarea emprendida. Los resultados obtenidos son dados a conocer
mediante su publicación en artículos de revistas especializadas, y quedan
así sometidos al escrutinio y la evaluación por parte de la comunidad
científica.
9. Las referencias bibliográficas

1.4. Las teorías científicas


Una teoría científica es un conjunto de conceptos que incluye abstracciones
de fenómenos observables y propiedades cuantificables, junto con reglas
positivas (las llamadas leyes científicas) que expresan y explican las
relaciones entre las observaciones de dichos conceptos. De manera más
simple: una teoría científica es el resumen de una hipótesis o grupo de
hipótesis que ha recibido el apoyo y la confirmación de diversas pruebas. Una
teoría científica se construye para ajustarse a los datos empíricos disponibles
sobre dichas observaciones, y se propone como un principio o conjunto de
principios para explicar una clase de fenómenos. Una teoría debe incluir
declaraciones y afirmaciones que tengan consecuencias observacionales.
Igualmente, una teoría valiosa es la que está formada por un número de
hipótesis que pueden ser puestas a prueba de forma independiente.
Para que un conocimiento teórico dado pueda ser considerado parte del
conocimiento científico, se necesita que la teoría produzca un experimento
crítico, esto es, un resultado experimental que no pueda ser obtenido por
ninguna otra teoría ya establecida. Popper resumió estos criterios señalando
que el criterio esencial del estatus científico de una teoría es su «falsabilidad,
refutabilidad o experimentabilidad»5. El valor de las teorías y su relevancia
derivan de la combinación de su generalidad (explicar el mayor número de
fenómenos) con la máxima precisión y profundidad. De manera más concreta
y precisa: una teoría es superior a otra cuando: 1) tiene éxito en explicar lo
que explicaban las teorías anteriores; 2) tiene éxito en explicar hechos que no
lograban explicar las otras teorías; 3) es más contrastable o falsable, o sea,
posee mayor contenido y mayor poder explicativo que las otras; 4) hasta el
momento ha sido contrastada y no ha sido falsada.
De acuerdo con Stephen Hawking en Una breve historia del tiempo6,
«Una teoría es buena si satisface dos requerimientos: debe describir con
precisión una extensa clase de observaciones sobre la base de un modelo
que contenga solo unos cuantos elementos arbitrarios, y debe realizar
predicciones concretas acerca de los resultados de futuras observaciones».
Hawking afirma a continuación:
«Cualquier teoría física es siempre provisional, en el sentido de que es solo
una hipótesis; nunca puede ser probada. No importa cuántas veces los
resultados de los experimentos concuerden con alguna teoría, nunca se
puede estar seguro de que la próxima vez el resultado no la contradirá. Por
otro lado, se puede refutar una teoría con encontrar solo una observación
que esté en desacuerdo con las predicciones de la misma».
Con carácter ilustrativo, se enumeran a continuación diez teorías muy
relevantes en ciencia y representativas de las notas características expuestas
en apartados anteriores.
1) La teoría del Bing Bang sobre la creación del universo; 2) la teoría de
Hubble de la expansión cósmica; 3) las leyes de Kepler del movimiento
planetario; 4) la ley de Newton sobre la gravedad universal; 5) la teoría de la
evolución por selección natural de Darwin; 6) la teoría de la relatividad de
Einstein; 7) las leyes de la termodinámica; 8) el principio de flotabilidad de
Arquímedes; 9) el principio de incertidumbre de Heisenberg;10) las leyes del
movimiento de Newton.

1.5. La pregunta de investigación y el plan de investigación. Las líneas


de investigación
La pasión por los interrogantes define la vocación científica y el inicio de la
carrera de un investigador. La pregunta de investigación plantea una tesis,
que es su elemento central y primer paso metodológico. Las respuestas o
resultados que el investigador obtenga de su trabajo científico llegarán a
formar parte del acervo común del conocimiento humano.

1.5.1. Pregunta de investigación


La pregunta de investigación debe ser clara y lo más precisa posible, indicar
aquello en lo que el investigador enfoca su principal y primer interés y evitar
ambigüedades o aspectos dudosos que induzcan al error en la formulación de
las respuestas potenciales.
La pregunta de investigación busca clarificar las ideas, dar una orientación
y delimitar un proyecto, permitiendo que el investigador construya, desde sus
opciones e intereses, el eje esencial de su búsqueda.
La pregunta de investigación puede ser una afirmación o un interrogante
acerca de un fenómeno, en forma precisa y clara, de tal forma que del propio
establecimiento de la cuestión se desprendan los métodos, procedimientos e
instrumentos que emplear.
Una pregunta de investigación adecuada resulta crucial y es el punto de
salida de todo el desarrollo académico y científico de una investigación.
Existen diferentes técnicas que pueden utilizarse para generar ideas e
identificar temas de investigación apropiados, como son la lectura de
literatura relevante o de interés, el método lluvia de ideas (brainstorming) o
la elaboración de un mapa conceptual. Igualmente existen diferentes opciones
para delimitar y concretar las áreas posibles de investigación en la pregunta
de investigación. En este sentido, se comenta más adelante el método Russian
doll como estrategia que puede ser utilizada para terminar perfilando la
pregunta de investigación definitiva. También se comentarán los criterios que
deberían seguir tanto el tema como la pregunta de investigación para ser
adecuados, así como diferentes métodos para intentar determinar o probar si
realmente lo son. El método Delphi, el Goldilocks test o la realización de un
estudio preliminar siguen esta línea. Por último, una vez fijada la pregunta de
investigación, se debe concretar en la propuesta de investigación En último
término, la propuesta ha de contestar las tres preguntas fundamentales: qué se
va a investigar, por qué es importante esta investigación y cómo se va a llevar
a cabo esa investigación.

1.5.2. Plan de investigación


Un plan de investigación es una primera idea, un proyecto o esbozo
científico, con el que se inicia la investigación y que es susceptible de dotarse
de mayor definición a lo largo de un proceso. El plan de investigación
elaborado por el investigador ha de incluir, al menos, los objetivos, la
metodología y la planificación temporal de la investigación a realizar.
El plan de investigación no contiene el tema en su totalidad, puesto que se
redacta al comenzar la investigación, ni conviene que exceda de 25-40
páginas, pero es el paso inicial para ir concretando todos los elementos que
van a ir desarrollándose a consecuencia de la labor investigadora. Para el
investigador o doctorando, el plan de investigación supone una
sedimentación conceptual primera, un primer juicio de madurez sobre la idea
definitiva y le va a ayudar mucho personalmente en su concreción y fijación.
Contenidos y estructura del plan de investigación7:
1. Título resumen de una página (abstract) en varios idiomas
(especialmente el inglés): muestra el objetivo, el interés y la originalidad
de la aportación científica y los posibles campos de aplicación.
2. Índice.
3. El proyecto y sus elementos:
a) Presentación del tema de investigación o problema de investigación u
objeto de análisis. Hay que identificar claramente el fenómeno que se
quiere investigar.
b) Estado de la cuestión sobre el fenómeno objeto de la investigación,
también llamado state of art. Con ello se alude a la base teórica sobre la
que se sustenta el trabajo, o la que se rebate en el desarrollo posterior del
escrito que forma parte introductoria del mismo. En las tesis doctorales
realizadas en ciencias, dicho capítulo se llama «Estado de la ciencia» y
en ingenierías en general, «Estado del arte».
Hay que hacer referencia solo a los conocimientos más vanguardistas
que aporta la bibliografía sobre el fenómeno en cuestión. El plan de
investigación debe tratar de ofrecer un panorama histórico desde los
orígenes de la cuestión central abordada y destacar o bien lo último, o
bien lo más nuevo, sobre la misma.
c) Objetivos de la tesis. Conviene especificar qué aportación original se
pretende hacer para resolver el problema de investigación.
d) Marco teórico relevante, con bibliografía de referencia
Exposición de los fundamentos teóricos, objetivos de la teoría,
principales instrumentos de análisis, formas de representación de datos,
etc. Debe establecerse el vínculo claro con el problema de investigación
u objeto de análisis.
e) Hipótesis, supuestos o ideas previas en los que se fundamentan los
objetivos planteados. Deben obtenerse inductivamente de los objetivos,
juntamente con el marco teórico y el estado de la cuestión.
4. Metodología de investigación o metodología propuesta:
a) Revisión contextualizada de las metodologías adecuadas al campo.
Justificación del modelo metodológico adoptado.
b) Instrumentos y recursos necesarios para la consecución del plan de
investigación.
5. Plan de trabajo: estimación de la carga de trabajo en que se divide la
investigación y sus diferentes fases, e igualmente su periodización
temporal. Establecimiento de marcadores e indicadores de consecución
de objetivos. Calendario previsto (cronograma).
6. Bibliografía.
7. Anexo documental.

1.5.3. Línea de investigación


Una línea de investigación es un eje temático, lo suficientemente amplio y
con orientación disciplinaria y conceptual, que se utiliza para organizar,
planificar y construir, en forma perspectiva o prospectiva, el conocimiento
científico en un campo específico de la ciencia y la tecnología. Una línea de
investigación actual debe permitir igualmente un enfoque multidisciplinar de
la cuestión y la participación eventual de diferentes grupos científicos.
Se trata de un espacio estructurado de problemas u objetos de investigación
relevantes dentro de un campo de conocimiento determinado, que permite
que las diferentes acciones realizadas por uno o más grupos de investigación
confluyan en un mismo objetivo. En muchos casos, en función de los
intereses o prioridades de los departamentos o grupos de investigación
involucrados, el proyecto de investigación es una investigación sobre un
problema derivado de una línea de investigación.

1.6. La tesis doctoral como inicio a la investigación


Normalmente, una tesis doctoral, en cualquiera de sus formatos (tesis
tradicional o tesis por publicaciones), supone la primera ópera prima de
cualquier investigador: supone su primer trabajo y el contacto con la
investigación de primer nivel. La importancia de este trabajo es objeto de
atención en los capítulos 2 y 3 de esta monografía, a los que nos remitimos,
especialmente el epígrafe 3.5.
La tesis doctoral puede definirse como un trabajo original de investigación
elaborado por el candidato en cualquier disciplina. Resulta por demás
sumamente conocida y expresiva la definición de Umberto Eco «un trabajo
mecanografiado de una extensión media que varía entre cien y las
cuatrocientas páginas, en el que el estudiante trata un problema referente a los
estudios en que quiere doctorarse8».
Más allá de la aportación de sus resultados al acervo del conocimiento
universal, el proceso de la TD enseña a investigar; como ha señalado Perujo,
la tesis en verdad «es una investigación, con la que aprendemos a
investigar9». Implica además el esfuerzo de una cierta disciplina de trabajo y
dedicación, en un empeño que va a modelar la personalidad del investigador
en el plano humano.
Nos encontramos por otra parte no ante el final de un camino, más allá de
los resultados originales obtenidos del trabajo de investigación, sino en el
inicio de la carrera del investigador. Tras la aprobación de la defensa pública
de la TD, el doctorando obtiene el carnet de investigador. La vida del
investigador empieza cuando acaba la tesis, pero ya nadie le va a discutir su
especialización, ni tampoco un cierto control y conocimiento de la
investigación y del método científico.
Por diferentes circunstancias, hay que asumir que no todos los doctores van
a desarrollar por diferentes circunstancias una carrera investigadora. Lo que
no impide afirmar que en el momento actual, todos o casi todos los
investigadores son doctores. En otras épocas, gran parte de los grandes genios
no fueron doctores (Galileo, Faraday, Pasteur, M. Curie, Newton, Darwin,
Edison, los hermanos Wright, W. von Braun, etc.).
La calidad y repercusión de una tesis, más allá de su calificación
académica, se podrá evaluar con carácter indiciario a partir del número de
publicaciones, investigaciones o patentes que genere10. En muchas ocasiones,
los resultados evidentes tardan en llegar: resulta conocido el caso de J. F.
Nash, que se doctoró en 1950 con una tesis de menos de treinta páginas sobre
juegos no cooperativos y que tuvo que esperar hasta el año 1994 para obtener
el Premio Nobel, precisamente por las ideas contenidas en su tesis11.
1.7. La carrera investigadora
Tras la crisis económica de estos últimos años, es una realidad conocida que
la inversión pública en investigación se ha reducido notablemente. Hay que
ser conscientes de que muchos países exportan gran parte del talento
investigador más joven a países más desarrollados (Gran Bretaña, Estados
Unidos, Alemania, etc.; e incluso Latinoamérica). Esto no impide subrayar
las grandes opciones de desarrollar una carrera científica en nuestro país, en
espera de épocas mejores y de nuevas oportunidades que provengan de la
sociedad civil.
Se exponen a continuación las fases más significativas de la carrera
investigadora.
A. Fase predoctoral
La primera fase de la carrera del investigador es la fase predoctoral, que
va a finalizar con la lectura de la tesis.
En España, existen dos programas principales de financiación pública de
formación doctoral. Uno ellos está más orientado al investigador
individual, y el otro, más dedicado al proyecto o grupo de investigación.
Se trata de los programas FPU y FPI.
El primero, Programa de Formación de Profesorado Universitario (FPU)
se centra en la persona y méritos del investigador (expediente académico,
publicaciones, etc.), que es seleccionado por el MECD12.
El segundo, Formación de Personal investigador (FPI), son becas que se
conceden a un grupo de investigación para un proyecto I+D+I concreto
dentro del Plan Nacional I+D+I (Ministerio de Economía-MINECO), y
comporta un proceso de selección diferente, ya que es en este caso el
propio director del proyecto quien selecciona al candidato más
apropiado13.
En igual sentido tanto el CSIC como las C.C. A.A. españolas ofertan
becas predoctorales. Conviene tener presente otras becas de instituciones
privadas muy interesantes, como las de «la Caixa» u otras instituciones
privadas. Normalmente la duración de estas becas o contratos es de
cuatro años (2+2), en los últimos tiempos, en algunos casos, se conceden
becas de tres años.
Las universidades, por otra parte, disponen para esta etapa de la figura
del «profesor ayudante no doctor», que contempla el concepto del
profesor en formación e incluye en ese periodo la realización de la tesis
doctoral.
B. Fase posdoctoral
Tras la tesis y ya en un periodo como investigador, entra en escena la
figura del profesor ayudante doctor, para el que se destinan, sin carácter
de exclusividad, las llamas becas posdoctorales: las Becas MEC
Posdoctorales: dos años en centros nacionales o extranjeros; Becas MEC
Juan de la Cierva: tres años en España; M. Curie: tres años, en país
distinto del de la nacionalidad del investigador.
Programas Ramón Y Cajal (duración de cinco años, con selección
competitiva). Los contratos RYC van dirigidas a promover la
incorporación de investigadores nacionales y extranjeros con una
trayectoria destacada en centros de I+D mediante, por una parte, la
concesión de ayudas para su contratación laboral y, por otra, la concesión
de ayudas para la creación de puestos de trabajo de carácter permanente.
Siendo a priori una buena medida para fomentar la investigación, el
programa RYC ha sido puesto en entredicho, por la dificultad de
contratación permanente en el momento actual.
C. Carrera científica consolidada
Tras el doctorado y ya con un cierto nivel de investigación acreditado y
evaluado por las agencias de evaluación (ANECA, AQU, etc.), para las
primeras posiciones y consolidado para los superiores:
Así, en las universidades existen plazas de: profesor contratado doctor,
profesor agregado o titular, catedrático (funcionario o laboral). Todas
ellas son posiciones permanentes (similares al tenure track anglosajón,
variando solo su vínculo: funcionario o laboral). En la labor del
profesorado universitario, se tiene en cuenta asimismo la docencia, dada
la dualidad de funciones encomendada regularmente a la universidad.
En el CSIC o instituciones similares, el investigador consolidado puede
devenir: científico titular, investigador científico, profesor de
investigación, personal dedicado exclusivamente a la investigación.
D. Los nuevos paradigmas de la carrera investigadora
Resulta muy destacable el modelo propuesto por la Institució Catalana
d’Investigació i Estudis Avançats (ICREA)14, fundación creada en el año
2001, e inspirada en el modelo del CRNS, el Centro Nacional de
Investigación francés. El CRNS es una institución que sobre criterios de
excelencia provee de investigadores a las universidades. De manera
análoga, en 2007, se implementó el programa ICREA Academia, cuyo
objetivo es retener talento en las universidades catalanas. Hoy ICREA es
uno de los grandes responsables, junto con otros agentes, del éxito del
modelo científico catalán basado en la búsqueda de la excelencia, es
decir, priorizando criterios objetivos y eliminando cualquier traba
burocrática.
El éxito del modelo catalán incluso ha inspirado a otros programas
estatales e internacionales, como ERA (European Research Area)
europea o Ikerbasque, del País Vasco.

1.8. Investigación y emprendimiento


La estrecha relación entre creatividad y economía se hizo presente a inicios
del siglo XX cuando Joseph Schumpeter la calificó como «un hecho esencial
del capitalismo» en su teoría sobre el proceso de destrucción creadora15. La
Comisión Europea define el entrepreneurship (‘emprendimiento’) como «la
mentalidad, la actitud y el proceso de creación y desarrollo de la actividad
económica combinando la asunción de riesgos, la creatividad y/o innovación
con una gestión sólida, en una nueva organización o una organización ya
existente» (CE, 2003, p. 6)16. La Comisión Europea ha presentado el Plan de
Acción sobre el Emprendimiento 2020. La idea es relanzar el espíritu
emprendedor en Europa, en el que se recoge la filosofía del Small Business
Act, revisado en abril de 2011. El plan de acción se basa en tres pilares
fundamentales: desarrollar la educación y la formación empresarial, crear un
marco o entorno favorable para el desarrollo de los negocios y estimular el
emprendimiento.
El mundo empresarial que surge de las nuevas creaciones actuales parte de
una premisa sencilla: cómo transformar una idea original en un negocio que
funciona. Las estrategias de transformación de la idea creativa en empresa
han tenido diferentes aproximaciones, de las que se trata a continuación de
manera esquemática, en especial las ligadas a la investigación.
En el momento presente, la investigación se proyecta en el momento actual,
mucho más allá de la perspectiva académica, singularmente dentro del campo
de las llamadas ciencias aplicadas, que dan lugar a patentes, modelos de
utilidad, etc., como veremos en el capítulo 17 de esta monografía. En los
últimos años, el número de patentes especialmente en el ámbito tecnológico
ha llegado a límites insospechados. Esta efervescencia creativa ha generado
una nueva economía: la del conocimiento, que ha dado lugar a un nuevo tipo
de empresas, de las que el fenómeno más conocido son las start-up, empresas
que maximizan su capacidad emprendedora y su creatividad.
Nacidas en los ochenta, las start-up presentan el rasgo distintivo de su
intenso carácter innovador y notas distintivas características: el control y
dominio de algunas tecnologías avanzadas, la presentación constante de
productos novedosos, una clara voluntad de introducirse en nuevos mercados,
una tasa muy alta de inversión en I+D y otras actividades previas a la fase de
lanzamiento y, finalmente, la determinación de ubicarse en áreas estratégicas
de oportunidad o sectores de fuerte demanda. Por todo ello, el crecimiento de
estas empresas ha sido notable en los últimos años, y correlativo el número
de inversores que deciden apostar, especialmente en el campo tecnológico17.
La identidad de estas compañías start-up está revestida de misión y valores
comunes compartidos por el personal. Los objetivos de la empresa se ligan
estrechamente a los de sus empleados y personal directivo, y este empeño
común suele ser más fértil y productivo en las empresas orientadas
fundamentalmente a la investigación.
En paralelo, las propias universidades y otras entidades ligadas a su
investigación generan espontáneamente las empresas derivadas, llamadas
spin-offs. Las spin-offs suelen ser fruto de la iniciativa de investigadores de
las propias instituciones. En el caso de la universidad, la institución
desempeña una función de incubadora y sirve de soporte para el arranque de
la iniciativa. Las instituciones sirven de puente igualmente para transferir
conocimiento y tecnología al mundo empresarial, e incluso para la
aplicabilidad directa de las ideas en los procesos productivos e incluso, en
ocasiones, para agilizar el proceso de las soluciones investigadas.
La importancia del fenómeno de las nuevas empresas ha generado un
marco legal que trata de estimular y fomentar este tipo de actividad: en este
sentido, se promulgó la Ley 14/2013, de 27 de septiembre, de Apoyo a los
emprendedores y su internacionalización. La ley establece diversas figuras,
como el emprendedor de responsabilidad limitada; y prevé estímulos fiscales
y laborales para las nuevas actividades.
Por otra parte, en el contexto de una nueva economía y de la emergencia y
consolidación de las TIC (Tecnología de la Comunicación y la Información),
parece oportuno pensar en nuevos esquemas de gestión para las nuevas
empresas. Y dado que cada vez resulta más complejo hacer realidad ideas de
negocio innovadoras, surge como necesidad ineludible la formación
especializada18, una formación que ha de involucrar en cada caso
instrumentos y metodologías idóneos para concretarse en proyectos factibles
y fiables, y que respondan a necesidades empresariales o sociales.

Bibliografía
Asimov A. (1973). Introducción a la ciencia. Plaza y Janés, Barcelona.
Birley, S. y Westhead, P. (1994). «A taxonomy of the business start-up
reasons and their impact on firm growth and size». Journal of Business
Venturing, 9 (1), pp. 7-3.
Booth, V. (2002).Communicating in science: writing a scientific paper and
speaking at scientific meetings. Cambridge University Press, Cambridge.
Booth, W. C., Williams, J. y Colomb, G. G. (2003). The Craft of Research.
Chicago Press.
Bunge, M. (1959). La ciencia, su método y su filosofía. Penguin Random
House Grupo Editorial, Buenos Aires (2014).
— (1967). La investigación científica. Su estrategia y filosofía. Siglo XXI,
México (2000).
— (1983). La investigación científica. Ariel, Barcelona.
Comisión Europea (CE) (2003). Green Paper Entrepreneurship in Europe.
Bruselas, 21.01.2003, (2003)27 final.
Comisió Europea (CE). (2008). Decision nº 1350/2008 of the European
Parliament and of the Council of 16 December 2008 concerning the
European Year of Creativity and Innovation.
Eco, U. (1997). Cómo se hace una tesis. Técnicas y procedimientos de
investigación, estudio y escritura. Gedisa, Barcelona.
Hawking, S. (1988). Historia del tiempo: del Big Bang a los agujeros negros.
Alianza Editorial, Madrid (2011).
Horta, H. y Santos J. (2016). The Impact of Publishing During PhD Studies
on Career Research Publication, Visibility, and Collaborations. Disponible
en: https://link.springer.com/article/10.1007/s11162-015-9380-0.
Levine, S. J. (2006). Cómo escribir y presentar su tesis o disertación.
Disponible en: http://www.learnerassociates.net/dissthes/guidesp.htm.
March, I. (1999). Las claves del éxito en nuevas compañías innovadoras
según los propios emprendedores. Disponible en:
http://w.revistadyo.com/index.php/dyo/article/viewFile/303/303.
Morone, G. Métodos y técnicas de la investigación científica. Disponible en:
http://biblioteca.ucv.cl/site/servicios/documentos/metodologias_investigacion.pdf
Perujo, F. (2009). El investigador en su laberinto. La tesis un desafío posible.
Ed. Comunicación Social, Sevilla.
Popper, K. (1962). La lógica de la investigación científica. Tecnos, Madrid.
— (1963). Conjectures and Refutations. Routledge and Kegan, Londres.
Primo, E. (1994). Introducción a la investigación científica y tecnológica.
Alianza Universidad, Madrid.
Ráfales, E. (1993). Metodología de la investigación técnico-científica.
Rubiños, Moscú.
Schumpeter, J. A. (1934). The Theory of Economic Development. Harvard
University Press, Cambridge, MA.
Tamayo, M. (2003). El proceso de investigación científica. Limusa, México.

1 Ver: Tamayo y Tamayo M. (2003). El proceso de investigación científica. Limusa, México; Bunge,
M., (1959). La ciencia, su método y su filosofía. Penguin Random House Grupo Editorial Argentina,
2014.
2 Ver Bunge, M., 1ªed. (1967). La investigación científica. Su estrategia y filosofía. Siglo XXI, 2000,
México.
3 Ver, como referencia imprescindible, Popper, K. (1962). La lógica de la investigación científica,
Tecnos, Madrid.
4 Ver «Must try harder». Nature. Nature 483, 509 (29 de marzo de 2012). Disponible en:
www.nature.com/nature/journal/v483/n7391/full/483509a.html; Yong, E. «Replication studies: Bad
copy». Nature. 17 May 2012. Disponible en: http://www.nature.com/news/replication-studies-bad-
copy-1.10634.; La reproducibilidad en los resultados de investigación: la mirada subjetiva. Disponible
en: http://blog.scielo.org/es/2014/02/19/la-reproducibilidad-en-los-resultados-de-investigacion-la-
mirada-subjetiva.
5 Ver Popper, K. (1963). Conjectures and Refutations. Ed. Routledge and Kegan, Londres, UK.
6 Hawking, S. ([1988] 2011). Breve historia del tiempo o Historia del tiempo: del Big Bang a los
agujeros negros. AlianzaEditorial.
7 Pueden verse diferentes guías o modelos de elaboración del plan de investigación, empleadas en
nuestras universidades. Ver con carácter representativo:
https://www.upf.edu/dtcl/formacio/postgrau/_pdf/PlaInvestigaciónES.pdf:
http://www.ub.edu/doctorat_eapa/?page_id=56.
8 Ver Eco U. (1997). Cómo se hace una tesis. Técnicas y procedimientos de investigación, estudio y
escritura. Gedisa, Barcelona.
9 Ver Perujo Serrano, F. (2009). El investigador en su laberinto. La tesis, un desafío posible. Ed.
Comunicación social. Sevilla. Publicación que ofrece un recorrido por las claves de la investigación
científica. Las particularidades de la tesis doctoral. Un decálogo básico para investigar. La
especificación de las partes que ha de tener cualquier proyecto de investigación.
10 Horta, H., Santos, J. (2016). The Impact of Publishing During PhD Studies on Career Research
Publication, Visibility, and Collaborations. Ver recensión, disponible en
https://link.springer.com/article/10.1007/s11162-015-9380-0.
11 Ver manuscrito original de la tesis de Nash: http://rbsc.princeton.edu/sites/default/files/Non-
Cooperative_Games_Nash.pdf.
12 Ver convocatoria MECD 2016: http://www.mecd.gob.es/servicios-al-ciudadano-
mecd/catalogo/general/educacion/998758/ficha/998758-2016.html.
13 Ver convocatoria MINECO.
2015:http://www.idi.mineco.gob.es/portal/site/MICINN/menuitem.dbc68b34d11ccbd5d52ffeb801432ea0/?
vgnextoid=fed2bf0be2c6d410VgnVCM1000001d04140aRCRD&vgnextchannel=11f35656ecfee310VgnVCM1000001
14 Ver websites: https://www.icrea.cat/ y https://www.icrea.cat/es/icrea-academia.
15 Ver Schumpeter, J. A. (1934). The Theory of Economic Development. Cambridge, MA, Harvard
University Press.
16 Comisión Europea (CE) (2003). Green Paper Entrepreneurship in Europe. Brussels, 21.01.2003,
(2003)27 final; Comisión Europea (CE). (2008). Decision n.º 1350/2008 of the European Parliament
and of the Council of 16 December 2008 concerning the European Year of Creativity and Innovation.
17 Ver March Chorda, I. (1999). Las claves del éxito en nuevas compañías innovadoras según los
propios emprendedores; Disponible en:
http://w.revistadyo.com/index.php/dyo/article/viewFile/303/303.
Birley, S. y Westhead, P. (1994). «A taxonomy of the business start-up reasons and their impact on
firm growth and size». Journal of Business Venturing. 9 (1), pp. 7-31.
18 Sobre esa necesidad las universidades (UCM; URV; USAL, URJC; etc.) han generado una oferta
específica de formación. Ver con carácter ilustrativo: Universidad Pompeu Fabra ha desarrollado un
Máster Universitario en Emprendimiento e Innovación. (Disponible en
http://www.tecnocampus.cat/es/presentacion-master-emprendeduria).
2 Selección del director de la investigación y habilidades del investigador

2
SELECCIÓN DEL DIRECTOR DE LA
INVESTIGACIÓN Y HABILIDADES DEL
INVESTIGADOR
Oriol Amat y Marc Oliveras
(UPF)

Objetivos del capítulo

• Identificar habilidades básicas necesarias para investigar y las responsabilidades que debe asumir el
investigador.
• Exponer los elementos que hay que considerar en el proceso de selección del director de la
investigación.
• Concretar los rasgos claves y las responsabilidades que ha de asumir el director, para asegurar el
éxito de la investigación.
• Identificar aspectos que se deberían acordar al principio entre el director y el investigador sobre la
investigación.

2.1. Introducción
En el momento cero, la persona que se propone realizar una investigación
debe hacer una reflexión sobre los objetivos que quiere alcanzar y si tiene el
perfil y el tiempo para llevar a cabo la investigación.
A continuación, hay que seleccionar al director. El investigador puede
escoger el tema más interesante, la mejor idea, tener habilidades y
capacidades, pero si el director, que es la persona que debe guiarlo en todo
este largo camino de trabajo, no es la persona adecuada, el resultado no será
el óptimo. Esta elección se acostumbra a hacer después de haber escogido el
centro donde se hará la investigación, aunque a veces se elige primero el
director y después se intenta obtener la admisión en la universidad a la que
está afiliado el director escogido.
La selección del director se realiza, lógicamente, antes de iniciar la
investigación, y se tiene en cuenta el ámbito de esta (y la temática concreta
dentro del área) y el perfil del investigador y del director.
En este proceso se pueden distinguir al menos tres procedimientos muy
diferentes. El primero es el tema y, a continuación, buscar al director más
adecuado según este tema. La segunda opción es elegir primero al director y,
posteriormente, seguir sus indicaciones sobre el tema que se va a trabajar en
función de las recomendaciones del director. La tercera, después de escoger
el tema, se pregunta a la institución donde se hará la investigación que
proponga el director más adecuado.

2.2. Perfil del investigador


En la investigación está clara la importancia de la selección del director
adecuado para alcanzar el éxito en la investigación, como se ha explicado
anteriormente. Pero si la otra parte, el investigador, muestra carencias y no
tiene el perfil requerido, poco podrá hacer el director. Por ello, el investigador
ha de tener mucha voluntad y las habilidades necesarias para desarrollar una
investigación. No solo esto, sino que ha de ser consciente de las muchas
responsabilidades que tiene en todo el proceso de la investigación.
Preguntas que hacer sobre el propio investigador
El primer periodo en cualquier investigación es un periodo de reflexión del
mismo investigador. En el que ha de pensar sobre sí mismo, el ámbito de la
investigación y su futuro. Por este motivo, se recomienda realizar una serie
de preguntas que pueden ayudar a orientarse y comenzar a definir las pautas
de la investigación.
Les primeras tres preguntas están englobadas en un ámbito más personal
del investigador, al definir unos objetivos propios encaminados a emprender
en condiciones la investigación. Son las siguientes:
• ¿Cuáles son los objetivos que quiero alcanzar con la investigación?
• ¿Qué me puede aportar a mi carrera académica/profesional?
• ¿Qué puedo aportar como investigador?
Una vez el investigador ha reflexionado sobre sí mismo, es necesario que lo
haga sobre el tema de la investigación y, por ello, se proponen las siguientes
preguntas:
• ¿Qué relevancia tiene el tema?
• ¿Hay nuevas ideas, hipótesis y respuestas que aportar?
• ¿Se pueden aplicar los conocimientos adquiridos?
• ¿Se adapta al tiempo necesario marcado para la entrega de la
investigación?
• ¿Es un tema con suficiente apoyo bibliográfico, web, técnico?
• ¿Hay algún director que conozca bien el tema y esté interesado en él?
Se ha de tener claro que no se busca una respuesta exacta y única, sino la
reflexión y el pensamiento sobre la investigación en las diferentes cuestiones
planteadas que determinen las primeras líneas que seguir en la investigación.
Por tanto, responder a estas preguntas puede servir de ayuda para acotar el
ámbito de estudio, comenzar a planificar y a pensar en posibles directores.
Habilidades del investigador
De acuerdo con Research Councils UK (2001), entre las habilidades
principales que el investigador ha de tener se pueden señalar las siguientes19:
A. Habilidades y técnicas de investigación, ser capaz de demostrar:
1. Habilidad de reconocer y validar los problemas.
2. Original, independiente y pensamiento crítico y la habilidad de
desarrollar conceptos teóricos.
3. Conocimiento de los avances recientes en el campo y áreas afines.
4. Entender las metodologías relevantes de investigación y las técnicas, y
su apropiada aplicación en el campo de la investigación.
5. Habilidad de analizar críticamente y evaluar los resultados.
B. Entorno de la investigación, ser capaz de:
1. Mostrar una amplia comprensión del contexto, a escala nacional e
internacional, en el que la investigación tiene lugar.
2. Demostrar consciencia sobre las cuestiones relacionadas con los
derechos de otros investigadores, de los sujetos de la investigación y de
otros que pueden ser afectados per la investigación, por ejemplo,
confidencialidad, cuestiones éticas, atribución, copyright, malas prácticas,
propiedad de datos y requisitos de la Ley de Protección de Datos.
3. Demostrar respeto a las normas de buenas prácticas de investigación en
su institución y/o disciplina.
4. Entender las cuestiones relevantes de salud y seguridad y demostrar
prácticas de trabajo responsable.
5. Comprender los procesos de financiación y evaluación de la
investigación.
6. Justificar los principios y las técnicas experimentales utilizadas en la
propia investigación.
7. Comprender los procesos de explotación académica o comercial de los
resultados de la investigación.
C. Gestión de la investigación, ser capaz de:
1. Aplicar una gestión eficaz de proyectos mediante la fijación de
objetivos de investigación, hitos intermedios y priorización de las
actividades.
2. Diseñar y ejecutar sistemas para la recopilación y confrontación de
información a través del uso eficaz de los recursos y el equipamiento
adecuado.
3. Identificar y acceder a los recursos bibliográficos apropiados, archivos
y otras fuentes de información relevante.
4. Utilizar la información tecnológica adecuada para la gestión de los
datos, recopilar y presentar la información.
D. Eficacia personal, ser capaz de:
1. Demostrar voluntad y capacidad para aprender y adquirir
conocimiento.
2. Ser creativo, innovador y original en el enfoque de la investigación.
3. Demostrar flexibilidad y tener la mente abierta.
4. Demostrar autoconsciencia y la capacidad de identificar las
necesidades de formación propias.
5. Demostrar autodisciplina, motivación y minuciosidad.
6. Reconocer los límites y aprovechar los recursos de apoyo
adecuadamente.
7. Mostrar iniciativa, trabajo independiente y ser autosuficiente.
E. Habilidades de comunicación, ser capaz de:
1. Escribir claro y en un estilo apropiado para el propósito, por ejemplo,
informes del progreso, documentos publicados, tesis.
2. Construir argumentos coherentes y articular las ideas de forma clara
según la importancia, formal e informalmente, a través de una variedad
de técnicas.
3. Defender constructivamente los resultados de la investigación en
seminarios y presentaciones.
4. Contribuir a promocionar la comprensión pública sobre la propia área
de investigación.
5. Dar soporte de manera eficaz al aprendizaje de otros cuando están
implicados en la enseñanza, la tutoría o la demostración de actividades.
F. Networking y trabajo en equipo, ser capaz de:
1. Desarrollar y mantener redes de cooperación y relaciones de trabajo
con el supervisor, colegas y compañeros, dentro de la institución y de la
amplia comunidad de investigación.
2. Entender los comportamientos y el impacto sobre otros cuando
trabajen y contribuyan al éxito de los equipos formales e informales.
3. Escuchar, dar y recibir feedback, y responder a los otros de forma
convincente.
G. Gestión de la carrera, ser capaz de:
1. Apreciar la necesidad y mostrar su compromiso con el desarrollo
profesional continuo.
2. Tomar posesión y gestionar la progresión de la carrera, fijar objetivos
reales y realizables e identificar y desarrollar formas de mejorar la
empleabilidad.
3. Demostrar la penetración en la transversalidad de las habilidades de
investigación en otros ámbitos de trabajo y la diversidad de oportunidades
de carrera dentro y fuera del ámbito académico.
4. Presentar las habilidades, atributos personales y experiencias a través
de un eficaz CV, demandas de trabajo y entrevistas.
Disponer de un buen nivel en las habilidades anteriores es imprescindible
para que la investigación llegue a buen puerto.

2.3. Selección del director de la investigación


En el proceso de selección del director hay que realizar una búsqueda previa
sobre los potenciales directores para conocer los rasgos principales de su
perfil, sus trabajos y los reconocimientos. Conviene identificar al menos dos
o tres posibles candidatos a director de la investigación. Una vez hecha esta
búsqueda, se pueden responder cuestiones como las siguientes, que ayudan a
decidir cuál es la persona más indicada para desempeñar el papel de director:
• ¿Es una persona muy experta en el ámbito de investigación escogido?
• ¿Tiene publicaciones relevantes sobre la temática?
• ¿Tiene una buena red de contactos con otros expertos nacionales e
internacionales y con otras instituciones (universidades, empresas, etc.)
relacionadas con el tema concreto de la investigación?
• ¿Tiene tiempo para poder dirigir de manera adecuada la investigación?
• Relación previa con el estudiante: ¿hay buena química?
• ¿Es exigente y crítico?
• ¿Puede ayudar a enfocar y mejorar la investigación?
• ¿Puede ayudar a la obtención de información, documentos, libros y
materiales adecuados al tema de la investigación?
• ¿Podrá ayudar a que la investigación se publique en los lugares adecuados
con posterioridad?
La respuesta a estas preguntas ayuda al investigador a preparar una primera
reunión con el potencial director que se ha seleccionado.
Primer contacto con el potencial director
Para este primer contacto con el director seleccionado es de vital
importancia la preparación y la respuesta a las cuestiones del apartado
anterior. A continuación, hay que enviar un escrito al potencial director para
conseguir que esté dispuesto a hablar de la posibilidad de que sea el director
de la investigación. Este escrito se dirige al director presentando al
investigador y el tema escogido para la investigación y va acompañado de su
currículum vitae. Si la respuesta del potencial director al escrito es favorable,
es recomendable tener una primera reunión para confirmar que investigador y
director están de acuerdo en iniciar la colaboración en el proyecto de
investigación. En función del tipo de investigación puede ser necesaria una
autorización de la institución correspondiente. Este es el caso de los trabajos
de fin de grado, tesis de máster o tesis doctorales, donde normalmente se pide
preparar una propuesta de investigación con el fin de obtener la autorización
(como se expone en el capítulo 5). A veces, nos podemos encontrar con que
la persona contactada no acepta el papel de director. Los motivos más
frecuentes suelen ser la falta de tiempo o el desinterés en relación con el tema
escogido para la investigación. Otros motivos pueden ser que se trata de una
persona que quizás no puede dirigir la investigación por estar a punto de
jubilarse o no tener el perfil requerido (por ejemplo, algunas universidades
piden que los directores tengan una determinada acreditación para poder
dirigir investigaciones).
Responsabilidades del director
Hay una serie de responsabilidades básicas que el director de la
investigación debe cumplir como obligación al aceptar el papel de director.
Entre ellas, podemos destacar las siguientes:
• Orientación en la elaboración del proyecto de la manera más adecuada y
correcta.
• Ayuda en la obtención de fuentes de información y acceso a material y
recursos.
• Definir, conjuntamente, la metodología más indicada para realizar la
investigación.
• Aprobar o modificar la planificación realizada por el investigador.
• Control periódico de la evolución del trabajo según objetivos y
planificación.
• Revisar los documentos de la investigación en curso que vaya haciendo el
investigador.
• Dar el visto bueno al documento final de la investigación.
No es responsabilidad del director la revisión de errores gramaticales y de
estilo, aunque si detecta errores, conviene que pida su corrección.

2.4. El cambio de director


En algunas ocasiones, y no pocas, en el proyecto de investigación se produce
la necesidad de cambiar de director. Esta circunstancia puede tener
motivaciones muy diversas (falta de tiempo, enfermedad, muerte, cambio de
tema de investigación; incompatibilidad entre director e investigador, entre
otros). Es una situación que puede conllevar dificultades en función de los
motivos y de las particularidades del centro o universidad en la que está el
investigador. En cualquier caso, si hay que cambiar al director, el
investigador tendrá que volver a iniciar el proceso de búsqueda con el fin de
poder tener uno nuevo.

2.5. Planificación de la investigación


Una vez se inicia la investigación, hay que acordar las primeras acciones y la
planificación temporal con aspectos como los siguientes:
• Metas: hay que marcar unos objetivos tanto a corto como a largo plazo
que ayuden a avanzar hacia el propósito final de forma progresiva. Estos
deben ser realistas y acordados entre investigador y director.
• Estructura: definir la estructura inicial de la investigación es importante
para llevar un trabajo organizado. Esta estructura no será inamovible pero
marcará el camino que seguir durante la realización de la investigación.
• Metodología: tan pronto como sea posible hay que empezar a definir la
metodología que se utilizará.

2.6. Responsabilidades del investigador


El investigador ha de ser consciente de las responsabilidades que comporta la
realización de una investigación. El cumplimiento de estas compromete el
resultado del trabajo, ya que de muchas de ellas dependen temas importantes,
como los plazos de entrega o la evaluación del director, entre otras. Entre las
responsabilidades del investigador podemos destacar las siguientes:
• Cumplimiento de los plazos establecidos por la universidad o centro de
investigación.
• Seguimiento de las instrucciones del director.
• Cumplimiento de las fechas de reuniones previstas con el director.
• Realizar informes periódicos sobre la marcha de la investigación.
• Informar de los cambios relevantes de forma inmediata al director.
• Conocimiento y cumplimiento de la normativa vigente para la realización
de la investigación.
• Actuar en todo momento siguiendo los estándares éticos.

2.7. Conclusiones
Antes de iniciar la investigación, el potencial investigador ha de comprobar
que dispone del perfil adecuado y también del compromiso para completar la
investigación y superar todos los obstáculos que se irán produciendo.
Elegir un director adecuado es uno de los principales pasos que ha de dar el
investigador. La elección debe asegurar que el director es un experto en el
tema de la investigación, tiene tiempo, contactos que permitan realizar la
investigación e interés en dirigir el trabajo. También ha de ser una persona
adecuada desde el punto de vista de iniciar o ayudar al investigador a recorrer
el camino de publicar el trabajo en los medios adecuados.
Una vez elegido el potencial director, hay que preparar bien el primer
contacto, que normalmente será escrito e irá acompañado de una reunión
donde se puede producir el acuerdo de iniciar la investigación.
El director tiene varias responsabilidades que se resumen en orientar en
todas las fases de la investigación, ayudar en la búsqueda de información,
revisar los documentos que va generando el investigador hasta llegar al
documento final.
Una vez tomada la decisión de iniciar la investigación, es posible que sea
necesario obtener la autorización de la institución correspondiente.
A continuación, hay que planificar la investigación con las diferentes metas
y el calendario.

Bibliografía
Bøgelund, P. (2015). «How Supervisors perceive PhD Supervision: and how
they practice it». International Journal of Doctoral Studies, 10, pp. 39-55.
Disponible en:
http://vbn.aau.dk/files/209610737/IJDSv10p039_055Bogelund0714.pdf.
Ferrer, D. y Oliveras, M. (2016). Tesi de màster. Guia per a l’elaboració.
ACCID.
Marchant, C. (2008). A guide to writing your masters dissertation. Heriot
Watt University. Disponible en:
http://www2.hw.ac.uk/sml/postgraduate/downloads/dissertations/dissertationguide.pdf.
Mather-L’huillier, N. (2016). «Choosing a PhD Supervisor». Find a PhD.
Disponible en: https://www.findaphd.com/advice/finding/choosing-phd-
supervisor.aspx.
Oliver, P. (2014). Writing your thesis. SAGE Publications Inc.
Research Councils UK (2001). «Skills Training Requirements for Research
Students: Joint Statement of the Research Councils and AHRB».
Yoon, J. (2013). «It begins with the right supervisor: Importance of
mentorship and clinician satisfaction levels in Canada». Canadian Society
for Clinical Investigation. Disponible en:
http://cimonline.ca/index.php/cim/article/view/20623/16950.

19 Reproducido con la autorización de Research Councils UK.


3 Particularidades de los trabajos de investigación, trabajo de fin de grado, tesis de máster y tesis
doctoral

3
PARTICULARIDADES DE LOS
TRABAJOS DE INVESTIGACIÓN,
TRABAJO DE FIN DE GRADO, TESIS DE
MÁSTER Y TESIS DOCTORAL
Oriol Amat (UPF y RAED), Albert Bosch (UB y RAED)
y M. Àngels Calvo (UAB y RAED)

Objetivos del capítulo

• Describir los rasgos principales de los diferentes tipos de trabajos de investigación.


• Exponer las similitudes y diferencias entre los diferentes trabajos de investigación.
• Describir el formato de cada tipo de investigación.

3.1. Introducción
La investigación puede tener diferentes formatos:
• Trabajo de investigación de bachillerato.
• Trabajo de fin de grado.
• Tesis de máster.
• Tesis doctoral.
Entre los principales factores diferenciales de los diferentes tipos de
investigación podemos destacar los siguientes (ver figura 3.1):
• Nivel de complejidad.
• Dedicación temporal: va en línea con el nivel de complejidad del trabajo,
y la tesis doctoral es la investigación que requiere más tiempo de dedicación.
La media está alrededor de tres años, pero puede ir desde un año hasta más de
una década. En cambio, en el trabajo de investigación de bachillerato se
espera una dedicación de unas setenta horas y en el trabajo de fin de grado y
tesis de máster, unos cuatro meses. Una muestra del nivel de complejidad y
dedicación es que en Estados Unidos el 31 % de las personas tiene una
titulación equivalente al grado y el 10 % de las personas tiene un título de
máster. En cambio, solo el 1 % tiene el título de doctor (United States Census
Bureau, 2015).
• Finalidad: en los trabajos con menos complejidad (trabajo de
investigación de bachillerato y trabajo de fin de grado) se espera una
aplicación de conocimiento ya existente. En cambio, en la tesis doctoral se
espera una contribución al conocimiento del tema en cuestión.
• Necesidad de formular hipótesis: a medida que el trabajo tiene más
complejidad, se espera que contribuya al conocimiento, como es el caso de la
tesis doctoral. Por ello, necesario que se formulen unas hipótesis que deberán
ser contrastadas a lo largo de la investigación.
• Extensión: va de unas treinta páginas para el trabajo de investigación de
bachillerato hasta trescientas o más páginas en el caso de la tesis doctoral. De
todas formas, en muchas instituciones se está generalizando la tendencia de
que la tesis doctoral consista en dos o tres artículos académicos que el
doctorando intentará publicar en revistas académicas de prestigio.
• Evaluación: en la tesis doctoral hay una evaluación hecha por un tribunal
que siempre tiene miembros externos a la institución donde se cursan los
estudios. En los otros tipos de investigación la evaluación es realizada,
normalmente, por profesorado de la propia institución.
• Publicación de la investigación: de la tesis doctoral se espera que salgan
artículos publicados en revistas académicas de prestigio. En cambio, esto no
es así en el trabajo de investigación de bachillerato, trabajo de fin de grado o
tesis de máster.
Figura 3.1. Variaciones principales entre los diferentes tipos de investigación.

3.2. Trabajo de investigación de bachillerato


El trabajo de investigación de bachillerato (TIB) es un trabajo de
investigación, normalmente individual, que debe realizar el alumnado de
bachillerato. A menudo, se inicia en el primer curso de bachillerato y se
presenta durante el segundo curso. En la mayoría de los casos, se trata de la
primera investigación que hace un estudiante y, por tanto, tiene un nivel de
complejidad bajo. Está tutorado por un profesor.
La temática tratada está dentro de una materia o puede ser interdisciplinar.
Actualmente, tiene una asignación curricular orientativa de 70 horas, que
equivale a dos créditos y representa el 10 % de la calificación final del
bachillerato.
Se presenta por escrito, en una extensión que suele situarse entre 30 y 70
páginas. También se presenta oralmente durante unos 15 a 25 minutos,
incluyendo la respuesta al tribunal.

Objetivo del TIB


Es un trabajo que pretende que el alumno utilice diversos conocimientos
adquiridos en las materias cursadas y permite comprobar su capacidad de
iniciativa, orden, rigor, tenacidad y capacidad de buscar información.
Estructura del TIB
• Portada: ocupa la primera página e incluye el título, autor (nombre y
grupo), tutor, institución, fecha de presentación.
• Índice: la estructura del trabajo con todos los epígrafes.
• Introducción: breve presentación del trabajo, para poner a los lectores en
situación. Se incluirá el tema del que trata el trabajo, los objetivos y un breve
resumen de las técnicas, hipótesis que se quieren demostrar y conclusiones.
• Núcleo del trabajo: en diferentes capítulos se expone la metodología
seguida, el trabajo realizado, los resultados obtenidos y la interpretación y
análisis de estos resultados.
• Conclusiones: relación de las deducciones hechas a partir del TIB.
Pueden incluir recomendaciones y líneas futuras para profundizar en el
trabajo realizado.
• Bibliografía: relación de fuentes consultadas para hacer el TIB.
• Anexos: materiales complementarios.

3.3. Trabajo de fin de grado


El trabajo de fin de grado (TFG) es un trabajo que los estudiantes pueden
hacer (o, en algunos casos, tienen que hacer) en la mayoría de los grados
universitarios. Es un trabajo que representa la culminación final de los
estudios del grado.
Entre los tipos más frecuentes de TFG destacan los siguientes:
• Trabajo de investigación basado en modelos teóricos o empíricos.
• Revisión de la literatura de un problema concreto.
• Estudio de caso.
• Plan de negocio de un proyecto de empresa o de una empresa ya
existente.

Objetivos del TFG


El objetivo del TFG es demostrar el dominio de varias competencias
adquiridas durante el grado. Es un trabajo individual o en grupo, donde se
debe reflejar buena capacidad de redacción y exposición, saber estructurar el
contenido del trabajo de forma analítica, crítica y sintetizada; exponer
objetivos e ideas claras y llegar a conclusiones coherentes y alineadas con los
propósitos marcados.
A lo largo del TFG se ha de ir fomentando y controlando que el alumno va
adquiriendo y poniendo en práctica diversas competencias:
• La capacidad del alumno de realizar un trabajo individual, autónomo y
personalizado, que demuestre la capacidad de creatividad en la elección del
tema, tratamiento y desarrollo.
• Demostrar capacidad de investigación y extracción de información de
fuentes externas, bibliografía, estadísticas.
• Mediante las tutorías pactadas con el tutor, fomentar que el alumno
desarrolle y refleje las competencias adquiridas, competencias de análisis,
síntesis, comunicación oral y escrita, razonamiento y argumentación de las
ideas que tiene que defender.
• Demostrar un nivel de desarrollo del pensamiento reflexivo, analítico,
sintético y crítico en la presentación final del TFG y al mismo tiempo reflejar
los conocimientos adquiridos durante el grado mediante la transmisión de la
información, ideas, hipótesis y soluciones.

Estructura del TFG


• Portada: ocupa la primera página e incluye el título, autor (nombre y
grupo), tutor, universidad /facultad, grado realizado, fecha de presentación.
• Índice: la estructura del trabajo con todos los epígrafes.
• Introducción: breve presentación del trabajo, para poner a los lectores en
situación. Se incluirá el tema del que trata el trabajo, los objetivos y un breve
resumen de las técnicas, hipótesis que se quieren demostrar y conclusiones.
• Revisión de la literatura: exposición resumida del estado del arte de la
cuestión, exponiendo las teorías existentes y las evidencias que se han
realizado hasta el momento del objeto de estudio.
• Núcleo del trabajo: en diferentes capítulos se expone la metodología
seguida, el trabajo realizado, los resultados obtenidos y la interpretación y
análisis de estos resultados.
• Conclusiones: relación de las deducciones hechas a partir del TFG.
Pueden incluir recomendaciones y líneas futuras para profundizar en el
trabajo realizado.
• Bibliografía: relación de fuentes consultadas para hacer el TFG.
• Anexos: materiales complementarios.

3.4. Tesis de máster


La tesis de máster (TM) es la etapa final del programa de formación, donde
se pone de manifiesto la madurez académica y los conocimientos, habilidades
y capacidades adquiridas durante el máster.

Objetivos de la TM y tipología
El alumno debe demostrar la capacidad para elegir un tema relevante y
relacionado con las áreas estudiadas, darle el enfoque apropiado, establecer
unos objetivos claros y razonables de la investigación, localizar la literatura
adecuada para apoyar el método de investigación y tener la capacidad
analítica y organizada para extraer y tratar la información. Y también ha de
elaborar una metodología de investigación adecuada, analizar los resultados
obtenidos y demostrar capacidad para razonar, argumentar y defender las
conclusiones de la investigación, unas conclusiones claras y sobre todo
relacionadas con los objetivos establecidos inicialmente.
Hay dos principales tipos de TM:
• Tesis de máster de investigación: el máster de investigación tiene por
objetivo la formación para las actividades de investigación, ya que muy
posiblemente el estudiante continuará los estudios con un doctorado y tiene
en perspectiva desarrollar una carrera académica. Por ello, se espera en la TM
un componente importante de investigación. A menudo, la TM cubre la fase
inicial de una investigación que culminará más adelante al realizar el
doctorado con la tesis doctoral, en la que el estudiante propondrá alguna
nueva teoría que demostrará con métodos científicos.
• Tesis de máster profesional: el máster profesional está dirigido a
personas que, en principio, no tienen que cursar una carrera académica, sino
que esperan desarrollar una carrera profesional en empresas o instituciones.
Por este motivo, en la TM se espera un enfoque más orientado a la práctica
profesional.

Propuesta de TM
Una vez se ha elegido el tema y los objetivos, se debe realizar una propuesta
de investigación que se debe entregar al correspondiente director con el fin de
aprobarla o, en su caso, concretar modificaciones.
Una vez aprobada la propuesta se convertirá en la hoja de ruta para poder
elaborar la TM. La información básica que el documento de propuesta de
investigación debe incluir sería la siguiente:
• Título de la TM: probablemente se cambiará, pero de inicio utilizar un
título que coincida bastante con el tema de la TM ayudará a focalizar más.
• Introducción al tema de la investigación: breve descripción del tema,
propósito, objetivos y preguntas de investigación que se quieren responder
con la realización de la TM.
• Revisión preliminar de la literatura que se debe estudiar: revisar las
principales referencias bibliográficas sobre el tema. Con la revisión se pueden
concretar y desarrollar preguntas para poder investigar. Debe poder justificar
los objetivos y las preguntas descritas en el punto anterior.
• Metodología de la investigación: se trata de realizar una breve
descripción de los métodos que se llevarán a cabo para realizar la
investigación y encarar los objetivos marcados.
Es importante la justificación de la elección de los métodos seleccionados
y no de otros, y mostrar las ventajas y desventajas, incluso justificando el
porqué de la no elección de los métodos seleccionados.
• Planificación: definir los diferentes periodos de trabajo, cómo se
realizarán, y justificar esta planificación en relación con la tesis.

Estructura de la TM
• Portada: ocupa la primera página e incluye el título, autor (nombre y
grupo), tutor, institución, fecha de presentación.
• Índice: la estructura del trabajo con todos los epígrafes.
• Resumen: es una síntesis de la TM. El contenido del resumen debe ser
breve y conciso (normalmente, de unas 300 palabras) y exponer las ideas
principales, entre las que deben estar presentes los objetivos, la metodología,
los resultados más relevantes, las conclusiones más importantes y, por último,
alguna recomendación para posibles estudios futuros sobre la temática
investigada.
Normalmente, a continuación se relacionan las principales palabras clave
del proyecto.
Es recomendable que este apartado no tenga una extensión superior a una
página.
• Introducción: breve presentación del trabajo, para poner a los lectores en
situación. Se incluirá el tema del que trata el trabajo, razones de la relevancia
del estudio, razones del porqué de la realización de esta TM, los objetivos y
un breve resumen de las técnicas, hipótesis que se quieren demostrar y
conclusiones.
• Revisión de la literatura
• Núcleo del trabajo: en diferentes capítulos se expone la metodología
seguida, el trabajo realizado, los resultados obtenidos y la interpretación y
análisis de estos resultados.
• Resultados obtenidos: los resultados que se obtienen representan el
producto final de la TM.
Estos deben presentar siempre una lógica de análisis, se deben exponer en
un orden preciso y coherente, que lleve hasta la conclusión final. Es
importante no abarrotar de forma desmedida este apartado con gráficos y
tablas sin sentido o generalistas; el lector no debe perder tiempo en
construir el camino para llegar al propósito del análisis, este se debe
realizar de forma sencilla y práctica para poder ser entendido.
Los resultados deben ser claros, concisos y que transmitan información
relevante, resaltando sobre todo los resultados significativos del estudio
realizado.
En este apartado se debe mostrar la información más relevante del
estudio. La información detallada y extensa se colocará en los anexos del
trabajo.
El análisis de los resultados obtenidos se basará en las cuestiones que se
han planteado en un inicio y a las que hay que dar respuesta y
justificación con estos resultados.
Un error común en muchas TM es proporcionar un análisis muy
superficial y descriptivo de los datos cualitativos. Es importante
interpretar y evaluar los resultados, para poder analizar y justificar los
objetivos del proyecto y siempre llegar a concretar el máximo posible en
el análisis respecto a nuestra finalidad.
Hay que tener en cuenta que no se pueden aportar todas las encuestas,
entrevistas, tablas, datos, pero sí añadir a los anexos. Sin embargo, estos
están limitados a un número concreto de páginas, según la normativa, por
tanto esta información adicional se puede aportar en un documento aparte
por si los miembros del Tribunal quieren visualizarla.
• Conclusiones: las conclusiones son las que justifican la existencia de la
TM y las que demuestran el provecho extraído de la investigación realizada.
Para llegar a estas conclusiones hay que analizar profundamente el
proyecto y corroborar si los objetivos marcados se han podido cumplir.
Las conclusiones se expondrán de manera ordenada, coherente y
congruente con toda la TM, lo que hay que ir controlando durante toda la
elaboración para que exista una relación efectiva entre principio y final.
Una buena manera de presentarlas es de forma enumerada, de mayor a
menor importancia, cada una relacionada con la correspondiente cuestión
planteada, de manera clara y precisa.
Es importante no hacer afirmaciones sin sustentación, ya que toda
afirmación debe estar claramente justificada y sostenida con las
evidencias que se han puesto de manifiesto en la TM. Este apartado no
debe incluir una descripción de los trabajos realizados, ni nuevas
deducciones; solo la constatación de los resultados obtenidos.
Una vez finalizadas las conclusiones, es recomendable incluir un
subapartado que sugiera cuestiones para futuras investigaciones que se
quieran llevar a cabo en el área analizada y otro que exponga las
limitaciones que han aparecido y surgido durante la elaboración de la TM.
• Bibliografía
• Anexos: toda la información detallada necesaria para poder entender
partes de la TM irá incluida en este último apartado del proyecto de
investigación.
En el momento en que sea necesario trasladar al lector a algún anexo
concreto, se deberá indicar de forma clara de qué anexo se trata, para
poder acceder de manera rápida.

3.5. Tesis doctoral20


El periodo de tiempo dedicado a la elaboración de la tesis doctoral (TD) es
clave en la formación posgraduada del investigador. Es una etapa muy fértil
para el doctorando, y también un tiempo de reflexión para su director. La TD
suele ser el primer estudio científico del futuro investigador.
Las ideas claras y concisas y los conceptos bien fundamentados son básicas
en el planteamiento, desarrollo y elaboración de la TD. La construcción
estratégica de un currículum vitae significa tener que dejar de lado en algunas
ocasiones proyectos que podrían consumir mucho tiempo y en los que el
esfuerzo aplicado no rindiera los frutos apetecidos.
Cualquier investigador que haya dirigido una o varias tesis durante los
últimos quince años en la universidad ha vivido, sin duda, los cambios
formales en la relación director/doctorando. Hemos pasado del contacto
cercano en el laboratorio, en la biblioteca, en la sala de un hospital o en el
centro de salud, al contacto mucho más esporádico, de las frecuentes
llamadas telefónicas y extensas conversaciones a los correos electrónicos,
remitidos con mayor o menor asiduidad.
En el mapa de ruta del investigador, internet ha tomado un lugar
preponderante. La dirección de una TD basada en la tutorización se puede
definir como una relación en la que el director, investigador con experiencia,
da apoyo y supervisión a otra persona menos formada y experimentada. La
relación virtual (o mediada por ordenador) ofrece múltiples aspectos de
intercambio de ideas y de planteamientos de la investigación.
En los últimos años, y con ánimo de mejorar la calidad de las tesis
doctorales, se ha impulsado una dinámica formal que exige la publicación de
originales de investigación en revistas de impacto como requisito previo a la
defensa de la TD. Exigencia o recomendación totalmente contrapuesta a lo
exigido con anterioridad, cuando casi de forma implícita se exigía una
originalidad no publicada del trabajo de investigación presentado para la
obtención del título de doctor. Además de tutelar, apoyar e instruir el método
científico, el director de TD debe ahora también enseñar a publicar. Es muy
importante que el investigador tenga en cuenta que una carta al director bien
escrita es a veces de tanta o mayor importancia que un original.
Además de la introspección del director, se hace necesaria también la del
método. Consideramos imprescindible un soporte epistemológico en la
investigación contemporánea. En estricto rigor, los criterios de inclusión y
exclusión son una expresión de la lógica aristotélica aplicada a la
investigación científica actual.
Las características de una personalidad científica que podamos transmitir a
nuestros doctorandos van a ser fundamentales. Podremos influir en los
doctorandos en un sentido u otro, pero siempre con un trabajo serio y
riguroso, y nunca debe transmitirse que la ciencia puede avanzar debido a la
suerte, sino a un trabajo continuado y a la observación.
La TD se puede presentar en dos opciones:
1. Tesis tradicional: presentación por escrito del trabajo, siguiendo las
pautas que se proponen más adelante. Normalmente, se acompaña además de
un artículo, derivado del trabajo de tesis, cuyo primer autor sea el alumno,
aceptado para su publicación en una revista con comité editorial, periódica
(con arbitraje) y reconocida por el comité académico.
2. Tesis por compendio de publicaciones: son dos o más artículos
aceptados por el director y publicados o aceptados para publicación con las
mismas características señaladas en el párrafo precedente, acompañados por
una introducción, revisión de la literatura y discusión generales; en que se
enfatice la aportación científica o innovación al campo del conocimiento
motivo de la TD.
A lo largo del periodo de desarrollo de la tesis, el alumno de doctorado
deberá realizar diversas tareas complementarias, que pueden ser variables
según el programa de doctorado, pero que en general incluyen:
• Asistencia a cursos, conferencias, simposios, mesas redondas, etc.
• Presentación de comunicaciones.
• Impartición de seminarios.
• Publicaciones.

Comparación entre tesis tradicionales y tesis por compendio de


publicaciones
La tesis tradicional (TT) representa una base de conocimientos, sobre los que
el doctorando puede elaborar futuros artículos. En cambio, las TCP
proporcionan un valor científico, reconocido por editores y revisores
externos. Asimismo, al aportar al currículum vitae no solo el título de
doctorado sino también publicaciones, las TCP mejoran las oportunidades de
carrera del doctorando y de sus coautores.
Abordar la redacción de una TT tiene la ventaja de que no suele tener
límite de palabras, lo que permite una exploración profunda y amplia de todas
las implicaciones de la pregunta, los métodos y los resultados. Además, a una
TT se le puede dar un formato que permite obtener una gran coherencia entre
los capítulos y las ideas que se proponen.
En cambio, los artículos de una TCP se ciñen al límite de palabras que
exigen los editores de las revistas. Esto obliga al doctorando a condensar y
sintetizar el material relevante, lo que no deja de ser una competencia muy
necesaria que debe alcanzar el doctorando. Además, en las TCP, la aportación
de editores y revisores y la necesidad de que cada artículo tenga valor de
modo independiente puede llevar a la repetición de argumentos y a que la
tesis no tenga un eje lineal y presente ideas conectadas a veces de modo
indirecto. No obstante, este formato da al doctorando la oportunidad de
reflejar el debate científico en el que ha participado, donde siempre hay ideas
que se plantean, se debaten, se revisan y se confirman o se descartan en un
ámbito multidisciplinario.
En todo caso, una TCP suele presentarse con un texto que introduce y
enlaza las diferentes publicaciones, clarifica la aparente desconexión que
pueda haber entre ellas y permite presentar ideas relevantes que los editores
hayan dejado sin publicar. Por último, durante la presentación de la TCP, el
tribunal puede exigir al doctorando la explicación de algún argumento que
crea que está expuesto de modo demasiado breve o con escasa profundidad.
Otra ventaja de las TT es que representan mejor el trabajo realizado
exclusivamente por el doctorando, si bien el texto recibe durante su
realización aportaciones de directores y colegas. En general, las TCP no son
obra exclusiva del doctorando al estar la mayor parte de los artículos escritos
por varios autores. Sin embargo, habitualmente los primeros autores hacen la
contribución más significativa al artículo, de modo que se puede asumir que
el doctorando ha hecho el mayor esfuerzo en el trabajo que firma como
primer autor. Además, en una TCP debe apreciarse positivamente el trabajo
realizado por el doctorando para coordinar a los coautores, una capacidad
enormemente valiosa en un investigador.

Estructura
En el planteamiento de la redacción de una tesis doctoral debe considerarse
los siguientes capítulos:
• Introducción: su finalidad es la de presentar: el marco teórico, el
planteamiento del problema (situación actual), la(s) hipótesis, el (los)
objetivo(s), los límites y alcances de la tesis. Deberá ser presentado en forma
clara y explícita.
Asimismo debe proporcionar el contexto o antecedentes del estudio para
entender la naturaleza y enfoque del problema. Describe la naturaleza,
ámbito, severidad o importancia del problema que estimuló la
investigación.
• Revisión de la literatura: esta sección debe ser razonablemente amplia,
más no excesiva, deberá indicarse la información más reciente y disponible,
ya que comprende los antecedentes del trabajo de tesis, donde la mayoría de
las referencias deberán ser presentadas. Se revisarán primero las referencias
relevantes que traten de los problemas generales y, posteriormente, las
referencias que tengan que ver con el problema específico que estudiar. Una
buena recomendación para la revisión es seguir un orden histórico del
desarrollo del conocimiento de la materia; el proceso desembocará
lógicamente en la justificación del trabajo.
Generalmente, es necesario dividir la revisión de la literatura y también
otras partes de la tesis, y para ello se deben usar subtítulos. Es aconsejable
que los subtítulos principales empiecen en la extrema izquierda y vayan
seguidos de un nuevo párrafo. En el caso de que sean necesarios otros
subtítulos, estos empezarán después de dejar una sangría de tres espacios,
y el texto continuará en la misma línea. Todos los párrafos nuevos
deberán estar precedidos de una sangría de tres espacios.
Las referencias se integrarán en el texto por la mención de los autores. Al
respecto, los apellidos del o los autores se citarán tal y como aparece en la
fuente original de información, conforme a lo siguiente:
En el texto, el apellido del autor, seguido del año de publicación, se
pondrán entre paréntesis. Cuando el nombre del autor es parte de la
oración, solo el año se presentará entre paréntesis. Si se incluyen dos
autores en una misma referencia, los apellidos de ambos se escribirán
separados por una y.
Si se aportan varias referencias para un mismo concepto, se separarán por
un punto y coma, y se escribirán por orden cronológico. En el caso de que
haya más de dos autores para una referencia, se escribirá solo el apellido
del primer autor seguido de et al.
Solo se citarán las fuentes principales originales de información, es decir,
las que se hayan realmente revisado. No se deberán incluir referencias
citadas por otros autores a menos que sea imprescindible, indicando, en
este caso: «citado por».
Si se transcriben frases de otros autores, deberán aportarse
entrecomilladas en el texto.
El uso de comunicaciones personales se limitará en lo posible y se hará a
través de una nota a pie de página.
• Material y métodos: los materiales y métodos utilizados o aportados en
la tesis deben ser descritos con detalle, para que puedan ser repetidos cuando
sea preciso. Cuando se utilicen técnicas o metodologías ya descritas en la
literatura, se deberá de citar la referencia bibliográfica pertinente y los
comentarios deben ser mínimos. En el caso de que hayan hecho
modificaciones a las técnicas publicadas, estas serán descritas con todo
detalle.
Si el trabajo comprende más de una etapa, se deberá dividir
secuencialmente la sección de material y métodos. Evidentemente, esta
división se observará también en los capítulos de resultados y discusión.
Los métodos estadísticos deben describirse de manera que un lector
experto pueda verificar los resultados obtenidos. Siempre que sea posible,
se deben cuantificar los resultados y presentarlos con los apropiados
índices estadísticos de precisión o de incertidumbre (tales como los
intervalos de confianza). Los autores deben evitar la confianza exclusiva
en pruebas estadísticas de hipótesis, por ejemplo, valores p, que no
aportan información de interés sobre la magnitud del efecto. Los estudios
citados deben ser publicaciones clásicas y conocidas. Se deben definir los
términos estadísticos, las abreviaturas y la mayoría de los símbolos y
también especificar el programa informático utilizado.
• Resultados: la sección de resultados constituye la parte medular de la
TD, ya que informa de los hallazgos del estudio. En esta sección no se
expresarán interpretaciones o valoraciones de los mismos, ya que estas se
reservan para la sección de discusión.
La mayor parte de los datos se presentarán en orden lógico y en forma de
cuadros y figuras. Los datos presentados en los cuadros deberán
analizarse, si bien, no es indispensable mencionar en el texto todos los
datos consignados en el cuadro. Todas las tablas, cuadros y figuras deben
poder interpretarse por sí solos, teniendo en cuenta la leyenda que los
acompaña.
Solo los datos del trabajo deben ser incluidos en esta sección y no deberá
hacer comparaciones con resultados de otros autores, posibilidad esta que
quedará para el capítulo de discusión.
Los resultados se presentarán en forma de cuadros, tablas o figuras,
cuando hacen referencia a datos diversos cuya expresión escrita pueda
ofrecer dificultades de comprensión.
Cada cuadro, tabla o fotografía deberá estar identificado con un
encabezado que constará de número y título, que sea suficientemente
explícito como para que permita entender su contenido sin tener que leer
el texto. Aportará tanto cifras como unidades de medida. Se incluirán en
el texto con una numeración progresiva.
• Discusión y conclusiones: en la discusión, el autor tiene que comentar
sus resultados y compararlos críticamente con los de otros autores y obtener
conclusiones válidas de estos estudios. La descripción de hallazgos de otros
autores que estén incluidos en la revisión de la literatura no deberá repetirse
en la discusión. En estos casos se hará referencia a la revisión de la literatura.
Este capítulo debe ser la parte de la tesis que ofrezca explicaciones a los
eventos estudiados, que haga una nueva propuesta, o ambas.
Las conclusiones se extraerán en su totalidad del conocimiento generado
por la tesis y tendrán que ser presentadas en forma explícita, clara y
concisa. Deberán coincidir con los objetivos, a menos que hayan surgido
nuevas ideas que no se plantearon originalmente en ellos.
• Bibliografía: las referencias o bibliografía se presentan de manera que el
lector pueda referirse al documento original para estudios posteriores. La
uniformidad es esencial. La forma de presentar las citas bibliográficas para
tesis que no integrarán artículos científicos aprobados o publicados
corresponderá a la indicada en el sistema Harvard u otros reconocidos
internacionalmente.
Para aquellas tesis que incluyen la inserción de artículos científicos ya
publicados o aprobados, se utilizará el sistema de referencias que emplea
la revista en la que se publicará.
• Apéndices o anexos: corresponde a toda aquella información accesoria y
que se utiliza únicamente para ampliar el trabajo principal.
3.6. Publicaciones científicas21
Una publicación científica es el manuscrito científico que constituye la forma
universal de expresión de los investigadores (en el caso de los tecnólogos, lo
es la patente). Representa la información generada como producto de
investigación, por lo que debe ser comunicada a otros investigadores, en
forma de un artículo publicado en una revista científica, periódica,
especializada y arbitrada.
Los componentes de un artículo suelen ser los siguientes:
• Título: debe ser breve (idealmente no más de 15-20 palabras), que
describa con toda claridad el objeto de la investigación y el sujeto
experimental. Puede ser una oración pasiva o bien activa, dependiendo de la
revista.
• Resumen: alrededor de 250-350 palabras. Debe incluir en un solo párrafo
el objetivo que persiguió, la metodología más relevante, los resultados
numéricos principales, la discusión de los mismos y, en su caso,
conclusiones. No deben emplear citas bibliográficas, cuadros ni figuras, ni
notas al pie de página. Al final de este, la mayoría de las revistas científicas
piden que se incluyan los descriptores o palabras clave que mejor describen
la naturaleza del trabajo.
• Abstract: es la traducción al inglés del resumen. En algunas publicaciones
solicitan también un resumen en un tercer idioma.
• Palabras clave: descriptores o palabras clave del trabajo en el idioma de
publicación y como mínimo inglés.
• Introducción: consiste en un breve antecedente del trabajo, su
significado académico o práctico, lo que otros han hecho o informado al
respecto; al final del mismo se menciona el objetivo que se buscó. La
extensión debe ser menor a dos páginas.
• Metodología
• Resultados y discusión: en algunas revistas se aportan como capítulos
separados, constituyen la parte medular de una investigación original.
Los resultados pueden presentarse en forma de texto, o lo que es más
común, en forma de cuadros y figuras, que facilitan la presentación,
lectura y explicación de la información observada. Los cuadros y las
figuras deben contener la información necesaria para que el lector pueda
comprender la esencia del trabajo, a través de la observación detallada de
ellos.
La discusión consiste en explicar los resultados observados, basándose en
la información documental disponible y haciendo comparaciones o
contrastes con los datos de otros autores.
El contenido debe ser objetivo, es decir, la discusión debe basarse en lo
observado.
• Conclusiones: algunas revistas solicitan que se enfaticen las principales
conclusiones que se pueden derivar del trabajo. En su caso, estas deben
elaborarse basándose en lo observado en la investigación y ser claras y
contundentes.
• Bibliografía: es el listado de las citas mencionadas en el texto,
expresadas de acuerdo con las reglas de cada revista. La calidad y actualidad
del escrito se podría medir atendiendo a las referencias, que deben ser
entonces relevantes, recientes y variadas en cuanto al origen de las citas.
Esta sección debe elaborarse con sumo cuidado y transcribir al pie de la
letra los nombres, iniciales, títulos, volúmenes, páginas y puntos, comas,
etc. Un error común es la falta de coincidencia de las referencias con las
citas en el texto, es decir, se mencionan en el escrito algunas citas que no
aparecen en el listado final, o viceversa.
• Agradecimientos: deben ser muy objetivos, específicos y parcos.

3.7. Sugerencias de estilo y redacción


La redacción se ha de realizar en un estilo académico formal y un formato
adecuado para asegurar los resultados de aprendizaje y los objetivos que
pretenden los alumnos.
En cuanto a las normas de estilo y formato, cada institución puede tener las
suyas propias, pero a modo de ejemplo se proponen las siguientes:
• El texto deberá ser en letra Times New Roman 12, con un interlineado de
1,5.
• Los párrafos se iniciarán sin sangría. Los títulos tienen que estar todos
alineados a la izquierda.
• Las tablas, gráficas o figuras se denominarán figuras y deben ser
originales o indicar la fuente de procedencia y llevar un número de orden (por
ejemplo, figura 1, figura 2, etc.) y un título que se pondrá al pie de la figura.
Debido a los problemas de composición, los autores no deben suponer que las
figuras irán situadas en el mismo lugar donde aparecen en el original, por lo
que se evitarán redacciones, como «en la figura que sigue...» o «la figura de
la página 11...». En el redactado, se deberá utilizar la referencia de la figura
como por ejemplo, «en la figura 2 se ve...». Otra opción es numerar los
gráficos y tablas por separado.
• Evitar la utilización de la primera persona del singular/plural, excepto
cuando se trate de las reflexiones y conclusiones finales.
• Redactar de forma clara y sencilla, con frases cortas, y desarrollar una
única idea.
Dentro de cada apartado habrá una parte introductoria de su contenido y
una parte final donde se expone un breve resumen de lo expuesto
anteriormente.
En caso de que sea posible, para dar sentido a todo el proyecto, es
recomendable el uso de estos conceptos como conexión entre apartado y
apartado: la introducción debe comenzar el apartado haciendo referencia a la
conclusión anterior y la conclusión debe introducir el siguiente capítulo, de
tal forma que siempre se cree un nexo de unión.

Título
Ha de ser:
• Conciso, es decir, que exprese claramente el tema del estudio. No es
recomendable, en general, utilizar abreviaturas.
• Informativo sobre el escenario, el resultado y el diseño del estudio. En
ocasiones, el subtítulo también puede ser útil.
Asimismo, deben evitarse títulos en forma de preguntas o aquellos que
indiquen experiencias institucionales.

Estilo
Se redactará en forma impersonal (tercera persona) y se utilizará
preferentemente el tiempo pasado.
Se empleará el sistema métrico decimal y las abreviaturas de sus unidades
no llevarán punto, a menos que estén al final de una oración (cm, m, kg, ml,
etc.). Dichas abreviaturas son iguales para el singular y el plural.
La ortografía deberá estar de acuerdo con las reglas gramaticales vigentes,
así como se evitarán anglicismos, galicismos y neologismos.

Tipo de letra
Se deberá usar el tipo de letra de molde con uniformidad y claridad para todas
las copias, tanto para textos como para ilustraciones. En el caso de términos o
palabras en otros idiomas, utilizar itálicas (cursivas). Para transcripciones y
palabras fuera de lo común, se emplearán comillas, y se aportarán notas a pie
de página.

Forma de presentación
Deben respetarse los márgenes, y son recomendables los siguientes:
Margen izquierdo: 4 cm
Margen derecho: 2 cm
Margen superior: 3 cm
Margen inferior: 3 cm
Las páginas en el texto deberán enumerarse consecutivamente.

Cuadros y figuras
Deberán ser explicativos por sí mismos. Los cuadros deberán llevar
encabezados y las figuras, pie de página.
En caso de usar fotografías, estas deberán ser nítidas y bien contrastadas.
Los cuadros y figuras solo deberán contener datos relevantes.

Notas a pie de página


Las notas deberán ser únicamente aclaratorias y que se refieran a
comunicaciones personales; deberán tener una llamada (por números o
símbolos) y escribirse a un espacio.

Otros aspectos
La parte genérica de un nombre científico solo se escribe en forma completa
cuando se usa por primera vez en una página. Por ejemplo, Staphylococcus
aureus en la primera cita, pero S. aureus en citas posteriores.
Cada capítulo se iniciará en una nueva página.

3.8. Evaluación del trabajo


La evaluación tiene en cuenta tanto la actuación del estudiante durante la
realización del trabajo como el documento escrito y la presentación. Estas
partes pueden representar, por ejemplo, un 10 %, 60 % y 30 % de la nota
final.
El tribunal evalúa, normalmente, aspectos como los siguientes:
• Puntualidad en las entregas.
• Tema original y propio; relacionado con los estudios.
• Corrección en la redacción, estructura y formato.
• Relevancia del tema.
• Claridad de exposición.
• Interés de los objetivos.
• Buen conocimiento de la literatura aportada.
• Investigación: no puede ser una simple enumeración de hechos y datos.
• Metodología apropiada.
• Capacidad de análisis.
• Capacidad de síntesis
• Logro de los objetivos.
• Interés de las aportaciones realizadas.
• Presentación oral: capacidad de razonar y argumentar las ideas y las
respuestas a las preguntas formuladas con seguridad.

Bibliografía
Bui, Y. (2014). How to write a Master’s Thesis. SAGE Publications Inc.
Ferrer, D. (2016). Treball Fi de Grau (TFG). Guia per a la elaboració.
ACCID (Nota Tècnica), Barcelona.
Ferrer, D. y Oliveras, M. (2016). Tesi de Màster (TM). Guia per a la
elaboració. ACCID (Nota Tècnica), Barcelona.
Heriot-Watt University (2012). «A guide to writing your masters
dissertation». School of Management & Languages. Disponible en:
http://www2.hw.ac.uk/sml/postgraduate/downloads/dissertations/dissertationguide.pdf.
Xarxa Telemàtica Educativa de Catalunya (2016). Batxillerat. Treball de
recerca. Generalitat de Catalunya.
United States Census Bureau (2015). «Educational Attainment in the United
States 2013».

20 Apartado redactado por Albert Bosch (UB) y Àngels Calvo (UAB).


21 Apartado redactado por Albert Bosch (UB) y Àngels Calvo (UAB).
4 La revisión de la literatura

4
LA REVISIÓN DE LA LITERATURA
Diego Prior
(UAB)

Objetivos del capítulo

• Justificar la importancia de la revisión de la literatura en el proceso de investigación.


• Desarrollar los elementos que configuran una revisión de la literatura.

4.1. Aspectos previos


Una sistemática y completa revisión de la literatura existente es la condición
previa para diseñar una investigación de interés. A diferencia de otros
géneros literarios, los textos científicos toman como punto de partida el
estado del conocimiento existente, de forma que los lectores puedan captar de
manera ordenada y metódica el nivel de conocimiento de un área determinada
para, a continuación, definir cuál es la aportación que se pretende hacer.
Dicho en otras palabras, en los textos académicos es siempre aconsejable
ubicar los objetivos perseguidos dentro del conocimiento existente sobre el
tema objeto de estudio. Así, la validez de un trabajo de investigación se
empieza a demostrar en el momento en que se facilita una revisión completa
y ordenada de la literatura existente.
Conviene, pues, mencionar las razones que aconsejan hacer una buena
revisión de la literatura:
1. Para evitar repeticiones, tener información sobre el conocimiento
existente sobre un determinado tema.
2. Aprender de los errores de los otros, de forma que sea posible evitar
incurrir en los mismos problemas.
3. Conocer las diferentes aproximaciones teóricas y metodológicas para el
estudio de una realidad determinada.
4. Actualizar el marco analítico de un tema.
5. Aconsejar la inclusión de procedimientos o variables que, de otra forma,
no se habrían considerado.
6. Sugerir preguntas de investigación adicionales y/o expandir el marco del
análisis.
Es una realidad consolidada en el mundo académico que una de las
condiciones indispensables para hacer un trabajo de investigación aceptable
es aportar una buena revisión de la literatura. Sin esta, será muy difícil
superar cualquier evaluación dirigida a determinar la calidad del texto escrito.
Precisamente, este texto intenta aportar las bases y los requerimientos
necesarios para llevar a cabo una buena revisión de la literatura.
Las páginas siguientes se distribuyen de la siguiente manera.
Comenzaremos con una introducción al tema. A continuación, vamos a
desarrollar los elementos que configuran una revisión sistemática de la
literatura (desde el diseño de la investigación hasta la evaluación del material
existente). El trabajo concluye con unas conclusiones que resumen los temas
tratados.

4.2. Introducción
En cualquier texto de investigación, la revisión de la literatura presenta las
publicaciones más relevantes que tienen alguna relación con el tema, la
metodología o los objetivos perseguidos. Esta revisión servirá para dar a
conocer las aportaciones más valiosas, el grado de desarrollo de un
determinado campo del conocimiento y también cuáles son las carencias
existentes que son más significativas. Después de aportar esta información, se
estará en condiciones de definir cuál es el objetivo del trabajo que,
tentativamente, intentará aportar valor añadido al afrontar una temática poco
desarrollada en la investigación previa.
Desde un punto de vista metodológico, la revisión de la literatura puede
hacerse de forma narrativa, es decir, presentando un cúmulo de trabajos, pero
no dando información sobre cómo se ha diseñado la investigación de la
información, las fuentes, las bases de datos utilizadas y los criterios utilizados
para definir cuáles son las aportaciones consideradas más valiosas. Frente a la
revisión de la literatura narrativa, dentro del ámbito de la investigación ha
ganado mucho interés la llamada revisión sistemática.
A diferencia de la narrativa, la revisión sistemática identifica, evalúa e
interpreta toda la documentación existente de un campo del conocimiento o
de un fenómeno de interés. Con este fin, utiliza una metodología y unas
técnicas muy rigurosas para revisar el estado actual en cualquier campo del
conocimiento. De hecho, como ya se ha indicado anteriormente, la revisión
de la literatura debe ser completa y equilibrada o tendrá un escaso valor
científico. De esta forma, se puede afirmar que la revisión de la literatura es
sistemática cuando:
1. Está basada en preguntas bien formuladas.
2. Identifica los trabajos existentes de mayor relevancia.
3. Determina su nivel de calidad.
4. Clasifica toda la información obtenida mediante la utilización de una
metodología bien explícita.
Normalmente, la revisión sistemática de la literatura sigue un proceso, que
se puede resumir en los siguientes pasos:
1. Comienza con la definición de la estrategia de investigación, que
requiere especificar la pregunta de investigación, las palabras clave
relacionadas con la pregunta de investigación y los métodos que se utilizarán
para acceder a la documentación existente.
2. La estrategia de investigación debe quedar explicitada en el documento
final. Esto permitirá a los lectores comprobar el rigor del trabajo y también
reproducirlo (la capacidad de reproducir un trabajo es uno de los aspectos
más importantes que definen la valía de un trabajo de investigación).
También es necesario indicar los criterios de inclusión y de exclusión de los
documentos que se puedan encontrar.
3. El tratamiento de las referencias encontradas debe definir unos criterios
para determinar su calidad.
4. Una vez definida la estrategia de investigación, se deben utilizar las
bases de datos que contienen la mayor parte de la literatura existente (más
adelante se da información al respecto).
5. La revisión sistemática, en tanto que completa y omnicomprensiva,
incluso facilita la posible definición de posteriores trabajos, normalmente de
índole cuantitativa, destinados a globalizar los resultados obtenidos en cada
uno de los trabajos de investigación identificados (este método de
investigación recibe la denominación de metaanálisis y será objeto de
atención al finalizar este capítulo).
Con tal de poner de manifiesto las diferencias entre la revisión de la
literatura narrativa y sistemática, la figura 4.1 resume los aspectos de más
interés:

Figura 4.1. Diferencias entre la revisión de la literatura narrativa y sistemática.

4.3. Componentes de la revisión sistemática de la literatura existente


De acuerdo con Brereton, Kitchenham, Budgen, Turner y Khalil (2007), una
buena revisión sistemática de la literatura exige el cumplimiento de tres fases:
1. Diseño de la investigación.
2. Ejecución de la investigación.
3. Elaboración del documento final.
Cada una de estas fases tiene un conjunto de actividades que se deben
desarrollar para llegar a completar el documento final. Un resumen de estas
actividades queda recogido en la figura 4.2.
Figura 4.2. Fases de la revisión de la literatura. Fuente: Brereton, Kitchenham, Budgen, Turner y
Khalil (2007).

Fase 1. Diseño de la investigación


Cuando se hace una revisión sistemática de la literatura, conviene explicar, si
puede ser aportando un gráfico, una síntesis del proceso o actividad que se
quiere analizar, haciendo énfasis en los rasgos más importantes. Esto permite
demostrar que el autor de la revisión de la literatura es un buen conocedor del
tema objeto de estudio. Por ejemplo, Healy y Palepu (2001) sintetizan en su
trabajo los flujos de dinero y también el flujo de información aportando el
magistral gráfico que se acompaña en la figura 4.3.

Figura 4.3. Ejemplo de gráfico de síntesis. Fuente: Healy y Palepu (2001).

También hay otros ejemplos que se orientan hacia el mismo objetivo. Por
ejemplo, a continuación se presentan los tipos de indicadores de performance,
de acuerdo con la muy eficaz clasificación propuesta por Neely, Gregory y
Platts (1995). Figura 4.4:
Figura 4.4. Ejemplo de gráfico de síntesis. Fuente: Neely et al. (1995).

Finalmente, un tercer ejemplo nos lo proporcionan Roos, Roos, Dragonetti


y Edvinsson (1997), al referirse a los componentes del capital intelectual y las
extensiones que este concepto ha ido recibiendo con el paso de los años:

Figura 4.5. Ejemplo de gráfico de síntesis. Fuente: Roos et al. (1997).

Una vez sintetizado el proceso o la actividad que se quiere analizar, hay


que afrontar el aspecto más importante de esta fase: la definición de las
preguntas de investigación. Un muy buen ejemplo de cómo se pueden
enunciar estas preguntas se encuentra en el trabajo de Healy y Palepu (2001).
Figura 4.6:

Figura 4.6. Ejemplos de definición de preguntas de investigación.


Fuente: Healy y Palepu (2001).

También encontramos un ejemplo adicional que, al diseñar una revisión de


la literatura sobre I + D e innovación en las pequeñas empresas, define las
preguntas de investigación de la siguiente manera (figura 4.7).

Figura 4.7. Ejemplos de preguntas de investigación que surgen al diseñar la revisión de la


literatura. Fuente: Hoffman, Parejo, Bessant y Perren (1998).

4.4. Ejecución de la investigación


En la fase de ejecución, es muy importante poder empezar con las
definiciones y los términos que se deben analizar. Un buen ejemplo de cómo
se empieza el proceso de definiciones iniciales se encuentra en el trabajo de
Croom, Romano y Giannakis (2000), que se refiere a la cadena de suministro
(figura 4.8).

Figura 4.8. Ejemplos de definiciones y términos que utilizar en una revisión de la literatura.
Fuente: Croom et al. (2000).

A continuación se ha de decidir el tipo de material que se quiere recopilar.


Los trabajos de investigación suelen difundirse a través de diferentes tipos de
publicaciones:
a) Publicaciones en las revistas académicas y libros, dirigidos a una
audiencia compuesta por lectores académicos. Estos tipos de publicaciones
son las más fiables dado el proceso de revisión y refinamiento a que son
sometidos por parte de otros académicos antes de ser aceptados.
b) Trabajos presentados en congresos y reuniones científicas propias del
área. Este tipo de documentos no han pasado procesos de revisión tan
sistemáticos como los de la clasificación anterior, pero tienen como ventaja
que los contenidos pueden referirse a hechos y fenómenos mucho más
recientes. De todas formas, los trabajos presentados en congresos que
contienen documentos valiosos acabarán publicados en las mejores revistas
académicas del área.
c) Documentos de trabajo o partes de documentos que están en proceso.
Tienen la ventaja de su inmediatez, aunque normalmente no han pasado por
ningún proceso de evaluación de calidad de los contenidos.
d) Otros documentos o borradores de futuros trabajos de investigación, aún
no terminados ni publicados. Estos documentos normalmente aparecen
identificados como literatura gris.
En la mayoría de las áreas de conocimiento, la forma habitual para divulgar
los resultados de la investigación es la publicación en revistas académicas.
Una buena forma de poder acceder a los contenidos de estas revistas es
haciendo uso de las bases de datos bibliométricos. Las bases más habituales
son:
ISI. Web of Science (SSCI y JCR). Es una plataforma web integrada que
ofrece contenidos de alta calidad para la investigación bibliométrica. Uno
de los componentes más importantes es el llamado Journal Citation
Reports, que ofrece un índice de impacto de las revistas académicas
incluidas en sus listados.
A esta base de datos se puede acceder desde cualquier biblioteca
universitaria española en el siguiente enlace:
https://www.fecyt.es/es/recurso/web-science
JQL. Journal Quality List (ranking of academic journals in the field of
business and management). El Journal Quality List ofrece el ranking de
revistas académicas dentro del ámbito general de la gestión. Es muy usada
para guiar a los académicos a las revistas que tienen mayor impacto. Ofrece
actualizaciones anuales. El enlace es:
http://www.harzing.com/resources/journal-quality-list
ABS. Academic Journal Quality. La ABS Academic Journal Quality Guide
ofrece una clasificación híbrida que agrega muchas fuentes informativas
que recogen diferentes valoraciones de las revistas académicas. Esta lista es
elaborada y mantenida por la Association of Business Schools del Reino
Unido:
https://charteredabs.org/
SCOPUS. Scopus recoge la base de datos más extensa de publicaciones
académicas: revistas, libros y actas de congresos y reuniones científicas.
Esta base de datos requiere el pago de una suscripción anual. Normalmente
es accesible desde las bibliotecas universitarias en el siguiente enlace:
https://www.scopus.com/home.uri
TDX. TESIS DOCTORALES EN RED. Permite el acceso a archivos pdf
que contienen las tesis doctorales de 17 universidades españolas. El enlace
es:
http://www.tdx.cat/
CYBERTESIS. Iniciativa sufragada por la UNESCO, la Universidad de
Chile y la Universidad de Lyon. Desarrolla e implementa procesos de
digitalización y publicación electrónica dentro del área de las tesis y de
otros documentos, y utiliza estándares internacionales. El enlace es:
http://cybertesis.unmsm.edu.pe/
BASE DE DATOS TESEO. Base de datos que incluye información sobre
las tesis doctorales depositadas en las universidades españolas. Contiene un
resumen de los contenidos, nombre del director y también los nombres de
los miembros del tribunal. Accesible en:
https://www.educacion.gob.es/teseo/irGestionarConsulta.do;jsessionid=E92ADC199F1E
ECONPAPERS. Economics at your fingertips. Repositorio muy bien
documentado de working papers de temática económica o de gestión.
Accesible en:
http://econpapers.repec.org/
REPEC. Research Papers in Economics. Repositorio de working papers de
temática económica y de gestión. Accessible en:
http://repec.org/
GOOGLE ACADÉMIC. Herramienta de mucha utilidad para hacer
investigaciones de trabajos académicos de todo tipo: libros, artículos y
working papers. Accesible en:
http://scholar.google.es/
También existen bases de datos para documentos no escritos
necesariamente en lengua inglesa. A continuación presentamos una breve
reseña de los más significativos:
DIALNET (Servicio de alertas informativas y de acceso a los contenidos
de la literatura científica hispana). Accesible en:
http://dialnet.unirioja.es/appl/ppal.jsp
BASE DE DATOS ICALI. Recopila los trabajos con contenidos de
contabilidad, auditoría y finanzas que utilizan el idioma castellano.
Accesible en:
http://www.icali.es/PORTAL_ICALI/biblioteca.do?
urlPagina=/S005051002/1366903916048_es_ES.html
IN-RECS. Proporciona un índice de impacto de las revistas españolas de
ciencias sociales. Accesible en:
http://ec3.ugr.es/in-recs/
CARHUS Plus+ 2014. Iniciativa para la generación de criterios de
evaluación de la investigación (publicaciones) en humanidades y ciencias
sociales.
http://agaur.gencat.cat/es/avaluacio/carhus/carhus-plus-2014/
LATINDEX. Reúne y disemina información bibliográfica sobre
publicaciones científicas latinoamericanas. Accesible en:
http://www.latindex.unam.mx/
Una vez identificadas las revistas y los documentos que formarán parte de
la revisión de la literatura, se pasa a la siguiente fase, que consiste en
preparar, ordenar y clasificar toda la información para poder componer el
documento que recoge los resultados de la investigación.

4.5. Elaboración del documento final


La divulgación de la actividad desarrollada se hace a través de un documento
específico, o de una parte de un documento más amplio, que, habitualmente,
presenta el siguiente formato (Seuring et al., 2005):
1. Fuentes de información utilizadas.
2. Análisis descriptivo.
3. Organización y establecimiento de categorías.
4. Evaluación del material existente.
5. Posibles vías de extensión para futuras líneas de investigación.
Presentamos a continuación ejemplos reales de contenidos representativos
de cada uno de los anteriores apartados.

1. Fuentes de información utilizadas


En su trabajo, Apostolou, Watson, Hassell y Webber (2001) inician su
presentación incorporando una tabla en la que indican la base de datos que
usan, las palabras clave elegidas y las combinaciones establecidas entre ellas
(figura 4.9).

Figura 4.9. Ejemplo de relación entre bases de datos y palabras clave elegidas
en una revisión de la literatura. Fuente: Apostolou et al. (2001).

En otras ocasiones, cuando las revistas que se quieren analizar están muy
claras, también se puede hacer un resumen de todas las actividades llevadas a
cabo de la siguiente forma (figura 4.10).

Figura 4.10. Ejemplo de actividades llevadas a cabo en una revisión de la literatura. Fuente:
Apostolou et al. (2001).

2. Análisis descriptivo
En este apartado se trata de aportar algunas estadísticas descriptivas del
material que se ha encontrado. Un buen ejemplo, de Abidi y Klumpp (2013),
puede ser el siguiente (figura 4.11).
Figura 4.11. Ejemplo de estadísticas descriptivas obtenidas en el marco de una revisión de la
literatura. Fuente: Abidi y Klumpp (2013).

Aunque se pueden aportar figuras con más valor añadido. Por ejemplo,
Janssen, Claus y Sauer (2016), en su trabajo sobre los modelos de deterioro
de los inventarios, indican el número de artículos trampa y clasifican los
artículos de acuerdo con los temas que tratan (figura 4.12).

Figura 4.12. Ejemplo de resultados obtenidos en el marco de una revisión de la literatura. Fuente:
Janssen et al. (2016).

El análisis descriptivo también puede atender a una dimensión diferente del


análisis temporal, como, por ejemplo, al tipo de metodología de investigación
utilizada o a las características de esta investigación (figura 4.13).
Figura 4.13. Ejemplo de estadísticas descriptivas obtenidas en el marco de una revisión de la
literatura. Fuente: Abidi y Klumpp (2013).

Cuando el número de artículos no es demasiado elevado, una buena


alternativa consiste en aportar un breve resumen, como el que hacen
Aspelund y Madsen (2006) (figura 4.14).

Figura 4.14. Ejemplo de resumen de la revisión de la literatura.


Fuente: Aspelund y Madsen (2006).

En otras ocasiones, se hace una clasificación de los artículos por categorías


y también por el contenido (empírico o descriptivo), en la que se indica la
revista donde aparecen. Este tipo de tablas sirven para analizar hasta qué
punto existe una especialización de revistas por temas de interés (figura
4.15).

Figura 4.15. Ejemplo de resumen de la revisión de la literatura.


Fuente: Apostolou et al. (2001).

Finalmente, una opción también muy valiosa consiste en aportar una


clasificación de las referencias de acuerdo con una doble clasificación. En el
siguiente ejemplo, Srivastava (2007) presenta una propuesta de clasificación
de los artículos en función del método matemático que se ha usado –
clasificación vertical– y también atendiendo al contexto empírico del trabajo
de investigación –clasificación horizontal (figura 4.16).

Figura 4.16. Ejemplo de clasificación de las referencies. Fuente: Srivastava (2007).

3. Organización y establecimiento de categorías


Una forma de demostrar que el trabajo desarrollado brinda un valor añadido
es proponer un método que ayude a clasificar el material recopilado. Se
estaría, pues, aportando un método para ordenar unas referencias que, en caso
de no hacerlo, aparecerían desordenadamente. Un buen ejemplo de este
proceso se encuentra en el trabajo de Reed (2008), en el que se propone una
tipología para clasificar las diferentes formas de participación de los
stakeholders (grupos de interés) en la gestión empresarial (figura 4.17).
Figura 4.17. Ejemplo de resultados de la revisión de la literatura.
Fuente: Rebele et al. (1998).

Otros ejemplos son los propuestos por Petty y Guthrie (2000), Neely et al.
(1995) y Abidi y Klumpp (2013). Figura 4.18, 4.19 y 4.20.

Figura 4.18. Ejemplo de resultados de la revisión de la literatura.


Fuente: Petty y Guthrie (2000).

Figura 4.19. Ejemplo de resultados de la revisión de la literatura.


Fuente: Neely et al. (1995).
Figura 4.20. Ejemplo de resultados de la revisión de la literatura.
Fuente: Abidi y Klumpp (2013).

En otras ocasiones, lo que conviene es establecer los temas centrales y la


forma en que diversas aplicaciones empíricas lo consideran (Janssen et al.,
2016). Figura 4.21:

Figura 4.21. Ejemplo de resultados de la revisión de la literatura.


Fuente: Janssen et al. (2016).

A veces, lo que se busca es ilustrar cuáles son los aspectos más


desarrollados en la mayoría de los trabajos existentes. En este sentido, el
trabajo de García y Calantone (2002) se puede considerar un excelente
ejemplo al respecto (figura 4.22).
Figura 4.22. Ejemplo de resultados de la revisión de la literatura.
Fuente: García y Calantone (2002).

Objetivo que también es el que inspira la figura 4.23.

Figura 4.23. Ejemplo de resultados de la revisión de la literatura.


Fuente: García y Calantone (2002).

Con el ánimo de sintetizar los resultados de los diferentes aspectos que se


han encontrado, también es aconsejable la elaboración de tablas de síntesis,
como, por ejemplo, la propuesta por Croom et al. (2000) (figura 4.24).

Figura 4.24. Ejemplo de resultados de la revisión de la literatura.


Fuente: Croom et al. (2000).

Finalmente, cuando se trata de sintetizar la forma en que un artículo


seminal genera la aparición de una larga lista de artículos (favorables o
desfavorables a las tesis del trabajo seminal) se puede construir una tabla tan
bien documentada como la propuesta por Nickel y Rodríguez (2002) (figura
4.25):
Figura 4.25. Ejemplo de resultados de la revisión de la literatura.
Fuente: Nickel y Rodríguez (2002).

4. Evaluación del material existente


Una vez clasificado todo el material recopilado, se trata de aportar una
valoración de las referencias encontradas. La primera evidencia de valor en el
mundo académico proviene del número de citas que un trabajo científico
puede recibir. Un ejemplo de esta orientación lo encontramos en el trabajo de
Dumay, Bernardi, Guthrie y Demartini (2016) (figura 4.26):

Figura 4.26. Ejemplo de resultados de la revisión de la literatura.


Fuente: Dumay et al. (2016).

O, tal vez mejor, si no se quiere dar preeminencia a los trabajos antiguos,


aportar el número promedio de citas (figura 4.27).
Figura 4.27. Ejemplo de resultados de la revisión de la literatura.
Fuente: Dumay et al. (2016).

Una práctica un poco más desarrollada consiste en presentar una propuesta


que permita clasificar todo el material encontrado. Un buen ejemplo de esta
orientación es el que aparece en el trabajo de García y Calantone (2002)
(figura 4.28):

Figura 4.28. Ejemplo de clasificación del material encontrado en una revisión de la literatura.
Fuente: García y Calantone (2002).

En otras ocasiones, la evaluación se basa en el modelo de síntesis que


refleja la conceptualización que se desprende de la literatura existente (figura
4.29).

Figura 4.29. Ejemplo de resultados de la revisión de la literatura.


Fuente: Seuring y Müller (2008).

También se puede sugerir un sistema de clasificación bien ordenado, como


el presentado por Srivastava (2007) (figura 4.30):
Figura 4.30. Ejemplo de resultados de la revisión de la literatura.
Fuente: Srivastava (2007).

Desde una perspectiva más crítica, se pueden diseminar las limitaciones de


los trabajos existentes. Un buen ejemplo es el trabajo de Salzmann, Ionescu y
Steger (2005), del que se desprende que en la literatura no se ha hecho ningún
trabajo empírico que compruebe la hipótesis de sinergia negativa entre
performance financiera y performance social. Esta situación podría justificar
la necesidad de definir un trabajo empírico destinado a comprobar esta
hipótesis (figura 4.31).

Figura 4.31. Ejemplo de resultados de la revisión de la literatura.


Fuente: Salzmann, Ionescu y Steger (2005).

El planteamiento crítico también está presente en el trabajo de Tranfield,


Denyer y Smart (2003). Estos autores valoran el rigor metodológico y la
relevancia práctica de los trabajos existentes dentro de su ámbito de estudio
(figura 4.32).
Figura 4.32. Ejemplo de resultados de la revisión de la literatura.
Fuente: Tranfield, Denyer y Smart (2003).

Cuando existen muchos trabajos de índole empírica, con resultados no


siempre coincidentes, una posible forma de globalizar consiste en elaborar un
meta análisis. El meta análisis ofrece un proceso formal y objetivo de revisar
los resultados obtenidos por un conjunto de trabajos empíricos. Con este fin,
se utilizan métodos cuantitativos, que aportan información sobre el nivel de
significación estadística de los resultados obtenidos, para intentar alcanzar
unos resultados generales que se pueden desprender de la acumulación de los
resultados de los trabajos locales.
De forma similar al tratamiento que se hace de los resultados de una
estimación, los de un meta análisis tienen evidentes limitaciones, dado que
puede ser criticado, refinado y mejorado. Su gran ventaja es que permite
obtener una generalización de los resultados parciales, totalmente
inimaginables en las revisiones de la literatura que no son sistemáticas.
Desarrollar, con más contenidos, los métodos de estimación habituales al
meta análisis supera ampliamente las limitaciones razonables de este capítulo.
Las personas interesadas pueden encontrar las referencias relativas a esta
técnica en el trabajo de Stanley y Stanley (2016), donde se presenta una
recopilación de trabajos que desarrollan este método (figura 4.33).

Figura 4.33. Ejemplo de resultados de la revisión de la literatura.


Fuente: Stanley y Stanley (2016).

4.6. Conclusiones
Este capítulo ha desarrollado los requerimientos necesarios, las características
habituales y los pasos que componen la revisión sistemática de la literatura.
Para ser bien valorado dentro del ámbito de las ciencias sociales, un trabajo
de investigación propondrá, como valor añadido, la posible respuesta a una
pregunta de investigación que no tenga una respuesta obvia y que sea
trascendente para el conjunto de seres humanos. Por otra parte, a diferencia
de otros textos escritos, el trabajo académico siempre debe fundamentarse en
los trabajos previos, que definen el punto de partida de cualquier nueva
investigación. Para ayudar a conseguir un resultado valioso de la
investigación bibliométrica, este capítulo ha definido las fases que se deben
desarrollar y el conjunto de actividades incluidas en cada una de ellas. En este
sentido, una revisión sistemática, coherente y bien organizada de los trabajos
existentes es el fundamento sobre el que se ha de construir cualquier futuro
trabajo de investigación.

Bibliografía
Abidi, H. y Klumpp, M. (2013). Performance measurement in humanitarian
logistics: a literature review. NOFOMA Conference Proceedings.
Göteborg, Suecia.
Apostolou, B., Watson, S. F., Hassell, J. M. y Webber, S. A. (2001).
«Accounting education literature review (1997-1999)». Journal of
Accounting Education. 19 (1), pp. 1-61.
Aspelund, A. (2006). A review of the foundation , international marketing
strategies , and performance of international new ventures, pp. 1423-1448.
Disponible en: http://doi.org/10.1108/03090560710821242.
Brereton, P., Kitchenham, B. A., Budgen, D., Turner, M. y Khalil, M. (2007).
«Lessons from applying the systematic literature review process within the
software engineering domain». Journal of Systems and Software. 80 (4),
pp. 571-583. Disponible en: http://doi.org/10.1016/j.jss.2006.07.009.
Croom, S., Romano, P. y Giannakis, M. (2000). «Supply chain management:
an analytical framework for critical literature review». European Journal of
Purchasing & Supply Management. 6 (1), pp. 67-83. Disponible en:
http://doi.org/10.1016/S0969-7012 (99)00030-1.
Dumay, J., Bernardi, C., Guthrie, J. y Demartini, P. (2016). «Integrated
reporting: A structured literature review». Accounting Forum. 40 (3), pp.
166-185. Disponible en: http://doi.org/10.1016/j.accfor.2016.06.001.
Garcia, R. y Calantone, R. (2002). «A critical look at technological
innovation typology and innovativeness terminology: a literature review».
Journal of Product Innovation Management. 19 (2), pp. 110-132.
Healy, P. M. y Palepu, K. G. (2001). «Information asymmetry, corporate
disclosure, and the capital markets: A review of the empirical disclosure
literature». Journal of Accounting and Economics. 3 1 (1), pp. 405-440.
Hoffman, K., Parejo, M., Bessant, J. y Perren, L. (1998). «Small firms, R&D,
technology and innovation in the UK: a literature review». Technovation.
18 (1), pp. 39-55. Disponible en: http://doi.org/10.1016/S0166-4972
(97)00102-8.
Janssen, L., Claus, T. y Sauer, J. (2016). «Literature review of deteriorating
inventory models by key topics from 2012 to 2015». International Journal
of Production Economics. 182, pp. 86-112.
Neely, A., Gregory, M. y Platts, K. (1995). «Performance measurement
system design: a literature review and research agenda». International
Journal of Operations & Production Management. 15 (4), pp. 80-116.
Nickel, M. N. y Rodriguez, M. C. (2002). «A review of research on the
negative accounting relationship between risk and return: Bowman’s
paradox». Omega. 30 (1), pp. 1-18. Disponible en:
http://doi.org/10.1016/S0305-0483 (01)00055-X.
Petty, R. y Guthrie, J. (2000). «Intellectual capital literature review:
measurement, reporting and management». Journal of Intellectual Capital.
1 (2), pp. 155-176.
Rebele, J. E., Apostolou, B. A., Buckless, F. A., Hassell, J. M., Paquette, L.
R. y Stout, D. E. (1998). «Accounting education literature review (1991-
1997), part II: Students, educational technology, assessment, and faculty
issues». Journal of Accounting Education. 16 (2), pp. 179-245. Disponible
en: http://doi.org/10.1016/S0748-575 1 (98)00010-4.
Reed, M. S. (2008). «Stakeholder participation for environmental
management: a literature review». Biological Conservation. 14 1 (10), pp.
2417-2431.
Roos, J., Roos, G., Dragonetti, N. C. y Edvinsson, L. (1997). Intellectual
Capital. Palgrave Macmillan UK, Londres. Disponible en:
http://doi.org/10.1007/978-1-349-14494-5.
Salzmann, O., Ionescu-Somers, A. y Steger, U. (2005). «The business case
for corporate sustainability: literature review and research options».
European Management Journal. 23 (1), pp. 27-36.
Seuring, S. y Müller, M. (2008). «From a literature review to a conceptual
framework for sustainable supply chain management». Journal of Cleaner
Production. 16 (15), pp. 1699-1710.
Srivastava, S. K. (2007). «Green supply-chain management: a state-of-the-art
literature review». International Journal of Management Reviews. 9 (1),
pp. 53-80.
Stanley, A. T. D. y Stanley, T. D. (2016). «Wheat From Chaff : Meta-
Analysis As Quantitative Literature Review». Journal of Economic
Perspectives. 15 (3), pp. 131-150. Disponible en:
http://www.jstor.org/stable/2696560
Tranfield, D., Denyer, D. y Smart, P. (2003). «Towards a Methodology for
Developing Evidence-Informed Management Knowledge by Means of
Systematic Review». British Journal of Management. 14 (3), pp. 207-222.
Disponible en: http://doi.org/10.1111/1467-8551.00375.
5 Formulando la pregunta de investigación y la propuesta de investigación

5
FORMULANDO LA PREGUNTA DE
INVESTIGACIÓN Y LA PROPUESTA DE
INVESTIGACIÓN
Dolors Gil-Doménech, Jasmina Berbegal-Mirabent, Frederic Marimon,
Marta Mas-Machuca y Ramon Bastida
(UIC)

Objetivos del capítulo

• Destacar la importancia y dificultad de elegir una pregunta y una propuesta de investigación


adecuadas.
• Plantear diferentes técnicas que se pueden utilizar para generar ideas e identificar temas de
investigación adecuados.
• Establecer maneras de refinar los temas de investigación generados en un primer paso con el
objetivo de concretarlos en una pregunta de investigación.
• Explicar cómo desarrollar la pregunta de investigación y la propuesta de investigación.

5.1. Introducción
En todo estudio académico, el proceso de identificar y definir una pregunta
de investigación adecuada resulta un elemento crucial, dado que es el punto
de partida de la investigación. La pregunta de investigación, y la propuesta de
investigación que se deriva, resultan el fundamento y justificación de todo el
posterior trabajo. Por este motivo su formulación es una tarea a la que vale la
pena dedicar tiempo y esfuerzo (Blaxter et al., 2010). Si el estudio no está
fundamentado en una pregunta de investigación adecuada, el trabajo llevado
a cabo en su elaboración será en vano, dado que o bien no dará los frutos
deseados, o no añadirá valor al conocimiento existente. Por otra parte, si la
investigación está adecuadamente sustentada en la pregunta y la propuesta de
investigación, los resultados que se deriven pueden constituir un activo
valioso en el campo de investigación en el que se enmarque.
A medida que se avanza en la investigación, el investigador utiliza y
desarrolla una serie de habilidades y conocimientos en el área de estudio, lo
que pone también de manifiesto la importancia de dirigir correctamente esta
investigación con una pregunta adecuada. Ahora bien, encontrar una pregunta
de investigación adecuada no es algo fácil. De hecho, es uno de los aspectos
más difíciles de todo el proceso investigador. Obtener ideas de posibles
investigaciones y decidir la línea a seguir implica tomar una serie de
decisiones que marcarán toda la investigación futura.
Si bien es cierto que hay factores y disposiciones que indudablemente
ayudarán en el proceso de buscar una pregunta de investigación correcta,
como la creatividad o una inquietud por el saber que lleve a estar al día de las
líneas de investigación más punteras, hay una serie de métodos que pueden
colaborar a «que venga la inspiración». En el presente capítulo se detallan
algunas de estas técnicas que potencian la generación de ideas y la
identificación de temas de investigación adecuados, lo que constituye el
primer paso de todo proceso investigador.
En una segunda fase, una vez obtenidos los posibles temas que investigar,
será necesario un refinamiento de estos. De entre estos, habrá que saber cómo
analizar cuáles de ellos tienen impacto y son relevantes dentro del ámbito de
estudio. Este proceso requiere recoger información complementaria,
consultar con expertos, replantear los fundamentos teóricos, etc. El producto
final de esta etapa se concretará en una pregunta de investigación que será la
que conducirá al investigador a lo largo de todo el estudio. El éxito final de la
investigación vendrá determinado por la capacidad de este de poder dar una
respuesta a la pregunta fijada. Se exponen, pues, en el presente capítulo
algunas estrategias para ayudar al investigador a llevar a cabo este proceso de
refinamiento, y una vez decidido el tema, materializarlo en una pregunta de
investigación.
Por último, se explica cómo, a partir de la pregunta de investigación
anterior, se construye una propuesta de investigación. Se propone así un
conjunto de indicaciones sobre el contenido de esta propuesta. Asimismo, se
presentan algunas técnicas que permiten detectar si tanto la pregunta como la
propuesta son adecuadas.

5.2. La pregunta de investigación: cuán importante es y por qué es


difícil encontrarla
A la hora de emprender una investigación, la elección de la pregunta de
investigación es, posiblemente, la decisión más importante que habrá que
tomar en todo el proceso (Blaxter et al., 2010). Hay que tener en cuenta que
el hecho de dar respuesta a la pregunta permitirá al investigador demostrar
sus habilidades y aumentar así la probabilidad de conseguir apoyo para su
investigación futura. Esto por lo general supone una especialización cada vez
mayor. Por este motivo una buena pregunta debe enfocarse en un tema que
cautive al investigador, le preocupe y esté dispuesto a sacrificar tiempo y
esfuerzo para llevar a cabo una investigación influyente (Bean, 2011). De
este modo, a la hora de empezar a perfilar esta pregunta, vale la pena
considerar los siguientes dos aspectos relacionados con el propio
investigador:
• La pregunta de investigación le ha de resultar interesante.
• La pregunta de investigación le ha de permitir desarrollar y potenciar su
conocimiento y habilidades.
Tan importante es elegir una pregunta de investigación que guste e interese
en el investigador como que este sea capaz de darle respuesta. Por ello, antes
de comenzar con el proceso, resulta necesario un autoconocimiento que
permita contestar preguntas como:
• Qué me gusta.
• Qué me interesa.
• Cuáles son mis puntos fuertes y débiles.
• ¿Soy capaz de adquirir el conocimiento y las habilidades que requiere la
investigación en el futuro?
• De qué recursos dispongo que me puedan ser de utilidad.
El grado de autoconocimiento que implica, así como el gran abanico de
posibilidades que hay, el miedo a equivocarse en la pregunta (¿será
demasiado difícil de contestar?, ¿estará ya investigada?, ¿será interesante
también para la comunidad científica?, etc.), o la tentación de reutilizar
trabajos hechos con anterioridad son, entre otros, factores que dificultan la
elección de la pregunta de investigación (Saunders et al., 2009). Sin embargo,
en el propio proceso investigador existen una serie de técnicas que pueden
ayudar a superar estas barreras proveyendo al investigador de ideas de
posibles temas de investigación. Algunas de estas técnicas se recogen en el
siguiente apartado.

5.3. Cómo generar ideas e identificar temas de investigación adecuados


La generación de ideas e identificación de temas de investigación no es cosa
de un rato, sino que puede suponer días, incluso semanas. Es algo con lo que
hay que vivir, y hay que irle dando vueltas a lo largo de todo el proceso. La
inspiración puede venir en cualquier momento, motivada por cualquier
circunstancia, por lo que hay que estar atento y preparado. Según Clough y
Nutbrown (2012), un buen investigador es aquel que es capaz de mirar,
escuchar, leer y cuestionar de una manera radical, rompedora. Es
determinante disponer y construir un espíritu crítico que ayude a ver el
mundo con ojos distintos de aquel que simplemente contempla como
observador pasivo. Hay que mirar más allá del propio conocimiento para
enriquecerlo y transformarlo.
Existen varias técnicas que pueden propiciar y facilitar la inspiración tan
necesaria para comenzar el proceso investigador. En la figura 5.1 se detallan
diez de las más frecuentemente utilizadas.

1. Intentar dar respuesta a las preguntas de autoconocimiento formuladas en el apartado anterior y dedicarle tiempo
a pensar.
2. Preguntar al entorno.
3. Mirar títulos de trabajos de investigación previos.
4. Examinar trabajos de investigación previos.
5. Examinar trabajos anteriores propios.
6. Leer literatura relevante que sea de interés.
7. Estar al día de las nuevas investigaciones.
8. Hacer una lluvia de ideas (brainstorming).
9. Elaborar un mapa conceptual.
10. Escribir anotaciones de ideas.
Figura 5.1. Diez técnicas de generación de ideas. Fuente: Saunders y Lewis (2012).

A continuación se desglosan cada una de las diez técnicas presentadas con


el objetivo de concretar cómo se pudieron hacer efectivas y dar lugar a
resultados positivos:
1. Intentar dar respuesta a las preguntas de autoconocimiento
Habrá que hacer un proceso de autorreflexión, preparando un listado que
incluya:
• Temas que interesen al investigador. Se puede empezar por hacer una
recopilación de aficiones, y ver si estas tienen una concreción en algún
ámbito de investigación.
• Puntos fuertes que puedan potenciarse en una investigación y puntos
débiles que deban evitarse.
• Capacidad de estudio para adquirir el conocimiento necesario que
requiera la investigación en el futuro, así como capacidad de adquirir nuevas
habilidades.
• Recursos necesarios para la investigación (materiales y humanos) de que
se disponga.
2. Preguntar al entorno
Tanto en lo que respecta al conocimiento de uno mismo (a veces podemos no
ser objetivos cuando se trata de autoevaluarnos) como temas que puedan ser
interesantes, resultará de elevada utilidad preguntar al entorno: tutores,
profesores, amigos, colegas, profesionales, familiares, etc. Los tutores y
profesores, basándose en la investigación de otros estudiantes o en la suya
propia, habitualmente tienen temas sobre investigaciones que pueden ser
interesantes y añadir valor al conocimiento existente. Por otro lado, la visión
de profesionales puede ayudar a detectar carencias en la industria a las que se
pueda intentar dar respuesta desde un ámbito académico. Es recomendable en
este sentido la asistencia a congresos y eventos que fomenten el contacto con
las empresas, ya que constituyen una plataforma ideal para conocer de
primera mano los últimos avances y tendencias en el sector industrial. Por
último, el entorno más próximo puede ayudar a adquirir la visión objetiva que
señalábamos como importante para el propio conocimiento.
3. Mirar títulos de trabajos de investigación previos
En la biblioteca de la propia institución donde se pretenda llevar a cabo la
investigación posiblemente haya disponible un repositorio que contenga los
títulos de trabajos de investigación anteriores elaborados por otros
investigadores. Leer estos títulos puede ayudar a hacerse una idea del tipo de
investigación adecuada.
4. Examinar trabajos de investigación previos
De entre todos los títulos de trabajos de investigación previos, seguramente
haya unos cuantos que hayan llamado la atención del investigador y otros que
haya descartado rápidamente. Entre los que considera interesantes, es
recomendable que seleccione unos cuantos, no más —Raimond (1993)
recomienda escoger seis—, los examine y anote para cada uno de ellos por
qué cree que es interesante y qué tiene de bueno. De entre los descartados,
también es recomendable que haga el mismo ejercicio: seleccionar unos
pocos —Raimond (1993) recomienda elegir tres—, examinarlos y anotar para
cada uno de ellos por qué no lo considera interesante y qué tiene de malo.
Este listado ayudará al investigador a detectar qué le interesa y qué no, y qué
considera bueno y qué no, lo que puede servir de guía para determinar el
propio camino a seguir.
5. Examinar trabajos anteriores propios
Quizás anteriormente se haya realizado algún tipo de investigación a pequeña
escala, en la que el investigador haya disfrutado y de la que, incluso, haya
obtenido buenas valoraciones. Si de esta tarea se derivaron cuestiones que
quedaron sin respuesta, puede resultar un punto de partida en el que basar la
nueva investigación.
6. Leer literatura relevante que sea de interés
Leer literatura relevante siempre es una buena idea, y más teniendo en cuenta
que la base y fundamento de la investigación recaerá en la revisión
bibliográfica de lo hecho hasta el momento. Acudir a los autores y libros más
relevantes en los ámbitos de interés sin duda ayudará en el proceso de centrar
la investigación. Habitualmente, los artículos académicos incorporan
apartados que incluyen sugerencias para futuras investigaciones. En otras
ocasiones, hay trabajos que evidencian deficiencias que sugieren que un
problema se debe reexaminar desde una perspectiva diferente (Bean, 2011).
Una fuente particularmente valiosa en esta línea son las revisiones de
artículos académicos, dado que de un lado incorporan el estado del
conocimiento en un tema determinado y por otro detallan las áreas
relacionadas con el tema en las que será necesario desarrollar futuras líneas
de investigación.
7. Estar al día de las nuevas investigaciones
Estar al día de las nuevas investigaciones, siguiendo los medios de
comunicación, blogs o redes sociales de investigadores o revistas académicas
de interés, puede resultar muy útil, tanto para saber por dónde se está
construyendo conocimiento como para intentar buscar sinergias y
colaboraciones futuras. En este sentido, es recomendable hacer uso de
plataformas como Web of Science, Scopus, ResearchGate, Google Scholar o
Mendeley, entre otras. En muchas de estas plataformas existe la opción de
crear alertas, concretadas habitualmente en la recepción de un correo
electrónico, que nos permitan seguir autores, revistas o temas que nos
resulten de interés.
8. Hacer una lluvia de ideas (brainstorming)
La lluvia de ideas es una herramienta de gran utilidad, sobre todo cuando se
lleva a cabo con otras personas que puedan servir de ayuda. Consiste en
primer lugar en formular un tema de interés de una manera tan precisa como
sea posible, del estilo «me interesa el efecto que tiene la moda en los hábitos
de consumo, pero no sé cómo concretarlo en una pregunta de investigación».
A continuación, habrá que anotar todas los sugerencias e ideas que surjan. Es
importante que todo el mundo diga lo que le venga a la cabeza al respecto y
que anote todo lo que se diga, aunque en un primer momento no parezca
interesante. A posteriori, se deberá considerar lo que ha surgido y explorar su
sentido. Una vez hecho esto, el investigador tendrá que decidir qué ideas y
sugerencias considera mejores y por qué.
9. Elaborar un mapa conceptual
Los mapas conceptuales permiten una representación gráfica de las ideas y de
las interconexiones entre ellas, fomentando así la visión de conjunto. Se
presentan en forma de red, donde los nodos representan conceptos y los
enlaces, las relaciones entre estos conceptos. En su elaboración se empieza
por situar una idea general, y a partir de ahí se van relacionando otras ideas
con la primera, cada vez con mayor nivel de detalle. El objetivo de estos
mapas es el de ayudar a organizar el conocimiento sobre un tema y, a la vez,
detectar de una manera visual las carencias que hay en este conocimiento.
Así, la confección de mapas conceptuales puede ayudar como fuente de
inspiración para temas de investigación que añadan valor al conocimiento
existente. Pese a que quizás en un primer momento la elaboración de un
mapa conceptual pueda parecer una tarea pesada, existen en la red una gran
variedad de recursos online (gratis muchos de ellos) que permiten ordenar
ideas y crear mapas de una forma sencilla e intuitiva.
10. Escribir anotaciones de ideas
Como hemos comentado anteriormente, la inspiración puede venir en
cualquier instante y ser motivada por cualquier circunstancia. Por ello,
durante los días en que dure la búsqueda del tema que se va a investigar, es
recomendable en todo momento disponer de una herramienta en la que anotar
las ideas que puedan ir surgiendo. Esta herramienta puede ser por ejemplo
una libreta o un bloc de notas en el teléfono móvil o cualquier dispositivo
portátil. Lo importante es llevarla encima en todo momento y, por tanto, que
sea algo fácil de transportar. Con posterioridad, leer las anotaciones que
hemos ido haciendo nos puede ser de gran ayuda.

5.4. Cómo definir el tema final de la investigación y cómo saber si es


adecuado
Una vez encontrados los posibles temas de investigación, será necesario
refinarlos para determinar el definitivo, pasando así de lo que podrían ser
ideas generales a una concreción específica de estas. Si al investigador le
cuesta hacer este paso, le resultaría de gran utilidad acudir a un panel de
expertos que estén involucrados o interesados en el tema que se pretende
estudiar. Hallado el panel de expertos, se puede emplear el método Delphi
para generar y seleccionar una idea de investigación específica y, de este
modo, llegar a concretar el tema que investigar.
El método Delphi es una técnica de comunicación estructurada a partir de
la cual un grupo de expertos, conjuntamente, hacen frente a problemas
complejos que se les plantean mediante consultas sucesivas. Concretamente,
los pasos que el investigador deberá seguir en la aplicación de este método se
detallan en la figura 5.2.
1. Explicar los temas de investigación a los expertos, de manera que quede muy claro el mensaje que se pretende
transmitir. Si los expertos piden o necesitan información adicional, proveerlos.
2. Pedir a cada asistente (incluido el propio investigador) que de manera individual proponga hasta tres ideas de
investigación específicas basadas en los temas de investigación planteados.
3. Recoger todas las ideas de investigación específicas planteadas, de una manera anónima, y distribuirlas entre
todos los asistentes.
4. Repetir los pasos 2 y 3 en una segunda fase del proceso, durante la que los asistentes comenten las ideas de
investigación y redefinan sus propias ideas en función de lo comentado.
5. Volver a consultar sucesivamente a los expertos hasta que llegue un consenso. Esto puede hacerse repitiendo los
pasos 2 y 3, o bien dialogando, votando o aplicando algún otro método de decisión.
Figura 5.2. Pasos del método Delphi. Fuente: Saunders y Lewis (2012).

En último término, nadie puede asegurar que la investigación sea exitosa,


pero sí que existen factores que ayudarían a detectar si el tema que investigar
es idóneo. Algunas de las características que hacen que el tema de
investigación sea adecuado se recogen en la figura 5.3.

• Interesa al investigador y, además, está en línea de los objetivos de su carrera.


• Se dispone de recursos para llevar a cabo la investigación fijada, sobre todo de datos (o de posibilidades de
obtener) y de tiempo.
• Se dispone del conocimiento previo y habilidades necesarias para poder desarrollar.
• Se dispone del conocimiento previo y habilidades necesarias para poder desarrollar la investigación.
• Es de actualidad.
• Independientemente del resultado que se obtenga, vale la pena investigarlo.
• Cumple con los requerimientos de la institución donde se desarrollará la investigación.
• Está claramente relacionado con la literatura relevante.
• Proporciona nuevas ideas y añade valor al conocimiento existente.
• Permite detectar claramente la pregunta y los objetivos de la investigación.
Figura 5.3. Características para la adecuación del tema de investigación.
Fuente: Blaxter et al. (2010).

5.5. Cómo concretar los temas de investigación en una pregunta de


investigación
Una vez determinados los temas de investigación en los que se pretende
profundizar, resulta necesario concretar en una (o más de una) pregunta de
investigación. Esta pregunta debe ser precisa y reflejar el objetivo general de
la investigación. Dando respuesta a esta pregunta se deben poder obtener los
datos necesarios con los que formular las conclusiones del estudio.
La importancia de la pregunta de investigación radica precisamente en el
hecho de que de ella se derivan los objetivos de la investigación. En este
punto, es importante ser consciente de la diferencia entre los dos términos. Si
bien la pregunta de investigación contiene los temas de investigación y refleja
lo que se quiere dar respuesta con la investigación, los objetivos de la misma
son enunciados claros y concretos que, dando respuesta a la pregunta,
especifican lo que se pretende conseguir como resultado de llevar a cabo la
investigación. Para ilustrar los conceptos que hemos introducido, en la figura
5.4 puede verse una colección de ejemplos de temas, preguntas y objetivos de
investigación.

Figura 5.4. Ejemplos de temas, preguntas y objetivos de investigación.


Fuente: Elaboración propia.

Antes de definir la pregunta de investigación, es importante tener en cuenta


que esta deberá cumplir los siguientes requisitos:
• Ha de estar relacionada con el tema de investigación que se ha
concretado.
• No ha de ser tan fácil como para no requerir de una investigación
profunda para darle respuesta.
• No ha de ser tan difícil como para no poder contestarse una vez se lleve a
término la investigación.
• Ha de ser adecuada al contexto social en que se desarrollará la
investigación. En este sentido, es necesario reflexionar sobre si el tema
elegido es susceptible de herir sensibilidades.
Un método para la generación de preguntas de investigación es el
propuesto por Clough y Nutbrown (2012) llamado Russian doll (‘muñeca
rusa’). Emulando este tipo de muñecas, que se van abriendo para revelar
finalmente una pequeña muñeca en el interior, los autores sugieren partir de
una pregunta e irla formulando y reformulando para darle un enfoque cada
vez más preciso y concreto. De este modo, utilizando como punto de partida
una pregunta inicial y trabajos sobre esta, se irá perfilando la pregunta de
investigación definitiva.

5.6. Una vez determinada la pregunta de investigación, cómo saber si


es adecuada
Se concluiría que la pregunta de investigación es adecuada si presenta las
características que se muestran en la figura 5.5.
• Se ajusta a las especificaciones y a los requisitos de la institución donde se desarrollará la investigación.
• Presenta un vínculo claro con la literatura relevante.
• Es susceptible de proporcionar resultados nuevos y valiosos en el tema de investigación que se ha elegido.
Figura 5.5. Características para la adecuación de la pregunta de investigación. Fuente: Saunders
y Lewis (2012).

Cabe destacar la última característica enunciada, ya que es la que justifica


la utilidad de la investigación. Una investigación adecuada es aquella que
añade valor al conocimiento existente. Por tanto, la pregunta de investigación
debe ir enfocada a aportar un valor añadido. Una pregunta no adecuada sería,
por ejemplo, «¿cuántos estudiantes universitarios hay en Cataluña?», ya que
es una pregunta sencilla de contestar y no añade valor. En cambio,
preguntarse «¿qué efecto tiene el hecho de estudiar un grado universitario en
las pautas de consumo cultural?» podría dar lugar a resultados interesantes en
el ámbito de la cultura y la educación.
Una manera de intentar determinar si la pregunta de investigación es
adecuada es hacer un estudio preliminar para ver si puede llevar a resultados
satisfactorios y añadir valor al conocimiento existente. Dependiendo del tipo
de investigación que se pretenda llevar a cabo, este estudio preliminar podría
consistir en hacer tan solo una revisión de la literatura, recoger datos
existentes, pasar encuestas o consultar expertos o profesionales relacionados
con el tema. El objetivo del estudio preliminar es el de testar la pregunta de
investigación para ver si conduce a una investigación viable.
Otra forma de intentar averiguar si la pregunta de investigación es
adecuada es someterla al Goldilocks test (‘Test Ricitos de Oro’) propuesto
por Clough y Nutbrown (2012). Al igual que en el cuento Ricitos de Oro y
los tres osos la protagonista clasifica elementos situándolos en un extremo
(demasiado caliente o demasiado grande), en el extremo opuesto (demasiado
frío o demasiado pequeño), o justamente en el punto correcto, el Goldilocks
test sugiere hacer una lista de preguntas de investigación posibles y decidir si
son too big (‘demasiado grandes’), too small (‘demasiado pequeñas’), too hot
(‘demasiado calientes’) o just right (‘simplemente correctas’). De este modo,
la metáfora planteada por el cuento ayuda a reflexionar sobre la idoneidad de
las preguntas de investigación en términos del investigador, el entorno y el
momento en que se llevará a cabo la investigación. La figura 5.6 ilustra los
motivos por los que se puede clasificar una pregunta según el Goldilocks test.

Figura 5.6. Motivos por los que es posible clasificar una pregunta según el Goldilocks test.
Fuente: Clough y Nutbrown (2012).

5.7. Cómo desarrollar la propuesta de investigación


Una vez decidida la pregunta de investigación, es la hora de elaborar la
propuesta de investigación. En esta fase es recomendable que el investigador
dirija las siguientes cuestiones (Clough y Nutbrown, 2012):
• Cuál es el tema de investigación en el que se ha de basar el estudio.
• Cuáles serán los límites del estudio.
• Qué trabajo requerirá dar respuesta a las preguntas empíricas.
• Cuáles son los problemas empíricos y éticos que pueden surgir y el plan
de respuesta a estos problemas.
Estas preguntas pueden concretarse de forma ilustrativa en una serie de
pasos que se muestran en la figura 5.7. Cabe decir que, aun siendo
recomendables, son pasos orientativos y que, en última instancia, debe ser el
investigador quien decida cuáles de ellos quieren seguir teniendo en cuenta
los requerimientos fijados por la institución donde se desarrolla la
investigación y la línea que pretende seguir.
1. Introducir el tema que investigar y especificar la pregunta de investigación.
2. Explicar los antecedentes en la investigación del tema escogido.
3. Detallar los objetivos.
4. Decidir el tipo de estudio que realizar y la metodología que utilizar.
5. Planificar y describir el proceso de recolección de datos.
6. Reportar posibles limitaciones y problemas éticos del estudio.
7. Especificar y planificar las fases de la investigación.
8. Proporcionar un índice orientativo.
9. Citar las fuentes que consultar.
10. Presentar las referencias citadas.
Figura 5.7. Pasos orientativos para la elaboración de la propuesta de investigación. Fuente:
Elaboración propia.

A continuación, se explica cada uno de los pasos enunciados con el


objetivo de clarificar en qué consisten y cómo se pueden concretar en la
propuesta de investigación:
1. Introducir el tema que investigar y especificar la pregunta de
investigación
Es importante, para empezar, contextualizar el tema que investigar y
presentar la relevancia del estudio que se llevará a cabo. En este sentido, será
de gran utilidad hacer una recopilación de todo lo que ha ayudado a definir el
tema de investigación. Es recomendable utilizar como pauta las
características para la adecuación del tema detalladas en la figura 5.3 y
concretar cómo el tema elegido cumple estas características. Sería bueno,
pues, justificar el interés del investigador por el tema, la disponibilidad de
conocimientos, habilidades y recursos para llevar a cabo la investigación, la
actualidad y utilidad, la adecuación a los requerimientos de la institución, la
relación con la literatura relevante y la potencial aportación de valor a la
investigación existente.
2. Explicar los antecedentes en la investigación del tema escogido
A la hora de enmarcar el trabajo en el conocimiento actual, resulta primordial
empezar por hacer una revisión bibliográfica de lo investigado hasta el
momento en el tema de investigación. La lectura de artículos académicos,
revisiones de artículos, libros, presentaciones en congresos y otro material
divulgativo será de gran ayuda para conocer los autores y las investigaciones
más relevantes en el ámbito de estudio. En la propuesta de investigación será
necesario por tanto resumir qué se ha hecho hasta el momento (citando los
autores y trabajos más relevantes) y explicar qué línea seguirá la propia
investigación y qué se pretende aportar al conocimiento existente.
3. Detallar los objetivos
En este punto se presentan los objetivos de la investigación. El objetivo
general, planteado en forma de enunciado claro y concreto, especifica qué se
pretende conseguir como resultado de llevar a cabo la investigación. Y se
concreta en propósitos específicos. Así, estos últimos señalan el camino que
seguir para conseguir el objetivo general. Opcionalmente, en la
especificación de los objetivos, pueden detallarse los operativos, que son
aquellos que desarrollan y concretan en un mayor nivel los específicos. De
este modo, el cumplimiento de estos debe poderse cuantificar y medir
haciendo uso de indicadores. Para ilustrar estos conceptos, en la figura 5.8 se
muestra un ejemplo de objetivo general y su concreción en objetivos
específicos y operativos.

Figura 5.8. Ejemplo de objetivos general, específicos y operativos.


Fuente: elaboración propia.

Siguiendo las recomendaciones de la Red Telemática Educativa de


Cataluña (XTEC), en la redacción de los objetivos es recomendable utilizar
verbos en infinitivo que expresen la acción que se pretende llevar a cabo. En
el caso de los genéricos, es aconsejable hacer uso de verbos más abstractos,
como, por ejemplo, favorecer, ayudar, conocer, concienciar, consolidar,
fomentar, impulsar, orientar, mejorar, promocionar, prevenir o potenciar. Por
otra parte, para los específicos y operativos, es más apropiado emplear verbos
más concretos, que especifiquen la naturaleza de la acción que desarrollar.
Algunos ejemplos serían aumentar, calcular, comprobar, crear, disminuir,
enumerar, obtener, organizar, realizar o resolver.
Los objetivos marcan el rumbo que seguirá la investigación. Por este
motivo, una correcta formulación de estos resulta un elemento clave. Con el
fin de intentar garantizar su utilidad y adecuación, puede emplearse el
SMART test. Según este test, los objetivos fijados serán Specific
(‘específicos’), Measurable (‘medibles’), asignable/achievable
(‘asignables/alcanzables’), Realistic (‘realistas’) y Time-related (‘definidos
en el tiempo’). La explicación de estas características se muestra en la figura
5.9.

Figura 5.9. Características del SMART test. Fuente: Doran (1981).

4. Decidir el tipo de estudio que realizar y la metodología que emplear


El tipo de estudio que se pretenda realizar marcará qué metodología se
seguirá: cuantitativa o cualitativa. La metodología cualitativa ayuda a
describir y documentar las experiencias de aquellos que se enfrentan a un
determinado fenómeno. Por otro lado, el énfasis de la metodología
cuantitativa está en recoger y analizar información cuantificable aplicando
herramientas estadísticas. En último término, la metodología que emplear
vendrá determinada por la naturaleza del fenómeno que se pretenda estudiar.
En función del tipo de datos que se quieran recoger (descripciones o
números) podrá seleccionarse la metodología que mejor case.
5. Planificar y describir el proceso de recolección de datos
El proceso de recolección de datos vendrá determinado por el objetivo, la
metodología que seguir, el tipo de información requerida y los recursos
(materiales y humanos) disponibles. En este paso será necesario que el
investigador identifique cuál es la población objeto de estudio y especifique
tanto los criterios de inclusión y exclusión de participantes como el tamaño
que debe tener la muestra para ser representativa. En metodologías
cualitativas, los métodos más comunes para recoger datos son entrevistas,
grupos focales y observaciones. Por otro lado, en estudios cuantitativos es
habitual recurrir a bases de datos existentes para obtener los datos necesarios.
Es recomendable en este punto hacer un estudio piloto, como una versión a
pequeña escala del proceso de recolección de datos para la investigación. Este
estudio piloto servirá a el investigador para familiarizarse con el proceso y
detectar si es necesario introducir algún cambio con el fin de mejorar la
calidad de los datos que se obtengan en la consecución de la investigación
principal.
Los contenidos de los pasos 4 y 5 se explicarán en más detalle en el
capítulo 7, que se dedica íntegramente a las decisiones sobre el diseño del
trabajo de campo que se va a realizar.
6. Reportar posibles limitaciones y problemas éticos del estudio
Es importante que el investigador conozca y reporte las limitaciones
(presentes en toda investigación) que puedan producirse de su investigación,
así como los posibles problemas éticos que puedan surgir. Será necesario por
tanto hacer enmienda a estos aspectos en la propuesta de investigación y
apuntar posibles maneras de hacerles frente.
7. Especificar y planificar las fases de la investigación
La propuesta de investigación debe incluir una planificación de la
investigación realista, concretada en unas fases que seguir y un horizonte
temporal en el que llevar a cabo cada una de estas fases. La gestión del
tiempo resulta un elemento de gran importancia para poder finalizar el
proyecto en el plazo marcado.
8. Proporcionar un índice orientativo
Hacer un primer esbozo del índice ayudará a estructurar la investigación y
visualizar lo que se pretende conseguir con la investigación. Este índice se
podrá utilizar de guía en la investigación que se va a desarrollar, y estará
sujeto a cambios y matices a medida que esta avance.
9. Citar las fuentes que consultar
En este punto se hará referencia a las fuentes que consultar, que incluirán:
revistas científicas, libros y capítulos de libro, revisiones de artículos, tesis
doctorales y literatura gris (documentos que no se distribuyen por los canales
de publicación convencionales). Es recomendable hacer especial énfasis en
las revistas con más publicaciones relevantes en el ámbito de estudio.
10. Presentar las referencias citadas
Todos los trabajos que se hayan citado en la propuesta deberán referenciarse
al final del texto. En este apartado debería aparecer la literatura más relevante
y deberían evitarse documentos de bajo impacto u obsoletos.

5.8. Conclusiones
El proceso investigador comienza para desarrollar una propuesta de
investigación que a su vez requiere haber fijado previamente un tema y una
pregunta de investigación. Elaborar una propuesta de investigación adecuada
resulta un elemento crucial en todo estudio académico, ya que es el punto de
partida de la investigación posterior.
Con el fin de terminar confluyendo en la formulación de la propuesta de
investigación, en el presente capítulo se ha comenzado por presentar una
recopilación de técnicas que se pueden utilizar para generar ideas e identificar
temas de investigación adecuadas, como la lectura de literatura relevante de
interés, la lluvia de ideas (brainstorming) o la elaboración de un mapa
conceptual, entre otros. A continuación, se han detallado diferentes maneras
de refinar los temas que investigar para acabar concretándolos en la pregunta
de investigación. En este sentido, se ha presentado el método Russian doll
como instrumento para acabar perfilando la pregunta de investigación
definitiva. Asimismo, se han presentado los criterios que deberían seguir
tanto el tema como la pregunta de investigación para ser adecuados, así como
diversos métodos para intentar determinar si realmente lo son. El método
Delphi, el Goldilocks test o la realización de un estudio preliminar siguen esta
línea. Por último, una vez fijada la pregunta de investigación, se ha explicado
cómo desarrollarla en la propuesta. Además, se han detallado una serie de
pasos orientativos que seguir para la elaboración de la propuesta de
investigación. En último término, esta debe contestar las tres preguntas
siguientes:
• QUÉ se investigará.
• POR QUÉ es importante lo que se investigará.
• CÓMO se llevará a término la investigación.
Llegados a este punto, solo nos queda, siguiendo a Vivar et al. (2007),
hacer una serie de consideraciones:
• Es posible introducir modificaciones al proyecto de investigación
original; de hecho, es algo habitual que el proyecto se vaya modificando a
medida que avanza la investigación.
• Es importante considerar la audiencia a la que se dirige la investigación a
la hora de elaborar la propuesta, para adecuarla a sus requerimientos.
• Hay que evaluar críticamente la propuesta antes de enviarla. En este
sentido, será necesario leer y releerla con el fin de intentar asegurar la
coherencia, identificar incongruencias o malentendidos y corregir errores
topográficos, gramaticales u ortográficos.

Bibliografía
Bean, J. P. (2011). «Intellect, light, and shadow in research design». En:
Conrad, C. F. y Serlin, R. C. The SAGE handbook for research in
education – Pursuing ideas as the keystone of exemplary inquiry. SAGE
Publications Inc, Los Angeles. pp. 165-182.
Blaxter, L., Hughes, C. y Tight, M. (2010). «How to research». Open
University Press, Buckingham.
Clough, P. y Nutbrown, C. (2012). A student’s guide to methodology. SAGE
Publications Ltd, Londres.
Doran, G. T. (1981). «There’s a SMART way to write management’s goals
and objectives». Management Review. 70 (11), pp. 35-36.
Raimond, P. (1993). Management projects: design, research and
presentation. Chapman & Hall, Londres.
Saunders, M. N. y Lewis, P. (2012). Doing research in business and
management: An essential guide to planning your project. Pearson
Education Ltd., Harlow.
Saunders, M. N., Lewis, P. y Thornhill, A. (2009). Research methods for
business students. Pearson Education Ltd., Harlow.
Vivar, C. G., McQueen, A., Whyte, D. A. y Armayor, N. C. (2007). «Getting
started with qualitative research: developing a research proposal». Nurse
Researcher. 14 (3), pp. 60-73.
6 Marco teórico y formulación de hipótesis y proposiciones

6
MARCO TEÓRICO Y FORMULACIÓN DE
HIPÓTESIS Y PROPOSICIONES
Marta Mas-Machuca, Ramon Bastida, Dolors Gil-Doménech, Jasmina
Berbegal-Mirabent y Frederic Marimon
(UIC)

Objetivos

Los objetivos principales que se tratan en este capítulo son los siguientes:

1. Definir el concepto de marco teórico (theoretical framework) y destacar su importancia después


de haber planteado la pregunta o preguntas de investigación.
2. Explicar cómo se formulan las hipótesis de trabajo que responden a las preguntas de investigación
establecidas en los estudios cuantitativos. En el caso de estudios cualitativos, es más adecuado formular
proposiciones, no hipótesis. Se incluirán también algunas consideraciones sobre estas proposiciones.
3. Plantear cómo a menudo estas hipótesis quedan interrelacionadas entre sí y establecer el modelo
de investigación (research model) que identifica las relaciones que se crean entre las diferentes
variables.

6.1. Introducción
El presente capítulo explica cómo establecer el marco teórico que puede
contextualizar mejor la pregunta o preguntas de investigación previamente
establecidas (ver capítulo 5). Esto permite formular la(s) hipótesis de trabajo
(o proposiciones, en el caso de estudios de tipo cualitativo) que responden a
las preguntas de investigación. A menudo, estas hipótesis están
interrelacionadas entre sí y configuran el modelo de investigación.
El capítulo se divide en tres partes. En la primera se definen los conceptos
básicos relacionados con el marco teórico de investigación y se introducen
sus componentes principales y las posibles técnicas para su construcción. En
la segunda se desarrollan los aspectos más relevantes de la formulación de
hipótesis en trabajos de investigación de tipo cuantitativo o empírico; y de
proposiciones en proyectos de investigación cualitativa. Finalmente, en la
tercera parte se explica cómo plantear el modelo de investigación.

6.2. Marco teórico


Después de completar la revisión de la literatura y plantear la(s) pregunta(s)
de investigación, el investigador está preparado para desarrollar el marco
teórico. En esta sección, explicamos el concepto y las funciones del marco
teórico, los componentes que forman parte de él, las diferentes metodologías
para elaborarlo, así como algunos consejos básicos para su redacción.

6.2.1. Concepto y funciones del marco teórico


Sekaran (1992) define el marco teórico como un modelo conceptual en el que
el investigador teoriza sobre las relaciones entre los diversos factores o
variables que previamente han sido identificadas como importantes para su
pregunta o preguntas de investigación.
En la misma línea, Svinicki (2010) considera que el marco teórico es un
conjunto de ideas (teorías) interconectadas sobre cómo funciona un fenómeno
particular y cómo se relacionan sus partes. Sirve de base para la comprensión
de los patrones de causalidad o correlación entre sucesos, ideas, notas,
conceptos, conocimientos y otros componentes de experiencias. En este
contexto, Fulton y Krainovich-Miller (2010) describen el marco teórico como
un mapa que ayuda a dar un sentido y entorno a las preguntas de
investigación o hipótesis.
Por tanto, debe demostrar una comprensión de las teorías y conceptos
relevantes para el tema de la investigación y que se refieren a áreas más
amplias de los conocimientos que se están considerando. En este sentido,
cada vez es más común que el marco teórico incorpore teorías de diversas
disciplinas.
Por otra parte, un buen marco teórico identifica y etiqueta las variables que
son más relevantes para la(s) pregunta(s) de investigación y describe las
interconexiones entre estas variables: independientes, dependientes y, si es
necesario, mediadoras. El desarrollo del marco teórico sirve para resolver las
cuestiones de por qué y cómo esperamos que sean las relaciones entre las
variables y la naturaleza y dirección de las relaciones entre estas.

6.2.2. Componentes del marco teórico


Sekaran (1992) identifica cinco componentes básicos que se deberían incluir
en cualquier marco teórico:
1. Las variables relevantes para el estudio deben estar claramente
identificadas y etiquetadas en el marco teórico.
2. El marco teórico debe explicar cómo dos o más variables están
relacionadas entre sí. Esto se debe realizar para las relaciones entre estas
variables importantes que existen en la teoría.
3. Si la naturaleza y la dirección de las relaciones se puede teorizar
teniendo en cuenta los resultados de los trabajos anteriores, entonces se
debería indicar si las relaciones serían positivas o negativas.
4. Debe haber una explicación clara de por qué se debería esperar que estas
relaciones existieran. Estos argumentos pueden basarse en los resultados de
los trabajos de investigación anteriores.
5. Es conveniente incluir un diagrama o mapa del marco teórico para que el
lector pueda visualizar las relaciones entre variables.
Para muchos investigadores, el desarrollo y el uso de la teoría es una de las
partes más complicadas en su investigación. Por este motivo, es
recomendable el uso del mapa conceptual como herramienta que permite
desarrollar y clarificar la teoría. Esta herramienta fue originalmente
desarrollada por Novak y Gowin (1984).
El mapa conceptual posibilita una representación visual de la teoría, una
imagen de lo que la teoría dice que está pasando en relación con el fenómeno
que se está estudiando. Este tipo de mapas no representa el estudio en sí, ni es
una parte específica del diseño de la investigación o propuesta de
investigación. No obstante, se pueden utilizar para presentar visualmente el
diseño del estudio. Por tanto pueden usarse como una herramienta para el
desarrollo del marco teórico. Y del mismo modo que una teoría, un mapa
conceptual contiene dos elementos: los conceptos y las relaciones entre ellos.
Estos suelen estar representados como círculos o cajas etiquetadas y como
flechas o líneas que conectan estos, respectivamente. Para ilustrar este
concepto, la figura 6.1 muestra un ejemplo de mapa conceptual.

Figura 6.1. Ejemplo de un mapa conceptual. Adaptación de Crosby, B. (1995).

6.2.3. Elaboración del marco teórico


Maxwell (2005) propone cuatro técnicas para obtener la información
necesaria para elaborar un marco teórico en un trabajo de investigación: (1)
los trabajos de investigación existentes, (2) el análisis exploratorio o prueba
piloto, (3) los experimentos y (4) el propio conocimiento del investigador.
1. Los trabajos de investigación existentes. Una de las principales fuentes
de información para elaborar un marco teórico es la teoría y la investigación
existentes. Sin embargo, no debería consistir simplemente en un resumen de
las publicaciones científicas consultadas en la revisión de la literatura. Esto
podría llevar a centrarse exclusivamente en la literatura e ignorar otras
fuentes conceptuales igualmente importantes, como artículos no publicados,
trabajos en curso, etc.
2. El análisis exploratorio o los estudios piloto. Sirven para comprobar las
ideas o métodos del investigador y explorar sus implicaciones. Un uso
importante de los estudios piloto en trabajos de investigación cualitativa es
ayudar a entender conceptos y teorías basadas en la población que el
investigador está estudiando: es lo que se conoce como «interpretación». No
hay que confundir estos estudios piloto, que sirven para establecer el marco
teórico, con los estudios definitivos que se utilizarán después para contrastar
las hipótesis.
3. Los experimentos. Los experimentos tienen una larga y respetada
tradición en las ciencias físicas y se utilizan regularmente en las ciencias
sociales, como por ejemplo la economía. Los experimentos estimulan al
investigador para llegar a explicaciones plausibles de sus observaciones. Se
basan en la teoría y la experiencia para contestar a preguntas de la forma
«¿qué pasa si…?», y para explorar las implicaciones lógicas de los modelos,
suposiciones y expectativas de lo que se plantea estudiar.
4. El conocimiento propio del investigador. Tradicionalmente, el
conocimiento propio que aporta un investigador al trabajo de investigación se
ha tratado como un sesgo, en lugar de un componente valioso de la misma.
Afortunadamente, en los últimos tiempos la incorporación explícita de la
identidad y experiencia del investigador en la investigación ha ganado un
amplio apoyo teórico y filosófico, sobre todo en el campo de la investigación
cualitativa.
En relación con la redacción y revisión del marco teórico, es importante
que el investigador tenga en cuenta los siguientes aspectos:
1. Es importante no tomar lo que dice la teoría como un hecho. En la
construcción de un marco teórico, el propósito del investigador no es solo
descriptivo, sino también crítico. Es necesario comprender (y comunicar con
claridad en la propuesta de investigación) qué problemas se han producido en
la investigación previa y la teoría, las contradicciones o vacíos que ha
encontrado en las visiones existentes y la forma en que el estudio puede hacer
una contribución original. En este sentido, siempre se deben tener en cuenta
las limitaciones del marco teórico elegido, es decir, qué partes del problema
de investigación requieren investigación adicional debido a que la teoría no
explica adecuadamente un determinado fenómeno.
2. El investigador debe posicionar su marco teórico dentro de un contexto
más amplio de marcos teóricos afines, conceptos, modelos o teorías. En esta
línea, Frodeman (2010) considera que una tendencia creciente y cada vez más
importante en las ciencias sociales es pensar e intentar comprender los
problemas específicos de investigación desde una perspectiva
interdisciplinaria. Una manera de hacerlo es no depender exclusivamente de
las teorías en una disciplina en particular, sino pensar en cómo un problema
puede ser informado por las teorías desarrolladas en otras disciplinas.
3. Es básico describir claramente el marco, conceptos, modelos o teorías
específicas que sustentan el estudio. Esto incluye señalar quiénes son los
autores teóricos clave que han realizado trabajos de investigación sobre el
problema que se está investigando y, cuando sea necesario, el contexto
histórico en el que transcurre la formulación de la teoría. En este sentido, los
mapas conceptuales son de mucha ayuda.
4. El marco teórico se redacta en tiempo presente. Aunque el tiempo
pasado se puede utilizar para describir la historia de una teoría o el papel de
los autores teóricos clave, la construcción del marco teórico por parte del
investigador está sucediendo en el momento actual.
5. Los supuestos teóricos deben ser lo más explícitos posible. Más adelante,
la discusión de la metodología debe estar vinculada de nuevo a este marco
teórico.
6. Finalmente, cabe destacar la importancia de la contribución conceptual o
teórica de la investigación y la contribución práctica a esta. El marco teórico
ayudará a dibujar de una manera más clara dónde se enmarca la contribución
teórica del estudio.
A modo de síntesis, podemos decir que el marco teórico es una parte
importante en el trabajo de investigación, puesto que permite establecer la
base teórica sobre la que se va a desarrollar el trabajo. Partiendo de la
pregunta de investigación (ver capítulo 5), el investigador debe identificar las
variables clave y las relaciones existentes entre las mismas. En esta fase, es
muy recomendable el uso de mapas conceptuales, puesto que permiten
visualizar las interrelaciones existentes entre las distintas teorías vinculadas al
fenómeno que se está estudiando. La técnica más común para la elaboración
del marco teórico en ciencias sociales es la revisión de la literatura, aunque en
otros campos también se utiliza el análisis exploratorio, los experimentos, etc.

6.3. Hipótesis y proposiciones


Una vez ha quedado establecido el marco teórico, el siguiente nivel de
concreción es la formulación de las hipótesis de trabajo o de las
proposiciones. Es importante distinguir entre hipótesis y proposiciones. En
ambos casos se trata de establecer relaciones entre conceptos o factores que
se han detectado como importantes en el marco teórico. Si el investigador
decide realizar un estudio empírico, lo adecuado será formular hipótesis que
establezcan relaciones entre las variables relevantes del fenómeno. Por el
contrario, en estudios que no se requiera de datos empíricos, lo idóneo será
formular unas proposiciones. Cabe también la posibilidad de utilizar
metodologías mixtas. Teddlie y Tashakkori (2006) analizan los criterios para
elegir qué tipo de metodología es más adecuada en cada caso. Evidentemente,
en caso de utilizar metodologías mixtas, se deberán formular hipótesis en la
parte cuantitativa y proposiciones en la parte cualitativa. Las dos
subsecciones siguientes se dedicarán a la formulación de hipótesis y a la
formulación de proposiciones.

6.3.1. Formulación de hipótesis en estudios de tipo empírico o cuantitativo


La palabra hipótesis deriva de dos palabras latinas hipo (‘bajo’) y thesis
(‘posición’ o ‘situación’). Por tanto, una hipótesis es una explicación
supuesta que está bajo ciertos hechos, a los que sirve de soporte. Podríamos
decir que es algo que está escondido y por tanto no es evidente a primera
vista. Sin embargo, la veracidad de tal suposición merece la duda del
investigador. Es una posible explicación, todavía no confirmada, sobre cómo
dos o más variables están relacionadas. Podríamos decir que lo que se llama
«el estado del arte» sobre la cuestión todavía no se ha pronunciado. En este
punto es remarcable la importancia de elegir bien cuáles serán las variables
que se analizarán, para estudiar las relaciones que se observen entre ellas.
También resulta fundamental establecer pruebas de causalidad entre estas
variables.
De todas maneras, una hipótesis no es una simple intuición, una suposición
fantástica, arbitraria o quimérica, sino que debe estar basada en el
conocimiento del investigador sobre el fenómeno. Este conocimiento viene
habitualmente a través dos vías: (1) por investigaciones propias cercanas al
actual estudio, o (2) a través de la lectura de investigaciones de autores
previos. Esta segunda vía es el análisis de la literatura (ver capítulo 4).
Por otra parte, las hipótesis son afirmaciones que se someterán a prueba,
con datos extraídos de la realidad objeto del análisis, con intención de
mostrar que estos datos confirman (o que no pueden confirmar) esas
hipótesis. La contrastación de las hipótesis responde a la pregunta de
investigación (ver capítulo 5). Por ello, las hipótesis deben formularse en
forma enunciativa y nunca en forma interrogativa. En efecto, para que una
hipótesis sea una hipótesis científica, se requiere que pueda ser analizada y
probada con observaciones empíricas. Estas pruebas se suelen basar en
análisis estadísticos (ver capítulo 11). Estas técnicas de análisis dan
evidencias al investigador para que pueda aceptar cada hipótesis (aunque sea
con un cierto grado de certeza) o en caso contrario rechazarla.
Todo lo anterior se concreta en algunos criterios que se deben tener en
cuenta al formular una hipótesis:
1. En primer lugar, una hipótesis debe ser simple, clara y sencilla en su
formulación. El enunciado debe ser comprendido por cualquier persona que
la lea. Habría que evitar, por tanto, frases subordinadas.
2. La sencillez en la redacción garantizará también que se pueda aceptar o
rechazar con claridad. No tendría sentido una hipótesis que pudiera ser
aceptada en parte y rechazada al mismo tiempo. Es aconsejable que en su
enunciado tan solo aparezcan dos variables. Por ejemplo, no sería apropiado
formular una hipótesis como: «El concepto A impacta positivamente en B y
en C». Aunque se entiende que solo se podrá aceptar esa hipótesis si A
impacta en B y C simultáneamente, será mejor expresar esa suposición en dos
hipótesis separadas. En ocasiones habrá más de dos variables en la hipótesis,
como por ejemplo cuando se quiere testar la mediación de una variable en la
relación de otras dos.
3. Identificar las variables independientes y dependientes que estudiar. La
propuesta de hipótesis debe dejar claro cuál es la dependiente y cuál la
independiente.
4. Es importante valorar también en este momento la accesibilidad que se
tendrá a la información que se necesite. La obtención de la muestra suele ser
uno de los aspectos más importantes en las investigaciones de tipo empírico
(ver capítulos 9 y 10).
5. Especificar la naturaleza de la relación que existe entre las variables. Es
posible que la literatura pueda aportar evidencias sobre esa causalidad, o que
simplemente se pueda decir que hay una correlación (ver capítulo 11).
6. Debe ser falsable y comprobable. El investigador debe ser capaz de
proporcionar una metodología para testarla (ver capítulo 13). Por tanto, en el
momento de plantear una hipótesis se debe tener en cuenta también qué
procedimientos estadísticos se utilizarán.
Podríamos resumir todos estos criterios diciendo que una hipótesis debe
estar claramente formulada, sin ambigüedades, de modo que a partir de ella
quede establecida claramente la relación propuesta de las variables y, a partir
de la metodología apropiada para el caso, se pueda dirimir si dicha hipótesis
queda confirmada a la luz de los datos empíricos recogidos.

6.3.2. Estudios cualitativos


A continuación, se van a detallar las particularidades de la formulación de
hipótesis para las metodologías cualitativas. Todo lo descrito en el apartado
anterior referente a cómo redactar una hipótesis se aplica en esta sección. No
obstante, vale la pena explicitar aquellos aspectos propios de los estudios
cualitativos que hay que tener en cuenta. Como ya se ha comentado
anteriormente, en los estudios cualitativos y conceptuales se acostumbra a
utilizar «proposiciones» en lugar de «hipótesis», pero puede haber algunos
estudios cualitativos que tengan razones legítimas para no enunciar ninguna
proposición (Yin, 1989), contrariamente a los estudios cuantitativos.
Los estudios cualitativos como, por ejemplo, los estudios de casos son una
de las formas más habituales de hacer investigación en el campo de las
ciencias sociales (Yin, 1989). De manera concreta, procede aplicar el método
del caso en tres situaciones: (1) si las preguntas de investigación planteadas
tienen en cuenta cuestiones sobre «¿cómo?» o «¿por qué?» ha sucedido un
fenómeno; (2) si el investigador tiene poco control sobre las variables del
fenómeno analizado; y, finalmente, (3) si el foco de la investigación es un
fenómeno contemporáneo dentro del contexto actual. Este tipo de
metodologías cualitativas cada vez se está aplicando más, incluso se hallan
ejemplos en el campo de la medicina (Rice y Ezzy, 1999).
Según Yin (1989), existen cinco componentes especialmente importantes
en el diseño de la investigación para la metodología del caso: (1) las
preguntas de investigación; (2) las proposiciones, si las hay; (3) la unidad de
análisis; (4) la lógica que une los datos recogidos y las proposiciones, y (5) el
criterio para interpretar los resultados. En el tema que nos toca analizar en
este apartado, las proposiciones centran la atención en la relación de las
variables que van a ser examinadas dentro del alcance de la investigación.
Tal y como se ha comentado en el inicio del capítulo, antes de empezar a
trabajar en el objeto de la investigación es necesario partir de una literatura
que sirva de marco teórico (Yin, 1989; Cooper, 1984). El siguiente paso es
fijar la frontera del conocimiento: identificar lo que no se sabe del fenómeno
y concretar lo que se quiere conocer a través del estudio cualitativo. Como
punto de partida de este marco teórico se puede utilizar la formulación de las
proposiciones, así como de sus teorías rivales (explicaciones alternativas),
que son aquellas que intentan explicar un mismo resultado desde un sustrato
teórico distinto al que caracteriza a la teoría de referencia (Larrinaga y
Rodríguez, 2010).
En este sentido, las proposiciones deben reflejar los fundamentos teóricos
que existen sobre el objetivo del estudio y también deben destacar la
evidencia relevante que se va a tener en cuenta en los casos que se van a
estudiar. Las proposiciones teóricas servirán de referencia o punto de partida
para la recogida de datos de las diferentes fuentes. Se recomienda que las
proposiciones teóricas incorporen los constructos, conceptos, dimensiones, o
variables a conseguir y validar. De este modo, será posible contrastarlas y, si
fuera el caso, validarlas con la información obtenida. Las proposiciones
deberán ser contrastadas a través de la información recogida con las
entrevistas y deberán enunciar de manera clara y sencilla la relación entre las
variables de estudio.
No obstante, según Eisenhardt (1989), las proposiciones no deben sesgar ni
limitar los resultados que obtener. Los resultados deben ayudar a construir
una teoría y ofrecer relaciones específicas entre las variables. Sin embargo, el
autor sugiere evitar que desde el inicio de la investigación ya se establezcan
de manera clara y explícita los resultados que alcanzar y las relaciones entre
las variables. En el inicio es importante haber identificado las variables que
investigar con referencia a la literatura previa existente y un punto de partida
que puede ir cambiando conforme avance la investigación. El caso extremo
sería plantear las proposiciones después de la recogida de datos tal y como
proponen algunos autores como Gersik (1988) y Bettenhausen y Murninghan
(1986). Estas aproximaciones que sugieren iniciar la investigación sin teorías
ni hipótesis de partida difieren de las propuestas de Yin (1989) anteriormente
descritas.
A continuación, se ofrece un ejemplo de una proposición en el campo de la
gestión de empresas en un artículo titulado «Prácticas de gestión de recursos
humanos y desarrollo de nuevos proyectos innovadores: Un estudio de casos
en las pymes» (Urbano et al., 2011). En concreto, la investigación trata de
responder a las siguientes preguntas: (1) ¿qué prácticas relacionadas con los
recursos humanos llevan a cabo las pymes para incentivar la colaboración
entre sus miembros y potenciar el comportamiento emprendedor?, y (2)
¿cómo influyen dichas prácticas en el desarrollo de nuevos proyectos
innovadores en las pymes? Para dar respuesta a estas preguntas de
investigación, la metodología elegida es el estudio de casos. Cara a plantear
las proposiciones, los autores explican que «con el fin de establecer nuevas
proposiciones teóricas, se adoptó una propuesta inductiva de construcción
explicativa (Eisenhardt, 1989), realizando previamente un análisis de los
casos en profundidad, de forma individual y comparativa» (Urbano et al.,
2011). Los resultados generales obtenidos tras el estudio de casos llevan a los
autores a corroborar las conclusiones propuestas por investigaciones
anteriores realizadas en empresas de mayor tamaño, que aseguran que las
relaciones contractuales basadas en la confianza facilitan las iniciativas
cooperativas requeridas para el desarrollo de proyectos innovadores. A modo
de ejemplo, algunas de las proposiciones propuestas en este artículo son las
siguientes:
• Proposición 1: el desarrollo de nuevos proyectos innovadores en las
pymes se vincula positivamente con la existencia de relaciones cordiales y
afables entre sus miembros.
• Proposición 2: el desarrollo de nuevos proyectos innovadores en las
pymes se relaciona positivamente con la existencia de un clima laboral
basado en la confianza mutua entre sus miembros.

6.4. Modelo de investigación


El tercer objetivo del capítulo es la propuesta del modelo de investigación,
que se aplica fundamentalmente en investigaciones en ciencias básicas y
sociales de tipo cuantitativo. En efecto, en el caso de los estudios de tipo
cuantitativo, una variable formaría parte de una hipótesis como efecto, y a la
vez sería causa de un efecto subsiguiente, estableciéndose así una secuencia
de causas y efectos. El fenómeno quedaría modelado como una cadena.
También una misma variable causaría simultáneamente dos o más efectos,
que configuraran un modelo semejante a una red. Todavía se puede
complicar más el modelo en el caso de que una variable actúe de mediadora
entre otras dos.
Como ejemplo, la figura 6.2 muestra dos posibles modelos de
investigación, donde cada flecha representa una hipótesis que relaciona dos
variables. El investigador puede pensar que las variables que analiza quedan
relacionadas secuencialmente formando una cadena (modelo A), o bien que
se relacionan de manera más compleja formando una red (modelo B).

Figura 6.2. Ejemplos de modelos de investigación. Fuente: elaboración propia.

En la figura 6.2, cada óvalo representa una variable. El investigador podría


proponer como primera hipótesis que, por ejemplo, la calidad percibida por
los clientes de un servicio determinado (F1) impacta positivamente en la
satisfacción del cliente (F2), que a su vez es antecedente de la fidelización del
cliente (F3), que finalmente explica el comportamiento de este cliente en
términos de cantidad de compra realizada (F4). Este sería el modelo lineal
(figura 6.2, modelo A). Alternativamente se podría pensar que la calidad
percibida (F1) incide directamente en la satisfacción (F2), pero también
directamente sobre la fidelización (F3) y el comportamiento real de compra
(F4). Además, a su vez las siguientes variables inciden directamente sobre las
que tienen más a la derecha, que resultan en un modelo tipo red (figura 6.2,
modelo B).
En función de este modelo, o de los modelos que el investigador desee
hacer competir para determinar cuál muestra mejor comportamiento, se
escogerá la técnica más adecuada (ver capítulo 11). Por otra parte, en los
estudios cualitativos, las proposiciones se pueden agregar en un mapa
conceptual tal y como ya se apuntó en la sección 6.2.2 del presente capítulo.

6.5. Conclusiones
El marco teórico es el conjunto de ideas, relacionadas entre ellas, que permite
entender cómo funciona un fenómeno que se quiere investigar. Por tanto,
resulta de elevada utilidad a la hora de analizar los patrones de causalidad
entre dichas ideas o conceptos. Para poder elaborar un marco teórico
adecuado, es importante que tanto las variables relevantes (dependientes,
independientes, etc.) del estudio de investigación como las relaciones entre
las mismas estén bien identificadas en el marco teórico. En este sentido, los
mapas conceptuales son una herramienta muy útil para representar
gráficamente las relaciones entre las variables, y ayudan a desarrollar el
marco teórico.
La principal fuente de información para la elaboración del marco teórico
son los estudios de investigación existentes, la literatura, aunque no se debe
olvidar que existen otras fuentes igualmente significativas como son los
resultados de análisis exploratorios o los estudios piloto, los resultados de
experimentos, o los propios conocimientos del investigador. En este sentido,
es importante que en la construcción del marco teórico, el investigador no se
limite únicamente a realizar una descripción de la información recopilada,
sino que debe aportar su visión crítica sobre el fenómeno analizado.
Una vez establecido este marco, se requiere establecer de qué manera
concreta se relacionan los factores. La manera de proceder en este punto
depende de la naturaleza del estudio. Si se quiere abordar el análisis desde
una perspectiva empírica, extrayendo información de campo que ayude a
entender el fenómeno de análisis, lo más adecuado será formular una o varias
hipótesis. Cada hipótesis es una afirmación que se someterá a prueba, con
datos extraídos de la realidad, para mostrar que estos datos confirman (o no)
esa afirmación.
Frecuentemente una hipótesis propone una relación de causalidad entre dos
variables. Si se presentan varias hipótesis, estas pueden mostrar una red de
causas-efectos que conforma el modelo de investigación.
En el caso de que se considere que es más adecuado el uso de metodologías
cualitativas para analizar el fenómeno, se formularán proposiciones. Estas se
realizarían en el momento en el que se haga la revisión y justificación de la
literatura, o bien tras haber recopilado la información de los casos de estudio.
En ambas situaciones, las proposiciones deberán estar relacionadas con la
pregunta de la investigación.

Referencias
Bettenhausen, K. y Murnighan, J. K. (1986). «The emergence of norms in
competitive decision-making groups». Administrative Science Quarterly.
30, pp. 350-372.
Cooper, H. (1984). The integrative research review. Sage, Beverly Hills, CA.
Crosby, B. (1995). Swamp Leadership: The Wisdom of the Craft (Tesi
doctoral). Harvard Graduate School of Education.
Eisenhardt, K. M. (1989). «Building theories from case study research».
Academy of Management Review. 14 (4), pp. 532-550.
Frodeman, R. (2010). The Oxford Handbook of Interdisciplinarity. Oxford
University Press, Nueva York.
Fulton, S. y Krainovich-Miller B. (2010). «Gathering and appraising the
literature». En: LoBiondo-Wood G, Haber, J (eds.). Nursing Research:
Methods and Critical Appraisal for Evidence-Based practice. Mosby
Elsevier, Saint Louis (Missouri).
Gersick, C. (1988) «Time and transition in work teams: Toward a new model
of group development». Academy of Management Journal. 31, pp. 9-41.
Larrinaga, O. V. y Rodríguez, J. L. (2010). «Case study as a methodology of
scientific research in business economics and management. An application
of the internationalisation». European Research on Management and
Business Economics. 16 (3), pp. 31.
Maxwell, J. (2005). «Conceptual framework: What do you think is going
on?». En: Qualitative Research Design: An Interactive Approach. SAGE
Publications, Thousand Oaks, CA. pp. 33-64.
Novak, J. D. y Gowin, D. B. (1984). Learning How To Learn. Cambridge
University Press.
Rice, P. L. y Ezzy, D. (1999). Qualitative research methods: A health focus.
Oxford University Press, Melbourne.
Sekaran, U. (1992). Researh Methods for Business. A Skill Building
Approach. Wiley International Editions.
Svinicki, M. D. (2010). A Guidebook On Conceptual Frameworks For
Research in Engineering Education. University of Texas.
Teddlie, C. y Tashakkori, A. (2006). «A general typology of research
designs». Research in the Schools. 13 (1), pp. 12-28.
Urbano, D. y Ribeiro-Soriano, D. (2011). «Human Resources Management
Practices and Corporate Entrepreneurship: A Case Study in SMEs».
Universia Business Review. 29, pp. 116.
Yin, R. K. (1989). Case study research: Design and methods. Applied Social
Research Series, 5. SAGE Publications, Thousand Oaks.
7 Diseño de la investigación

7
DISEÑO DE LA INVESTIGACIÓN
María del Mar Pàmies, Gerard Ryan
y Mireia Valverde (URV)
Objetivos del capítulo

• Saber que hay maneras muy diferentes de abordar el intento de responder a una pregunta de
investigación.
• Entender que el diseño de la investigación debe estar orientado a la pregunta de investigación que
se haya formulado previamente en nuestro trabajo.
• Conocer las principales metodologías y su adecuación a cada tipo de pregunta de investigación.
• Observar brevemente las raíces epistemológicas en las que se anclan las diferentes metodologías.
• Entender el diseño de la investigación como un proceso en sí mismo y destacar las principales
decisiones que habrá que realizar y principios que seguir en diferentes tipos de diseños de
investigación.

7.1. Introducción
Tal como se ha explicado en el capítulo 5, llegar a formular una buena
pregunta de investigación representa uno de los puntos neurálgicos de un
trabajo de investigación. A partir de este momento, se plantea la cuestión de
cómo responder a esta pregunta de manera científica. Este es precisamente el
propósito del diseño de la investigación y de este capítulo: explicar el
conjunto de decisiones y las herramientas que tenemos al alcance para
responder a nuestra pregunta de investigación. En este sentido, vamos a
pensar en el diseño como un proceso en sí mismo, compuesto de una serie de
fases en las que elegimos y descartamos entre un amplio abanico de opciones.
El proceso de diseño de la investigación tiene origen en la propia pregunta
de investigación, que será siempre nuestro punto de referencia. A grandes
rasgos, este proceso comienza por definir nuestro posicionamiento
epistemológico y teórico, pasa por la elección de opciones metodológicas y
de métodos concretos, la estructuración de nuestro proceso de recogida de
datos y la planificación del análisis que le aplicaremos. Por tanto, en este
capítulo se desarrolla y despliega lo explicado sucintamente en el capítulo 5,
apartado 6 («Cómo desarrollar la propuesta de investigación»), Y en
concreto, los puntos 4 y 5, referidos a la elección sobre el tipo de estudio que
realizar, la metodología que emplear y la planificación del proceso de
recolección de datos. En un plan cronológico, este proceso de diseño de la
investigación tiene continuación en el análisis de los datos obtenidos, que
quedará cubierto en el capítulo 11 (cuando los datos obtenidos son
cuantitativos) y en el capítulo 12 (cuando los datos obtenidos son
cualitativos).

7.2. Qué es el diseño de la investigación


El diseño de la investigación es la fase del proceso de investigación que
consiste en decidir cómo se responderá a la pregunta de investigación
planteada. El conjunto de decisiones tomadas en esta fase se materializa en
un plan de investigación que incorpora desde aspectos muy generales, como
la posición epistemológica que como investigadores mantenemos sobre la
naturaleza de la realidad que queremos investigar, pasando por las estrategias
que utilizaremos para estudiarla y terminando por aspectos totalmente
concretos, como a quién preguntaremos, qué le preguntaremos, cuándo y
cómo (Creswell, 2009).
Las decisiones tomadas durante el diseño de la investigación son cruciales
para asegurar que realmente podremos llegar a poder responder nuestra
pregunta de investigación con garantías de rigor. Por tanto, es imprescindible
considerar, razonar y justificar cada una de estas decisiones. En este capítulo
justamente aportaremos elementos para ayudar a tomar esta serie de
decisiones.

7.3. Criterios para orientar las decisiones del diseño de la investigación


Aunque el principal punto de referencia para tomar cada decisión debería ser
siempre la pregunta de investigación a la que queremos responder (y/o las
hipótesis que queremos contrastar y/o las propuestas que queremos explorar),
la realidad es que hay toda una serie de consideraciones que también
tendremos que tener en cuenta, unas de carácter más epistemológico (cuál es
nuestra mirada sobre la realidad), que describiremos en el siguiente apartado,
y otras de carácter más práctico, que abordamos en el presente.
Cuanto más complejo sea el proyecto de investigación que estamos
realizando (por ejemplo, tesis doctorales o grandes proyectos de
investigación financiados), más peso debe tener la propia pregunta de
investigación, ya que, por su envergadura, estos proyectos deben poner todos
los recursos necesarios al servicio de la investigación. En cambio, cuanto más
reducido sea el nivel del proyecto de investigación (por ejemplo, trabajos de
fin de grado o trabajos de final de máster), más habrá que ponderar los
siguientes aspectos (Walliman, 2004), que en muchos casos interactúan entre
ellos:
• El tiempo disponible: desde un trabajo de fin de grado, que dura unos
pocos meses, hasta una tesis doctoral, en la que se dedica un mínimo de tres
años, la elección de métodos que utilizar y la envergadura de los datos que
recoger debe ir de acuerdo con el tiempo y el creditaje de cada tipo de
proyecto. Proyectos más cortos harán que elijamos diseños cross-seccionales
(es decir, midiendo un fenómeno en un momento dado en el tiempo),
mientras que proyectos más largos nos permitirán también considerar hacer
diseños antes-después, en los que recogemos datos antes y después de que se
produzca un fenómeno (por ejemplo, la percepción de los consumidores
sobre un producto antes y después de una campaña de publicidad), o incluso
diseños longitudinales, en los que seguimos un fenómeno tal y como se va
desarrollando en el tiempo (por ejemplo, la introducción de un nuevo sistema
de procesamiento de residuos en una fábrica, o la percepción sobre la
identidad profesional de los estudiantes a medida que terminan la carrera y
entran en el mercado de trabajo).
• Los recursos materiales y económicos: cada diseño de investigación
conlleva la utilización de toda una serie de recursos, desde algunos muy
complejos, como laboratorios y materiales experimentales, hasta otros bien
básicos, como puede ser un presupuesto para hacer llamadas y contactar con
las personas de las que recogeremos datos para realizar nuestro estudio. La
disponibilidad de estos recursos impondrá una serie de limitaciones al tipo de
diseño que pensamos llevar a cabo y, por tanto, también lo tendremos que
tener en cuenta a la hora de realizar nuestro plan de investigación.
• El acceso a los datos: aun cuando contemos con unos buenos recursos,
los datos que necesitamos para llevar a cabo nuestra investigación no siempre
estarán fácilmente disponibles o accesibles. A veces querremos usar datos
secundarios (las que ya existen y están recogidos en una base de datos), pero
para acceder a ellos tendremos que hacer una solicitud o pagar una cantidad
de dinero (y en este caso, volvemos a una consideración de recursos
económicos). Si deseamos utilizar datos primarios (sobre todo los que
recogemos nosotros a través de un trabajo de campo, pero también los que
derivamos de un diseño experimental), debemos tener en cuenta si los
informantes estarán dispuestos a respondernos a las cuestiones que queramos
plantear o proporcionarnos la información que necesitamos, si tendrán tiempo
para atendernos, si conseguiremos suficiente muestra, etc. Por ejemplo,
acceder a informantes para realizar un trabajo sobre percepciones de los
consumidores sobre los anuncios que aparecen en internet será relativamente
fácil porque hay muchísimas personas que utilizan internet y, quieran o no,
están expuestos a estos anuncios, y por tanto, podremos encontrar
informantes partes. En cambio, hacer un trabajo sobre el proceso de
formulación estratégica de los equipos directivos de las grandes
multinacionales tendrá un elevado grado de dificultad, ya que no hay tantas
grandes empresas, los miembros de estos equipos directivos tendrán poco
tiempo para dedicarnos y además seguramente estarán poco abiertos a hablar
de su proceso de formulación estratégica, una cuestión que ya de por sí es
bastante privada en el contexto empresarial. En la cuestión del acceso a los
datos, es importante tener en cuenta los contactos que ya tenemos y los que
podríamos tener a través de nuestros supervisores, Otros miembros de la
comunidad académica, conocidos y del lugar de trabajo, con el fin de
facilitarnos el acceso al contexto de investigación que nos interesa estudiar.
Por ejemplo, si necesitamos hacer un estudio de caso, puede que con un único
contacto importante consigamos el acceso a todas las personas de la
organización que queremos estudiar.
• El conocimiento de las técnicas de análisis: incluso cuando tenemos
buen acceso y recursos, las decisiones de nuestro diseño pueden quedar
delimitadas, como es el caso de las técnicas de análisis. Por ejemplo, si
decidimos hacer una encuesta y recoger muchos datos cuantitativos pero no
conocemos las herramientas estadísticas para analizarlas, no podremos
examinar bien estos datos. Del mismo modo, si decidiéramos realizar toda
una serie de entrevistas en profundidad pero no supiéramos codificar los
contenidos, tampoco sabríamos extraer resultados ni conclusiones. Aprender
a utilizar cada técnica analítica requiere un cierto tiempo, más cuanto más
compleja sea la técnica en cuestión. En proyectos de gran envergadura, como
una tesis doctoral, se puede presuponer que el investigador dedicará una parte
considerable de su tiempo a aprender a utilizar las herramientas y softwares
necesarios para llevar a cabo cualquier tipo de análisis, pero en proyectos de
menor envergadura y tiempo, seguramente habrá que priorizar un diseño que
requiera unas técnicas analíticas que ya conozcamos o que sean fácilmente
aprendidas dada la experiencia previa que tengamos como investigadores.
• La audiencia (Creswell, 2009): a la hora de tomar decisiones sobre
nuestro diseño, también será importante tener en cuenta quién es el
destinatario y futuro lector de nuestro trabajo: el tribunal de un proyecto final,
los evaluadores de una solicitud de proyectos financiados, los editores y
revisores de una revista científica, etc. La consideración de quienes son los
miembros de la audiencia de nuestro trabajo de investigación requiere que
tengamos en cuenta si estos tienen ciertas preferencias o tradiciones en
cuanto a elección metodológica. En este contexto, el rol del supervisor de la
investigación es clave, ya que se puede considerar como audiencia en el
sentido de que tal vez formará parte de la evaluación de este trabajo, pero de
manera más relevante, también será una persona bien informada sobre qué
diseños son más adecuados para el trabajo que se está planteando.
Dadas todas estas consideraciones, recomendamos que las elecciones de
diseño de nuestra investigación, aunque no cumplan todas nuestras
expectativas o terminen planteando un trabajo de menos envergadura que lo
que nos gustaría realizar idealmente, tengan bien en cuenta estos aspectos
para delimitar un trabajo de investigación que esté adecuadamente acotado en
temática, alcance y tiempo.
A partir de aquí, revisemos, yendo de las más generales a las más
específicas, las consideraciones sobre contenido que habrá que tener en
cuenta para progresivamente delinear nuestro plan de investigación.

7.4. La mirada sobre la realidad: epistemología


La epistemología es la rama de la filosofía que se preocupa de estudiar cuál
es nuestra mirada sobre la realidad, es decir, cómo asumimos qué es el
mundo y qué podemos aprender de este, en definitiva, cómo llegamos a
conocerlo. Dado que la epistemología se cuestiona cómo podemos obtener
conocimientos y la investigación justamente pretende obtener conocimientos
sobre los fenómenos que nos rodean, podemos utilizar sus planteamientos
como punto de partida para nuestro trabajo de investigación. La
epistemología es un campo amplio y complejo y, en este apartado, a riesgo de
simplificar excesivamente sus conceptos, presentaremos básica y brevemente
las principales posiciones epistemológicas que utilizan los investigadores a la
hora de determinar una serie de presuposiciones que como científicos
hacemos sobre la realidad y cómo aprender de ella.
Estas posiciones epistemológicas son el paradigma positivista y el
paradigma constructivista (a veces llamado interpretativo). Tradicionalmente,
las ciencias consideradas duras (física, química, medicina, etc.) se han
alineado con el paradigma positivista, mientras que las ciencias sociales
(sociología, psicología, empresa, etc.) han hecho y continúan haciendo uso de
los dos paradigmas. A continuación describimos cómo cada uno de estos
paradigmas se diferencia en su manera de observar, medir y entender el
mundo.

7.4.1. El paradigma positivista


En el paradigma positivista, nuestra creencia básica es que el mundo y sus
fenómenos son externos y objetivos, existen independientemente de quien y
como se mire y están sujetos a una lógica y un orden (Neuman, 1997). Por
tanto, la ciencia, para aprender sobre el mundo, debe ser capaz de descubrir
los patrones y las leyes que gobiernan los fenómenos que queremos estudiar.
La ciencia no sabe de valores y, por ello, se enfatiza la objetividad.
En el paradigma positivista, la lógica del proceso de investigación es
deductiva, es decir, se ancla en unos conocimientos previos contrastados,
para hacer propuestas (normalmente en forma de hipótesis; ver capítulo 6)
que se contrastarán con el trabajo de investigación. Para hacer esto posible, la
investigación en el paradigma positivista se basa, en la medida de lo posible,
en definiciones y dimensiones definidas a priori para asegurar que se está
observando la misma realidad y de la misma manera.
El objetivo último del paradigma positivista es poder generalizar para
predecir las consecuencias que se derivan de un fenómeno. Dado este
objetivo, es lógico que constituya la principal visión de la realidad de las
ciencias naturales. Por ejemplo, la meteorología es una de las ciencias que
por excelencia tiene como objetivo la predicción. De hecho, en este conjunto
de ciencias rara vez se entra en el debate de las diferentes posturas
epistemológicas y se tiende a utilizar el paradigma positivista como sinónimo
de método científico. Pero también las ciencias sociales a veces utilizan este
paradigma para poder avanzar en su conocimiento. Por ejemplo, cuando la
psicología desarrolla tests psicométricos para evaluar diferentes
características de la personalidad, está aplicando esta visión de la realidad.

7.4.2. El paradigma constructivista


En el paradigma constructivista (a veces llamado interpretativo, Neuman,
1997), sobre todo utilizado por las ciencias sociales, se acepta la idea de que
la realidad no es necesariamente objetiva, sino que está socialmente
construida (Berger y Luckmann, 1967), es decir, que según el observador que
la mire y el individuo que la esté viviendo, podrá tener diferentes
significados. Por ejemplo, una ley laboral que liberalice las condiciones de
contratación y despido puede ser percibida como un avance para las empresas
o como un retroceso para los trabajadores. En otro ámbito, un anuncio puede
ser considerado entretenido e informativo por parte de unas personas e
incentivarlas a comprar el producto del que habla, o bien considerado
aburrido y pretencioso por otras personas, que decidirán no comprar el
producto.
En el paradigma constructivista, la lógica del proceso de investigación es
inductiva, es decir, los conceptos y sus medidas no necesariamente están
totalmente definidos antes de que comience la investigación, sino que
justamente a través de esta investigación y de las percepciones de las
personas que experimentan y viven el fenómeno estudiado, los llegaremos a
desarrollar. El objetivo último del paradigma constructivista es entender la
realidad que nos rodea en el plano social y descubrir cómo las personas
construyen los significados sobre hechos y fenómenos (Neuman, 1997), es
decir, qué representan para cada individuo, grupo y sociedad. No se centra,
pues, solo en los hechos externos y comportamientos observables de las
personas, sino también en las percepciones y valoraciones que asocian. Este
objetivo conlleva, para el investigador, no fijar todos los elementos
conceptuales y medibles de la investigación a priori, sino a medida que
avanza la investigación. En conjunto, el paradigma constructivista acepta que
la investigación incorpora elementos subjetivos y, en definitiva, se mueve por
intereses humanos.
En los apartados siguientes veremos cómo cada uno de estos paradigmas
tiende a alinearse con unas estrategias metodológicas específicas.

7.5. Las estrategias de investigación


Las estrategias de investigación, a veces también llamadas metodologías o
aproximaciones a la investigación, son «modelos que dotan el diseño de la
investigación de una dirección específica para determinar los sus
procedimientos» (Creswell, 2009, p. 11). Las principales estrategias o
metodologías son la cuantitativa y la cualitativa. Hay autores que consideran
una tercera estrategia consistente en la utilización combinada de las dos
anteriores (diseños multimétodo o mixed method designs; Creswell, 2009;
Ang, 2014) o que abren el abanico a cinco aproximaciones incluidas dentro
del espectro cualitativo (Creswell, 2007). En esta sección, sin embargo, nos
centraremos en describir la estrategia cuantitativa y la cualitativa, haciendo
énfasis en cuando cada una es más adecuada. Es importante destacar, sin
embargo, con el fin de diferenciarlas al máximo, en este capítulo se presentan
ambas estrategias como extremos opuestos, cuando la realidad de muchos
proyectos de investigación es que se encuentran en un punto intermedio a lo
largo de este continuo, tal como expresa la figura 7.1

Figura 7.1: Las estrategias de investigación como dos extremos de un continuo.

7.5.1. Las estrategias cuantitativas


Las estrategias cuantitativas de investigación persiguen el objetivo de
contrastar teorías. Habitualmente se utilizan en proyectos de investigación
que han planteado unas hipótesis que se testan. Es lo que se llama theory-
testing. Para conseguir este objetivo, los estudios cuantitativos normalmente
llegan a sus conclusiones a partir de pruebas estadísticas, por lo que a partir
de ellas se pueden extrapolar los datos a una población para hacer
predicciones y explicaciones sobre los fenómenos estudiados.
La elección de una estrategia cuantitativa es especialmente pertinente
cuando (Ang, 2014):
• Es posible acceder a muestras grandes que nos puedan aportar mucha
cantidad de datos.
• Existen teorías bien establecidas y desarrolladas sobre el fenómeno
estudiado.
• Se busca poder extrapolar las conclusiones de nuestro estudio en
contextos generales, para ampliar así el poder explicativo de las teorías
existentes.
Podemos observar que las estrategias cuantitativas están especialmente
alineadas con el paradigma positivista. En consecuencia, estos trabajos de
investigación se basan en el método científico clásico, donde formulamos
unas hipótesis y las testamos con la realidad. En esta aproximación nos
centramos sobre todo en estudiar hechos y comportamientos observables,
reduciéndolos a las unidades y elementos más simples posibles para
operacionalizarlos y asegurar que los medimos de la manera más objetiva y
neutra posible. Se buscan sobre todo relaciones de causa-efecto.
Los datos recogidos en trabajos cuantitativos son extensivos, dadas las
muestras grandes que se persiguen, expresadas en números y analizadas con
técnicas estadísticas (descriptivas, diferencias de medias, regresiones,
clústeres, ecuaciones estructurales, etc.). Los resultados obtenidos aspiran a
ser generalizables a una población de referencia.
Los principales métodos asociados a las estrategias cuantitativas son:
• Cuestionario.
• Experimento.
• Simulación.
• Fuentes estadísticas.
• Ciertos tipos de observaciones pasivas y de entrevistas totalmente
estructuradas.
En el siguiente apartado de este capítulo se describen los cuestionarios y
los experimentos, y se pone el énfasis en cuando su utilización es más
apropiada. Además, el capítulo 9 se dedica exclusivamente a la preparación
de cuestionarios y el capítulo 11 a los análisis de datos cuantitativos, que son
los que obtenemos en este tipo de trabajos.
7.5.2. Las estrategias cualitativas
Las estrategias cualitativas de investigación persiguen el objetivo de explorar
la realidad para llegar a entenderla. Habitualmente se utilizan en proyectos de
investigación que han planteado unas preguntas o persiguen conocer un tema
holísticamente, en su totalidad. Para conseguir estos objetivos, los estudios
cualitativos normalmente llegan a sus conclusiones a partir de estudiar
muestras pequeñas en gran profundidad. Así pues, la elección de una
estrategia cualitativa es especialmente pertinente cuando (Ang, 2014):
• Hay casos o contextos de investigación para estudiar en profundidad.
• Las teorías sobre el fenómeno estudiado no están suficientemente
consolidadas o no lo pueden explicar en su totalidad. Cuando perseguimos el
objetivo concreto de desarrollar una teoría hablamos de theory-building.
• Las relaciones entre las dimensiones y constructos que estamos
estudiando, los «cómo» y los «por qué» son importantes para entender el
fenómeno.
Las estrategias cualitativas están especialmente alineadas con el paradigma
constructivista. En este sentido, estos trabajos de investigación tienden a
adoptar una lógica inductiva (aunque a veces también aplican procesos
deductivos) y buscar un amplio abanico de perspectivas para entender el
fenómeno estudiado. En esta aproximación nos centramos sobre todo en
estudiar los significados de los hechos y los comportamientos. Para hacerlo,
nos fijamos sobre todo en entender el contexto, las personas y las
interacciones que se dan entre ellas.
Los datos recogidos en trabajos cualitativos son intensivos, dadas las
muestras pequeñas que se estudian en profundidad, expresadas en palabras,
imágenes o sonidos, y analizadas con las correspondientes técnicas de
análisis (de contenido, narrativo, de discurso, método comparativo constante,
etc.). Los resultados obtenidos no aspiran a ser generalizables a una
población de referencia, ya que no se han basado en una muestra
estadísticamente representativa, sino teóricamente relevante, es decir,
seleccionando los informantes de forma que sus visiones, percepciones u
opiniones aporten comprensión a los conceptos centrales de nuestro estudio.
Con el fin de capturar este amplio abanico de matices necesarios para
entender el fenómeno estudiado, y al contrario que las estrategias
cuantitativas, los estudios cualitativos no se ciñen a un solo método
científico, sino que existe una variedad de metodologías (como se ha dicho
antes, conjuntos de procedimientos) cualitativas: la fenomenología, la
etnografía, la investigación-acción, los estudios de caso, la grounded-theory,
etc. Los principios y procedimientos de estas metodologías pueden
consultarse en libros clásicos de metodología cualitativa como Denzin y
Lincoln (1994, 2000) o Creswell (2007).
Los principales métodos asociados a las estrategias cualitativas son:
• Entrevistas (principalmente, entrevistes en profundidad).
• Focus groups o grupos focales.
• Observación.
• Diarios personales.
• Textos, narrativas, imágenes o vídeos ya existentes.
Es común que los estudios cualitativos utilicen simultáneamente más de
uno de estos métodos de recogida de fechas. En el apartado 7.7 se describen
brevemente algunos de estos métodos, y se pone el énfasis en cuando su
utilización es más apropiada. Además, el capítulo 8 se dedica exclusivamente
a la preparación de entrevistas y el capítulo 12 al análisis de datos
cualitativos, que son los que obtenemos en este tipo de trabajos.

7.6. Diseños cuantitativos


En los siguientes apartados se describen los principales métodos de
recolección de datos cuantitativos y cualitativos y se explica las decisiones
que el investigador debe tomar durante el diseño de la investigación en
ambos casos.

7.6.1. Cuestionarios
El capítulo 9 examina de forma extensa los cuestionarios, también llamados
«encuestas», como método cuantitativo de recolección de datos, que explican
los diferentes tipos que existen, el proceso de elaboración de un cuestionario,
etc. Por tanto, en este capítulo de diseño de la investigación nos centraremos
únicamente en identificar las principales decisiones que deben tomar los
investigadores cuando deciden utilizar los cuestionarios como método de
recolección de datos.
En primer lugar, tenemos que decidir el tipo de encuesta que queremos
realizar. Las encuestas se pueden clasificar en función del tipo de soporte (en
soporte papel o en soporte informático) y del procedimiento de obtención de
la información (presencialmente, telefónica, postal o telemática). En el
capítulo 9 se analizan en profundidad los diferentes tipos de cuestionarios.
Para tomar esta decisión, debemos tener en cuenta los factores que hemos
descrito en el apartado 7.3, como la disponibilidad de tiempo y de recursos,
acceso a la muestra, etc.
La segunda decisión está relacionada con el tipo de preguntas que
contendrá el cuestionario. Que se clasificarían en función de tres criterios: en
relación con las respuestas, en relación con su función en la encuesta y en
relación con su contenido. En relación con las respuestas, hay preguntas
abiertas que deben ser contestadas por el encuestado con sus propias
palabras, preguntas cerradas en las que el encuestado debe escoger entre unas
opciones establecidas y preguntas mixtas, que se componen de una parte de la
pregunta cerrada y una parte abierta, en la que se da la posibilidad al
encuestado de escribir su propia respuesta en el caso de que dentro de las
opciones establecidas no encuentre la opción adecuada. En el capítulo 9 se
explican en detalle estos tipos de preguntas. En cuanto a la función de la
encuesta, hay preguntas de filtro (se realizan previamente al resto de las
preguntas con el objetivo de eliminar aquellos encuestados que no forman
parte de la muestra), de batería (son aquellas que se agrupan, ya que tratan
sobre un mismo tema) y de control (utilizadas para comprobar la veracidad de
las respuestas de los encuestados). Finalmente, en relación con su contenido,
las preguntas se pueden clasificar en preguntas de identificación (sirven para
identificar al encuestado), de acción (hacen referencia a las acciones de los
encuestados), de intención (indagan sobre las intenciones futuras de los
encuestados), de opinión (piden a los encuestados su opinión sobre diferentes
temas), de información (analizan los grados de conocimiento de los
encuestados sobre diferentes temas), de motivos (tratan de saber el porqué de
determinadas opiniones o actos) y de hábitos (indagan sobre los hábitos de
los encuestados). Las decisiones relacionadas con el tipo de preguntas que se
incluirán en el que cuestionario vienen determinadas, de nuevo, por la
pregunta de investigación y el tipo de información que el investigador quiere
recoger.
A continuación se presenta una lista de verificación de algunos aspectos
que se deben tener en cuenta a la hora de realizar el diseño de una
investigación basada en cuestionarios (Creswell, 2009): ¿queda claramente
expresado si la encuesta será capaz de cumplir el objetivo de nuestro
estudio?, ¿se han mencionado las razones de la elección de este diseño?, ¿se
ha identificado la naturaleza de la encuesta?, ¿se ha mencionado la población
y su medida?, ¿cuánta gente formará la muestra?, ¿atendiendo a qué criterios
se ha escogido la muestra?, ¿cuál será el procedimiento para elegir esos
individuos?, ¿qué instrumento se utilizará en el estudio?, ¿cuáles son las áreas
de contenido que se abordan en la encuesta?, ¿qué procedimiento se llevará a
cabo para pilotar la encuesta?, ¿qué pasos concretos se realizarán en el
análisis de los datos para verificar el sesgo de respuesta y la fiabilidad de las
escalas, llevar a cabo un análisis descriptivo, etc.?, ¿cómo se interpretarán los
resultados?

7.6.2. Experimentos
Los diseños experimentales son especialmente pertinentes cuando queremos
comprobar si la aplicación de un tratamiento (condición, situación, producto,
etc., según el tema que estemos investigando), que es la variable
independiente, afecta a unos resultados o outputs (variable dependiente). Es
decir, buscamos estrictamente una relación causa-efecto. Para asegurarnos de
que el output es efectivamente consecuencia del tratamiento (variable
independiente), el valor añadido del experimento es que el investigador puede
aislar otras condiciones que pueden afectar ese fenómeno y manipular
(cambiar) la variable independiente de forma intencionada en un entorno
controlado. Por tanto, los diseños experimentales son útiles cuando el
investigador intenta establecer el posible efecto de una causa que se
manipula. El experimento es el método clásico de las ciencias naturales (por
ejemplo, se da un medicamento –variable independiente– a un conjunto de
pacientes y un placebo a otro conjunto y después se contrasta si los que han
tomado el medicamento han mejorado su condición –variable dependiente–),
pero también se puede utilizar en las ciencias sociales (por ejemplo, ver
Neuman, 1997), y llevarlas a cabo tanto en el laboratorio como en entornos
naturales. Para decidir si el experimento será el método apropiado para
responder nuestra pregunta de investigación hay que asegurarse de que se
cumplan dos condiciones:
• Que tenemos la posibilidad de manipular o modificar la variable
independiente.
• Que somos capaces de controlar o aislar todas las otras variables que
podrían tener un efecto en la variable dependiente.
Siguiendo a Creswell (2009), las principales decisiones a tomar para
diseñar un experimento son sobre:
• Los participantes: habrá que elegirlos, según la naturaleza de nuestra
pregunta de investigación, de manera que representen un grupo aleatorio (es
decir, elegido al azar), o bien que sean individuos que cumplen una serie de
características que son de especial interés para nuestro estudio. Una vez
elegidos los participantes en general, también necesitaremos decidir cómo les
asignaremos un rol concreto dentro del experimento: qué individuos estarán
asignados al tratamiento y cuáles al placebo o no tratamiento según si
necesitamos que cada miembro de un grupo tenga un miembro coincidente en
ciertas características con el otro grupo.
• Las medidas o variables: habrá que identificar con total claridad las
variables independientes y las dependientes que medir. Las variables
independientes (la causa) podrán ser tanto el tratamiento en sí (y en uno o
varios niveles) como el hecho de aplicarlo o no. También habrá que decidir si
queremos observar el efecto de la variable independiente en individuos de
diferentes características que operen como variables de control (por ejemplo,
edad, sexo, etc.). En cuanto a la variable dependiente, deberemos ser capaces
de observar si ha habido efecto o no, la dirección del efecto (la condición
original ha mejorado o empeorado) y la fuerza de este efecto.
• La instrumentación y materiales: la exactitud de un diseño
experimental requiere que todos los elementos del proceso de recogida de
datos estén especificados con el más preciso detalle, pues cualquier variación
podría actuar como una variable adicional no controlada y afectar los
resultados. Según el campo de la ciencia, la instrumentación del experimento
puede llegar a consistir en elementos muy diferentes, desde un contexto de
laboratorio, donde la propia preparación de estos instrumentos puede requerir
meses, hasta la simple preparación de una sala y el diseño de las plantillas de
recogida de datos. Tengan la complejidad que tengan, los instrumentos y
materiales del experimento deberán ser comprobados o pilotados antes de su
realización.
• Los procedimientos: esta es la decisión más importante del experimento,
ya que nos determinará cómo organizar las otros tres. Hay varios tipos de
procedimientos, de los que aquí solo citamos algunos, pero que los
investigadores deberían consultar y ampliar con lecturas específicas (por
ejemplo, Campbell y Stanley, 1963): los diseños preexperimentales, cuasi
experimentales y verdaderos experimentos. Los diferentes diseños se
diferencian sobre todo por el grado de complejidad y garantías que ofrecen a
la hora de determinar si el efecto observado en el estudio es realmente
resultado del tratamiento aplicado. Así pues, no tendrá las mismas garantías
un diseño preexperimental de grupo único-post-test, donde solo expondremos
el tratamiento a un grupo de individuos y mediremos los resultados después
de haberlo aplicado, que un diseño de pretest-postest con grupo de control,
donde tendremos dos grupos, uno al que le aplicaremos el tratamiento y el
otro al que no lo haremos, y además tomaremos medidas de la variable
dependiente tanto antes como después de realizar el experimento. En el
segundo caso, podremos comparar antes-después y grupo con tratamiento-
grupo sin tratamiento, con lo que obtendremos más garantías de rigor en
nuestro trabajo.

7.7. Diseños cualitativos


Los métodos de recolección de datos más utilizados en metodología
cualitativa son las entrevistas en profundidad y los focus groups, la
observación y los diarios personales. A continuación se analizan cada uno de
estos métodos cualitativos de recolección de datos y se identifican las
principales decisiones que debe tomar el investigador cuando decide
utilizarlos en su estudio. Finalmente, se presentan las diferentes técnicas de
muestreo intencional que los investigadores tienen a su alcance a la hora de
escoger la muestra para su investigación cualitativa.

7.7.1. Entrevistas en profundidad y focus groups


Las entrevistas son uno de los métodos de recolección de datos más
utilizados en investigación cualitativa (Legarda et al., 2003). Por este motivo,
el capítulo 8 se centra exclusivamente en desarrollar este método de
recolección de datos.
Las entrevistas en profundidad se pueden definir como encuentros cara a
cara entre los entrevistados (informantes) y el entrevistador (investigador),
con el objetivo de comprender las perspectivas que los primeros tienen
respecto a las experiencias, situaciones, vidas, etc., expresadas, siempre, con
sus propias palabras (Taylor y Bogdan, 1987). Permiten al investigador
realizar una exploración en profundidad de un tema concreto (Charmaz,
2003) y obtener información rica de las experiencias, valores, opiniones,
actitudes, sentimientos, pensamientos, comportamientos, etc., de los
entrevistados (May, 2001; Boyce y Neale, 2006; Seidman, 2006). Por tanto,
las entrevistas en profundidad son adecuadas cuando lo que se busca es
conocer en profundidad el punto de vista del entrevistado (Johnson, 2002;
Bryman y Bell, 2003) sobre un fenómeno determinado. Cabe destacar que, en
ocasiones, también son utilizadas como parte de un trabajo exploratorio
previo a un estudio cuantitativo.
Las principales ventajas de las entrevistas en profundidad son que permiten
adquirir información detallada y en profundidad (Charmaz, 2003; Boyce y
Neale, 2006), combinan estructura y flexibilidad (Legarda et al., 2003) y
tienen una naturaleza interactiva que permite profundizar en las respuestas de
los informantes (Legarda et al., 2003). Sin embargo, también tienen una serie
de inconvenientes como, por ejemplo, que requieren una inversión de tiempo
importante tanto por parte del investigador –en el diseño, en la realización, en
la transcripción y en el análisis– (EASTERBY-Smith et al., 2002; King,
2004; Boyce y Neale, 2006; Berg, 2007) como por parte del entrevistado, lo
que dificulta el reclutamiento de informantes (King, 2004) y requiere una
muy buena preparación del investigador como entrevistador (Boyce y Neale,
2006).
Una vez se han escogido las entrevistas como método de recolección de
datos, se deben tomar una serie de decisiones que se articulan en torno a las
preguntas: quién, cómo, qué y cuánto. Hay que tener en cuenta que estas
decisiones no se toman de forma secuencial sino en paralelo en el tiempo, ya
que unas afectan a las otras. La primera decisión que debe tomarse hace
referencia a quién entrevistaremos. En este punto el investigador debe
decidir a quién quiere entrevistar y, por tanto, las características de la muestra
que formará parte de su estudio, que vendrán definidas por la pregunta de
investigación. Como veremos al final de este apartado, los investigadores
cualitativos disponen de varias técnicas de muestreo intencional o teórico.
Llegados a este punto, cabe destacar que las entrevistas tienen una amplia
variedad de formas, una de las cuales son las entrevistas en grupo o focus
groups (Patton, 2002; Berg, 2007). Por tanto, el entrevistador debe decidir si
entrevistará a individuos y realizará entrevistas en profundidad o si
entrevistará a grupos de personas y, en consecuencia, llevará a cabo focus
groups o grupos focales. La principal diferencia entre ambos tipo de
entrevistas es que en la primera el investigador obtiene más profundidad
sobre el tema de estudio, mientras que en la segunda obtiene más amplitud y
un abanico más amplio de opiniones y visiones sobre un mismo tema. En
estas entrevistas, el moderador guía la discusión de los entrevistados sobre un
tema concreto. Normalmente, están formados entre seis y ocho participantes
con características similares (Morgan, 1998). Una de las principales figuras
del grupo focal, aparte de los participantes, obviamente, es la del moderador,
cuya función es la de conducir las respuestas de los participantes (Vaughn et
al., 1996). Esta es una tarea para la que hay que estar formado y preparado.
Las principales ventajas de los focus groups son que permiten recoger una
gran cantidad de información en un periodo relativamente corto de tiempo
(Patton, 2002; Berg, 2007) y la interacción entre los participantes, lo que
genera información muy rica (Krueger y Casey, 2000; Saunders et al., 2003).
Este método es especialmente útil para descubrir las conceptualizaciones y el
lenguaje que utilizan los participantes sobre un fenómeno determinado
(Stewart y Shamdasani, 1990), así como para detectar temas que pueden ser
utilizados en fases posteriores del trabajo de campo (Saunders et al., 2003).
Sin embargo, también tienen una serie de inconvenientes: el número de
preguntas y el tiempo de respuesta de cada informante es restringido (Patton,
2002), no se obtienen las opiniones de los individuos sino las del grupo
(Berg, 2007), algunos participantes pueden sentirse presionados a la hora de
expresar una opinión diferente a la del resto de los participantes (Patton,
2002) y tienen lugar fuera de los escenarios donde normalmente se da la
interacción social (Madriz, 2000).
La segunda decisión que se debe tomar hace referencia a cómo
entrevistaremos. En este punto, el investigador debe decidir el tipo de
entrevista que llevará a cabo. Existen diferentes tipos de entrevistas en
función de su estructuración: estructuradas, semiestructuradas o no
estructuradas (May, 2001; Berg, 2007; Bryman y Bell, 2003). Las entrevistas
cualitativas en profundidad se clasifican en semiestructuradas o no
estructuradas (Bryman y Bell, 2003). Por un lado, las entrevistas
semiestructuradas, tal y como su nombre indica, son entrevistas más o menos
estructuradas en las que el entrevistador dispone de una lista de preguntas
cuyo orden se puede ver alterado durante la entrevista según las respuestas
obtenidas. La formulación de las preguntas es flexible y el entrevistador
puede hacer clarificaciones y pedir más información al entrevistado.
Asimismo, añadir o eliminar preguntas al guion de la entrevista entre un
entrevistado y el otro (Berg, 2007). Por otro lado, en las entrevistas no
estructuradas, el entrevistador identifica unos temas sobre los que quiere
profundizar, pero no lleva una lista de preguntas específicas. Por tanto, el
enunciado de las preguntas no se formula a priori, sino durante la entrevista.
De igual modo que en la anterior, el entrevistador puede añadir o eliminar
preguntas en la entrevista entre un entrevistado y otro. Esto no quiere decir
que el investigador no se haya tenido que preparar la entrevista con
anterioridad, sino todo lo contrario. De hecho, las entrevistas no estructuradas
son más difíciles de llevar a cabo (y de analizar) y requieren una muy buena
preparación y formación por parte del entrevistador.
La tercera decisión que se refiere al qué preguntaremos. En este sentido,
el investigador debe decidir qué tipo de información está buscando, que viene
determinada por la pregunta de investigación planteada. Esta decisión nos
determinará en gran medida el quién y el cómo. La cuarta decisión es la
referente al cuándo entrevistaremos. Cabe destacar que, generalmente, las
entrevistas consisten en un único encuentro entre un entrevistador y un
entrevistado en un momento determinado del tiempo. No obstante, en algunas
ocasiones, la investigación requiere que los informantes clave sean
entrevistados varias veces durante un periodo de tiempo determinado para
que, por ejemplo, el objetivo sea examinar su adaptación a determinados
cambios.

7.7.2. Observación
La observación es un elemento clave en la investigación cualitativa (Flick,
2002). Los investigadores cualitativos también deben estar entrenados para
observar (Hernández et al., 2010). Se define como «la descripción sistemática
de eventos, comportamientos y artefactos en el entorno social escogido para
el estudio» (Marhsall y Rossman, 1989: 79). Por tanto, a través de la
observación se puede percibir el ambiente físico, el ambiente social y
humano, las actividades o acciones llevadas a cabo por individuos y
colectividades, los artefactos que utilizan los participantes, así como las
funciones que estos cubren, los eventos o hechos relevantes que han ocurrido
en el ambiente observado, etc. (Hernández et al., 2010). La observación
como método de recolección de datos es útil cuando se quiere examinar cómo
las interacciones y las actividades en su contexto natural dotan de significado
a comportamientos y creencias; explorar ambientes, contextos o subculturas;
describir contextos, ambientes o comunidades; comprender procesos o
identificar problemas (Crabtree y Miller, 1999; Hernández et al., 2010), etc.
Cuando el investigador se decanta por utilizar la observación como método
de recolección de datos debe tomar una serie de decisiones en el proceso de
diseño del trabajo de campo. Estas decisiones se pueden relacionar con las
siguientes dimensiones (Patton, 2002): rol del observador, perspectiva,
persona que dirige la investigación, revelación del rol del observador,
duración y foco de la observación. Una de las primeras decisiones que deben
tomarse hace referencia al rol del observador en relación con si actuará o no
como un participante en el contexto estudiado (Patton, 2002). En este sentido,
el nivel de participación del observador puede variar a lo largo de un
continuo, de tal forma que este puede jugar cuatro roles diferentes (Gold,
1958): participante completo (es un individuo más dentro del contexto
estudiado y a menudo observa de forma encubierta), participando como
observador (forma parte del entorno social o contexto estudiado y a partir de
aquí juega el rol de observador), observador como participante (tiene un nivel
de involucramiento mínimo en el entorno social o contexto estudiado) u
observador completo (no toma parte en el entorno social en absoluto). En
cuanto a la perspectiva, esta puede ser infiltrada (emic) o ajena (etic). En el
primer caso, las perspectivas de los participantes son el punto de partida,
mientras que en el segundo caso se estudian conceptos o teorías ya existentes.
En relación con la persona que dirige la investigación, los grados de
colaboración se mueven a través de un continuo, desde el total control de la
investigación por parte del investigador hasta la colaboración con personas en
el contexto social estudiado. En referencia a la revelación del rol del
observador, puede que, por un lado, los participantes tengan conocimiento del
rol observador del investigador o, por otra parte, que no sean conscientes de
que este los está observando y, por tanto, actúe encubierto. La segunda
opción es especialmente pertinente cuando el fenómeno que estudiamos es de
naturaleza sensitiva para no alterar el comportamiento de los individuos, pero
a la vez habrá que tener en cuenta los aspectos éticos y legales de realizar un
trabajo de observación encubierta. En cuanto a la duración de las
observaciones, estas pueden ser a corto plazo, basadas en una observación
simple de un solo contexto, o a largo plazo, basadas en múltiples
observaciones. Finalmente, en relación con el foco de la observación, se
clasificarían las observaciones entre reducidas o amplias, en el sentido de que
en las primeras se observa un solo elemento y en las segundas se obtiene una
visión holística del contexto social estudiado. Estas decisiones dependerán,
en última instancia, de los objetivos de la investigación y de la pregunta de
investigación.

7.7.3. Diarios personales


De entre los métodos cualitativos de recolección de datos analizados en este
capítulo, los diarios personales son los menos utilizados. Sin embargo, tienen
muchas ventajas y son muy útiles en determinados estudios. Los diarios
personales se definen como «un documento creado por un individuo que
mantiene un registro regular, personal y contemporáneo» (Alaszewski, 2006:
1). Por tanto, se trata de que los participantes registren, de forma regular y
durante un periodo determinado de tiempo (normalmente entre una semana y
tres meses), los eventos o experiencias que han vivido en relación con el
fenómeno objeto de estudio (de Long et al., 1992). Este método es útil para
investigar un amplio abanico de fenómenos como, por ejemplo, reacciones y
sentimientos, comportamientos específicos, interacciones sociales,
actividades y/o eventos (Symon, 1998), sin que la información proporcionada
se vea afectada por problemas de memoria de los participantes (de Long et
al., 1992; Willig, 2001; Alaszewski, 2006).
Dado que los registros se realizan en el momento en que se da el evento o
ha pasado poco tiempo, el recuerdo del mismo no se ve distorsionado por
problemas de memoria de los participantes, y se evita así el problema de
recall error bias al que están sujetos otros métodos cualitativos, como las
entrevistas o los focus groups. los periódicos son también especialmente
útiles para acceder a información difícil de obtener o situaciones difíciles de
observar por parte del investigador (Willig, 2001; Alaszewski, 2006), ya que
son un método discreto que no requiere de su presencia (Symon, 1998 ). Este
hecho también permite a los participantes expresar su opinión o sentimientos
sin sentirse incomodados por el investigador (Conway y Briner, 2002).
Asimismo, los diarios son adecuados para analizar las cuestiones
relacionadas con los procesos y cambios, ya que permiten hacer un
seguimiento de los participantes durante un determinado periodo de tiempo
(de Long et al., 1992). Además, la mayoría de las personas saben
intuitivamente qué es un diario y cómo se debe llenar, con lo que no suelen
surgir problemas a la hora de explicar este método. Sin embargo, como todos
los métodos, también tiene una serie de inconvenientes: requieren una
dedicación importante de tiempo por parte de los diaristas (Alaszewski,
2006), algunos participantes abandonan la investigación durante la primera
semana (Willig, 2001) y, a diferencia de las entrevistas y los focus groups, es
casi imposible para el investigador guiar a los participantes hacia las áreas de
interés de la investigación, por lo que el proceso recae totalmente en manos
de los diaristas (Alaszewski, 2006). Cabe destacar que, en general, los diarios
personales no se utilizan como único método de recolección de datos, sino
que se combinan con Otros (Alaszewski, 2006; Corbetta, 2007).
Una de las decisiones que debe tomar el investigador es quiénes serán los
participantes (diarista). Más allá de lo que se explica en el siguiente apartado
sobre el muestreo en estudios cualitativos, es importante que el investigador
seleccione aquellas personas que crea que seguirán sus instrucciones y que
mantendrán los registros de forma exacta, correcta y honesta. Para
conseguirlo es importante un buen proceso de reclutamiento, un
entrenamiento inicial sobre cómo se deben realizar los registros y una
continua retroalimentación durante todo el periodo, por lo que se recomienda
recoger los registros de forma regular. Es importante que los participantes
conozcan los objetivos de la investigación con el fin de concienciarlos sobre
la importancia de realizar los registros de forma cuidadosa (Symon, 2004;
Alaszewski, 2006).
Otra decisión que se debe tomar es el tipo de periódico que se utilizará.
Existen diferentes tipos de periódicos en función del momento en el que los
participantes deben realizar el registro: en función de un intervalo (los
registros se realizan en momentos predeterminados por el investigador), en
función de un evento (los registros se realizan después de que se dé una
determinada situación previamente definida por el investigador), o en función
de una señal (los registros se realizan cada vez que el investigador lo indica a
los participantes).
Una vez analizados los principales métodos cualitativos de recolección de
datos, cabe destacar que estos no son excluyentes entre sí. Es decir, los
investigadores pueden combinar estos métodos atendiendo a su pregunta de
investigación y, por tanto, a la información que quieren recoger.
Precisamente, la triangulación de métodos (utilización de diferentes métodos
de recogida de datos) es una de las formas de demostrar el rigor de una
investigación cualitativa.

7.7.4. El muestrario en la investigación cualitativa


Una de las decisiones importantes que el investigador debe tomar en la etapa
de diseño de la investigación es la relacionada con la muestra. El capítulo 10
de este libro examina los conceptos de población y muestra y explica los
diferentes tipos de técnicas de muestreo que se pueden utilizar en una
investigación cuantitativa. Teniendo en cuenta que este apartado se centra en
el diseño de una investigación cualitativa, a continuación se explican las
diferentes técnicas de muestreo que los investigadores tienen a su alcance
cuando realizan una investigación cualitativa.
En primer lugar, hay que destacar que la técnica de muestreo elegida se ve
influenciada por las decisiones tomadas con anterioridad con respecto a la
perspectiva epistemológica, la metodología y el/los método/s de recolección
de datos. En segundo lugar, hay que tener presente que el muestreo
probabilístico utilizado en la investigación cuantitativa rara vez es apropiado
para estudios cualitativos (Marshall, 1996). Mientras que el objetivo del
enfoque muestral cuantitativo es conseguir una muestra representativa y
grande de la población con el objetivo de generalizar o extrapolar los
resultados obtenidos (Marshall, 1996), el objetivo del muestreo cualitativo es
identificar casos ricos en información y estudiarlos en profundidad,
utilizando muestras pequeñas (Miles y Huberman, 1994; Patton, 2002). Este
es el motivo por el que en investigación cualitativa se emplean muestras
probabilísticas o aleatorias (Marshall, 1996), mientras que en investigación
cualitativa se utilizan muestras intencionales o teóricas (Miles y Huberman,
1994; Patton, 2002).
Según Patton (2002) existen dieciséis tipos de muestreo intencional, lo que
obliga al investigador que quiera llevar a cabo una investigación con
metodología cualitativa a escoger una o varias de estas técnicas de muestreo.
Patton (2002:243) nos aporta una de las listas clásicas más completas de
técnicas de criterios de muestreo en estudios cualitativos. Algunos de los más
típicos, indicando su propósito u objetivo, son:
• Muestreo extremo o de casos desviados, donde examinamos
manifestaciones no usuales o extremas del fenómeno de interés.
• Muestreo intensivo, donde examinamos casos ricos en información que
manifiestan el fenómeno de forma intensiva pero no extrema.
• Muestreo de máxima variación, donde escogemos una amplia gama de
casos con el objetivo de obtener variación con respecto al fenómeno de
interés, y su contrario, el muestreo homogéneo, donde buscamos que los
casos se parezcan al máximo entre ellos.
• Muestreo de bola de nieve, donde identificamos los casos de interés a
través de pedir a los primeros informantes a qué gente conocen que pueda
darnos información importante para nuestro estudio.
• Muestreo oportunista o emergente, donde seguimos nuevas pistas que
aparecen durante el trabajo de campo y aprovechamos hallazgos inesperados.
• Muestreo de conveniencia, donde simplemente utilizamos como
informantes a las personas que tenemos más a mano para ahorrar tiempo y
esfuerzos. En este caso, hay que asegurarse y justificar que las opiniones de
estas personas también serán útiles o válidas para nuestro estudio.
Como hemos comentado, los investigadores pueden combinar varias
técnicas de muestreo en función de las necesidades de su investigación, los
objetivos de su pregunta de investigación y las características de la
información que quieren recoger. Como en todas las distintas decisiones
sobre el diseño de la investigación, las de la técnica de muestreo también se
tomarán en función de la pregunta de investigación previamente definida y,
por tanto, en función del tipo de información que se quiere recoger.

Bibliografía
Alaszewski, A. (2006). Using Diaries for Social Research. SAGE
Publications, Londres.
Ang, S. W. (2014). Research design for business & management. SAGE
Publications, Londres.
Berg, B. L. (2007). Qualitative Research Methods for the Social Sciences.
Pearson International Edition, Boston.
Berger, P. L. y Luckmann, T. (1967). The Social Construction of Reality.
Penguin Books, Londres.
Boyce, C. y Neale, P. (2006). Conducting In-Depth Interviews: A Guide for
Designing and Conducting In-Depth Interviews for Evaluation Input.
Monitoring and Evaluation – 2. Pathfinder International Tool Series.
Disponible en:
http://www.pathfind.org/site/DocServer/m_e_tool_series_indepth_interviews.pdf?
docID=6301.
Bryman, A. y Bell, E. (2003). Business Research Methods. Oxford
University Press, Nueva York.
Charmaz, K. (2003). «Qualitative interviewing and grounded theory
analysis». En: Holstein, J. A. y Gubrium, J. F. (eds.). Inside Interviewing.
New Lenses, New Concerns. SAGE Publications, Thousand Oaks. pp. 311-
330.
Conway, N. y Briner, R. B. (2002). «A daily diary study of affective
responses to psychological contract breach and exceeded promises».
Journal of Organizational Behavior. 23, pp. 287-302.
Corbetta, P. (2007). Metodología y técnicas de investigación social.
McGraw-Hill Interamericana, Madrid.
Creswell, J. W. (2007). Qualitative inquire and research design. Choosing
among five approaches. SAGE Publications, Thousand Oaks.
— (2009). Research design. Qualitative, quantitative and mixed method
approaches. SAGE Publications, Thousand Oaks.
De Longis, A., Hemphill, K. J. y Lehman, D. R. (1992). «A Structured Diary
Methodology for the Study of Daily Events». En: Bryant, F. B., Edwars, J.,
Tindale, R. S., Posavac, E. J., Heath, L., Henderson-Kng, E. Y Suarez-
Blacazar, Y. (eds.). Methodological Issues in Applied Social Psychology.
Plenum Press, Nueva York. pp. 83-109.
Denzin, N. y Lincoln, Y. (eds.) (1994). «Handbook of qualitative research».
SAGE Publications, Londres.
— (2000). «Handbook of Qualitative Research». SAGE Publications,
Thousand Oaks. pp. 835-850.
Easterby-Smith, M., Thorpe, R. y Lowe, A. (2002). Management Research.
An Introduction. SAGE Publications, Londres.
Flick, U. (2002). An Introduction to Qualitative Research. SAGE
Publications, Londres.
Gold, R. L. (1958). «Roles in sociological field observations». Social Forces.
36 (3), pp. 217-223.
Hernández, R., Fernández, C. y Baptista, P. (2010). Metodología de la
investigación. McGraw-Hill, México.
Johnson, J. M. (2002). «In-Depth Interviewing». En: Gubrium, J. F. y
HOLSTEIN, J. A. (eds.). Handbook of Interview Research. Context &
Method. SAGE Publications, Thousand Oaks. pp. 103-120.
King, N. (2004). «Using interviews in qualitative research.» En: Casell, C. y
Symon, G. (eds.). Essential Guide to Qualitative Methods in
Organizational Research. SAGE Publications, Londres. pp. 11-22.
Krueger, R. A. y Casey, M. A. (2000). Focus Groups. A practical guide for
applied research. SAGE Publications, Thousand Oaks.
Leavy, P. (2017). Research Design: Quantitative, Qualitative, Mixed
Methods, Arts-Based, and Community-Based Participatory Research
Approaches. Guildford Press, Nueva York.
Legard, R., Keegan, J. y Ward, K. (2003). «In-depth Interviews». En: Ritchie,
J. y Lewis, J. (eds.). Qualitative Research Practice. A Guide for Social
Science Students and Researchers. SAGE Publications, Londres. pp. 138-
169.
Madriz, E. (2000). «Focus Groups in Feminism Research». En: Denzin, N.
K., Lincoln, Y.S. (eds.) (2000). Handbook of Qualitative Research. SAGE
Publications, Thousand Oaks.
Marshall, M. N. (1996). «Sampling for qualitative research». Family
Practice. 13 (6), pp. 522-525.
Marshall, C. y Rossman, G. B. (1989). Designing qualitative research. SAGE
Publications.
May, T. (2001). «Social Research. Issues, methods and process». Open
University Press, Buckingham.
Miles, M. B. y Huberman, M. A. (1994). «Qualitative Data Analysis. An
Expanded Sourcebook». SAGE Publications, Thousand Oaks.
Miller, W. L. y Crabtree, B. F. (1999). «Depth Interviewing». En: Crabtree,
B.F. y Miller, W. L. (eds.). Doing Qualitative Research. SAGE
Publications, Thousand Oaks. pp. 89-107.
Morgan, D. L. (1998). The Focus Group Guidebook. Focus Group Kit 1.
SAGE Publications, Thousand Oaks.
Neuman, W. L. (1997). Social research methods: qualitative and quantitative
methods: qualitative and quantitative approaches. Allyn and Bacon,
Boston.
Patton, M. Q. (2002). Qualitative Research & Evaluation Methods. SAGE
Publications, Thousand Oaks.
Saunders, M., Lewis, P. y Thornhill, A. (2003). «Collecting primary data
using semi-structured and in-depth interviews». En: Saunders, M. et al.
(eds.). Research Methods for Business Students. Prentice Hall Financial,
Londres.
Seidman, I. (2006). Interviewing as a Qualitative Research. A Guide for
Researchers in Education and Social Sciences. Teachers College,
Columbia University, Nueva York.
Stewart, D. W. y Shamdasani, P. N. (1990). Focus groups: theory and
practice. SAGE Publications, Londres.
Symon, G. (1998). «Qualitative Research Diaries». En: Symon, G. y Cassell,
C. (eds.). Qualitative Methods and Analysis in Organizational Research. A
Practical Guide. SAGE Publications, Londres. pp. 94-117.
— (2004). «Qualitative Research Diaries». En: Cassell, C. y Symon, G.
(eds.). Essential Guide to Qualitative Methods in Organizational Research.
SAGE Publications, Londres. pp. 98-113.
Taylor, S. J. y Bogdan, R. (1987). Introducción a los métodos cualitativos de
investigación. Ediciones Paidós Ibérica, Barcelona.
Thomas, A. B. (2006). Research Concepts for Management Studies.
Routledge, Oxon.
Vaughn, S., Schumm, J. S. y Sinagub, J. (1996). Focus Group Interviews in
Education and Psychology. SAGE Publications, Thousand Oaks.
Walliman, N. (2001). Your research project: a step-by-step guide for the
first-time researcher. SAGE Publications, Londres.
Willig, C. (2001). Introducing qualitative research in psychology. Adventures
in theory and method. Open University Press, Buckingham.
8 Entrevistas

8
ENTREVISTAS
Ester Oliveras
(UPF)

Objetivos del capítulo

• Saber cuándo es adecuado utilizar la entrevista para la recogida de datos.


• Conocer los diferentes tipos de entrevistas.
• Realizar un encuadre adecuado de las entrevistas.
• Minimizar la subjetividad en las entrevistas de investigación.
• Conocer las fases de la investigación con entrevistas.

8.1. Introducción
Las entrevistas se usan, principalmente en las ciencias sociales, durante el
trabajo de campo para la recogida de datos. Constituye una de las
metodologías más utilizadas en investigación cualitativa, tal y como se
expone también en el capítulo 12.
De hecho, a lo largo de la historia, una gran parte de la generación del
conocimiento se ha generado a través de conversaciones, diálogos y debates
de una manera informal. Sócrates, por ejemplo, utilizaba el diálogo para
producir conocimiento filosófico. Algunos autores también relacionan las
entrevistas en profundidad con la necesidad que tiene el ser humano de
explicar y elaborar lo que le pasa tanto internamente como la necesidad de
compartir vivencias y experiencias personales. Por este motivo en el lenguaje
encontramos expresiones como sincerarse, confesarse o desahogarse.
La entrevista, como herramienta en sí misma, empieza a utilizarse en el
periodismo a mediados del siglo XIX y como instrumento terapéutico a
principios del siglo XX. En cambio, la entrevista de investigación no se
empezó a usar de una manera extendida hasta la década de los años ochenta.
La generación de conocimiento a través de las entrevistas se ha ido
sistematizado y ahora ya existen unas pautas generales para seguir en la
planificación, ejecución y en el análisis de los datos generados. Aun así, hay
muy pocas normas en comparación con los cuestionarios u otras técnicas
cuantitativas. Como se verá más adelante, todo dependerá del tema de
investigación, del enfoque y del tipo de análisis que se quiera realizar.
Algunas de las áreas de conocimiento que más utilizan las entrevistas son
la antropología, la sociología y la psicología. Ejemplos muy conocidos de
conocimientos que se han adquirido gracias a las entrevistas cualitativas son
la teoría psicoanalítica del psiquiatra Sigmund Freud y la teoría de Piaget
sobre el proceso de aprendizaje infantil. En el ámbito de la organización
industrial y de los trabajadores, son conocidas las investigaciones de
Hawthorne, que entrevistó a más de 21.000 trabajadores para ver cómo
influían las condiciones laborales en la productividad.
Actualmente, las entrevistas en profundidad se aplican muy a menudo en el
área de marketing, concretamente, para entender la psicología del
consumidor. La aplicación de estas investigaciones se pueden ver en
numerosos anuncios de productos que van más allá de la pura descripción del
producto y que intentan relacionar lo que se está vendiendo con un modo de
sentir o de vivir determinado, como por ejemplo las bebidas refrescantes o los
coches. Aparentemente, una entrevista parece fácil de realizar. Casi todo el
mundo tiene experiencias de haber participado en conversaciones y haber
extraído información que ha servido posteriormente para algún propósito. Por
ello las personas investigadoras pueden tener la tentación de lanzarse a hacer
entrevistas sin una formación o preparación previa suficiente.
Desgraciadamente, si las entrevistas se hacen sin una planificación adecuada,
el conocimiento generado será bajo, difícilmente publicable, y se habrá
perdido mucho tiempo en la transcripción y análisis de las mismas. En este
sentido, si se compara el número de años de preparación que necesita un
psiquiatra o un psicólogo para poder ejercer su trabajo —que está basado en
entrevistas personales— con la preparación que recibe un investigador
cualitativo, se comprobará que existe una gran diferencia. Un estudio indica
que, para ser un moderador o moderadora de grupos de discusión competente,
hay una preparación previa de dos años.
Estas advertencias no tienen por objetivo desanimar a la persona
investigadora, sino más bien advertirle de la complejidad que se esconde
detrás de una metodología que, a primera vista, puede parecer sencilla e
intuitiva.

8.2. Definición y tipos de entrevistas


Podríamos definir una entrevista semiestructurada o en profundidad como
una conversación que tiene una estructura flexible y un objetivo por parte de
la persona entrevistadora. Por tanto, estaría en medio entre una conversación
cotidiana libre y abierta y un cuestionario cerrado, tal y como se observa en el
siguiente gráfico:

También se describiría una entrevista en profundidad como una interacción


profesional en la que el objetivo general es obtener la visión y experiencia de
la persona entrevistada respecto a los fenómenos que se estén investigando.
Las entrevistas pueden tener objetivos muy diferentes. Por ejemplo, buscar
conocimiento sobre experiencias subjetivas, creencias o suposiciones
personales de las personas entrevistadas. También estar encaradas a dibujar
situaciones sociales o buscar una descripción más precisa de momentos
históricos mediante entrevistas a personas que aportan diferentes
perspectivas. Otro objetivo frecuente son las entrevistas biográficas que
buscan relatar y comprender experiencias de vidas que han sido
excepcionales en algún aspecto.
En términos generales, la entrevista es un método con un gran potencial
para captar experiencias y significados del mundo visto desde la perspectiva
de la persona entrevistada. La persona que realiza la entrevista registra e
interpreta los significados de lo que se dice y también se fija en cómo se dice.
Debe ser capaz de observar e interpretar elementos verbales y no verbales,
como la vocalización, las expresiones faciales u otros gestos corporales. Hay
que escuchar las descripciones explícitas y los significados expresados, así
como lo que se dice entre líneas.
Las entrevistas se pueden clasificar en función de su objetivo, que, en parte,
determinará el grado de estructura y el tipo de preguntas que se utilizan. A
continuación se listan las más habituales:
• Entrevistas exploratorias. La estructura es mínima y las preguntas
iniciales son muy abiertas; la dirección se va fijando en función de las
respuestas.
• Entrevistas de comprobación de hipótesis. En este caso, la entrevista es
semiestructurada, ya que hay un objetivo claro. Aun así, la comprobación se
puede realizar desde diferentes preguntas y perspectivas. No es una única
pregunta la que permite comprobar o rechazar las diferentes hipótesis.
• Entrevistas descriptivas. Buscan explicaciones ricas, precisas y detalladas.
• Entrevistas por el desarrollo de teorías. Este es el enfoque que utiliza la
metodología Grounded Theory, que se basa en la construcción de teorías a
partir de una observación directa de la realidad.
• Entrevistas factuales. Se utilizan para constatar hechos objetivos e
intentar que no entre la subjetividad o la manipulación de los hechos que a
veces hacen las personas, a fin de poder cumplir con la imagen o estándar que
creen que se espera de ellas.
• Entrevistas conceptuales. Tienen como objetivo descubrir el significado
de un concepto determinado para un grupo de personas, y todo lo que implica
alrededor del concepto. Un posible ejemplo sería investigar el concepto de
amistad entre un grupo de adolescentes y compararlo con el significado del
concepto en una edad más avanzada.
• Entrevistas en grupos de discusión. En este caso, son entrevistas en
grupos de entre cinco y un máximo de diez personas, moderadas por el
investigador. Se utiliza para estimular la discusión entre los componentes del
grupo y, así, tener acceso a diferentes puntos de vista.
• Entrevistas narrativas. El objetivo es que las personas entrevistadas narren
las vivencias o historias personales.
• Entrevistas discursivas. El objetivo es analizar la relación entre diferentes
conceptos que se dan en el discurso utilizado por las personas entrevistadas.
Un ejemplo podría ser: cómo se articula el discurso para explicar la relación
entre prestigio académico y publicaciones en el mundo académico.
• Entrevistas de confrontación. En estas entrevistas se introduce el conflicto
y la divergencia de opiniones para retar o estimular a la persona entrevistada.
Este tipo de entrevista no es tan frecuente y lo habitual es que se utilice en
personas de un mismo nivel académico para confrontar una diversidad de
opiniones.

8.3. Cuestiones éticas


Las áreas de conocimiento utilizan habitualmente personas para fines de
investigación, ya tienen protocolos éticos muy desarrollados que seguir de
manera obligatoria. Esto sucede en las ciencias de la salud, donde hay
conciencia y tradición de cuidar los derechos de las personas que participan
en la investigación. En cambio, en las ciencias sociales no hay tanta
experiencia y los protocolos todavía se están revisando y adaptando.
En una situación de entrevista, normalmente la persona que esté realizando
la entrevista tendrá una actitud abierta y receptiva que propiciará que la
persona que está siendo entrevistada se sienta libre, abierta y segura para
explicar vivencias y opiniones íntimas. En cambio, después es posible que lo
que ha explicado en un entorno íntimo pase a formar parte del conocimiento
público. Por este motivo hay que ir con cuidado y asegurarse de proteger la
confidencialidad de las personas entrevistadas si la temática es sensible. Hay
que pensar con antelación cuáles podrían ser las consecuencias para las
personas entrevistadas cuando se publiquen los resultados y, si estas son
negativas, minimizar las consecuencias.
Por supuesto, no todos los temas de investigación tienen la misma
problemática. Por tanto, habrá que adaptar las consideraciones éticas en
función de la sensibilidad del tema que se esté investigando.
Es habitual, antes de empezar la entrevista, explicar y hacer firmar un
consentimiento informado que especifique alguna o toda la información
siguiente:
• Objetivo de la investigación.
• Obtener el permiso para grabar la entrevista.
• Política de confidencialidad (quién tendrá acceso a las entrevistas).
• Si podrán opinar (o no) sobre la interpretación que se ha realizado de su
entrevista.
• Si tendrán acceso (o no) a la transcripción posterior de la entrevista.
• Ofrecer el derecho a retirarse de la investigación en cualquier momento.
A veces no es recomendable explicar cuál es el objetivo de la entrevista
antes de que esta se realice, por ejemplo cuando se busca una respuesta
espontánea y no preparada de la persona entrevistada. En estos casos, se
recomienda que la persona entrevistada firme un nuevo consentimiento,
completado con toda la información, una vez haya finalizado la entrevista.

8.4. Las siete etapas de una investigación con entrevistas en


profundidad
Las siete etapas de una investigación con entrevistas en profundidad se
muestran en el gráfico siguiente. Algunas de estas etapas se encuentran en
todos los procesos de investigación, pero en este apartado se describirán
teniendo en cuenta cómo se deberían dirigir si la metodología utilizada son
las entrevistas.

Fuente: Kvale, Steinar (2011).

Pese a que transcurren de manera lineal en el tiempo, puede haber


retrocesos en etapas anteriores y lo ideal es tener presente todos los pasos
cuando se hace el diseño de la investigación. A continuación se detalla cada
una de estas fases, de acuerdo con Kvale y Steinar (2011).

8.4.1. Organización temática


Esta fase consiste en formular el propósito de la investigación, es decir
contestar las clásicas preguntas: qué, por qué y cómo.
En esta etapa hay que adquirir un conocimiento bastante amplio y profundo
de la temática que se quiera tratar con el fin de poder identificar con precisión
qué conocimiento se añadirá a través de la realización de las entrevistas.
Tener presente qué aportación se quiere hacer al conocimiento es un paso
preliminar que a veces se omite por la prisa de querer comenzar con la
investigación.
En esta etapa, también hay que reflexionar sobre qué enfoque teórico se
dará a las entrevistas, ya que ello determinará la forma en que se formularán
las preguntas. Por ejemplo, en el ámbito de la psicología, si el objetivo es
investigar en torno al concepto de la vergüenza, se puede poner el enfoque en
las teorías psicológicas de su desarrollo o en la motivación del
comportamiento. En función de si se elige una u otra, las preguntas se
formularán de una manera determinada.

8.4.2. Diseño
En esta etapa será necesario planificar todas las fases de la investigación, y
además se puede añadir un calendario temporal. La parte de transcripción,
análisis y redacción del informe es la que ocupa más tiempo, en comparación
con la realización de las entrevistas, que puede hacerse en unas semanas o
meses.
En la realización de entrevistas, es muy importante tener una visión general
de toda la investigación. Esto es debido a que el método de análisis o la
verificación no está implícito en el método tal y como ocurre en los métodos
cuantitativos. Por tanto, hay que saber desde el principio cómo se analizarán
las entrevistas, cómo se hará la verificación y qué formato debe tener el
informe final que se elabore con los resultados. En función de lo que se
decida para el resto de las etapas se determina cómo se han de enfocar las
entrevistas.
Siempre que sea posible, será adecuado anticipar trabajo de las etapas
posteriores antes o durante la entrevista. Por ejemplo, una buena verificación
se lograría introduciendo preguntas de control durante el transcurso de la
entrevista. También hay que tener presente que las etapas no son del todo
lineales, y que se puede ir de una a otra dependiendo del conocimiento que se
va generando mientras se desarrolla la investigación. Durante las entrevistas,
se va creando un aprendizaje que llevaría a un nuevo análisis o a entrevistar a
más personas. Por ello, se recomienda escribir un diario de trabajo donde se
registren los aprendizajes que se han ido haciendo en el proceso de
investigación y los cambios que esto ha producido. Este registro puede ser
muy útil en la redacción del informe final.

8.4.3. Las entrevistas


En esta etapa suele surgir la inquietud sobre cuál es el número adecuado de
personas que hay que entrevistar. Otra vez, dependerá del objetivo de la
investigación. Si se trata de una biografía, una única persona será suficiente,
aunque podría ser necesario más de una sesión para recoger toda la
información necesaria. Para otros objetivos, tales como las entrevistas de
concepto o las de discurso, hay que pensar en un número que no sea
demasiado pequeño ni demasiado grande. Normalmente, cuando las
entrevistas ya no aportan nuevo conocimiento y los mismos aspectos se van
repitiendo una y otra vez, es que ya se han realizado suficientes entrevistas.
Hay que ir con cuidado con entrevistas con personas que pertenezcan a
otras culturas, con niños, o con personajes relevantes política o socialmente.
En estos casos se requiere una preparación más cuidada.
Las entrevistas se realizarán con un documento base y teniendo presente el
conocimiento que se quiere obtener, así como la situación interpersonal que
se va creando durante la entrevista. Es muy importante que la persona
investigadora haya comprobado que la grabadora funciona correctamente y
que el sonido se escuchará con suficiente claridad para poder hacer la
transcripción posterior. Se puede dividir la entrevista en cuatro fases que son
consecutivas en el tiempo.
En la fase inicial, la persona investigadora hace una breve introducción en
la que se explicarán los objetivos, la duración aproximada de la entrevista y,
si es necesario, se pedirá la firma del consentimiento informado para
consideraciones éticas. También se ofrecerá a la persona que será
entrevistada la oportunidad de exponer dudas o cuestiones sobre el proceso.
Para el cuerpo de la entrevista hay que llevar preparado un guion donde
constarán las preguntas que se formularán en el desarrollo de la misma. Las
preguntas deben estar escritas en un lenguaje sencillo y fácil de entender,
adaptado a la persona que entrevistaremos. Dependerá del objetivo de la
investigación decidir si la persona investigadora podrá alejarse más o menos
de la pauta de preguntas preestablecida. Tal y como se ha comentado
anteriormente, las entrevistas exploratorias tendrán un carácter más abierto y
las entrevistas factuales deben ser más concretas.
En el momento de redactar el guión de la entrevista, es útil distinguir entre
entrevistas directas y entrevistas embudo. Las entrevistas embudo son
aquellas que tratan temas personales o delicados y no es adecuado
preguntarlas al principio, sino que hay que ir aproximando el tema de una
manera progresiva. Por ejemplo, si se quiere saber sobre los hábitos de
consumo abusivo de alcohol en adolescentes y el objetivo es obtener una
respuesta sincera, seguramente no será efectivo empezar la entrevista
pidiendo directamente el volumen de alcohol que se bebe. Una aproximación
más adecuada consistiría en comenzar pidiendo su opinión general sobre el
ocio de los adolescentes, después sobre el uso del alcohol en su entorno
cercano, cuándo empezó a beber alcohol, etc. Las preguntas más íntimas se
pueden hacer cuando la relación entre las dos personas está más avanzada y
la interacción sea positiva.
A continuación se listan los diferentes tipos de preguntas que hacer en
entrevistas:
• Preguntas introductorias: suelen utilizarse al principio, para empezar a
situar la temática. Algunos ejemplos serían: «¿puedes explicarme...?»,
«¿recuerdas alguna vez que hayas...?».
• Preguntas de profundización: se trata de animar a la persona entrevistada
que siga hablando sobre el tema. Simplemente puede consistir en asentir con
la cabeza o hacer alguien sonido o palabra que indique interés, pero que no
corte el hijo argumental de la persona entrevistada.
• Preguntas de especificación: se utilizan cuando se quiere dar más detalle
sobre un aspecto en concreto de alguna respuesta previa. Es importante
utilizar el mismo lenguaje que la persona entrevistada cuando se hacen este
tipo de preguntas. Esto crea una buena sintonía entre las dos personas y da
pie a que la persona entrevistada continúe profundizando en el mismo tema.
Por ejemplo: «¿qué hiciste cuando...?», «¿cómo te sentiste cuando...?»,
«¿puedes dar una explicación más detallada?».
• Preguntas directas: dirigen de manera clara algún tema determinado y
dan menos pie a la elaboración verbal para la persona entrevistada: «¿vas a
beber alcohol este fin de semana?».
• Preguntas indirectas: se utilizan para tratar aspectos más delicados y
donde existe la posibilidad de que la persona no conteste si se pregunta de
forma directa. Siguiendo con el ejemplo del consumo de alcohol, una
pregunta indirecta sería: «¿cuál crees que sería la reacción de tus compañeros
y compañeras si pudieran comprar alcohol en esta fiesta?».
• Preguntas de interpretación: sirven para aclarar lo que ya ha dicho la
persona entrevistada, comprobar que se ha entendido o que se ha interpretado
de manera correctamente. Este tipo de preguntas son muy útiles en las etapas
posteriores de la investigación, ya que facilitan el análisis y la verificación.
Ejemplos: «quieres decir que...?», «entiendo que lo que quieres decir es...».
A veces se pueden producir silencios durante la entrevista. Es necesario
que la persona investigadora se sienta cómoda con los silencios y dar
suficiente espacio a la persona que está respondiendo a que elabore las
respuestas.
Las entrevistas son un proceso abierto y pueden ir en una dirección u otra
en función de lo que decide el investigador. Por ejemplo, después de que un
entrevistado haga la siguiente afirmación:
ENTREVISTADO. Después de beber alcohol me siento más relajado y contento,
además, todos mis amigos beben. Si no bebes, eres un pringao. no formas
parte del grupo.
Posibles caminos que seguir:
• ¿Qué te permite estar más relajado?
• ¿Más relajado en comparación con otros momentos? ¿Cuáles?
• ¿Todos tus amigos beben? ¿No hay ninguno que no lo haga?
• Por lo que dices, parece que formar parte de tu grupo de amigos es muy
importante.
• ¿Qué es más importante para ti: estar relajado y contento, o bien formar
parte del grupo?
Todas las preguntas son correctas, pero dependerá del objetivo de la
investigación en primer lugar y también de si hay alguna indicación no verbal
que indique que es mejor profundizar en las sensaciones personales de beber
alcohol o bien en la presión del grupo.
La mayoría de las personas quieren ser escuchadas y una entrevista bien
llevada aportará mucha información y será gratificante para ambas partes. Sin
embargo, en la etapa final, el entrevistado puede tener sensaciones
contradictorias. Si se ha abierto mucho y explicó vivencias íntimas, tener
sensación de vergüenza o, si se ha referido a una etapa pasada de su vida,
sentirse nostálgica o con el recuerdo presente de las vivencias pasadas. Hay
que respetar estas situaciones personales con sensibilidad y dejar siempre
espacio al final de la entrevista por si la persona que ha sido entrevistada
tiene necesidad de expresar algún aspecto adicional. Una vez se apaga la
grabadora, es frecuente que la persona que ha sido entrevistada haga un
suspiro de alivio y continúe hablando, explicando más cosas que no ha
querido decir mientras la grabadora estaba funcionando.
La última etapa, la de reflexión, empieza una vez se ha marchado el
entrevistado. Se recomienda pasar unos minutos escribiendo sobre el
contenido emocional y la atmósfera que se ha respirado durante la entrevista.
Esto incluye las sensaciones, incidencias o aspectos no verbales. Este tipo de
información se olvida muy rápidamente, y desgraciadamente no ha quedado
registrada en la grabadora. Por este motivo, lo mejor es hacerlo de inmediato,
cuando todavía se está físicamente en el lugar donde se ha realizado la
entrevista.

8.4.4. Transcripción
En esta fase, el contenido de la conversación oral se convierte en un texto. Es
una fase bastante tediosa y que consume mucho tiempo: una entrevista de una
hora de duración puede conllevar hasta cinco horas de trabajo de
transcripción. Por esta razón, muchos investigadores terminan subcontratando
esta fase, aunque en una fase inicial de la carrera investigadora sería útil
transcribir algunas de las entrevistas, ya que constituyen una fuente de
aprendizaje para mejorar la técnica.
En el proceso de transcripción se pierde una gran cantidad de información.
Una entrevista es una interacción social viva que, como tal, goza de mucha
riqueza más allá de las palabras que se están diciendo: tiempo de intercambio
de conversación, tono de voz, expresiones corporales, silencios, etc. Toda
esta información más sutil está disponible para los participantes en la
conversación y ambos lo utilizan de manera inconsciente durante el proceso
de la entrevista. En el gráfico siguiente se muestran las pérdidas que hay en
cada una de las etapas.

También hay que tener en cuenta las diferencias naturales entre el habla
oral y los textos escritos. El habla oral, una vez se pone por escrito, da la
sensación de incoherencia, de repetición, y parece como si la persona
entrevistada no se supiera expresar correctamente. Todo esto es debido a la
falta de información no verbal que acompaña la conversación. Hay cierta
práctica para leer transcripciones.
Cuando se realiza la transcripción, se deberán decidir unos criterios y
utilizarlos durante todo el proceso. Por ejemplo, decidir si se marcan los
silencios, los suspiros, si se escriben sonidos que no son palabras, como ahh,
ummm, etc... El tipo de transcripción que se realice estará relacionado con el
análisis que se quiera hacer posteriormente de las entrevistas.

8.4.5. Análisis
La fase de análisis es, sin duda, la más larga de la investigación. A veces se
puede acabar con cientos de páginas de entrevistas y sacar las conclusiones
requiere irlas leyendo y trabajando, a veces desde varios puntos de vista. El
método de análisis irá en función de la temática y los objetivos de la
investigación e, idealmente, debe haberse decidido antes de que empiecen las
entrevistas, ya que esto permite hacer entrevistas que proporcionen la
información necesaria para el análisis posterior.
Existen diversos softwares que ayudan a simplificar el trabajo de análisis:
identificando palabras que se repiten a menudo, identificando patrones,
creando gráficos, codificando, etc. Pero el trabajo de interpretación siempre
será de la persona investigadora.
Existen dos grandes tipologías de análisis: las que se centran en el
significado y las que se centran en el lenguaje. Cuando se analiza una
entrevista no es necesario ceñirse a un único método, sino que se puede usar
una combinación de varios de ellos. A continuación se introducen los
métodos principales dentro de cada categoría:
a) Métodos de análisis centrados en el significado:
• Codificación: en este método se codifican palabras o grupos de palabras
para identificarlas cada vez que aparecen en el texto.
• Categorización: permite cuantificar el número de veces que diferentes
conceptos aparecen en el texto, ya sea por una única palabra o grupos de
palabras. La codificación y categorización se utilizan muchas veces
conjuntamente. Esto es particularmente habitual en áreas en que la
investigación cualitativa es una metodología minoritaria, ya que permite
un cierto grado de cuantificación.
• Condensación del significado: resume lo que ha sido expresado en las
entrevistas en un formato breve.
• Interpretación del significado: se hacen lecturas más profundas y
críticas de la entrevista. Se buscan evidencias escondidas en la
conversación.
b) Análisis que se centren en el lenguaje:
• Análisis lingüístico: estudia las formas gramaticales y las palabras que
se utilicen. Este tipo de análisis ayuda a verificar el contenido de las
declaraciones. Poner atención en el aspecto lingüístico mejora la
precisión de las preguntas y aumenta la sensibilidad en el uso del lenguaje
por parte de las personas investigadoras.
• Análisis de la conversación: se pone la atención en la interacción entre
la persona investigadora y la entrevistada (es decir, cómo se crea la
comprensión a medida que se producen diferentes turnos de palabra).
• Análisis narrativo: se centra en la historia que se está contando, los
tiempos y tramas sociales de las narraciones. A veces la persona
entrevistada crea una narración en una de las respuestas, mientras que en
otras la narración se puede construir a partir de un conjunto de respuestas.
• Análisis del discurso: se enfoca en cómo se ligan los argumentos y
conceptos para construir discursos que justifiquen o defiendan una
determinada posición. El discurso se trata como una herramienta que
tiene capacidad de movilización y acción. Esta metodología se utiliza
mucho en política.
• Deconstrucción: este tipo de análisis tiene dos fases; primero se
descompone la forma en que se comprende el texto y después se
reconstruye, aunque de otra manera. Se puede poner el enfoque, por
ejemplo, en lo que no dice alguno de los conceptos más utilizados.

8.4.6. Verificación
En esta fase hay que comprobar la validez, la fiabilidad y que los resultados
sean generalizables. Estos términos no son absolutos y son difíciles de
definir. De hecho, esta terminología se utiliza mucho en las investigaciones
cuantitativas, y no siempre son directamente exportables a la investigación
cualitativa, de la misma manera que se entienden en metodologías más
numéricas.
En principio, si el diseño de la investigación y las entrevistas se ha
realizado correctamente, el conocimiento generado cumplirá estos requisitos,
pero vamos a ver por separado cada uno de estos adjetivos:
• La fiabilidad se refiere a que se pueda confiar en los resultados obtenidos,
es decir, que sean reproducibles en otros momentos y por otros
investigadores o bien que a partir de unas mismas transcripciones se llegue a
interpretaciones similares. Para que esto sea posible debe haber un grado
elevado de objetividad en el estudio. Será necesario que las entrevistas y el
análisis no estén distorsionados por sesgos personales o por prejuicios de la
persona investigadora.
• La validez se refiere a que sea verdad y correcto. Sobre todo a demostrar
que lo que se afirma que se ha investigado, se haya investigado realmente. La
validación se realiza cuando se escoge entre diferentes interpretaciones
posibles, examinando todos los argumentos posibles, para explicar un mismo
hecho. Se trata de hacer de abogado del diablo con las propias conclusiones.
La validación llega a diferentes niveles. Por ejemplo, en un primer nivel, se
puede pedir a la persona entrevistada si las interpretaciones que se ha
realizado de sus declaraciones son correctas. En un último nivel, la
comunidad científica puede validar las conclusiones extraídas de una
investigación dentro de un marco teórico determinado.
Por lo que respecta a la generalización, podemos analizarla en dos
aspectos; estadística y analítica. La generalización estadística se cumple
siempre que se hayan entrevistado un número adecuado de sujetos escogidos
con un método fiable (muestreo, azar, etc.). Para la generalización analítica
hay que contar con descripciones bastante detalladas y generosas para que sea
aplicable a otros sujetos o situaciones.

8.4.7. Redacción del informe final


A la hora de redactar el informe con las conclusiones, lo más importante es
estar familiarizado con las prácticas del área o disciplina. También es útil
saber desde el principio qué formato tendrá el informe final, ya que esto
puede tener un impacto a la hora de hacer las entrevistas.
En el informe final se deben describir todos los pasos realizadas durante la
investigación; esto ayuda a relacionar las entrevistas con el análisis y los
resultados obtenidos. Además, describir las fases de la investigación es una
manera de transmitir la validez y coherencia de la investigación. En esta fase,
el informe final se podrá nutrir del registro escrito que la persona
investigadora haya desarrollado durante el proceso de investigación.
Tal y como se ha comentado anteriormente, la transcripción por escrito de
las entrevistas es una lectura difícil y hay que evitar incluir muchas páginas
de las mismas en los informes finales. La forma de presentar los fragmentos
de las entrevistas puede tener diferentes formatos: citas literales, análisis de
conversaciones, construcción narrativa, etc. En general, una citación correcta
debe seguir las dos pautas:
• Contextualización: siempre añadir la pregunta que hizo la persona
investigadora y/o proporcionar contexto para que el lector se pueda situar.
• Estilo legible, aunque mata la fidelidad al lenguaje habitual de la persona
entrevistada. Si es necesario, se puede hacer una adaptación de la
transcripción literal del discurso oral para que sea más comprensible al lector,
siempre que se mantenga la fidelidad a la cita.
Los informes pueden tomar formatos variados que faciliten la lectura, como
por ejemplo estilo de entrevista periodística, enfoque de libro reflexivo sobre
las conversaciones mantenidas, como un conjunto de narraciones o en forma
de diálogo. Aquí juega un papel importante la capacidad creativa y de
expresión escrita de la persona investigadora, así como las prácticas
habituales del área de conocimiento.

8.5. La importancia del JO en las entrevistas en profundidad


En este apartado se analiza cómo la personalidad propia puede condicionar y
dificultar el proceso de investigación mediante entrevistas si no se pone
atención a determinados aspectos. De forma natural y sana, cada persona
tiene una percepción de la realidad basada en los conocimientos o
experiencias previas, es un mapa propio que nos sirve para movernos e
interpretar el mundo, pero por supuesto nuestro mapa no es la realidad, es
decir, el mapa no es el territorio.
La utilización del propio mapa se hará evidente en la fase de análisis:
cuando se ordenen las ideas, se otorguen significados y se decida cuáles de
ellas se consideran relevantes y cuáles secundarias. Todos estos juicios los
realiza la persona investigadora, de acuerdo con los conocimientos,
preferencias y condicionamientos internos. Mientras que esto puede ser
adecuado en la fase de análisis, si una entrevista se realiza con un mapa
personal activado y poco consciente, limitará mucho la posibilidad de
aprendizaje y de obtención de nueva información. El resultado de la
entrevista simplemente confirmará las certezas y juicios que aporta la persona
investigadora.
Por tanto, durante la entrevista, el investigador debería ser consciente de
sus propios sesgos y limitaciones, para poderse abrir a entender el mapa de la
persona entrevistada. La suspensión del propio mapa requiere cierta práctica
y conciencia de uno mismo.
Siempre que estamos en interacción con otra persona, solo por el simple
hecho de verla o escucharla se despierta una sensación de individualidad
propia, de yo, delante de la otra. Las reacciones ante la otra persona pueden
ser intensas o débiles, pero siempre hay una reacción interna. Algunas de las
preguntas internas que se puede hacer la persona investigadora son: qué
juicios estoy teniendo sobre esta persona, cómo me hace sentir, ¿me
considero superior a ella?, ¿me considero inferior? No habrá que hacer nada
con las respuestas, simplemente poner conciencia en lo que está despertando
internamente e intentar dejarlo de lado, para abrirse a escuchar.
Existe un listado de estrategias psicológicas que las personas utilizan y que
evitan tener un contacto real con uno mismo o con los otros. Para hacer una
analogía, sería como ponerse unas gafas de colores e interpretar lo que se
escucha con este filtro puesto. Estas estrategias no siempre se utilizan de
forma negativa, pero a efectos explicativos se muestra cómo pueden
distorsionar la información recibida.
• Proyección: consiste en poner en la otra persona algo que uno mismo está
sintiendo o pensando pero que no es consciente. Un ejemplo de proyección se
podría dar cuando después de una narración de la persona entrevistada, el
investigador responde: «Y eso que te hicieron, ¿te enojó?».
Si la persona entrevistada no ha utilizado esta palabra, lo más probable es
que quien esté sintiendo enfado es la persona investigadora, pero lo está
trasladando al otro. Una respuesta más correcta sería tomar nota de que la
narración ha generado una rabia interna, pero la pregunta que se realiza a
la persona entrevistada sería más neutra, del tipo: «Y eso, ¿cómo hace que
te sientas?».
• Confluencia: escuchando a alguien se puede entender su experiencia, pero
hay que mantenerse separado. En la confluencia se pierde esta separación y la
persona investigadora se confunde con las emociones del otro. En
antropología se detecta confluencia cuando los investigadores comienzan a
vestirse o comportarse como los miembros de la tribu que están estudiando.
• Retroflexión: esto sucede cuando nos hacemos a nosotros mismos lo que,
en realidad, nos gustaría hacer a los otros. Por ejemplo, en el caso de querer
mostrar desacuerdo hacia terceras personas, pero que no se pueda expresar de
una manera sana y surja como una autoagresión en forma de crítica o
autoexigencia extrema.
• Introyección: son actitudes, ideas o valores de nuestros padres o figuras
de autoridad que hemos asumido sin cuestionar si realmente son válidas para
nosotros o no. Son creencias que limitan la capacidad para entrar en el mapa
del otro.
• Deflexión: esta barrera evita que la información llegue, es como si alguien
llevara un escudo y hubiera insensibilización hacia uno mismo y los otros. No
hay contacto. Es una manera de protegerse de una experiencia fuerte.
Cuando estas barreras están muy activadas, se pierde el contacto con uno
mismo y con la persona que se tiene delante. En consecuencia, el resultado de
la entrevista será pobre, o simplemente constituirá el reflejo del mapa de la
persona investigadora.

8.6. Combinaciones de metodología cuantitativa y cualitativa


En determinadas investigaciones, las metodologías cualitativas se pueden
utilizar en combinación con de Otros de cuantitativas. Vemos tres
posibilidades:
• Utilización de entrevistas cualitativas antes de realizar un encuesta de
carácter más cuantitativo. Se utilizan grupos de discusión o entrevistas
abiertas. Los discursos empleados pueden ayudar a elaborar encuestas o
poner en evidencia aspectos que previamente no se habían pensado incluir en
la encuesta. Ayuda a aclarar los objetivos de la encuesta y preparar mejor el
trabajo de campo.
• Utilización de las dos metodologías simultáneamente. Por ejemplo, en el
caso de encuestas autoadministradas, hay que hacer un pretest, ya que no
habrá encuestadores llevando a cabo la entrevista. Se pasa la entrevista a
varias personas (cuantitativo) y después se abre una discusión para captar las
impresiones y mejorar la encuesta (cualitativo).
• Utilización de las entrevistas cualitativas después de la encuesta
cuantitativa. Después de haber hecho una encuesta pueden surgir aspectos
sobre determinadas personas en los que se quiera profundizar mediante
entrevistas cualitativas en determinados perfiles o en problemáticas
específicas. En este caso, el aspecto cualitativo se produce después, a
consecuencia de unos resultados cuantitativos interesantes o relevantes.

Bibliografía
Brown, J. R. (1996). The I in Science. Training to Utilize subjective in
research. Oslo, Scandinavian University Press.
Kvale, S. (2011). Las entrevistas en investigación cualitativa. Morata,
Madrid.
Valles, M.S. (2002). Entrevistas cualitativas. Cuadernos Metodológicos.
Centro de Investigaciones Sociológicas, Madrid.
9 Cuestionarios

9
CUESTIONARIOS
Roberto Dopeso Fernández
(Tecnocampus-UPF)

Objetivos del capítulo

• Entender cuál es la diferencia entre una encuesta y un cuestionario.


• Enumerar las principales técnicas de encuesta que existen, conocer sus características y cuál
debemos usar para obtener los datos de acuerdo con los intereses de nuestra investigación.
• Conocer cuál es el proceso para la elaboración de un cuestionario.
• Entender los retos a los que se enfrenta el investigador a la hora de aplicar el cuestionario, es decir,
entender el trabajo de campo y la recopilación de datos.
• Cómo podemos aprovechar las tecnologías de información para optimizar nuestros cuestionarios.

9.1. Introducción
El cuestionario es la herramienta de investigación por excelencia. Nos
permite obtener datos de nuestras unidades de estudio. Por lo general, los
términos encuesta y cuestionario se utilizan de forma indistinta, pero no son
exactamente lo mismo. La encuesta es una técnica cuantitativa que tiene
como objetivo recopilar datos puntuales de un gran número de personas
(generalmente una muestra estadísticamente representativa de la población de
estudio) para poder realizar conclusiones acerca del grupo de personas
encuestadas e inferencias por medio de la misma del comportamiento de la
población en general. Por otro lado, el cuestionario es la herramienta
específica que se aplica a los encuestados para poder registrar y conseguir la
información de una forma estructurada.
En este sentido se puede utilizar el cuestionario como herramienta para la
obtención de información tanto cuantitativa como cualitativa. Si bien en la
mayor parte de los casos se utiliza para la primera y de forma más concreta
para la elaboración de encuestas, también puede ser guía para métodos
cualitativos como los grupos focos o la entrevista en profundidad, aunque
para estos casos es mucho mejor utilizar otras formas menos estructuradas
para la recopilación de información.
Conocer y entender cómo funciona el cuestionario es valioso para un
investigador, se use este como una fuente de información secundaria o
primaria. En el caso de la información secundaria tenemos encuestas que se
realizan de forma periódica por diferentes instituciones. Ejemplos de lo
anterior la constituyen la Encuesta de Población Activa o la Encuesta
Continua de Hogares realizada por el Instituto Nacional de Estadística de
España o el Eurobarómetro realizado por la Comisión Europea. En este tipo
de encuestas, el investigador ya tiene todo el trabajo de creación del
cuestionario y recopilación de datos de campo realizado previamente y solo
debe utilizar su conocimiento acerca del cuestionario para diseñar la
investigación a través de los datos ya previamente recopilados. De esta
forma, el conocimiento del cuestionario facilitará el proceso de estructuración
de datos de la manera más conveniente para analizarlos.
Sin embargo, en la mayor parte de los casos la información recopilada por
encuestas realizadas previamente por fuentes secundarias no es suficiente
para resolver los objetivos de investigación o algunas de las hipótesis
específicas que tiene el investigador. Es entonces cuando el investigador debe
diseñar la encuesta y, por tanto, el cuestionario para recopilar sus propios
datos y que permita resolver su pregunta de investigación y comprobar así
sus hipótesis. Este capítulo se centra por tanto en esta parte de la
investigación para dotar al investigador de los conocimientos necesarios para
poder construir un cuestionario que le provea de la información necesaria
para extraer conclusiones relevantes dentro de su proceso de investigación.
El resto del capítulo se organizará en cinco secciones. En la sección 9.2 se
presentarán los tipos de encuesta que pueden aplicarse; esto permitirá que el
investigador conozca el mejor diseño de investigación de acuerdo a sus
necesidades y restricciones. En la sección 9.3 se tratará el proceso para
elaborar un cuestionario entendiendo cuál debe ser la estructura de preguntas
óptimas, así como los tipos de respuestas más apropiadas para los datos que
se quieren recabar. En la sección 9.4 se plantearán los retos a los que se
enfrentará el investigador para aplicar el cuestionario, generalmente conocido
como trabajo de campo, para que tenga en cuenta estas consideraciones al
diseñar su cuestionario para que sea más eficiente a la hora de obtener los
datos relevantes y minimizar los posibles errores de captura. En la sección
9.5 se añadirá una pequeña sección para tener en cuenta las tendencias más
actuales en la creación de cuestionarios que pueden servir de referencia al
investigador para minimizar costes y conseguir una mayor cantidad de datos
de forma más sencilla. Finalmente, en la sección 9.6 se presentarán las
conclusiones de este capítulo.

9.2. Tipos de encuesta


Cuando estamos diseñando nuestra encuesta debemos tener en cuenta las
consideraciones de los individuos u objetos de estudio de los cuales debemos
obtener información. Si bien la definición de la muestra se tratará más en
detalle en el siguiente capítulo, por el momento destacar que conocer las
características de los objetos sujetos a estudio (personas, instituciones,
empresas, entre otras) es fundamental para saber cuál será la mejor forma de
aproximarse a ellos para recopilar información. La encuesta se define como
una técnica para lograr información que se basa en el interrogatorio de los
individuos mediante una variedad de preguntas respecto al comportamiento,
intenciones, actitudes, conocimiento, motivaciones, características
demográficas, personales y de su estilo de vida (Malhotra, 2007).
Además de las consideraciones acerca de los individuos objetos de estudio,
también las características propias del diseño de la investigación,
principalmente las restricciones relacionadas con costes y tiempo, delimitarán
la forma en la que podemos efectuar estas preguntas. Por ello en esta sección
analizaremos las diferentes técnicas que tenemos para aproximarnos a los
encuestados para lograr la información de la forma más eficiente. De esta
forma, las preguntas se pueden aplicar de forma verbal o escrita y de forma
directa o a distancia. La naturaleza de las preguntas de una encuesta suele ser
estructurada, dicha estructura se consigue mediante el cuestionario y la
formulación de preguntas con respuesta fija. Es importante notar que estas
preguntas se efectúan mediante dos métodos: la comunicación y la
observación:
• Comunicación: se le expone al encuestado directamente el interrogatorio
mediante una serie de preguntas estructuradas por medio de un cuestionario.
• Observación: el interrogatorio se realiza de forma indirecta mediante el
registro del comportamiento del encuestado. Si bien se puede estructurar a
través de un cuestionario, este será respondido por el encuestador-observador.
Algunos autores clasifican este método como independiente de la encuesta,
ya que constituye una metodología de investigación diferente. Se clasifique
como una variante de la encuesta o una técnica diferente, aclarar que en
ambos casos son métodos de investigación concluyente descriptiva y, por
tanto, la estructuración mediante un cuestionario es relevante.
Las ventajas de la encuesta radican en que son de fácil aplicación, se
obtienen datos fiables basados en las alternativas de respuestas fija y
permiten una fácil clasificación de los datos recopilados para su posterior
análisis. La principal desventaja a la que nos enfrentamos es cuando
formulamos preguntas de las que los individuos no conocen la respuesta, no
quieren darlas o es difícil dar alternativas fijas de respuesta; por eso, el diseño
del cuestionario es crucial como analizaremos en la sección 9.3. Atendiendo a
las características de la muestra objeto de estudio y a las características
propias de nuestra investigación (necesidades de información y restricciones),
podemos aplicar nuestra encuesta mediante cuatro técnicas principales:
encuesta personal, encuesta telefónica, encueta por correo y encueta mediante
medios digitales.

9.2.1. Encuesta personal


Es una técnica de encuesta en la que se realiza un contacto cara a cara con el
encuestado. En este caso es por tanto relevante que exista la figura del
encuestador, que se encargará de realizar el contacto y la comunicación. La
presencia del encuestador es buena, ya que permite aclarar las preguntas y
registrar las respuestas de forma consistente. Al mismo tiempo, esta presencia
puede hacer que los encuestados tiendan a exagerar o presentar respuestas
que creen que son más socialmente deseables por vergüenza o para
impresionar al encuestador. Al mismo tiempo, el hecho de que la
participación del encuestador es alta y que no siempre se contará con el
mismo encuestador puede inducir a inconsistencias, ya que la ayuda, apoyo o
explicaciones para cada pregunta por parte del encuestador no serán siempre
idénticas, por lo que se introduce también un sesgo por parte del encuestador
que tendrá que ser valorado en el proceso de recopilación de datos.
Este es el tipo de técnica recomendada cuando el cuestionario es complejo,
lleva mucho tiempo responderse, se requiere una mayor interacción con
ciertos estímulos físicos (dibujos, sonidos, fotografías u otro material
audiovisual). También dada su naturaleza personal y la presencia del
encuestador se puede tener un mayor control sobre la tasa de respuesta, es
decir, evitar preguntas no respondidas o mal respondidas. Dada la
complejidad en el diseño y las personas involucradas, es una técnica que
requiere bastante tiempo para su implementación y tiene un costo elevado.
Finalmente destacar que se tienen dos variantes principales: la encuesta en
el hogar y la encuesta en el campo. La primera consiste en que el encuestador
vaya directamente a la casa (o empresa) del encuestado y de esta forma el
segundo tenga un ambiente más controlado y confortable para responder a
una gran cantidad de preguntas. La segunda variante es la encuesta de campo,
donde el encuestador aborda al encuestado en la calle, su trabajo, un centro
comercial u otro lugar que sea de interés por los contenidos de la encuesta.
En la encuesta de campo se pierde un poco el control del ambiente y de la
selección de los encuestados, pero se gana en rapidez y reducción de coste.

9.2.2. Encuesta telefónica


En esta variante el encuestador contacta al encuestado usando como
intermediación el teléfono. En este sentido, se tiene un control de la muestra,
ya que se goza previamente de un listado de teléfonos con ciertas
características, aunque no se tiene la certeza de que la persona que conteste el
teléfono sea realmente la persona a la que se quiere contactar. Es un tipo de
encuesta que permite una gran rapidez en la recolección y realizar un estudio
de bajo coste, ya que puede centralizarse todo el proceso de recolección en
una central telefónica o incluso contratar los servicios de un call center. El
principal inconveniente es que es solo útil para cuestionarios cortos o donde
las necesidades de información son muy específicas. En el pasado, los
números fijos permitían una mejor representación al menos geográfica de la
muestra, hoy en día dado la proliferación de la telefonía móvil es cada vez
más difícil conseguir mejores interacciones, control de la muestra y tasa de
respuesta.
A pesar de los inconvenientes que ha traído el cambio de paradigma en la
comunicación telefónica, sigue siendo una técnica útil en ciertos contextos
concretos de investigación. Además, el bajo grado de interacción entre
encuestador y encuestado puede reducir el sesgo inducido en ambos casos.
En algunos casos incluso se prescinde del encuestador y se utiliza algún tipo
de grabación, y el encuestador solo debe contestar tecleando números, si bien
esto reduce el sesgo al máximo y también el volumen de datos que pueden
ser capturados.

9.2.3. Encuesta por correo


En este caso, la encuesta se realiza enviando el cuestionario por correo postal
al grupo objetivo de estudio. Una vez que el cuestionario es completado, el
encuestado debe devolverlo por la misma vía (generalmente con unas
instrucciones claras de devolución y gastos de envío incluidos). Es un tipo de
cuestionario que permite un cierto grado de flexibilidad, pues se da libertad
de contestar y reflexionar al encuestado, aunque las preguntas deben ser muy
sencillas y claras, ya que el encuestado no tendrá apoyos en caso de no
entender las preguntas. Es un método que, a pesar de tener un bajo coste,
requiere de un tiempo importante para su aplicación desde que se envían los
cuestionarios hasta que estos son retornados.
Si bien en este tipo de encuestas, como resultado de la no interacción, se
reducen las fuentes de sesgo del encuestado y el encuestador, se aumenta el
problema de preguntas no contestadas. También es problemático controlar la
muestra, puesto que no se puede saber qué miembro del hogar está
contestando las preguntas formalmente, y aunque se aplicarían preguntas
filtro, esto no resuelve completamente el problema.
Dados los problemas antes mencionados de control de muestra, se suele
emplear una variante de las encuestas por correo que es el panel. Un panel
por correo consiste en una muestra grande y representativa de la población
objetivo de estudio a la que se envían cuestionarios de forma periódica
(Malhotra, 2007). Al contar con un panel se puede no solo controlar mejor la
muestra, sino mejorar el volumen de los datos recaudados, ya que podemos
aplicar varios cuestionarios y ver la evolución a través del tiempo de ciertas
respuestas (lo que es muy relevante para ciertos tipos de estudio). También
mejorar la tasa de respuesta, ya que, al realizarse de forma periódica, se
puede invertir más tiempo en instruir cómo contestar el cuestionario; también
saber cuáles son las preguntas que no han sido contestadas para conocer los
motivos y poder mejorar las preguntas y reenviarlas en una siguiente
aplicación del cuestionario para que puedan ser contestadas. El hecho de ser
un proceso periódico, hace que también se pueda mejorar la rapidez para
recabar los datos, ya que el proceso está más estandarizado y los participantes
entienden mejor la logística de este.

9.2.4. Encuesta por medios digitales


En el contexto de las nuevas tecnologías de la información se han
multiplicado las alternativas por las que contactar al público objetivo para
que conteste nuestro cuestionario. Los medios digitales, además de mejorar la
aplicación de las técnicas tradicionales (personal, telefónica y correo), como
se analizará en la sección 9.5, han ampliado también las técnicas con las que
se puede aproximar la encuesta. La principal ventaja de estas técnicas es que
permiten bajar mucho los costes de aplicar la encuesta; mejorar la rapidez,
pues es prácticamente en tiempo real (y en muchos casos el proceso de
vaciado de datos es automático, lo que reduce aún más los tiempos), y
ampliar el espectro geográfico de la investigación de forma importante.
Las dos técnicas más socorridas son la encuesta vía correo electrónico y
mediante página web. En el primer caso es una adaptación utilizando los
medios digitales de la encuesta por correo tradicional. La encuesta por correo
electrónico es una variante menos costosa y más rápida de su homóloga
tradicional. La consecuencia de este aumento en la eficiencia es que los
formatos de los cuestionarios deben ser más cortos e incluso más sencillos, ya
que de lo contrario la tasa de respuesta es muy baja. Por otro lado, la variante
por página web permite enriquecer el contenido; al crear un cuestionario
específico se puede facilitar el proceso, añadir flexibilidad en el diseño y
aportar diferentes estímulos multimedia para complementar las preguntas. La
versión web también potencia el anonimato, por lo que la tasa de respuesta a
preguntas sensibles o delicadas aumentará de forma importante. Aunque el
diseño de una página web específica incremente los costes, existen páginas
web gratuitas con plantillas ya diseñadas que nos permiten realizar esta labor
de forma sencilla. También se puede realizar un híbrido entre ambos métodos
en el que contactar a una lista de personas vía correo electrónico y enviar en
el cuerpo el enlace de la página web donde está el cuestionario.
En la figura 9.1 se presenta un resumen de las diferentes técnicas de
encuesta en el que se destacan las ventajas y desventajas de forma
comparativa, de esta forma el investigador podrá tomar una mejor decisión
del tipo de encuesta que realizar de acuerdo a sus necesidades. Es importante
tomar un tiempo para esta decisión, puesto que condicionará de forma
importante la estructura de nuestro cuestionario y el trabajo de recolección de
datos.

Figura 9.1. Tipos de encuesta.

9.3. Proceso para elaborar un cuestionario


Una vez que se ha decidido el tipo o tipos de encuesta que se aplicarán, se
debe proceder a su diseño. El primer paso es por tanto diseñar la herramienta
para la recolección de datos, es decir, el cuestionario. El diseño del
cuestionario es una parte fundamental dentro del proceso de investigación, ya
que dará la pauta de cómo obtener la materia prima más preciada para nuestra
investigación, es decir, la información. En la figura 9.2. se presenta un
esquema de los pasos que seguir para la elaboración de un cuestionario para
luego explicar cada uno de ellos en más detalle.
Figura 9.2. Proceso de elaboración de un cuestionario.
Fuente: Feinberg, Kinnear y Taylor (2013).

9.3.1. Consideraciones preliminares


Antes de proceder a la elaboración del cuestionario, se debe tener en cuenta
cuál es el propósito de la investigación, el diseño del mismo y el tipo de
encuesta que se aplicará. Aunque parece obvio, muchas veces el investigador
parte directamente de la elaboración del cuestionario sin tener en cuenta
claramente cuál es su objetivo, cómo se aplicará o qué información específica
dentro el contexto de la investigación se quiere obtener.
Antes de realizar el cuestionario, el investigador debe tener claro cuál es el
objetivo de la investigación en términos generales y cuáles de estos objetivos
serán satisfechos por el cuestionario. Esto nos permitirá saber cuáles son las
necesidades de información que tenemos, de tal forma que se plantee el
cuestionario de manera completa. Una vez definidas las necesidades de
información, es necesario saber si pretendemos que nuestra encuesta sea la
que responda todas estas necesidades o si nuestro diseño incluirá otras
fuentes de información. Esto nos permite afinar todavía más el objetivo de la
encuesta dentro del contexto general de la investigación y poder enfocarnos
en una serie de objetivos más concretos que nos facilitarán el diseño del
cuestionario
Una vez definidas las necesidades de información, se debe especificar
cómo encajan dentro del contexto de nuestra investigación. Esto implica por
tanto saber al menos cuáles son nuestros recursos, las restricciones y el
número de personas que encuestar. Así se diseñará la encuesta de la mejor
forma, siguiendo los criterios que se han presentado en la sección 9.2 y que
se resumen en la figura 9.1, que nos sirve de guía para seleccionar el mejor
tipo de encuesta para poder cumplir nuestros objetivos. Aunque la definición
de la muestra se tratará en el siguiente capítulo, es importante tener al menos
una idea del público objetivo de nuestro cuestionario, saber cuántas personas
son, dónde podemos contactarlos y cuáles son sus características básicas.
Todo lo anterior será fundamental para decidir el vocabulario y complejidad
de las preguntas específicas del cuestionario, además de, obviamente,
ayudarnos a decidir el mejor tipo de encuesta para acercarnos a ellos.
Es en este punto, cuando tenemos claro el objetivo de información, el
público objetivo que nos dará esa información y la técnica específica que
utilizaremos para conseguirla, (tipo de encuesta) que podemos empezar a
diseñar el cuestionario. Tener en cuenta estos factores previos hará que
nuestro cuestionario sea más efectivo para cumplir sus objetivos. En
resumen, el cuestionario no debe ser el punto de partida de una investigación,
ya que de lo contrario se pueden cometer muchos errores de forma en su
aplicación. Es el diseño de la investigación quien condiciona la elaboración
del cuestionario y no a la inversa.

9.3.2. Contenido de las preguntas


Ahora es el turno de transformar las necesidades de información en una serie
de preguntas específicas que permitan extraer esa información de las
unidades objetivo de estudio. Antes de proceder, es conveniente redactar las
preguntas de tal forma que facilitemos el proceso de respuesta y por tanto que
la información lograda sea más fiable y completa. En primer lugar, debemos
tener en cuenta los siguientes factores acerca del encuestado:
• Su habilidad para contestar con exactitud. Debemos tener en cuenta que la
información que queremos lograr tal vez no pueda ser obtenida de nuestro
encuestado, y puede ser porque no tiene la información o porque no la
recuerda. En el caso de no tener la información, porque simplemente no la
conoce, debemos estructurar nuestras preguntas de tal forma que no sea
implícito que conoce la respuesta y se fuerce a responder. La respuesta «no lo
sé» puede ser una opción (ejemplo: la pregunta ¿cuánto le descuentan de
IRPF? puede forzar a contestar; sería mejor preguntar ¿sabe usted cuánto le
descuentan de IRPF?). En otras ocasiones, el encuestado tal vez no pueda
contestar debido a que no recuerda la información. Los estudios de
investigación han revelado que las personas olvidan con bastante rapidez la
mayoría de los eventos (Feinberg, Kinnear y Taylor, 2013). En este sentido se
recomienda preguntar acerca de sucesos frecuentes y recientes. Si es
necesario preguntar de algo que ha pasado hace tiempo o que no es muy
relevante para el encuestado, la recomendación es ayudar a recordar dando
opciones de respuesta y formulando una serie de preguntas secuenciales
acerca del mismo tema para poder hacer memoria.
• Su disposición para responder. Muchas veces el encuestado no desea
responder una pregunta por tratarse de un tema personal, que le resulte
incómodo. A la hora de diseñar el cuestionario, debemos evitar este tipo de
preguntas salvo que sean cruciales para nuestra investigación. En caso de ser
necesarias, debemos crear un ambiente correcto para una respuesta no
sesgada. Algunas opciones para fomentar una respuesta sincera a temas
personales incluyen: (1) usar personal profesional, por ejemplo un médico o
una enfermera; (2) explicar el propósito de la investigación realizada y los
beneficios de la misma, así como la importancia de la pregunta en cuestión
para en este contexto; (3) usar un enunciado contrarrestado, es decir, antes de
preguntar, poner una frase que muestre que el comportamiento en cuestión es
bastante común; (4) usar un enunciado indirecto, esto implica formular la
pregunta en términos de lo que «otra persona» haría en esa situación.
Una vez tengamos claras las necesidades de información específicas y las
hayamos transformado en una pregunta que sea fácil de contestar, es turno de
filtrarlas. El proceso de filtrado es el de evitar las dobles preguntas, es decir,
que preguntemos dos cosas en la misma pregunta y por tanto la respuesta
pueda ser ambigua a pesar de que sea fácil de responder. En ocasiones es
preferente hacer un cuestionario de 15 preguntas que uno más corto de 10 en
el que se trata de extraer demasiada información en una sola pregunta y por
tanto no resulte clara.

9.3.3. Formato de las respuestas


El siguiente paso es dar formato a las respuestas para cada una de las
preguntas que hemos formulado anteriormente. Al igual que el contenido de
la pregunta ayuda a dividir las necesidades de información en preguntas
específicas para los encuestados, los tipos de respuesta facilitarán que la
información sea extraída de forma sencilla, rápida y comparable entre
individuos. Existen dos tipos básicos de preguntas que condicionarán el
formato de respuesta:
• Preguntas no estructuradas: también conocidas como preguntas de
respuesta abierta, en estas el encuestado puede responder lo que quiera con
sus propias palabras, por tanto las alternativas son infinitas y el formato de la
respuesta es libre a la interpretación del encuestado.
• Preguntas estructuradas: también conocidas como preguntas de respuesta
cerrada, en estas se especifica las alternativas de respuesta y el formato de las
mismas. Existen tres variantes principales en cuanto al formato de respuesta:
- Respuestas dicotómicas: en este caso, el formato implica que solo hay
dos posibles respuestas. Las alternativas generalmente suelen ser
responder sí o no. Se pueden dar otras alternativas, aunque generalmente
van en la línea de responder de forma afirmativa o negativa. Dicho
formato de respuesta es excluyente, ya que solo se puede responder con
una de las opciones. Son muy sencillas de responder, aunque un posible
inconveniente es forzar al encuestado a tomar una posición en un tema en
el que es neutral induciendo un sesgo. En este caso se podría ofrecer una
tercera opción que permita la neutralidad; si bien las respuestas siguen
siendo mutuamente excluyentes, se rompe la dicotomía en la respuesta y
se convierte en un caso específico de las preguntas de respuesta múltiple.
- Respuestas de opción múltiple: en este tipo de respuesta, el encuestado
debe seleccionar entre una serie de alternativas. Si las alternativas son
mutuamente excluyentes, solo una puede ser seleccionada (ejemplo: ¿cuál
es su edad? Menos de 18__18-25__ 26-40__ 41-55__ Más de 55__), de lo
contrario seleccionaría más de una (ejemplo: ¿qué continentes ha
visitado? África__ América__ Antártida__ Asia__ Europa__ Oceanía__).
A veces es conveniente señalar un límite de respuestas que seleccionar, lo
que produce sesgo, pero facilita el procesamiento de la información. Otra
característica de las respuestas de opción múltiple es que deben ser
exhaustivas; es decir, incluir todo el rango de posibles opciones; incluir
como una opción otro(s)/a(s) suele resolver este problema. Hay dos retos
importantes con respecto al formato respuestas de opción múltiple que
consisten es saber cuántas opciones incluir y el sesgo de posición. En
cuanto a las opciones, lo mejor es incluir un número reducido para que
sea más fácil para el encuestado procesar la información (aunque esto es
muy relativo con respecto al público objetivo al que se aplique el
cuestionario); si es necesario incluir un gran número de opciones, lo
recomendable es dividirlas en varias preguntas secuenciales. Por otro
lado, el sesgo de posición se produce cuando hay una tendencia a escoger
una respuesta por el lugar que ocupa en el cuestionario (por ejemplo,
escoger siempre la primera respuesta o la que está en medio). Para
solucionarlo se recomienda realizar varios formatos del cuestionario en
los que se varía el orden en el que se presentan las respuestas para poder
al menos controlarlo.
- Respuestas de escala: este tipo de respuesta sería una variante de las
respuestas de opción múltiple donde las alternativas tienen alguna
relación entre sí. Esta relación puede ser (1) ordinal, las alternativas
muestran la posición de las preferencias; (2) intervalo, además del orden o
posición se trata de estimar la magnitud entre alternativas; y (3) de razón,
miden el orden, la magnitud y las diferencias en magnitud son estables y
comparables. Dentro de las respuestas de escala existen dos grandes
variantes comparativas y no comparativas. A continuación, se definen, se
presentan sus principales variantes y un ejemplo de cada una de ellas:
§ Escalas comparativas: en este tipo de respuesta se busca generar una
escala que compare directamente las opciones de la respuesta. Sus
principales variantes son:
1. Comparación pareada: es el tipo de escala en el que se establecen
relaciones de preferencia entre dos alternativas. Es fácil de contestar,
puesto que solo se comparan dos alternativas cada vez. Es una escala de
tipo ordinal y se puede obtener la ordenación de toda la lista de
alternativas asumiendo transitividad de las preferencias.
Ejemplo: Seleccione uno de cada par de alimentos que prefiere como
acompañamiento de un entrecot a la brasa:
Patatas ___ Pan ___
Patatas ___ Verdura ___
Pan ___ Verdura ___
2. Rangos ordenados: se presenta una lista de alternativas y deben
ordenarse por la preferencia que se tenga de las mismas. Es un poco más
compleja que la anterior, puesto que se tienen que comparar más objetos
a la vez. Es una escala tipo ordinal, pero a diferencia de la anterior, el
encuestado expresa explícitamente la comparación entre todas las
alternativas.
Ejemplo: Clasifique del 1 al 5 los siguientes alimentos de acuerdo a
su preferencia como acompañamiento de un entrecot a la brasa
(siendo 1 el que más prefiere):
Arroz ___
Legumbres ___
Pan ___
Patatas ___
Verduras ___
3. Suma constante: se presentan una lista de alternativas y se pide al
encuestado que divida una serie de puntos o unidades entre los mismos
de acuerdo a su preferencia. Es una escala de tipo intervalo, ya que no
solo se conoce el orden de las preferencias entre las alternativas, sino que
se puede inferir la magnitud, es decir, qué tanto se prefiere una
alternativa sobre las demás. Requiere un mayor esfuerzo porque implica
ordenar las alternativas y asignarles un peso relativo (como es más
compleja de entender, muchas veces se acompaña con un ejemplo de
cómo podría hacerlo).
Ejemplo: Distribuya 100 puntos entre los siguientes alimentos de
acuerdo a su preferencia de los mismos como acompañamiento de un
entrecot a la brasa (más puntos asignados implican más preferencia)
Ejemplo
Arroz ___ 15
Legumbres ___ 10
Pan ___ 25
Patatas ___ 50
Verduras ___ 00
TOTAL 100 100
4. Escalas no comparativas: es un tipo de escala que clasifica un
atributo de forma independiente al resto de los atributos presentados. En
este caso es importante definir el número de categorías en la escala, si
son pares o nones, si son balanceadas y si se fuerza al encuestado a emitir
una opinión. Sus principales variantes son:
a) Likert: se realizan una serie de afirmaciones con respecto a un
suceso y se pide al encuestado que muestre su grado de acuerdo o
desacuerdo con dicha afirmación. Generalmente se presentan cinco
niveles en la escala (por lo que la neutralidad es una opción).
Ejemplo: El impuesto sobre valor añadido IVA es un impuesto
regresivo:
__ Totalmente en desacuerdo
__ En desacuerdo
__ Indiferente
__ De acuerdo
__ Totalmente de acuerdo
b) Diferencial semántico: consiste en medir un atributo de un objeto
con etiquetas bipolares que tienen carácter semántico (podría
entenderse como que los límites de la escala son dos palabras
antónimas). Generalmente se presentan siete niveles en esta escala (la
neutralidad es una opción).
Ejemplo: El impuesto sobre el valor añadido IVA es:
REGRESIVO __ __ __ __ __ __ __ PROGRESIVO
c) Stapel: consiste en medir las actitudes con respecto al adjetivo que
describe un objeto. La escala tiene diez puntos y suele representarse de
-5 a +5 (no contiene un punto neutral dentro de la escala).
Ejemplo: Califique la precisión con la que el siguiente adjetivo
califica al impuesto sobre el valor añadido IVA (mientras más alto
sea el valor, mayor cree usted que es la precisión de dicho adjetivo)
-5 -4 -3 -2 -1 REGRESIVO +1 +2 +3 +4 +5
5. Escala de calificación continua o gráfica: se pide que se evalúe una
alternativa en una escala que muestra valores continuos entre dos
extremos. Es mucho más flexible que las anteriores, pero puede ser difícil
de interpretar, por lo que suelen añadir alguna escala numérica que sirva
de referencia para el encuestado.
Ejemplo: Considera al impuesto sobre el valor añadido IVA como un
impuesto regresivo:
No - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Sí
10 20 30 40 50 60 70 80 90 100

9.3.4. Redacción de las preguntas


Ya que tenemos el contenido informativo de cada pregunta y la estructura en
la que se responderá a la misma, debemos plantear la redacción para que se
adapte a un lenguaje apropiado para nuestro público objetivo de estudio. A
continuación, se presentan algunos consejos básicos para conseguir que la
redacción de las preguntas y alternativas de respuesta sea fácil de entender y
cumpla su objetivo.
• Usar palabras sencillas. Deben eliminarse al máximo las barreras de
comunicación, es importante conocer al público objetivo de la encuesta para
saber cuál es el lenguaje más apropiado. Una prueba previa del cuestionario
con encuestados potenciales ayudaría a solventar este problema.
• Evitar palabras ambiguas. No son recomendables palabras que tengan
varias interpretaciones, ya que cada encuestado puede entender la pregunta o
respuesta de forma diferente. Ejemplo:
a. Usa su tarjeta de crédito muy frecuentemente (ambiguo).
b. Usa su tarjeta de crédito al menos una vez al día (no ambiguo).
• Evitar preguntas sesgadas. No se aconseja que la pregunta tenga
connotaciones que hagan que el encuestado se sienta inclinado a contestar de
alguna forma determinada. Este sesgo puede ser inducido por indicar en la
pregunta cuál debe ser la respuesta más deseable. Ejemplo:
a. Considera usted, al igual que la gente de más alto coeficiente
intelectual, que realizar compras por internet aumenta el tiempo libre
(sesgada).
b. Considera que comprar comestibles por internet permite ahorrar tiempo
frente a las compras presenciales (neutral).
• Evitar alternativas y supuestos implícitos. Al redactar la pregunta, esta
debe tener en cuenta que evite que el encuestado compare la situación
presentada ante alternativas hipotéticas, ya que cada encuestado podría
compararlo con algún referente diferente. De esta forma se estandariza la
alternativa a comprar. Ejemplo:
a. Prefiere pagar sus impuestos por internet (hay diversas alternativas).
b. Prefiere pagar sus impuestos por internet que por domiciliación
bancaria (la alterativa al pago por internet es clara).
• Evitar estimaciones. Facilitar al encuestado todo tipo de cálculos, esto se
hace preguntando antes eventos más recientes y dividiendo las preguntas en
partes. Ejemplo:
a. Cuál es su presupuesto anual para cenas fuera de casa (estimación
compleja).
b. Cuánto gastó usted la última vez que cenó fuera de casa, invitó a
alguien o solo incluyó su comida, es más o menos de lo que suele gastar
cada vez que cena fuera de casa (tres preguntas con una estimación
sencilla).
• Evitar preguntas con doble respuesta. Es conveniente dividir preguntas
que puedan tener múltiples respuestas o que traten de cubrir varios temas.
Ejemplo:
a. Ha usado su empresa asesoría contable y legal (doble pregunta; una
respuesta afirmativa podría implicar ambas o solo un tipo de asesoría).
b. Ha usado su empresa asesoría contable, ha usado su empresa asesoría
legal (dos preguntas separadas).
• Redacción en términos positivos y negativos. A la hora de redactar las
preguntas se deben mezclar enunciados positivos y negativos, esto es
especialmente útil para preguntas que miden actitudes, ya que permite
controlar la consistencia de las respuestas. Ejemplo:
a. Todas las razones financieras son relevantes para el control contable.
b. Ninguna razón financiera es indispensable para el control contable.

9.3.5. Secuencia de las preguntas


Una vez tenemos nuestras preguntas redactadas de una forma apropiada para
recabar la información, es turno de decidir el orden en el que se presentarán
las mismas dentro del cuestionario. Es importante clasificar las preguntas de
acuerdo a su propósito, su complejidad y su secuencia.
En lo que respecta al propósito, las preguntas ser dividen en: (1) preguntas
básicas, (2) preguntas de clasificación y (3) preguntas de identificación. Las
preguntas básicas son las que nos dan información referente al objetivo de la
investigación y son las que deben hacerse primero, porque contienen los
datos más relevantes para el estudio. Las preguntas de clasificación nos
permiten conocer al encuestado de acuerdo a una serie de características
demográficas generales; son útiles para profundizar o detallar los datos
básicos, pero no son lo más importante; en muchas ocasiones se ponen al
principio del cuestionario, pero esto se desaconseja salvo que se trate de
preguntas filtro que afectarán al tipo de preguntas básicas que deben aplicarse
a cada encuestado. Las preguntas de identificación tienen información como
el nombre, dirección o correo electrónico del encuestado; son útiles por si se
requiere contactarlo de nuevo, es información delicada y que afectará la
percepción de anonimato y por tanto al desarrollo del cuestionario, por eso se
sugiere ponerlas al final o evitarlas si no son estrictamente necesarias para
nuestro diseño.
La complejidad de las preguntas proviene de diversas fuentes, hay ciertas
preguntas que son complejas por la estructura de la pregunta (preguntas
abiertas, preguntas con muchas opciones o que requieren un análisis más
profundo por parte del encuestado), mientras que otras son complejas por los
temas que tratan, ya que pueden ser sensibles. En ambos casos se recomienda
que este tipo de preguntas se dejen para el final una vez que el encuestado ha
tenido tiempo de entender la temática del cuestionario y reflexionado acerca
de los contenidos del mismo.
En lo que respecta a la secuencia de las preguntas, debemos pensar el
efecto que tendrán ciertas preguntas sobre otras. En este sentido, la regla es
empezar por preguntas generales acerca de un tema e ir evolucionando a
preguntas más específicas; si el encuestado responde a una pregunta
específica primero, podría condicionarle a contestar el resto de las preguntas
de cierta forma. Otro punto que condiciona la secuencia es seguir un orden
lógico, es decir, si preguntamos acerca de los hábitos de una persona,
debemos preguntar antes si tiene o no dicho hábitos.

9.3.6. Características físicas


Una vez decidida la estructura del cuestionario, es importante dedicar un
tiempo a la forma en la que este se presentará ante los encuestados.
Obviamente, aquí el tipo de encuesta seleccionado condiciona en gran
medida las alternativas disponibles.
En general se recomienda que las preguntas del cuestionario sean
numeradas y que se divida el mismo en varias partes para facilitar al
encuestado su comprensión. Generalmente las preguntas que aparecen al
principio de cada hoja se contestan con más dedicación, por lo que es un buen
lugar para poner las preguntas más importantes. El utilizar diferentes colores
o destacar ciertas palabras parece ser que no tiene efectos en la tasa de
respuesta, pero puede facilitar la comprensión del cuestionario, aunque se
recomienda utilizar este recurso de forma esporádica. Un cuestionario para el
censo americano que utilizaba mucho el color rojo creó la percepción en los
encuestados de que este era más complejo (Malhotra, 2007).
Se recomienda utilizar papel de calidad o un diseño bien cuidado (formatos
digitales), ya que esto favorece que el encuestado tenga una percepción de
que el estudio es relevante y profesional. Las preguntas jamás deben ser
cortadas, es decir, presentarse en distintas páginas, pues confundirá al
encuestado. Se recomienda presentar las respuestas en un formato vertical, ya
que es más fácil explorar las posibles respuestas de arriba abajo que de
izquierda a derecha. Si el cuestionario tiene muchas páginas, se recomienda
presentarlo en forma de cuaderno, para que seguir la secuencia sea más fácil.
Finalmente, aunque esta fase de la elaboración del cuestionario suele
descuidarse, principalmente por temas de coste, es importante dedicar un
esfuerzo y recursos para su elaboración, puesto que puede mejorar mucho el
proceso de recolección de datos.

9.3.7. Preprueba, revisión y elaboración del borrador final


Una vez tenemos listo nuestro cuestionario, es conveniente revisarlo de forma
rápida intentando aplicarlo a dos o tres personas que podamos contactar de
forma instantánea. Esta fase se conoce como la preprueba. Aquí el objetivo
es buscar errores básicos de ortografía, redacción, impresión (en general,
errores de forma) que podamos corregir rápidamente y nos ahorren costes de
impresión, reproducción o de publicación web del cuestionario.
En una segunda fase debemos aplicar la versión ya corregida por la
preprueba con el público objetivo para comprobar que su funcionamiento sea
el esperado. Es importante aplicarlo a un pequeño grupo (generalmente diez a
quince personas), pero garantizando que este grupo de prueba sea tomado de
la población objetivo de estudio, y en la medida de lo posible recrear el
ambiente real donde se llevará a cabo la recolección de datos (hogar, un
centro comercial, una sala de ordenadores, etc.). Esta fase del diseño del
cuestionario se conoce como revisión o prueba piloto. Aquí, además de
corregir posibles errores de forma, se pretende sobre todo garantizar que no
haya problemas de fondo que puedan afectar al proceso de recopilación de
información porque los encuestados no puedan contestar al mismo. La
revisión nos permitirá ver posibles problemas al observar preguntas que no
son contestadas sistemáticamente, preguntas que llevan más tiempo del
esperado resolverse o respuestas que no son consistentes. Es bueno en esta
fase tener un periodo de retroalimentación con el público que ha participado
en el proceso para preguntar por otros posibles problemas que no hayamos
observado.
Una vez se corrigen los potenciales problemas que aparecieron en la fase
de revisión o prueba piloto, se procede a la creación de un borrador final. En
este momento, debería realizarse una segunda revisión para ver si las
correcciones han sido efectivas (en muchas ocasiones, las restricciones de
coste hacen que solo se aplique una preprueba en lugar de una revisión). Una
vez comprobemos que el borrador final es apropiado, es cuando debemos
comenzar con el proceso de reproducción del cuestionario y el proceso de
recolección de datos.

9.4. El trabajo de campo y la recopilación de datos


Una vez decidido el tipo de encuesta que se va a aplicar y habiendo diseñado
el cuestionario como herramienta principal para su aplicación, es turno de
destinar también un tiempo a la correcta ejecución del mismo. Muchas veces
se asigna mucho tiempo a diseñar un buen cuestionario, pero luego este
puede ser aplicado de forma no correcta (Rattray y Jones, 2007).

9.4.1. Tipos de error


Antes de revisar los procedimientos de recolección de datos y su posterior
recopilación para el análisis, sería conveniente hablar un poco de los errores a
los que se pueden enfrentar los resultados de una investigación. Esto servirá
para tener en cuenta las potenciales fuentes de error e intentar corregirlas
antes de la aplicación del cuestionario y monitorizando cuidadosamente las
fases de la aplicación que son potenciales de error.
En la figura 9.3. se observa un diagrama que muestra los principales tipos
de error que se pueden cometer durante el proceso de investigación. Estos
errores se explican en el marco de una herramienta de recolección de datos de
naturaleza más cuantitativa ,como es el cuestionario, aunque podría
extrapolarse a otras metodologías de investigación.
Figura 9.3. Tipos de error. Fuente: Malhotra (2007).

El error total es la acumulación de todos los errores que se pueden cometer


durante el proceso se investigación. La consecuencia de dicho error será que
la información obtenida no sea exactamente la que deseamos alcanzar cuando
comenzamos, es decir, representativa de la población total. Aunque estimar el
error total sería deseable muchas veces, esto es imposible, pero debemos
tenerlo en cuenta para la revisión. A continuación se detallan las fuentes del
error total:
• Error de muestreo: este es el tipo de error que se comete al seleccionar
los individuos que contestarán la encuesta. En la medida en que los
encuestados no representen fielmente a la población objetivo, esta fuente de
error aumentará. Si se selecciona un muestreo aleatorio (seleccionado con
métodos estadísticos), es más fácil cuantificarlo que si se opta por un método
de muestreo no aleatorio. Se recomienda leer el capítulo 10 para entender
mejor este tipo de error y cómo se puede corregir.
• Error ajeno al muestreo: son los errores generalmente calificados de
humanos y son errores en la exactitud de las respuestas, que no tienen que ver
con la elección del grupo y número de participantes en el proceso de
encuesta.
• Error de respuesta: son errores que se comenten debido a que las
respuestas al cuestionario no reflejan fielmente la verdadera intención o
actitud del encuestado.
• Error del investigador: son errores que se comenten durante el proceso de
diseño del cuestionario o en la fase posterior del análisis de datos. E que se
dan debido a que las preguntas diseñadas no extraen la información deseada,
que el público objetivo no ha sido seleccionado correctamente o que en la
fase de análisis de datos se cometen errores en la interpretación de los datos
debido a los modelos estadísticos utilizados. Se pueden corregir revisando el
proceso de diseño de la investigación y el análisis de datos por algún auditor
externo.
• Error del encuestador: son los errores que se cometen durante la
aplicación del cuestionario. Estos errores van desde encuestadores que sesgan
el proceso con sus intervenciones, errores en el registro de las respuestas,
hasta trampas (rellenar el cuestionario directamente sin aplicarlos). Se puede
corregir controlando el equipo de encuestadores en el campo o mediante
preguntas de control dentro del cuestionario.
• Error del encuestado: son errores que se cometen durante la aplicación
del cuestionario. Estos errores se cometen porque el encuestado no tiene
capacidad para responder ciertas preguntas, pero prefiere dar respuestas a
dejarlas en blanco. Otra fuente típica de este error es que el encuestado no
tiene motivación y rellena el cuestionario sin leer las preguntas. Estos errores
se pueden corregir motivando al encuestado a participar mediante algún tipo
de estímulo, como un premio, también utilizando las preguntas control para
detectar posibles cuestionarios no válidos (contestados de forma consistente).
• Error de no respuesta: es el error que se comete dado que algunas
preguntas no son contestadas, esto hará que ciertas preguntas tengan una
representatividad diferente a otras, debe ser notificado y en la medida de lo
posible cuantificado y corregido. Se puede corregir en cierta forma en la fase
de preprueba y revisión, una opción más extrema sería eliminar las preguntas
con altas tasas de no respuesta.

9.4.2. El trabajo de campo


El trabajo de campo es sumamente importante, ya que es la ejecución real de
nuestro cuestionario al público objetivo. Como vimos en el apartado anterior,
es importante detallar un proceso específico para su aplicación porque es una
fuente importante de error dentro de nuestra investigación.
Para que el trabajo de campo sea exitoso, debemos crear una planeación del
mismo. Es importante al menos definir dónde, quién, cuándo y cómo se
aplicará nuestro cuestionario. El dónde queda definido principalmente por el
tipo de encuesta seleccionado, pero es importante cuidar que el ambiente sea
controlado y relajado para que el encuestado nos brinde el mayor apoyo
posible. El quién se reduce a saber si el cuestionario necesitará un
encuestador o será respondido directamente por el encuestado; en caso de que
necesitemos encuestadores, es importante cuidar la selección de los mismos
atendiendo a que sean personas aptas y con experiencia, de lo contrario habrá
que capacitarlos para que apliquen el cuestionario de forma adecuada. El
cuándo debe limitar los días que se dedicarán a recopilar los datos y si es
posible las horas del día en las que se aplicarán los cuestionarios. El cómo
sobre todo es importante para tener en cuenta los recursos necesarios; es
decir, cuántas copias del cuestionario son necesarias, si se necesita una lista
de número telefónicos, si se utilizará algún tipo de apoyo visual, cómo se
imprimirá y transportará o si se utilizará algún tipo de apoyo electrónico, qué
archivos debe contener, cuántos se necesitan y si se necesita conexión a
internet.
Finalmente debemos tener un proceso para supervisar que el trabajo de
campo se está llevando a cabo correctamente para poder evaluar si se ha
efectuado de forma correcta, y si hay errores, poder al menos tenerlos en
cuenta. Como ya se mencionó anteriormente, las preguntas de control dentro
del cuestionario pueden ser muy útiles en esta fase, también se pueden tener
personas encargadas de monitorizar el proceso, sobre todo si se tienen
encuestadores para poder observar y corregir problemas en la aplicación.

9.4.3. Recopilación de datos


El proceso de recopilación de datos consiste en la fase en que una vez
aplicado el cuestionario, debe procesarse para extraer los datos y proceder al
análisis de los mismos. Para que esta recopilación de los datos sea más
sencilla, es importante tener en cuenta una serie de condiciones a la hora de
diseñar el cuestionario que harán más fácil el proceso de recopilación de
datos.
• Codificación del cuestionario: la codificación consiste en asignar ciertos
valores o etiquetas a las preguntas y a sus respuestas para que se puedan
almacenar de forma rápida y compacta. Generalmente estas etiquetas suelen
ser números o una combinación de letras y números cortos para las preguntas
y solo números para las posibles respuestas. La codificación por tanto
consiste en tener una versión del cuestionario que indique la etiqueta de cada
pregunta y sus respuestas.
• Libro de códigos: consiste en elaborar una hoja resumen que indique
cuáles son los códigos asignados a cada una de las preguntas y su serie de
respuestas. Esto es útil porque así cualquier persona podrá almacenar los
datos del cuestionario de forma consistente sabiendo cuáles son los códigos.
• Software de análisis de datos: conocer de antemano el software
estadístico que se utilizará para procesar el cuestionario es importante, ya que
cada software usa diferentes claves para asignar las no respuestas y otros
valores. Si conocemos esto de antemano, podemos codificar nuestro
cuestionario atendiendo a las necesidades del software que utilizaremos y así
ahorrar tiempo.

9.5. Nuevas tendencias en la elaboración de cuestionarios


En esta sección se presentan algunas herramientas gratuitas para utilizar en el
proceso de elaboración del cuestionario. Estas herramientas, aunque
propiamente más enfocadas a la aplicación de encuestas por página web,
pueden aplicarse también en el resto de los tipos de encuesta, ya que el
encuestador puede registrar directamente las respuestas por medio de un
dispositivo electrónico (personal y telefónica). Estas herramientas son útiles
porque reducen el coste, tiempo de aplicación, mejoran la apariencia y
aumentan la exactitud a la hora de aplicar un cuestionario gracias al apoyo de
las nuevas tecnologías. A continuación, se mencionan algunas soluciones que
utilizar para diseñar los cuestionarios, así como una breve descripción:
• Google Forms: parte de la plataforma Google, no tiene límite de
preguntas ni encuestados. Permite gran variedad de formatos de
personalización, establece una sucesión lógica de preguntas (saltar preguntas
si no son pertinentes de acuerdo a la respuesta) y recopila los datos obtenidos
en una hoja de cálculo.
• Survey Gizmo: su sistema permite realizar un número ilimitado de
preguntas para cincuenta encuestados. Los datos se exportan en formato
CSV. Tiene unos diseños muy atractivos que pueden apelar a un grupo
objetivo de personas jóvenes.
• Survey Monkey: permite elaborar 10 preguntas y aplicarlas hasta a cien
encuestados. Permite diseñar hasta quince diferentes estructuras de pregunta
y respuesta. Su sistema es intuitivo y fácil de usar.
• Survey Planet: es un sistema que permite un número ilimitado de
preguntas y encuestados. El diseño de las preguntas es bastante limitado,
sería útil para encuestas muy básicas.
• Zoho Survey: es una alternativa bastante básica, que permite realizar
cuestionarios de 15 preguntas a un grupo de 150 encuestados.
• Typeform: se caracteriza por un diseño muy cuidado del cuestionario y
permite una gran personalización del mismo. Se puede hacer un número
ilimitado de preguntas a un número ilimitado de encuestados. Permite
exportar los datos obtenidos en diversos formatos.

9.6. Conclusiones
A lo largo de este capítulo se ha detallado el proceso para crear un
cuestionario que permita adquirir datos que ayuden a resolver nuestro
problema de investigación y obtener evidencia a favor o en contra de nuestras
diversas hipótesis. Este proceso engloba desde la concepción de la naturaleza
de la encuesta que aplicar hasta la aplicación y el procedimiento de
recopilación de datos proveniente de la misma.
En primer lugar, se destacó la diferencia entre la encuesta como el método
de investigación seleccionado y el cuestionario como la herramienta que se
utiliza para obtener los datos de la encuesta. Si bien esta diferencia es
metodológica, también sirvió para introducir la observación como una
metodología menos socorrida para contestar cuestionarios, pero que permite
conseguir datos de forma más objetiva, ya que nos basamos en los actos de
los objetos de estudio y no en sus propias respuestas.
En segundo lugar, analizamos los diferentes tipos de encuestas que existen.
Se expuso que la encuesta puede aplicarse de forma personal, a través del
teléfono, por correo tradicional o por medios digitales como el correo
electrónico o una página web. Cada técnica tiene ventajas y desventajas, por
lo que es conveniente saber de antemano el tipo de información que
buscamos, su profundidad, la cantidad de datos que necesitamos, el
presupuesto y el tiempo de ejecución para decidirnos por la que es mejor para
nuestra investigación. La figura 9.1 permite resumir esta información y
ayudarnos en esta decisión.
En tercer lugar, ya una vez hemos definido el tipo de encuesta que es más
conveniente para nuestro estudio, debemos proceder a diseñar el cuestionario.
En la figura 9.1 se observa un resumen de los pasos para la elaboración de
este cuestionario. En general debemos saber qué queremos de cada pregunta,
cómo registraremos las respuestas, cuidar la redacción de las mismas, la
secuencia en la que se presentan, preparar la apariencia física del cuestionario
y comprobar cuán efectivos hemos sido en su elaboración realizando pruebas
previas antes de aplicarlo.
En cuarto lugar, se habló de los retos de aplicar el cuestionario a nuestra
población objetivo. Este proceso es sin duda el más importante, de modo que
un cuestionario bien diseñado es fundamental para facilitar la ejecución de
nuestro trabajo de campo. Es importante considerar las fuentes de error, así
como las formas que podemos introducir en el cuestionario para corregirlas o
al menos controlarlas. También es importante diseñar un plan para el trabajo
de campo y contar con los recursos necesarios y supervisar este proceso.
Además de codificar nuestro cuestionario y conocer el software que
utilizaremos para el análisis, ya que nos permitirá diseñar nuestro
cuestionario para recopilar los datos de forma más eficiente.
En quinto lugar, hemos tratado el papel de las nuevas tecnologías en el
desarrollo del cuestionario. Esta sección se abordó de una forma práctica
presentando algunas herramientas gratuitas para la elaboración de
cuestionarios en línea. Si bien todas estas herramientas pueden ayudar a
disminuir tiempo y coste, reducen en cierto grado nuestra flexibilidad a la
hora de diseñar preguntas.
Con todo lo anterior tendremos la capacidad de diseñar, crear y aplicar un
cuestionario que nos permita obtener datos principalmente cuantitativos,
aunque también cualitativos. Estos datos serán la materia prima para llegar a
unas conclusiones para nuestro proceso de investigación, por lo que dedicar
tiempo y esfuerzo a esta parte de la investigación es importante para
garantizar buenos resultados.

Bibliografía
Fallowfield, L (1995). «Questionnaire design». Archives of Disease in
Childhood. 72 (1), p.76.
Feinberg, F. M., Kinnear, T. C. y Taylor, J. R. (2013). Modern Marketing
Research: Concepts, Methods, and Cases. Cengage Learning, Stamford.
Fernández Nogales, A. (2004). Investigación y técnicas de mercado. Editorial
ESIC.
Gehlbach, H. (2015). «Seven Survey Sins». The Journal of Early
Adolescence. 35 (5-6), pp. 883-897.
Malhotra, N. K. (2007). Marketing Research: An Applied Orientation.
Pearson/Prentice Hall, Upper Saddle River.
Manski, C. F. y Molinari, F. (2008). «Skip sequencing: A decision problem
in questionnaire design». Annals of Applied Statistics. 2 (1), pp. 264-285.
Rattray, J. y Jones, M. C. (2007). «Essential elements of questionnaire design
and development». Journal of Clinical Nursing. 16 (2), pp. 234-243.
10 Selección de muestras

10
SELECCIÓN DE MUESTRAS
Jessica París Paricio
(UAO, CEU)

Objetivos del capítulo

• Conocer y diferenciar los conceptos de población y muestra.


• Delimitar el marco muestral y el tamaño de la muestra.
• Conocer los diferentes tipos de muestras. Asimismo, identificar las ventajas e inconvenientes que
presentan unas y otras.
• Hacer una adecuada selección de la muestra, una vez definidas las características y el objeto de la
investigación.

10.1. Introducción
Una vez finalizada la revisión de la literatura y delimitado el marco teórico
del trabajo que realizar, el investigador deberá buscar el nicho que todavía se
encuentre pendiente de ser estudiado y/o posea alguna característica
novedosa. Hecho esto, establecerá unas hipótesis de estudio y, mediante un
análisis metodológico, tratará de darles respuesta. Para poderse llevar a cabo
este método de trabajo será requisito imprescindible que el investigador
defina cuál será la población en la que centrará su análisis.
El objetivo de esta fase de la investigación es definir quién o quiénes van a
ser los sujetos que estudiar. Dependiendo del objeto de la investigación y de
cómo esta se venga desarrollando, los sujetos que analizar variarán.
Es importante apuntar que la calidad de una investigación vendrá
determinada, entre otros factores, por la calidad en la delimitación de la
población. No obstante, como más adelante se explicará, la mayoría de las
veces no es posible analizar toda una población, por lo que resulta necesario
centrarse en el análisis de una muestra previamente seleccionada.
El presente capítulo pretende dar las nociones suficientes para que el
investigador sea capaz de seleccionar la muestra adecuada y pueda llevar a
cabo un buen estudio con las herramientas de que disponga. Para ello, a
continuación se desarrollan cada uno de los objetivos previamente indicados.

10.2. ¿Qué se entiende por población? ¿Y por muestra? ¿Por qué


muestra y no población?
El primer paso en la fase de estudio de una población consiste en determinar
la unidad de análisis, es decir, establecer qué va a ser medido en la
investigación: unidades monetarias, personas, entidades, objetos, fenómenos,
etc. Una vez establecida la unidad de análisis, dependiendo del problema que
investigar y de los objetivos de la investigación, ya podrán seleccionarse los
sujetos objeto de dicho estudio. Esto dará lugar a la delimitación de la
población que analizar y, muy seguramente, al deber de obtención de una
muestra para su estudio. Una vez hecho esto, dependiendo de las
características de la muestra, los resultados del estudio podrán llegar a ser
extrapolados a la población entera.
Determinada la unidad de análisis sobre la que estará basada la
investigación, el siguiente paso será la determinación de la población objeto
de estudio, seguido de la selección del marco muestral, del tamaño muestral
y, finalmente, de la muestra que acabará siendo objeto de análisis. No
obstante, para llevar a cabo todo este proceso, será importante sentar las bases
y tener claros los principales conceptos que van a ser empleados.
En primer lugar, cabe apuntar que Martín-Pliego, F. J. (2004) entiende por
población «todo el conjunto de individuos o elementos que tienen unas
características comunes». Johnson, R. y Kuby, P. (1999) van más allá y
diferencian entre dos tipos de poblaciones: las poblaciones finitas y las
poblaciones infinitas. Se estará ante una población finita cuando sea posible
enumerar todos los elementos que la componen. En cambio, se tratará de una
población infinita cuando los elementos integrantes de esta sean ilimitados.
Es de suma importancia que la población quede cuidadosamente definida
en la investigación que se va a llevar a cabo. No obstante, debido al amplio
número de miembros que conforman una población, acostumbra a ser difícil
el análisis de toda ella en su conjunto. Para solucionar este problema deberá
delimitarse un marco muestral, para finalmente tomar como objeto de análisis
una muestra de la población, y no toda ella.
Una vez comprendido que no siempre es posible analizar la población
completa, y que por tanto deberá estudiarse una parte de ella, se procederá a
explicar y diferenciar el concepto de marco muestral, tamaño muestral y
muestra. Por marco muestral se entienden el conjunto de elementos de la
población que tienen posibilidades de acabar formando parte de la muestra
finalmente seleccionada. El tamaño muestral será el conjunto de elementos
que conforman la muestra. Y de un modo muy breve, Johnson, R. y Kuby, P.
(1999) definen la muestra como «un subconjunto de la población». Una
definición algo más desarrollada presenta Hernández, R., et al. (1997), quien
establece que la muestra «es un conjunto de elementos que pertenecen a ese
conjunto definido en sus características al que llamamos población».
Es importante indicar que para que una muestra sea útil en la investigación
realizada y proporcione información relevante sobre la población total, esta
deberá ser representativa de la población y ser su fiel reflejo. Ross, S. (2007)
considera que una muestra es representativa cuando esta haya sido «elegida
de forma que todos los elementos de la población tengan la misma
probabilidad de pertenecer a la muestra». Por norma general, se considerará
que una muestra es representativa cuando esta haya sido tomada de su
población de forma aleatoria.
Una vez definidos los conceptos de población y muestra, así como
comprendido que con frecuencia será necesaria la selección y análisis de una
muestra de la población objeto de estudio, el siguiente apartado se centra en
la muestra y se presentan al lector los conceptos de marco muestral y tamaño
de la muestra.

10.3. Marco muestral y tamaño de la muestra


10.3.1. Marco muestral
Como ya se apuntó, el marco muestral es el conjunto de elementos de la
población que tienen posibilidades de acabar formando parte de la muestra
finalmente seleccionada. Lo ideal sería que el marco muestral coincidiera con
la población a analizar. No obstante, en ocasiones no es posible poder
disponer de toda la población, por lo que hay que delimitar qué elementos de
esta podrán acabar conformando la muestra. Es muy importante la calidad del
marco muestral, pues de él dependerá en gran parte la calidad de la muestra.
Debido al uso de un marco muestral y a la selección que ello comporta
podrán producirse alguno de los siguientes problemas si dicho marco no está
bien delimitado:
• Marco insuficiente: este problema se producirá cuando la población que
se va a estudiar no esté correctamente representada por el marco muestral
empleado. Es decir, se haya producido algún tipo de error en la delimitación
de este.
• Unidades repetidas: cabe la posibilidad de que al definir el marco
muestral algún elemento de la población sea considerado más de una vez.
• Marco anticuado: esto ocurrirá cuando se trabajen con datos no
actualizados. El problema que puede conllevar tal circunstancia es que el
marco muestral acabe estando compuesto por elementos que ya no forman
parte de la población, y viceversa, es decir, no se les da la oportunidad de
forman parte de este a elementos nuevos.
• Unidades extrañas: son aquellos elementos que, aun no formando parte de
la población, erróneamente han pasado a formar parte del marco muestral.
Es importante apuntar que, de producirse alguno/s de estos problemas,
podrán ocasionarse importantes sesgos o errores en los resultados obtenidos
en la investigación realizada.

10.3.2. Tamaño de la muestra


Antes de sumergirnos en el estudio del tamaño de la muestra, creemos
importante apuntar que esto no será lo único que habrá que tener en cuenta a
la hora de recoger unos buenos datos de la muestra. También es de suma
importancia cuidar el modo en que se obtiene la muestra, pues ello afectará al
grado de representatividad que posea la muestra respecto de la población
total.
Ahora sí, en lo que concierne al tamaño de la muestra, hay que tener en
cuenta que, dependiendo del tipo de investigación que se esté llevando a
cabo, el objetivo final no será el de extrapolar los resultados a la población.
Puede ser que el objeto del estudio sea analizar una muestra concreta, por
tanto, en ese caso, el tamaño de la muestra corresponderá con el tamaño del
marco muestral.
No obstante, en muchos de los casos, la intención sí es extrapolar los
resultados. Es entonces cuando los investigadores acostumbran a plantearse
una pregunta muy frecuente con respecto al tamaño de la muestra estudiada.
¿Qué tamaño de muestra debe tomarse para que esta sea representativa de la
población? No existe una única cifra que dé respuesta a esta pregunta.
Dependerá del tamaño de la población. Pero no solo de eso, sino también del
nivel de error de muestreo que el investigador esté dispuesto a aceptar, así
como del error de no muestreo. Por error de muestreo se entiende el error
producido debido a que la muestra seleccionada no es perfectamente
representativa de la población. Por otra parte, se entiende por error de no
muestreo todos aquellos errores que no se producen por el motivo
anteriormente descrito, pero que igualmente pueden causar inexactitudes en
los resultados obtenidos.
Cuanto menor sea el error de muestra que se está dispuesto a asumir, mayor
será la muestra que se necesitará analizar. Llegando al extremo, si no se
estuviera dispuesto a aceptar el más mínimo error en el resultado, debería
analizarse la población en su totalidad. No obstante, hay que apuntar que a
medida que la población crece, disminuye el porcentaje que de esta debe
tomarse como muestra para ser analizada. Esto implica que cuanto mayor sea
la población, mayor deberá ser la muestra. No obstante, este incremento no se
mantiene proporcional. De hecho, a partir de un determinado tamaño de
población (en torno a los 100.000 elementos), ya no será necesario que la
muestra se incremente más. En contrapartida, en el caso de poblaciones muy
pequeñas, deberá serse cauteloso. En estos casos, seleccionar una muestra tal
vez no sea suficiente. Tratándose de poblaciones pequeñas, el buen estudio
será aquel que analice la población en su totalidad.
Antes de profundizar en el tamaño de la muestra, puede ser de utilidad para
el lector saber que en internet existen numerosas páginas web22 donde es
posible calcular el tamaño de la muestra necesaria para un estudio, tendiendo
al tamaño de la población. Además, para no dificultar el contenido del
capítulo y no profundizar en temas estadísticos que podrían además alargar
mucho las explicaciones, omitiremos el uso de fórmulas. Lo que
presentaremos de aquí en adelante son las bases que deben quedar claras para
que el lector sea capaz de tomar una buena decisión atendiendo a la elección
del tamaño de la muestra.
Ahora ya sí, vamos a pasar a analizar el número de elementos necesarios
para componer una buena muestra. Para desarrollar este apartado nos
apoyaremos en la idea de Morales, P. (2011), quien establece que el tamaño
de la muestra dependerá de que la finalidad sea:
• Extrapolar los resultados a una población mayor.
• Construir un instrumento de medición.
• Llevar a cabo un estudio empírico o experimental.
• Hacer un análisis correlacional.
A continuación vamos a pasar a desarrollar cada una de estas situaciones.
El tamaño necesario de la muestra para posteriormente poder extrapolar los
resultados depende principalmente de tres variables: el nivel de confianza, la
varianza estimada de la población y el margen de error. El nivel de confianza
no es más que el riesgo de equivocarnos que estamos dispuestos a aceptar. El
nivel de confianza habitual que acostumbra a emplearse en las
investigaciones es del 5 % (α = 0,05). La segunda variable de la que depende
el tamaño de la muestra es la varianza estimada de la población. Esto se
refiere a la diversidad de opiniones que se estima que habrá en la población.
A mayor diversidad esperada de opiniones, mayor deberá ser el número de
sujetos que compongan la muestra. Y por último, cabe apuntar que el margen
de error que se está dispuesto a aceptar también influye sobre el tamaño
muestral. Por margen de error se entiende la discrepancia existente entre los
resultados obtenidos gracias a la extrapolación de los resultados de la muestra
a la población y los resultados que realmente deberían haberse obtenido de
poderse analizar la población en su totalidad. Cuanto menor sea el margen de
error que estamos dispuestos a aceptar, mayor será el tamaño de la muestra
que tomar.
Cuando lo que se pretende es construir un instrumento de medición, como
un test o una escala de medición, la norma básica establece que por cada ítem
deberán seleccionarse mínimo cinco sujetos para la muestra. Esto significa
que si disponemos de 100 ítems, deberán seleccionarse como muestra 500
elementos. No obstante, también cabe apuntar que cuantos más sujetos pasen
a formar parte de la muestra, más estables serán los resultados del análisis.
Si lo que se desea es llevar a cabo un estudio empírico o experimental, las
variables que intervienen en las fórmulas con las que realizar el cálculo del
tamaño muestral son cuatro: el nivel de confianza, la potencia de la prueba, la
magnitud de la diferencia y la varianza de la población. El nivel de confianza
ya se explicó que es el riesgo de equivocarnos que estamos dispuestos a
aceptar. Acostumbra a determinarse α = 0,05. Por potencia de la prueba se
entiende la probabilidad de detectar una diferencia (o relación) de una
determinada magnitud. Como potencia de prueba suele tomarse «1-β» = 0,80.
Es decir, es estima un 80 % de probabilidades de detectar diferencias. Por
magnitud de la diferencia se entiende el grado en que un fenómeno está
presente en la población. La relación que guarda esto con el tamaño muestral
es que cuanto mayor sean las diferencias, menor será el número de elementos
necesarios para componer la muestra. En cambio, si estas diferencias son
pequeñas, el tamaño de muestra necesario será mayor. La última de las cuatro
variables que intervienen en el tamaño de la muestra de un estudio empírico o
experimental es la varianza de la población. Como ya se indicó, por varianza
se entiende la diversidad existente en la población. A mayor diversidad
esperada, mayor deberá ser el tamaño muestral.
Para finalizar, se estudia el tamaño de muestra necesario en el caso de
llevar a cabo un análisis correlacional. Igual que se indicó con otros
coeficientes, en este caso, para detectar correlaciones elevadas, será necesario
un tamaño muestral reducido. En cambio, si la correlación existente es
reducida, será necesario estudiar un tamaño de muestra de mayor dimensión.
No obstante, creemos conveniente apuntar que unos coeficientes elevados
obtenidos a partir de una muestra grande serán buenos elementos para poder
predecir resultados futuros.
Como ya se indicó, una vez determinada la población y delimitado el
marco muestral y el tamaño de la muestra, el siguiente paso consistirá en
seleccionar la muestra. No obstante, para poder llevar a cabo una buena
selección muestral, previamente será necesario conocer la tipología existente.
Para ello, a continuación se exponen los diferentes tipos de muestras con las
que se puede trabajar.

10.4. Tipos de muestra


Es de suma importancia saber escoger la técnica adecuada para delimitar una
buena muestra sobre la que realizar la investigación. Los resultados que se
acabarán obteniendo en el estudio dependerán, en gran parte, de dicha
decisión.
Para presentar los diferentes tipos de muestra existentes, en primer lugar
cabe realizar una clasificación más genérica, donde se clasifican las muestras
en dos grandes bloques: las muestras no probabilísticas y las muestras
probabilísticas.
En las muestras no probabilísticas la elección de los elementos de la
población no depende de la probabilidad, sino que la muestra es seleccionada
atendiendo a decisiones tomadas por el investigador. El inconveniente de
utilizar este método de selección es que estas muestras tienen grandes
probabilidades de estar sesgadas debido a las decisiones subjetivas de los
investigadores en cuanto a la selección y tamaño de la muestra. Por ello los
resultados obtenidos en la investigación, tras el análisis de una muestra no
probabilística, no podrán ser generalizados a toda la población.
Los principales tipos de muestreo no probabilístico son:
• Muestra casual o accidental: es aquella obtenida sin tener en cuenta unos
criterios previos. Un ejemplo de muestra causal o accidental son los
elementos integrantes de esta tras realizar una encuesta a los transeúntes que
nos encontremos por la calle.
• Muestra intencional o de conveniencia: es aquella obtenida teniendo en
cuenta unos criterios previos. La muestra la acabarán conformando
únicamente aquellos elementos que reúnan los requisitos. Un ejemplo de
muestra intencional son los elementos integrantes de esta tras las encuestas
realizadas a los varones, menores de 50 años, con estudios universitarios.
• Muestra por cuotas: este tipo de muestra consiste en escoger los
elementos que conforman la muestra de tal modo que reúnan unos requisitos
necesarios para formar parte de un grupo. Un ejemplo de muestra por cuotas
son los elementos integrantes de esta tras las encuestas realizadas a los
transeúntes de la calle, de manera que el 25 % sean varones mayores de 35
años, el 25 % sean varones menores de 35 años; el 25 %, mujeres mayores de
35 años, y el otro 25 %, mujeres menores de 35 años.
• Muestra bola de nieve: este método de captación de datos es útil cuando
la población posee una característica poco común, o es de difícil acceso.
Mediante este método la muestra se consigue contactando con algunos
individuos, que conducirán a otros, estos a otros, y así sucesivamente, hasta
lograr el número suficiente que conforme la muestra. Un ejemplo de
obtención de una muestra bola de nieve es la realización de encuestas a
personas. Una vez finalizada dicha encuesta facilitan el contacto de otros
elementos a los que encuestar.
Por otro lado, en las muestras probabilísticas, todos los elementos de la
población tienen la misma probabilidad de ser seleccionados para su estudio,
lo que significa que el investigador no interviene subjetivamente en la
selección de los miembros de la muestra. Esta situación provoca que la
principal ventaja que presentan las muestras probabilísticas es que los
resultados obtenidos en el análisis de este tipo de muestras podrán ser
generalizados al conjunto de la población. No obstante, no están libres de
inconvenientes, pues las muestras probabilísticas requieren ser compuestas
por un mayor número de elementos que las no probabilísticas.
Los principales tipos de muestreo probabilístico son:
• Muestra aleatoria simple: es aquella para la que todos los elementos de la
población tienen la misma probabilidad de formar parte de la muestra
seleccionada, pues se selecciona una muestra de tamaño n de una población
de N unidades. Para ello se asigna un número a cada uno de los elementos
que componen la población, y mediante un mecanismo automático se eligen
tantos sujetos como elementos deban componer la muestra.
La principal ventaja que presentan estas muestras probabilísticas es que es
cuantificable el error de las predicciones, error que se busca reducir al
mínimo posible. Cuanto más parecidas sean las predicciones basadas en la
muestra con los valores poblacionales, más precisa será la predicción,
pues menor será su error predictivo. Por ello, como ya se expresó, los
resultados obtenidos en la investigación tras el análisis de este tipo de
muestras sí podrán ser generalizados a toda la población. No obstante, las
muestras aleatorias simples no están exentas de inconvenientes, pues será
necesario poseer un listado completo de la población para poder tomar la
muestra correctamente. Además, si la muestra seleccionada es pequeña, se
corre el peligro de que esta no represente adecuadamente a la población.
Ejemplo:
Deseamos realizar una investigación cuya población son las empresas de
servicios que en el ejercicio 2014 disponían de un activo superior a 50
millones de euros y/o una cifra de negocios situada por encima de los 70
millones de euros. Finalmente se detectaron 1.205 sociedades que
reunían dichas características. Por tanto, son estas 1.205 entidades las
que conforman la población. No obstante, la muestra finalmente
analizada estará formada por 300 de estas empresas. Para ello se
realizará un listado en el que aparezcan todas las que componen la
población, se numerarán consecutivamente y se acabará seleccionando
aleatoriamente 300 de ellas.
• Muestra estratificada: es aquella en la que no es suficiente que los
elementos muestrales posean iguales probabilidades de ser elegidos. En este
caso también será necesario estratificar la muestra, es decir, crear
subpoblaciones. Esto no es otra cosa que dividir la muestra atendiendo a
estratos o categorías que se presentan en la población, y además es relevante
el estudio de estas en la investigación que se está llevando a cabo. Una vez
definido el tamaño muestral con el que se trabajará, se calcula una muestra
para cada estrato. El objetivo de seleccionar la muestra mediante estos
mecanismos es tratar de conseguir que esta se asemeje lo máximo posible a la
población.
La principal ventaja que presenta este tipo de muestra es que a menudo es
capaz de representar adecuadamente a la población de la que procede.
Asimismo, la muestra probabilística estratificada facilita información más
precisa sobre la característica objeto de estudio, dentro de cada estrato, y
con ello se consiguen unos estimadores de las características de la
población más precisos. También hay que apuntar que este tipo de
muestras proporcionará mejores resultados que una muestra probabilística
aleatoria cuanto más diferentes sean los estratos entre sí y más
homogéneos sean estos internamente. No obstante, la muestra
probabilística estratificada no se encuentra libre de inconvenientes, pues
para llevar a cabo una selección de este tipo será necesario conocer
profundamente la población, lo que puede resultar una tarea complicada.
Ejemplo:
Continuando con el caso anterior: disponemos de una población de
1.205 elementos y una muestra de 300, lo que supone un 24,89 % de la
población total. Deseamos clasificar las diferentes empresas
dependiendo del servicio que presten, ya sea: comercio, servicio
financiero, transporte, telecomunicaciones, u otro. Para ello se deberá
diferenciar dependiendo del estrato al que pertenezca cada una.
Finalmente, de cada estrato se tomará como muestra la proporción
calculada anteriormente, 24,89 %.

• Muestra por racimos (conglomerados): es aquella en la que la población


se divide en grupos o racimos. Por ejemplo: los departamentos de una
universidad, las unidades hospitalarias, etc. Cada uno de estos grupos o
conglomerados deben ser lo más representativos posible de la población. El
siguiente paso consistirá en seleccionar aleatoriamente los racimos deseados
y se calcula una muestra para cada uno de esos racimos. De este modo se
conseguirá representar la heterogeneidad de la población a la vez que dichos
conglomerados son homogéneos.
La principal ventaja que presenta este tipo de muestras es que resulta muy
sencilla la recogida de información muestral, pues no es necesario poseer
el listado de toda la población. Por tanto, este tipo de muestras serán muy
útiles cuando estemos ante poblaciones muy grandes y dispersas.
No obstante, también presenta inconvenientes, pues si estos grupos no son
homogéneos entre sí, la población no se habrá visto representada por la
muestra seleccionada. Además, también hay que apuntar que el error
estándar obtenido a través de este muestreo es mayor que en el caso de las
muestras aleatorias simples o muestras estratificadas.
Ejemplo:
En este caso ya no se desea estudiar las entidades, sino a los
consumidores de un determinado servicio. Aun desconociendo el
número total de sujetos que reúnen el requisito anterior, deberá diseñarse
una muestra que abarque dichos elementos. Un método válido sería
tomar el mapa de la ciudad que se desea estudiar y ver cuántos barrios la
componen, que será empleados de racimos. Dicho de otro modo, los
diferentes barrios serán considerados unidades muestrales, de las que se
obtendrán los elementos muestrales. Asimismo se dividirá la población
en cuatro estratos sociales: alto (1), medio alto (2), medio bajo (3) y bajo
(4). Y se analiza qué barrios pertenecen a cada estrato social. Se obtiene
lo siguiente:

Si se desea tomar una muestra de 900 elementos, ¿cómo deberán


distribuirse estos para ser lo más representativa posible de la población
total?
900/23 = 39,13

La columna «muestra» refleja el número de elementos que deberán ser


tomados de cada barrio, dependiendo del estrato al que estos
pertenezcan.
Una vez mostrado al lector la distinta tipología muestral existente, el
siguiente y último paso en el proceso de captación de datos será la selección
de la muestra.

10.5. Selección y obtención de la muestra


A estas alturas ya deberíamos ser capaces de definir la población objeto de
estudio, delimitar el marco muestral en el que nos vamos a centrar, así como
establecer el tamaño de la muestra. El siguiente y último paso antes de
embarcarnos en el análisis de los datos será la selección de la muestra.
Dependiendo de las características del estudio que se desea llevar a cabo, el
investigador deberá ser capaz de elegir la técnica adecuada, de las descritas
en epígrafes anteriores, para poder llevar a cabo una buena selección de la
muestra que se va a estudiar.
A pesar de que la selección de la muestra puede comportar un duro trabajo,
dicha tarea nos facilitará las labores del análisis que deseamos emprender. En
realidad, la selección de una muestra estará simplificando la investigación,
pues de este modo no habrá que estudiar la población en su totalidad.
Analizar una muestra presenta una serie de ventajas e inconvenientes,
frente al estudio de toda una población. La principal ventaja es que con el
análisis de la muestra será necesario estudiar menos individuos. Esto
implicará un ahorro de recursos, ya sea tiempo y/o dinero. Además, el
tratamiento de los datos será mucho más sencillo, pues no es lo mismo tener
que trabajar con 1.000 datos que con millones de ellos. No obstante, el uso de
una muestra no está libre de inconvenientes, pues por el hecho de renunciar al
estudio de la población para hacerlo de una muestra se está aceptando un
determinado error en los resultados. Asimismo, se corre el peligro de que si
no se ha realizado una buena selección de la muestra se acaben obteniendo
unos resultados sesgados.

10.6. Conclusiones
Con el presente capítulo se espera haber podido ayudar al investigador en su
labor de selección de la muestra. Para ello se ha tratado de facilitar las
nociones suficientes para que el investigador sea capaz de seleccionar la
muestra adecuadamente.
Es importante que los conceptos clave empleados en dicho capítulo se
hayan comprendido. Inicialmente se mostró el concepto de población, que
abarca el conjunto de elementos que tienen unas características comunes y
que serán objeto de nuestro estudio. No obstante, como ya se indicó, con
frecuencia no es posible analizar la población en su totalidad. Es entonces
cuando surge la necesidad de analizar una muestra, es decir, de una parte
representativa de dicha población. Para ello, previamente se deberá haber
definido correctamente cuál es el marco muestral, entendiéndose por marco
muestral aquellos elementos de la población que tienen posibilidades de
formar parte de la muestra.
En lo que respecta al tamaño de la muestra, se señaló que no existe una
cifra concreta para toda investigación. El tamaño de la muestra vendrá dado
en función de la población. No obstante, se apuntó que dicho tamaño no es
proporcional a la población, pues a medida que el tamaño de la población es
mayor, el porcentaje de elementos que deberán conformar una buena muestra
disminuye.
Asimismo, se expusieron los diferentes tipos de muestra existentes, según
estemos ante una muestra no probabilística, es decir, aquella en la que la
muestra es seleccionada atendiendo a decisiones tomadas por el investigador.
O ante una muestra probabilística, cuando todos los elementos de la
población tienen las mismas posibilidades de ser seleccionados para formar
parte de la muestra.
Por último, en lo que respecta a la selección de la muestra, se indicó que, a
pesar de que la selección de una muestra pueda suponer inicialmente un
tedioso trabajo, esta nos facilitará las labores de obtención de resultados. No
obstante, también se apuntó la importancia de realizar una buena selección
muestral, pues si esta se hace incorrectamente, se acabarán obteniendo unos
resultados sesgados.
A modo recapitulativo se puede apuntar que las fases para la selección de
una muestra son las siguientes. En primer lugar se deberá determinar la
población objeto de estudio, definir y fijar los límites de esta, para así a
continuación poder establecer cuál será el marco muestral. De igual modo se
analizará cuál deberá ser el tamaño de la muestra óptimo, dada la población
existente. Para finalizar, mediante los métodos escritos, se seleccionará una
muestra que sea representativa de la población.
Ahora sí, esperamos que tras la lectura de este capítulo, el investigador sea
capaz, a partir de ahora, de tomar las decisiones adecuadas en cuanto a la
selección de una muestra. Como ya sabe a estas alturas, las decisiones
tomadas respecto a la selección muestral tendrán repercusiones sobre los
resultados finalmente obtenidos en una investigación.

Bibliografía
Hernández, R., Fernández, C. y Baptista, P. (1997). Metodología de la
investigación. McGraw Hill, México.
Johnson, R. y Kuby, P. (1999). Estadística elemental. Lo esencial.
International Thomson Editores, Madrid.
Martín-Pliego, F. J. (2004). Introducción a la estadística económica y
empresarial. International Thomson Editores, Madrid.
Morales, P. (2011). Tamaño necesario de la muestra: ¿Cuántos sujetos
necesitamos? Universidad Pontificia Comillas, Madrid. Disponible en
http://www.upcomillas.es/personal/peter/investigacion/Tama%F1oMuestra.pdf.
Ross, S. (2007). Introducción a la estadística. Reverté, Barcelona.

Webgrafía de consulta
Facultad de Medicina. UNNE. Calculadora para obtener el tamaño de una
muestra. http://www.med.unne.edu.ar/biblioteca/calculos/calculadora.htm.
Creative Research Systems. Calculadora de tamaño de muestras.
http://www.surveysoftware.net/sscalce.htm.

22 Basta con escribir en un buscador «calculadora tamaño muestral» o «samples size calculators».
11 Análisis de datos cuantitativos

11
ANÁLISIS DE DATOS CUANTITATIVOS
Josep Maria Raya
(Tecnocampus-UPF)

Objetivos del capítulo

• Conocer y saber interpretar las medidas estadísticas que sintetizan la información individual
(media, mediana, moda, varianza, desviación típica, etc.) que contiene una variable.
• Conocer y saber interpretar las medidas de asociación básicas (covarianza, correlación, regresión,
etc.) entre dos variables.
• Saber si una variable es realmente explicativa de una variable que queremos explicar.

11.1. Introducción
Una vez obtenidos los datos (y debidamente codificados y depurados) es el
momento de analizar los resultados, y para ello es conveniente utilizar las
técnicas adecuadas que, a partir de la información obtenida, apoyen o refuten,
justificadamente, las hipótesis. En este capítulo nos vamos a centrar en el
análisis de las técnicas cuantitativas. Las técnicas cuantitativas son aquellas
que recogen y analizan datos numéricos utilizando para su análisis la
estadística. En este sentido se busca cuantificar las relaciones de asociación,
dependencia o interdependencia entre varias variables. Esta característica la
diferencia de la investigación cualitativa que evita cuantificar y trata de
identificar la naturaleza de las realidades, su estructura mediante la
observación o la entrevista en profundidad.
En este sentido, ya inmersos en la investigación cuantitativa, en primer
lugar, se recordará la importancia de realizar un exhaustivo análisis
descriptivo de cada una de las variables de interés. Para ello merece la pena
recordar que no hay centrarse únicamente en gráficos que describan la
distribución y cálculo de medidas de centralización (media, mediana, moda),
sino que merece la pena conocer con detalle la distribución de datos con
medidas de posición (percentiles). Asimismo, son especialmente interesantes
las medidas de dispersión. Cabe recordar que una medida de centralización
no es nada informativa si la distribución es muy dispersa.
Una vez se haya descrito con detenimiento toda la información individual
de la variable (estadística descriptiva unidimensional), es el turno de
contrastar hipótesis de asociación o causalidad (estadística bidimensional). Si
las hipótesis son de correlación o asociación, únicamente es necesario los
coeficientes de correlación para contrastar si ambas variables están o no
estadísticamente asociadas. Finalmente, es importante acompañar el cálculo y
análisis de las medidas con su correspondiente test. Un mismo valor del
coeficiente de correlación puede ser estadísticamente significativo o no. En
función de las hipótesis también se podrán aplicar test de diferencias de
medias, de proporciones, etc.
Finalmente, si se desea contrastar una hipótesis de causalidad, se debe de
realizar un análisis de regresión múltiple. Cabe recordar que en dicho análisis
no solo se obtiene el efecto de diversas variables explicativas sobre la
variable dependiente, sino que si el modelo no omite ninguna variable
explicativa que afecte a la variable dependiente, el efecto de cada una de las
variables explicativas es el efecto propio, una vez descontado el efecto del
resto de las variables explicativas relevantes. Dicho análisis nos ayuda a
aislar efectos reales de efectos que suelen ser engañosos. Las variables que
incluir como explicativas deberían proceder de algún modelo teórico o algún
trabajo empírico de relevancia científica. Por tanto, en este apartado también
se puede aprovechar todo lo que se ha aprendido leyendo los antecedentes de
tu investigación científica.
De este modo, el objetivo principal de este capítulo es recordar las técnicas
estadísticas básicas que nos ayudarán a, una vez obtenidos los datos,
contrastar nuestras hipótesis científicas. En este sentido, en primer lugar,
recordaremos la importancia de la estadística descriptiva unidimensional y
sus diversas medidas, así como la estadística bidimensional (tanto para
variables cuantitativas como para variables cualitativas). A lo largo del
capítulo, un breve ejemplo ilustrará los contenidos. Finalmente se procederá a
unas breves conclusiones.

11.2. Estadística descriptiva unidimensional


Las medidas estadísticas o estadísticos son valores que nos ayudan a resumir
la información de los datos. En primer lugar, utilizaremos las medidas de
localización o tendencia central, las más importantes son media, mediana y
moda. Todas estas medidas pretenden ofrecernos una idea acerca de en torno
a qué valor se mueven los datos. La media es la suma de todos los valores
dividido entre el número de observaciones. Hay que tener en cuenta que la
media aritmética puede ser sensible a los valores extremos, es decir, a valores
numéricos muy diferentes (tanto por grandes como por pequeños). Esto
puede resultar un problema. Hay formas de resolverlo, como la eliminación
de un cierto porcentaje de observaciones extremas a la hora de su cálculo.
Una manera de solucionar el problema es prestar menos atención a la media y
más a la mediana. La mediana o valor mediano será el valor de la variable
que ocupa el lugar central, que separa en dos partes iguales los valores de las
variables, ordenadas de menor a mayor. La mediana suele ser mucho más
identificativa de un individuo tipo. Por ejemplo, mientras que la media de la
renta de un país se sitúa en 21.000 € brutos anuales, la mediana se sitúa en
18.000 €. Mientras que la media está influenciada por unos pocos individuos
que ganan varios millones de euros, la mediana es el valor de la renta que
obtiene un individuo que se sitúa en la mitad de la distribución de la renta del
país (una vez los individuos están ordenados de menor a mayor renta). Por
último, la moda es el valor de la variable que más veces se repite, es decir, el
valor que tenga mayor frecuencia absoluta.
En segundo lugar, las medidas de posición son medidas de localización
similares a las anteriores. Se las denomina cuantiles (Q). Su función es
informar del valor de la variable que ocupará la posición (en tanto por cien)
que nos interese respecto de todo el conjunto de variables. De hecho, la
mediana ya era una medida de posición. Los más comunes son los cuartiles y
los deciles. Los cuartiles dividen a la distribución en cuatro partes iguales
(tres divisiones): C1, C2, C3, correspondientes a 25 %, 50 %, 75 %. Los
percentiles, en cambio, dividen la distribución en 100 partes (99 divisiones):
P1,..., P99, correspondientes a 1 %,..., 99 %. Por ejemplo, si el cuartil
primero de la renta de los individuos de un país es de 12.000 € brutos
anuales, eso significa que el 25 % de los individuos del país cobran una renta
igual o inferior a 12.000 € y el 75 % cobra una cantidad superior.
En tercer lugar, tenemos a las medidas de dispersión. Las medidas de
dispersión nos sirven para cuantificar la separación de los valores de una
distribución. Llamaremos dispersión o variabilidad a la mayor o menor
separación de los valores de la muestra, respecto de las medidas de
centralización que hayamos calculado. Al calcular una medida de
centralización como es la media aritmética, resulta necesario acompañarla de
otra medida que indique el grado de dispersión, del resto de los valores de la
distribución, respecto de esta media. No es igual decir que la media de la
renta de un país es de 21.000 € y que todo el mundo cobra una cantidad entre
15.000 € y 27.000 € que, con la misma media, el rango de salarios vaya de
6.000 € a 60.000 €. Las medidas de dispersión más extendidas son la varianza
y la desviación típica. La varianza es la media aritmética de los cuadrados de
las desviaciones de los valores de la variable con respecto de la media de la
distribución, mientras que la desviación típica es la raíz de la varianza. La
desviación típica en finanzas se suele utilizar como medida de volatilidad o
riesgo. Un activo con mayor desviación típica es un activo cuyo valor en el
tiempo cambia considerablemente y, por tanto, es más arriesgado que en un
activo cuyo valor en el tiempo es muy estable. Sin embargo, tanto la varianza
como la desviación típica adolecen de un problema: dependen de las unidades
de medida de la variable. El problema de las medidas de dispersión absolutas,
como son todas las anteriores, es que normalmente son un indicador que nos
da problemas a la hora de comparar. A la hora de comparar variables, es
posible que no estén medidas en las mismas unidades, de ahí que en
ocasiones se recurra a medidas de dispersión relativas. El coeficiente de
variación de Pearson es una de las más significativas, y lo podemos definir
como el cociente entre la desviación típica y la media aritmética de una
distribución. Es necesario tener en cuenta que al efectuar el cociente
eliminamos las unidades, por tanto V es adimensional.

Cuando Vx < Vy significa que X es más representativa que Y, o que la


media de X representa mejor a su distribución que la media de Y a la suya.
Por convención se considera que la dispersión es óptima si Vx es igual o
menor que 0,3 (desviación típica de un 30 % de la media). En caso contrario
hay una excesiva dispersión y, por tanto, con la medida de centralización
apenas informamos de nada.
Por último, las medidas de forma de una distribución se pueden clasificar
en dos grandes grupos o bloques: medidas de asimetría y medidas de curtosis.
Ambas medidas suelen ser analizadas en relación con la distribución normal.
La distribución llamada normal corresponde a fenómenos muy corrientes en
la naturaleza y cuya representación gráfica es una campana de Gauss. Cuando
el tamaño de la muestra aumenta, la mayoría de las variables cuantitativas
tienden a esta distribución. La distribución normal es simétrica y presenta un
apuntamiento normal (esto es, cierta acumulación de datos alrededor del
valor medio). Cuando al trazar una vertical, en el diagrama de barras o
histograma, de una variable, según sea esta discreta o continua, por el valor
de la media, esta vertical se transforma en eje de simetría, decimos que la
distribución es simétrica. Diremos, pues, que es simétrica cuando a ambos
lados de la media aritmética haya el mismo número de valores de la variable,
equidistantes de dicha media dos a dos, y tales que cada par de valores
equidistantes tiene la misma frecuencia absoluta (la medida de asimetría nos
dará 0). En caso contrario, dicha distribución será asimétrica o diremos que
presenta asimetría, ya sea por la derecha (medida de asimetría positiva) o por
la izquierda (medida de asimetría negativa). En particular, una distribución
presenta asimetría por la derecha si la mayoría de sus datos están
concentrados a la izquierda de la media y asimetría por la izquierda si la
mayoría de sus datos están concretados a la derecha de su media. En cuanto a
las medidas de curtosis o apuntamiento, un valor de 0 se obtiene cuando el
apuntamiento es similar al de la distribución normal, un valor positivo
cuando el apuntamiento es mayor y negativo cuando es menor (la
distribución es más plana).
Una vez conocidas las medidas para caracterizar una variable, nos
disponemos a, con un sencillo ejemplo, proceder a su interpretación. Los
cuadros que se observan en el ejemplo proceden del programa SPSS, uno de
los softwares estadísticos más populares, aunque hay muchos otros también
útiles para una investigación científica (Stata, SAS, R, Matlab, Minitab, etc.).
Ejemplo de estudio (primera parte): imaginémonos que tenemos una
base de datos con información acerca de los 61 trabajadores de una empresa
(figuras 11.1 y 11.2). Nuestra plantilla consta de un 59 % de hombres (media
de la variable «género») y un 41 % de mujeres. Por otra parte podemos
considerar que nuestra plantilla es relativamente joven, ya que su media de
edad es de 38,43 años. Aunque el hecho de tener en la variable edad la
desviación típica mayor, nos podría hacer pensar que tenemos una gran
dispersión de edades; si calculamos el coeficiente de variación de la variable
edad (13.488/38.43=0.35), este nos dice que estamos muy cerca de considerar
la media como representativa del conjunto de datos, cosa que no ocurre con
el resto de las variables.
Por último, nos entretendremos algo más con la variable salario por hora.
El salario hora de la plantilla de nuestra empresa se sitúa en torno a 8,5 € la
hora. La dispersión es relativamente elevada, con lo que este dato no es muy
explicativo, ya que el coeficiente de variación es de 0,56. Así, un 25 % de la
plantilla trabaja por salarios hora inferiores a 5,8 €, mientras que otro 2 5%
de la plantilla lo hace por salarios superiores a 9,75 €. La distribución es
asimétrica. En concreto muestra simetría por la derecha, algo que podemos
observar tanto en su histograma como en el valor positivo que presenta el
coeficiente de simetría. La interpretación de dicho coeficiente es que la
mayoría de los salarios se concentran a la izquierda de la media. De hecho,
todas las distribuciones a excepción de la del sexo nos muestran este tipo de
asimetría. Por último, se trata de una distribución apuntada, al contrario que
las distribuciones del resto de las variables. Estos aspectos se pueden
observar en el histograma de los salarios (ver figuras 11.1 y 11.2).
Figura 11.1. Estadística descriptiva de las variables.

Figura 11.2. Histograma de la distribución de la variable «salarios».

11.3. Estadística bidimensional


Una vez conocemos las variables individualmente, es probable que tengamos
alguna hipótesis de asociación entre algunas de ellas. Por ejemplo, en nuestro
caso de estudio (al que volveremos más adelante), es probable que pensemos
que el número de años de experiencia o su nivel de estudios está asociado con
el salario que un individuo cobra en la empresa. Para ello es necesario
conocer la asociación entre ambas variables. En este punto estudiaremos dos
características de un mismo elemento de la población (el precio de un
producto y la valoración que se recibe de él, el precio y el número de estrellas
de un mismo hotel, el gasto en publicidad y la cuota de mercado de una
empresa, el nivel educativo y el salario cobrado, la rentabilidad de una acción
y la rentabilidad del mercado en el que cotiza, el activo de un balance y el
ratio de endeudamiento de una empresa…). Estas características, sin estar
ligadas entre sí por una relación matemática, sí presentan una cierta
dependencia estadística.
Una manera intuitiva de conocer la relación entre dos variables
cuantitativas es mediante el gráfico de dispersión o nube de puntos. Según la
forma de este gráfico podemos encontrar relaciones lineales positivas,
negativas, relaciones no lineales y ausencia de relación. A título ilustrativo, la
figura 11.3 muestra una relación lineal negativa entre ambas variables que
podría ser perfectamente una curva de demanda de un producto. Por ejemplo,
la relación entre la demanda de pulseras de actividad y su precio. Se trata de
una relación bastante clara o fuerte. Sin ser una línea exacta, los puntos están
muy concentrados. Las únicas excepciones son los puntos azules del gráfico
que muestran valores atípicos. En cambio, en la figura 11.4, aunque se
observa una relación positiva, esta es mucho menos clara, mucho más débil.

Figura 11.3. Ejemplo de gráfico de dispersión I.

Figura 11.4. Ejemplo de gráfico de dispersión II.

Hasta ahora solo tenemos una idea imprecisa, la que nos proporciona el
gráfico de dispersión, pero queremos más, queremos saber con certeza si la
relación es fuerte o débil, queremos saber cuán fuerte y cuán débil es.
Para medir la asociación entre dos variables utilizamos la covarianza y el
coeficiente de correlación. La covarianza únicamente nos muestra el signo de
la relación (positiva o negativa), mientras que la correlación nos señala
también su fuerza. Este coeficiente es adimensional y siempre estará entre -1
y 1. Si hay relación lineal positiva y fuerte, la correlación será positiva y
próxima a 1; si hay relación lineal negativa y débil, la correlación será
negativa y próxima a -1. Si la relación es débil, será próximo a 0. Cuando las
variables x e y son independientes, covarianza y correlación son nulas. Es
decir, si dos variables son independientes, su covarianza vale cero y su
diagrama de dispersión tendrá forma de circunferencia. A continuación, se
muestran diversos gráficos de dispersión (ver figura 11.5) para diferentes
valores del coeficiente de correlación. El lector puede jugar a adivinar
correlaciones a partir de gráficos de dispersión con la website
guessthecorrelation. Asimismo, la herramienta Google correlate nos muestra
las búsquedas relacionadas con una determinada palabra en el buscador. Las
palabras aparecen ordenadas según un coeficiente de correlación.

Figura 11.5. Ejemplos de gráficos de dispersión para diferentes valores de correlación.

11.4. Correlación y causalidad


Un coeficiente de correlación elevado entre dos variables indica que dichas
variables toman valores relacionados entre sí en los elementos observados,
pero no permite concluir la existencia de ninguna relación de causalidad de
una variable respecto a otra. Un ejemplo ilustrativo es el siguiente.
Supongamos que tenemos datos de temperatura y el número de matrimonios.
Es muy probable que si calculamos el coeficiente de correlación entre estas
dos variables obtengamos un valor muy elevado. Es evidente que las altas
temperaturas no causan matrimonios y el elevado valor del coeficiente de
correlación es muy probable que sea debido a que los matrimonios tienden a
producirse en el verano debido a la disponibilidad de tiempo libre. Este tipo
de correlaciones se denominan espurias y su origen se tiene que buscar en
otra variable (como por ejemplo las vacaciones de verano) que presenta una
relación de dependencia con las variables observadas. Otros casos de
relaciones espurias curiosas podría ser el hecho de que en los países con más
pelirrojos hay menos paro o que los años con más estrenos de películas
protagonizadas por Nicholas Cage, el número de suicidios es mayor. De
momento asumiremos que las relaciones son causales, pero más adelante,
cuando veamos la regresión múltiple, tendremos un instrumento para
identificarlas.

11.5. La regresión lineal simple


Como se ha dejado patente en las secciones anteriores, cuando se estudian
dos características simultáneamente de una muestra, se puede considerar que
una de ellas influye sobre la otra de alguna manera. El objetivo principal de la
regresión es descubrir el modo en que se relacionan. En este contexto, la
pregunta interesante es la que nos ayuda a cuantificar esta relación que
creemos causal (probablemente porque hay literatura económica que hemos
leído para construir nuestro marco teórico que así lo atestigua). Por ejemplo,
sabemos que la experiencia aumenta el salario y sabemos que podemos
cuantificarla utilizando la regresión lineal porque existe literatura acerca de
las ecuaciones de capital humano procedente del papel de Mincer (1974).
De las dos variables a estudiar, que vamos a denotar con X e Y, vamos a
llamar a la X variable independiente, exógena o explicativa, y a la otra, Y,
la llamaremos variable dependiente, endógena o explicada. En nuestro
ejemplo, el salario sería la variable dependiente y la experiencia la
explicativa. Queremos saber cuánto aumenta el salario por cada año de
experiencia. Otro ejemplo sería la relación entre el gasto en publicidad (X) y
la cuota de mercado (Y), en el que el objetivo sería cómo afecta un aumento
del gasto de un 1 % en la cuota de mercado del producto. La pendiente de la
regresión lineal nos ofrece exactamente esta interpretación.
Ninguna recta es capaz de pasar por todos los puntos y seguir siendo recta.
Pero de todas las (infinitas) rectas posibles, la mejor, la que mejor representa
esa nube de puntos, la recta de regresión de Y sobre X es aquella que
minimiza los errores que podemos cometer (al cuadrado, para evitar
cancelaciones), considerando X la variable explicativa o independiente e Y, la
explicada o dependiente. La ordenada a se puede interpretar como un valor
mínimo o inicial de la variable y, de la que se parte sea cual sea el valor de x
(o dicho de otra manera, el valor de y cuando X es 0, el salario mínimo para
alguien sin experiencia, etc.). En cambio, la pendiente, b, como el aumento o
disminución, según el signo, que sufrirá la variable y al aumentar la variable
x en una unidad.
La calidad del ajuste de nuestra recta de regresión dependerá de las
observaciones que tenemos y de la asociación que hay entre ambas variables.
Vamos a cuantificar la calidad de la explicación de Y por X mediante el
coeficiente de determinación o bondad del ajuste. El coeficiente de
determinación va a ser el tanto por ciento de varianza de Y que se puede
explicar por X, y se le suele llamar bondad del ajuste, porque valora lo cerca
que está la nube de puntos de la recta de regresión (o dicho de otro modo, lo
ajustada que está la nube de puntos de la recta de regresión). Es fácil notar
que este coeficiente (notado habitualmente como R2) está acotado entre 0 y 1.
El coeficiente de determinación o bondad del ajuste, R2, nos indica el
porcentaje de la variabilidad de Y, nuestra variable objetivo, que podemos
explicar con nuestra recta de regresión.

11.6. La regresión lineal múltiple. A vueltas con la causalidad


Cuando una variable estadística debe ser explicada por la acción simultánea
no de una sino de dos o más variables, nos encontramos ante un problema de
regresión múltiple. La regresión múltiple se fundamenta sobre la misma base
que la regresión simple. Siguiendo con el ejemplo orientativo que nos
acompaña durante el capítulo, el salario no solo se explica por la experiencia,
sino también por el nivel educativo de las personas. En el caso de la relación
entre publicidad y cuota de mercado, la publicidad de la competencia, el
precio, las políticas de promoción y distribución del producto son también
variables explicativas de la cuota de mercado. Estos factores también
influencian la demanda, y no solo resulta interesante conocer cuál es su
influencia sobre esta, sino también la influencia de los gastos publicitarios
una vez descontado el efecto de estos factores. Esto es lo que obtenemos con
la regresión múltiple. En ella cada b se interpreta como el aumento en la
variable que explicar al aumentar en una unidad la variable explicativa, una
vez descontado el efecto de las otras variables explicativas. Es decir, el efecto
propio de esa variable. Nótese, que si lo que habíamos captado era una
relación espuria y ahora incorporamos esa variable verdaderamente
explicativa de nuestra variable dependiente, es probable que la variable
explicativa original no tenga ahora un efecto significativo.
En García et al. (2006) se lee un ejemplo de los muchos que se encuentran
en la literatura científica al respecto de la importancia de controlar por las
variables relevantes. En este trabajo se observa cómo en una regresión simple
entre el precio por metro cuadrado y la superficie para una muestra de
viviendas tasadas en Barcelona, se obtiene un efecto positivo. Es decir, a
mayor superficie, mayor precio por metro cuadrado. O lo que es lo mismo,
las viviendas más grandes tienen un precio por metro cuadrado mayor. Ello
no es común, lo más normal es que las viviendas pequeñas tengan un mayor
precio por metro cuadrado (aunque evidentemente un menor precio). ¿Qué
ocurría? Pues que no se había controlado por el resto de las características
que afectan al precio de la vivienda, especialmente la zona. Cuando se añade
la zona en la que estaba ubicada la vivienda, que evidentemente resulta ser
una variable importante para el explicar el precio por metro cuadrado, se
observa que el signo del coeficiente de la superficie cambia. Es decir, al
controlar por el resto de características que afectan al precio por metro
cuadrado de una vivienda (especialmente la zona), el efecto de la superficie
es negativo. Es decir, tal y como se esperaba, las viviendas más pequeñas son
las que tienen un precio por metro cuadrado mayor.
Ejemplo de estudio (2.ª parte). Continuando con nuestra base de datos,
vamos a realizar el análisis bidimensional y el análisis de regresión simple y
múltiple. En la figura 11.6 se observa el diagrama de dispersión entre ambas
variables. Con la excepción de algunos datos atípicos que se observan en
salarios mayores a 25 €/hora, parece claro que existe una relación positiva
entre ambas variables, aunque parece débil. Para confirmarlo procedemos al
cálculo de las medidas de asociación. En la figura 11.7 aparecen destacadas
dichas medidas. Efectivamente, la covarianza muestra un valor positivo
(19752) y la correlación un valor de 0,39, símbolo de una asociación positiva
relativamente débil23. En la figura11.8 se presenta el análisis de regresión
simple entre ambas variables. El valor de la bondad del ajuste (R-squared)
muestra que con la experiencia somos capaces de explicar un 15,2 % de la
variabilidad de los salarios y, tendiendo al valor de la pendiente, cada año de
experiencia aumenta en 0,181 € la hora, partiendo de un salario mínimo de
6,18 € la hora (constante). No obstante, el bajo poder explicativo del modelo
tal vez sea debido, en parte, a que existen otras variables que afectan a los
salarios además de la experiencia. En particular los años de estudio. En la
figura 11.8 se observan los resultados de un análisis de regresión múltiple en
el que, además de la experiencia, se incorpora el número de años de estudios
como variable explicativa del salario. Como se puede observar, el modelo
mejora ostensiblemente, pues la bondad del ajuste aumenta a más de un 38
%. El efecto de un año de educación posobligatoria es de 0,844 €. Es decir,
cada año de educación adicional aumenta el salario/hora en casi un euro.
Asimismo, también apreciamos que el efecto de la experiencia era algo
inferior al que habíamos obtenido en la regresión simple: 0,152 €.

Figura 11.6. Diagrama de dispersión entre el salario y los años de experiencia.

Figura 11.7. Medidas de asociación entre el salario y los años de experiencia.


Figura 11.8. Análisis de regresión simple entre salarios y experiencia.

Figura 11.9. Modelo de regresión múltiple explicativo de los salarios.

11.7. Extensión: recordatorio de la inferencia estadística


A lo largo del capítulo no se ha hecho hincapié en un tema fundamental para
el contraste de hipótesis científicas: la inferencia estadística. Muchos de los
aspectos analizados (medidas unidimensionales, de asociación, coeficientes
del modelo de regresión, etc.) son estimaciones puntuales en una muestra.
Para saber si estos valores son realmente iguales o distintos a nuestra
hipótesis previa, se debe realizar un contraste de hipótesis. Se va a aprovechar
el modelo de regresión para introducir el contraste de hipótesis como una
breve aproximación a la inferencia estadística. Imaginemos ahora que
teníamos una idea previa de la influencia de la variable x en y. Pongamos, a
título ilustrativo, que creíamos que al aumentar en una unidad x, y, también
aumentará en una unidad. Es decir, que b = 1. Pongamos que con una muestra
de datos obtenemos una estimación de b, con valor 1,1. ¿Hasta qué punto
podemos concluir que nuestra hipótesis era falsa?, ¿podemos afirmar, como
mínimo, que x influye en y, es decir, que b ¹ 0?
Empecemos por la primera de las hipótesis, el objetivo es conocer si b es
estadísticamente igual a 1. Si el coeficiente estimado hubiera sido 1, no
habría habido duda. Ahora se trata de saber si 1,1 está muy cerca o muy lejos.
En general, para conocerlo utilizamos el siguiente contraste y estadístico que
no demostraremos pero mostraremos su intuición. La hipótesis que
comprobar (hipótesis nula) será que b es igual a un determinado valor. Para
ello, se tratará de ver si la diferencia entre la estimación de b y el valor de
nuestra hipótesis, debidamente relativizado por la desviación estándar del
estimador (medida de su dispersión), es suficientemente (estadísticamente)
grande como para rechazar dicha hipótesis. A modo de convención se supone
que ese cociente es suficientemente grande cuando excede 1,96. En ocasiones
se presenta en las salidas de los programas informáticos de estadística como
el SPSS, junto a la columna del estadístico t, otra columna que se suele
denominar p-value o sig. Dicha columna recoge la probabilidad de aceptación
de la hipótesis nula (normalmente la hipótesis es que dicho coeficiente
estimado es igual a 0). Su interpretación, acorde con lo comentado para el
estadístico, es que únicamente se rechazará la hipótesis nula si dicho valor de
sig es inferior a 0,05. Dicho valor se corresponderá, obviamente, con uno del
estadístico t superior a 1,96. A lo largo de nuestros ejemplos de estudio
hemos contrastado varias hipótesis utilizando este procedimiento. Por
ejemplo, en nuestro modelo de regresión múltiple se observa que tanto el
efecto de la experiencia como el efecto de la educación son estadísticamente
significativos (distintos de 0), pues este sig es menor a 0,05 en ambos casos.
Lo mismo se puede decir del coeficiente de correlación, que aunque sea débil
es estadísticamente significativo. Asimismo se podrían haber realizado
contrastes de medias (¿es la media del salario hora igual a 6 €?), de
diferencias de medias (¿cobran en promedio más las mujeres o los hombres?)
o de proporciones (¿hay más mujeres u hombres?).

11.8. Conclusiones
En este capítulo se han descrito de manera introductoria los primeros
métodos de análisis de variables cuantitativas. Así, en primer lugar, se han
presentado e interpretado las principales medidas que nos permiten conocer,
individualmente, la información que tiene una variable. Se han descrito las
medidas de centralización, de posición, de dispersión y de distribución. En
particular, se ha descrito la importancia de las medidas de dispersión para
saber si los valores de la media son estadísticamente representativos o no.
En segundo lugar, se han descrito e interpretado las principales medidas de
asociación entre variables cuantitativas. Se ha descrito el gráfico de
dispersión como una primera aproximación cualitativa y las medidas de
asociación (covarianza y correlación), como las medidas que nos permiten
conocer si dos variables están asociadas. Asimismo se ha realizado una
importante distinción entre correlación y causalidad. Que dos variables estén
asociadas (que cuando una crezca, la otra también lo haga) no implica
causalidad.
A partir de este momento se ha introducido el análisis de regresión con el
objetivo de conocer cuál es el efecto que tiene una variable explicativa en una
unidad sobre la variable dependiente. Este análisis se amplía mediante el
análisis de regresión múltiple. Con dicho análisis no únicamente conocemos
el efecto de otras variables explicativas sobre la variable dependiente, sino
que nos permite afinar el efecto de la variable explicativa inicial. Con este
análisis se capta el efecto propio de todas las variables por cuanto hemos
descontado el efecto del resto de las variables relevantes para explicar la
variable dependiente.
Cabe decir que este capítulo representa únicamente un primer avance de los
métodos de análisis de variables cuantitativas. El lector que ha realizado
cursos de estadística avanzada sabe que existen muchos más métodos y que
estos métodos se pueden precisar mucho más. Por ejemplo, hemos analizado
la correlación de dos variables cuantitativas mediante el coeficiente de
correlación de Pearson, pero dicha medida de asociación cambia si las
variables son cualitativas, ordinales, nominales… Asimismo, el análisis de
regresión aquí presentado se puede refinar en cuanto a su forma funcional (y
estimar las variables, por ejemplo, en su forma logarítmica) o conociendo sus
supuestos (homocedasticidad, exogeneidad, no autocorrelación, etc.)
inherentes y actuando si alguno no se cumple. En este sentido hay otros
modelos causales en función de si lo que queremos explicar no es una
variable continua (modelos de elección discreta binomiales o multinomiales),
presenta alguna censura (modelos Tobit), etc. También podríamos tener datos
temporales en cuyo caso el principal objetivo sería la predicción con modelos
de suavizado exponencial o modelos ARIMA o tener datos de panel. Quizás
incluso nuestro objetivo no es explicar sino resumir (análisis factorial) o crear
grupos (análisis cluster) o… Todo ello dependerá del estudio científico que se
va a realizar, pero a continuación se presenta la figura 11.10, donde se
relacionan algunos de los más utilizados.

Figura 11.10. Clasificación de las principales técnicas multivariante.

Bibliografía
García, J., Matas, A., Raya, J. M. y Raymon, J. L. (2006). «Precios de la
vivienda y localización: evidencia empírica para la ciudad de Barcelona».
Papeles de Economía Española. pp. 125-139.
Mincer, J. A. (1974). Schooling, Experience, and Earnings. Columbia
University Press, Nueva York.
Moore, D. S. (2005). Estadística aplicada bàsica. Antoni Bosch Editor,
Barcelona.
Raya, J. (2012). Estadística aplicada a los negocios y el marketing. Pearson,
Madrid.

23 En la práctica tampoco es fácil encontrar variables cuya asociación sea mayor, especialmente en
datos micro (relativos a personas) como los de este ejemplo.
12 Metodología cualitativa en la investigación científica

12
METODOLOGÍA CUALITATIVA EN LA
INVESTIGACIÓN CIENTÍFICA
Ángel Aguirre Baztán
(RAED)

Objetivos del capítulo

• Investigar el comportamiento psicosociocultural de los agrupamientos humanos, en su estado


natural y espontáneo, a diferencia de la metodología cuantitativa, que manipula la conducta en el
laboratorio.
• Describir, comprender e interpretar la interacción humana, para captar su significación idiográfica
de los casos únicos y particulares.

12.1. Introducción
La investigación cualitativa discurre a través de dos tiempos: el proceso y el
producto.
El proceso del trabajo de campo comprende la documentación, la
observación participante y las entrevistas en profundidad, que culminan en la
codificación de los datos investigados.
El producto del trabajo de campo engloba la categorización y la
interpretación de los datos investigados, así como la redacción del informe o
diagnóstico final.
El camino metodológico cualitativo, que parte de la inicial hipótesis
conjetural, revisable a partir de la investigación de nuevos datos, se concreta
como hipótesis final en la codificación, al alcanzar a través de la
categorización y la interpretación de los datos la validación como tesis.
El conocimiento que se obtiene a través de la investigación cualitativa es de
carácter idiográfico, basado en el descubrimiento inductivo (que surge de la
observación de lo particular), frente a la prueba deductiva (que surge de una
teoría previa).

12.1.1. Demarcación conceptual de la metodología cualitativa


12.1.1.1. Un intento de definición
Etimológicamente, metodología (de metà y odós) significa ‘metacamino’, un
proceso iterativo que llega más allá, que nos traslada desde las hipótesis
iniciales de la investigación hasta su afirmación como tesis. Methodikós
significa ‘procedimiento programado’. Una buena metodología es como una
vía rápida (una suerte de «autopista»), pero necesitaremos, a su vez, de
buenas técnicas (vehículos rápidos y seguros) para recorrerla.
Como hemos apuntado al inicio, en la investigación cualitativa se investiga
la interacción humana, sin manipularla, en estado natural y en su contexto.
Podríamos decir que en la investigación cualitativa no se investiga «sobre» la
interacción humana, sino «con» la interacción humana.
Es evidente la neta superioridad de la investigación cuantitativa en cuanto
al volumen de su producción, a la sofisticación de sus métodos y a la
multiplicidad de sus técnicas, pero de ahí, en modo alguno se puede deducir
que la metodología no sea científica. «Una vieja polémica que, lejos de
atenuarse, parece acrecentarse cada día, es la que opone el planteamiento de
investigación denominado cuantitativo al cualitativo» (Ruiz Olabuénaga,
1996: 11) y aunque algunos autores afirman que «el enfrentamiento de lo
cuantitativo y lo cualitativo es tan viejo como radicalmente inútil» (L. R.
Alonso, 1988: 35) y que otros afirman que la disputa es «más tribal que
científica», lo cierto es que, en el ámbito cuantitativo, no es raro encontrar
una negación completa de la cientificidad de la metodología cualitativa o,
como mucho, le conceden el carácter de preámbulo observacional.
Las dos metodologías son radicalmente distintas, pero ambas son
igualmente científicas, aunque la cuantitativa esté en estos momentos en
posición dominante y la cualitativa se presenta como una metodología
emergente. El hecho de que ambas sean radicalmente diferentes no impide
que puedan ser complementarias.
En el enfoque de la investigación cualitativa nos centraremos en cuatro
frentes que nos harán comprender la perspectiva observacional-cualitativa:
palabras frente a números, situación y contexto, descubrimiento frente a
prueba y conocimiento tácito.
Palabras frente a números
No estamos en contra de la cuantificación, ni de la expresión matemática y
estadística, sino en contra del reduccionismo semántico de las palabras a la
mera cuantificación. Las palabras y los gestos son el modo a través del cual
expresamos las situaciones concretas, mientras que la matematización
reductora y abstractiva nos distancia de la realidad vital. Las personas se
expresan mediante palabras, lenguaje corporal (proxemias o espacialidad
corporal, cinesias o movimiento corporal, protesias o elementos añadidos a lo
corporal, como el vestido), rituales, etc. Estas narrativas deben ser
«escuchadas sin ser alteradas, aunque después se proceda a su codificación,
categorización e interpretación.
Situación y contexto
Desde la perspectiva cuantitativa, lo objetual es lo que se transforma en cosa,
la realidad atrapada y aislada, descontextualizada y reducida (ob-jectum es lo
arrojado fuera, lo «de-finido» como cosa separada del investigador); por el
contrario, la perspectiva cualitativa parte del sujeto actuante y analiza lo que
está vivo, lo que tiene valor idiográfico. La investigación cualitativa,
mediante la observación participante, percibe la interacción humana, no como
«separada» sino en su entramado contextual.
Descubrimiento frente a prueba
La investigación cualitativa es búsqueda y descubrimiento a través de una
actitud abierta y flexible, más allá de toda planificación cerrada. Una línea de
investigación que, al principio, puede parecer secundaria y hasta marginal, de
pronto puede transformarse en el eje central. Por ello, la hipótesis inicial tiene
que reformularse, no pocas veces, a partir del hallazgo de nuevos datos. El
descubrimiento es la prueba que emerge de la realidad observada. Estos
descubrimientos inductivos son hallazgos contextualizados, es decir,
singulares que no pueden ser generalizables (valor absoluto de lo relativo y
valor relativo de lo absoluto).
El conocimiento tácito
El conocimiento explícito está en la superficie de lo observado, mientras que
el conocimiento tácito requiere una inmersión del investigador en el
significado contextual y debe ser abordado desde una perspectiva
hermenéutica o interpretativa. Un terapeuta, por ejemplo, debe saber escuchar
en relación con el paciente y esperar a que emerja el significado tácito, a
veces ocluido por la resistencia a patentizarlo. En las «narrativas» del
paciente se mezclan las experiencias y las creencias, los hechos y las
intenciones, los proyectos con los compromisos. Como veremos más
adelante, las narrativas son transferencias biográficas, en las que el
investigador descubre hermenéuticamente el significado oculto en el lenguaje
explícito.
A partir de estas reflexiones previas, podríamos definir la metodología
cualitativa desde sus objetivos: «La metodología cualitativa tiene como
objetivo investigar el comportamiento psico-socio-cultural de los
agrupamientos humanos en interacción, en su estado natural, espontáneo y
contextual, sin manipular su conducta al modo del laboratorio, con el fin de
describirlo, comprenderlo e interpretarlo, para captar su significación
idiográfica».

12.1.1.2. Metodología y técnicas cualitativas


En todo proyecto de investigación, aparece señalada desde el comienzo la
opción metodológica asumida como la más pertinente para alcanzar los
objetivos previstos. La metodología es el camino científico a seguir desde las
hipótesis conjeturales iniciales hasta el descubrimiento o tesis final.
«La perspectiva fenomenológica [cualitativa] está ligada a una amplia
gama de marcos teóricos y escuelas de pensamiento en las ciencias sociales»
[…] aunque, «con frecuencia, resulta difícil percibir en qué difieren estas
perspectivas, si es que difieren en algo» (Taylor y Bogdam, 2002: 23-24).
Estas numerosas corrientes cualitativas han sido agrupadas en
construccionistas y hermenéuticas.
Los que insisten en la perspectiva construccionista afirman que los
resultados de la investigación son construidos por el investigador, no
descubiertos por él. El conocimiento del mundo es el resultado de una
construcción colectiva realizada a través de la interacción (creación de
conceptos, métodos, codificación de experiencias, etc.).
Los que optan por la perspectiva hermenéutica tratan de obtener el
significado de las acciones humanas producidas en un contexto interactivo.
Hoy, la perspectiva hermenéutica es la dominante dentro de la metodología
cualitativa.
Las técnicas de recogida de datos más importantes de la metodología
cualitativa son: la documentación, la observación y las entrevistas en
profundidad a los informantes cualificados. A ellas hemos de referirnos más
adelante.

12.2. La observación y el observador


Al estudiar introductoriamente los conceptos de observador y de observación,
diremos que estos dos conceptos no son solo técnicas de investigación en el
trabajo de campo, sino que a la vez los consideraremos dos conceptos clave
de la metodología cualitativa.

12.2.1. La observación
La vida de las comunidades es histórica y biográfica, es decir, viva y
temporal. Cierto positivismo investiga inmovilizando la vida, como quien
colecciona mariposas y, una vez disecadas, las ordena por colores y tamaños.
Al no estar vivas las mariposas, pueden objetivarse y cosificarse. Pero un
sujeto o una cultura muertos son una mera abstracción. La observación, sobre
todo «participante» investiga el comportamiento humano vivo, en interacción
y contextualizado.
Hay dos tipos de conocimiento observacional, el espontáneo y el científico.
La observación espontánea capta lo que sucede a su alrededor movida por un
interés superficial. Por el contrario, la observación científica está impulsada
por una intencionalidad investigadora.

12.2.1.1. Tipos de observación


En la metodología cualitativa y observacional, es preciso partir de la
distinción entre el observador y la observación. El observador debe mantener
un máximum de continuo participativo y un mínimum de alteración de la
espontaneidad del observado.
De acuerdo con este binomio de observador/observación, la observación
puede ser:
• No participante, con observación directa o indirecta.
• Participante, con observación activa o pasiva.
• Autoobservación.
Desde el punto de vista de la sistematización, la observación puede ser:
• No sistematizada.
• Sistematizada.
Observación no participante
Se da cuando el observador no forma interacción con el observado. La
observación no participante es directa, cuando el observador tiene una
presencia oculta respecto al observado (el etólogo se camufla en una cabaña
para observar el comportamiento animal; o el psicólogo se oculta tras un
cristal unidireccional para observar al paciente). La observación no
participante es indirecta cuando se da a través de la observación de otros
(como sucede con las filmaciones, informes, etc.).
Observación participante
En la observación participante se da una inmersión interactiva del observador
sobre la vida del observado. El contexto observacional es el propio del
observado y el observador se adapta a él. El observador se disocia en dos
sujetos: una parte del sujeto convive plenamente con el observado, mientras
que la otra se distancia mentalmente para investigar desde una cierta
objetividad. El concepto de observación participante es, actualmente,
omnipresente en las ciencias sociales y humanas, como es el caso de la
etnografía. La observación participante permite al observador infiltrarse en la
cotidianeidad del grupo y registrar datos y comportamientos a los que no
suele prestarse atención (los nativos en etnografía, no les dan importancia y
por ello no los «narran»). La observación participante es activa cuando se da
un máximum de interacción con el observado (tal es el caso de misioneros y
cooperantes, aceptados por la comunidad nativa). Cuando la interacción es
vinculante-intensa (como sucede entre la madre y su hijo), hablamos de
activa intensa. La observación participante es pasiva cuando el observador
mantiene una fuerte interacción con el observado, pero interiormente
distancia su afecto para que no perturbe la observación (tal es el caso del
etnógrafo o el del terapeuta). La observación es pasiva disfrazada, cuando el
observador oculta deliberadamente su rol (como en los casos de espionaje
industrial, de detectives, etc.).
Algunos autores han descrito la observación participante a través de cuatro
posiciones:
• Completo participante: se oculta la observación y se afirma la
colaboración (espionaje, infiltración, etc.).
• Participante como observador: predominio de la cooperación amistosa y
ocultación parcial de la observación (misionero, cooperante).
• Observador como participante: la participación es un soporte para la
observación (etnógrafo).
• Completo observador: el observador rehúye la participación (caso
psicólogo a través del cristal unidireccional).
Autoobservación
La autoobservación supone una interacción consigo misma, en la que el
observador es sujeto y objeto a la vez. La autoobservación pura no es
admisible, a no ser que se confronte, o bien con una escucha analítica e
interpretativa (como sucede con la trasferencia del paciente que es analizada
como respuesta (contratransferencia) por el terapeuta); o bien con conductas
autoobservables que puedan ser también observables por otros, a partir de
comprobaciones hechas por terceros (como sucede, por ejemplo, con el
número de cervezas que dice haber tomado un sujeto). De todas las maneras,
la autoobservación ha sido calificada por los positivistas como fuente de
sesgo, pero para los cualitativistas sus narrativas, convenientemente
contrastadas, pueden ser de gran riqueza para analizar el comportamiento
interactivo de las personas.
La autoobservación puede ser directa (como en el caso de la entrevista), o
indirecta (cuando se realiza a través de formas documentales, como
autobiografías, cartas, diarios, etc.).
La observación no sistematizada
Como hemos dicho anteriormente, la observación no sistematizada se realiza
en un contexto situacional prefijado, pero se actúa observacional mente de
una manera totalmente abierta y flexible, como cuando un etnógrafo llega a
una tribu de la que se desconoce todo de ella, por lo que el abordaje de su
cultura es completamente abierto. Esta apertura y flexibilidad se realizan
situando la observación en el espacio, el tiempo y el contexto, intentando
descubrir la línea dominante que centre la observación, que será formulada
como hipótesis.
La observación sistematizada
En la observación sistematizada también se delimita previamente el campo
que estudiar, se delimitan los marcos espacio-temporales de la observación
sistematizada, se limitan los instrumentos de búsqueda y se procede a la
cuantificación estadística. Por el contrario, la apertura y la flexibilidad están
previamente sujetas a modos concretos de observación.
Contrasta el espíritu casi aventurero de algunos graduados que se lanzan a
realizar una etnografía completamente abierta sobre una cultura lejana en el
espacio y el tiempo; con la posición de otros graduados más obsesivos, que
no conciben la investigación sin cuestionarios cerrados. Por otro lado, la
observación sistematizada es la preferida en algunos trabajos académicos,
porque permite delimitar el campo estudiado, reducir el tiempo de
investigación y hasta realizar una posterior cuantificación con la que se
intenta incluso hacer concesiones a la cuantificación exigida por el
positivismo imperante.
Por otra parte, suele confundirse la entrevista no sistematizada con la
entrevista desestructurada. «La principal diferencia entre las entrevistas
hechas por etnógrafos y las entrevistas de cuestionarios no es, como
frecuentemente se sugiere, que unas sean ‘desestructuradas’ y las otras
‘estructuradas’. Todas las entrevistas, como cualquier otro tipo de interacción
social, son estructuradas, tanto por el investigador como por el informante.
La diferencia fundamental estriba en que unas son entrevistas reflexivas y las
otras son estandarizadas» (Hammersley y Atkinson, 1994: 128).

12.2.2. El observador
El observador es el director del trabajo de investigación, el principal
instrumento de recolección de datos y el primer evaluador de los resultados.
M. Balint decía respecto al médico, que este era el principal fármaco utilizado
en la cura, una droga que se administra sin conocer su composición, su uso,
sus contraindicaciones y que puede producir importantes efectos secundarios.
La figura del observador es un elemento fundamental de la investigación
cualitativa, por lo que expondremos su rol, los sesgos que puede producir y
su necesaria formación.

12.2.2.1. El investigador observacional


Como hemos apuntado anteriormente, cuando los autores se refieren al
investigador observacional, unos insisten en su «preparación técnica»,
mientras que otros se centran en su madurez mental y emocional.
El observador, sobre todo el participante, filtra, a través de su persona, toda
la información. Como las investigaciones se realizan, actualmente, en equipo,
algunos autores sugieren la conveniencia de diferenciar entre el investigador
y el observador. El investigador (director de la investigación) tendría un
conocimiento holístico del proyecto, mientras que el observador (ayudante)
sería, más o menos, un instrumento de recolección de datos, que desconoce el
alcance del proyecto en su totalidad. Según esto, a los investigadores se les
exigiría formación y a los observadores, solo adiestramiento.
La distinción es muy importante por lo que plantea. En la observación
sistematizada, dirigida por un director que es el que posee la visión sobre la
totalidad del proyecto y opta por el método que seguir, los ayudantes son
técnicos especializados en pasar encuestas, filmar documentos, tomar
fotografías o sonidos, etc.
Sin embargo, en la metodología cualitativa se procede desde un contacto
abierto y flexible de todo el equipo, ya sea director o ayudantes, todos
observadores participantes. ¿Cómo dejar, por ejemplo, que un cámara de TV
direccione su lente al margen del proyecto global de la investigación?

12.2.2.2. Los sesgos del observador


El estudio de los sesgos del observador se refiere a la posibilidad de
distorsión en la observación, debido a la «personalidad» del observador o a su
impericia técnica para registrar los datos.
Los sesgos procedentes de la personalidad del observador
Todos los que actúan con poder y dominación psicológicos sobre otras
personas (jueces, profesores, psicoterapeutas, médicos, etc.) están expuestos a
transformar en temática su propia problemática, como sucede cuando actúan
con hipermoralismo o extrema laxitud. Por ejemplo, un obrero sindicalista
que ataca constantemente al dueño de la empresa; tal vez esta actitud sea un
desplazamiento de la guerra adolescente inacabada que tiene con su padre; o,
como he descrito en otra parte, existe una influencia de los estilos neuróticos
en el liderazgo en la empresa. Devereux ha insistido en las defensas
profesionales (he conocido antropólogos que se declaran constantemente
ateos y, sin embargo, se han hecho expertos en antropología de la religión).
El tema de la contratransferencia es tan medular para entender el sesgo
personal del investigador (o del terapeuta) que el hecho de que no figure en
los tratados de metodología puede llegar a aparecer como sospechosa (una
suerte de resistencia); por el contrario, se insiste en la reactividad (efectos
biosociales de edad, sexo y etnia). Algunos autores incluyen la expectancia
en la producción de sesgo, que consiste en intentar encontrar lo que se quiere
encontrar, ajustando los datos observados a las expectativas proyectivas.
Los sesgos procedentes del mal uso de los registros externos
Hay algunos textos metodológicos que al hablar de los sesgos del observador
se refieren exclusivamente, como hemos ya apuntado, a los que suceden en la
recolección de datos, como anotar una observación en la casilla distinta, que
podría ser causado por distracción o fatiga. La no aceptación de los sesgos
por la personalidad y el minimizar los sesgos debidos a errores mecánicos,
prácticamente, niega la posibilidad de sesgo en el observador, lo que es difícil
de asumir.

12.2.2.3. La formación del observador


La formación profesional y la madurez humana del investigador son
fundamentales para obtener buenos resultados, y esto lo dan el estudio, la
práctica y la experiencia. No es necesario que el investigador domine todas
las técnicas, al igual que un director de orquesta no domina todos los
instrumentos, pero al menos las técnicas básicas (documentación,
observación participante y entrevistas en profundidad) sí sería necesario,
dejando, tal vez para los especialistas, las filmaciones, los registros sonoros,
el trabajo informático, etc.
12.3. El proceso del trabajo de campo
El trabajo de campo constituye el punto central de la investigación
metodológico-cualitativa. Se trata del proceso de recogida de datos, a través
de la documentación, la observación participante y las entrevistas en
profundidad. Este proceso comienza con la entrada en el campo y termina
con la codificación de los datos obtenidos.
Una vez terminado el proceso del trabajo de campo, transformaremos los
datos codificados en producto mediante la categorización, la interpretación y
el informe-diagnóstico final.
Podemos distinguir cuatro fases en el proceso del trabajo de campo:
a) Demarcación del campo:
• Elección de una comunidad delimitada y observable.
• Delimitación progresiva del objeto o problema que investigar.
• Redacción de un diseño provisional de acción.
• Redacción del presupuesto y búsqueda de la financiación.
• Aprobación del proyecto provisional.
b) Preparación y documentación:
• Revisión del material documental escrito.
• Evaluación de las fuentes orales.
• Otras fuentes complementarias (filmaciones, registros sonoros,
fotografía).
c) Investigación de campo:
• Preparación física y mental.
• Llegada y negociación del propio rol.
• Observación participante (y otras complementarias).
• Selección de informantes y entrevistas en profundidad.
• Registro de datos.
d) Conclusión de la investigación:
• Retirada del escenario de la investigación.
• Codificación de los datos.

12.3.1. Demarcación del campo


a) Población que investigar
La elección de una comunidad concreta para realizar el trabajo de campo
puede venir dada por:
• Un encargo (por ejemplo, evaluar la cultura de una empresa).
• Un deseo personal (realizar la tesis doctoral sobre una institución).
• Una proyección psicológica (lo que «me gusta» responde, muchas
veces, a elementos proyectivos del psiquismo, definidos como
realización, servicio, y hasta como hobby).
La motivación, pues, para realizar un trabajo de campo puede ser
económica, profesional, psicológica, coyuntural y hasta lúdica. No se
debe aceptar el estudio cualitativo de una organización si el volumen de
trabajo que comporta excede las posibilidades del equipo, tanto en su
realización como en la calidad deseable. Por el contrario, cada
investigación bien hecha, además de rentabilidad, supone el valor añadido
de un nuevo grado de experiencia y prestigio profesional.
b) Qué queremos investigar
La delimitación del objeto o problema que se investiga centra de
antemano el trabajo de campo. Delimitar el objeto del trabajo de campo
es imprescindible para poder redactar un proyecto y acompañarlo de un
presupuesto ajustado a lo que se demanda.
Las investigaciones cualitativas, como la etnografía, se realizan sobre
poblamientos pequeños, como sociedades, organizaciones, instituciones,
sectas, clubs, etc., casi siempre tomando como eje central la «cultura» de
estas agrupaciones. El resultado de las investigaciones cualitativas
produce «microteorías» y no puede ser generalizable.
c) Elaborar un proyecto
Cuando hacemos el diseño inicial de la investigación, la primera
redacción del proyecto observacional es bastante proyectiva, ideativa y
hasta imaginativa. Se conoce el objeto o problema que hay que resolver,
se conoce la organización donde hay que actuar e, incluso, el presupuesto
marco con el que se cuenta, pero todavía no se ha evaluado la realidad in
situ, por lo que este conocimiento inicial es, todavía, conjetural.
Por ello, podemos hablar de varias elaboraciones del proyecto:
• La primera elaboración suele ser, como hemos dicho, bastante ideativa y
hasta imaginativa, pues no está basada en el conocimiento directo de la
realidad experiencial, sino en la «intuición conjetural inicial».
• La segunda elaboración es la que se realiza después de la lectura
sistemática de la documentación y de los datos recogidos en el trabajo de
campo, ya codificados.
• La tercera elaboración se construye a partir de la categorización y la
interpretación y en ella se plantea la «hipótesis definitiva», avalada por el
«descubrimiento», que va a convertirse en «tesis».
El proyecto inicial es un a priori que, en la metodología cualitativa, se
revisa a lo largo del proceso. Entre el resultado final y el proyecto inicial
puede haber, o no, puntos de coincidencia, cuando el trabajo de campo ha
sido bien hecho y no ha sido para justificar lo proyectado por el
investigador. Precisamente, la ansiedad psicológica puede llevar a un
investigador a domesticar la realidad investigada, para que encaje con sus
esquemas previos. Cuando los investigadores son jóvenes, los proyectos
suelen ser idealistas, críticos y redentores.
d) Financiación de la investigación
Paralela a la elaboración del proyecto surge la propuesta de financiación
del mismo. El trabajo de campo no puede llevarse a cabo sin financiación,
bien sea esta un fondo destinado para realizar una tesis doctoral o un
trabajo hecho por encargo, como puede ser la fusión cultural de dos
empresas, en la que una absorbe a la otra o ambas se fusionan en una
tercera.
La financiación no debe ser entendida como un gasto, sino más bien
como una inversión. Por ejemplo, algunos creen erróneamente que una
fusión de dos empresas se realiza mediante la fusión de sus dos
economías, cuando uno de los problemas más importantes reside en la
fusión de los recursos humanos y de las culturas de las organizaciones.
Como lo que «vale», «cuesta», hay que huir en la investigación de un
voluntarismo carente de recursos (como sucede, a veces, en el mundo
universitario); para toda investigación cualitativa, debería contarse
previamente con un presupuesto adecuado.

12.3.2. La documentación
Tradicionalmente, debido al carácter ahistórico de los pueblos primitivos,
solo eran consideradas técnicas relevantes de la etnografía la observación
participante y las entrevistas en profundidad, pero, a causa de las
investigaciones en el ámbito urbano, ha ganado importancia la
documentación, como técnica fundamental de la investigación cualitativa.
Existen dos momentos en la tarea de documentarse. En primer lugar, está la
documentación previa, en los comienzos de la investigación y,
posteriormente, conforme avanza la búsqueda de datos, se abren nuevas vías
de documentación que enriquecen el trabajo de campo.
Tradicionalmente, el pasado era recuperado a través de la tradición oral
(propia del pueblo llano) y la tradición escrita, en ámbitos como el jurídico
(scripta manent, en forma de atestación de hechos, de identidades, de
resolución de conflictos, etc.), y el religioso (partidas de bautismo, de
matrimonio, etc.), además de la historia escrita (cartas, informes, crónicas,
etc.).
La veracidad de los documentos debe ser siembre minuciosamente
contrastada. Si una noticia actual es diversamente recensionada por los
periódicos de distinta filiación ideológica, en la consulta posterior de la
hemeroteca habrá que saber discernir el enfoque de los datos.
La relevancia actual de la documentación ha hecho surgir la etnohistoria.
Un método que permite la reconstrucción cultural de una comunidad a través
de los documentos del pasado (arqueología, fuentes orales, cultura material,
historia, tradiciones, etc.). El etnohistoriador realiza el trabajo de campo
observando los documentos y realizando sobre ellos preguntas en
profundidad, generalmente referidas a su identidad cultural. Estos
documentos (censos, registros, inventarios, legislación, cartas, comunicados,
etc.) son como informantes, y sobre estos datos se construye la etnohistoria.
Estos estudios, a menudo, están viciados cuando se ponen al servicio de los
diversos tipos de etnicismo, en la actualidad como afirmación y resistencia
frente a la globalización homogeneizante. Por otro lado, la ideología
posmoderna ha querido, con su presentismo, relegar la historia, sin saber que
si un árbol se queda sin raíces, muere.
La etnohistoria, pues, constituye un claro ejemplo de la utilización de la
documentación del pasado.

12.3.3. La investigación de campo


La investigación de campo supone entrar en contacto con la realidad humana
que se quiere investigar.

12.3.3.1. Estar en forma, física y mentalmente


Para acceder a una «comunidad primitiva», ubicada en un medio hostil para
el investigador (selva, desierto, isla, etc.), bien por el clima, la alimentación,
las enfermedades, etc.; o por la propia beligerancia y hasta recelo de los
nativos, los etnógrafos clásicos requerían una previa preparación mental y
física adecuadas, si no se quería ser víctima del intento.
Pero, también, en una organización podemos encontrar bastantes barreras
mentales (en sectas, sociedades secretas, ámbitos de integrismo y
fundamentalismo, núcleos inaccesibles de poder, etc.) que pueden poner en
peligro la integridad mental (dependencia psicológica) o física (persecución y
hostigamiento) del investigador. No es infrecuente que, por ejemplo, un
observador participante que ha intentado estudiar una secta haya quedado
atrapado en ella, en una suerte de síndrome de Estocolmo.
Cada organización tiene su lógica interna, sus intereses ocultos, su recelo
frente al intrusismo, el espionaje, la infiltración, etc., lo que dificulta el
acceso del investigador a ellas.

12.3.3.2. Diseño de la investigación


A pesar de que la investigación cualitativa requiere un comienzo abierto y
flexible, no obstante, es necesario realizar un diseño mínimo inicial que
incluya la definición del problema que estudiar, la demarcación del
poblamiento que se va a investigar, la focalización del núcleo temático
básico, la opción metodológica y las técnicas adecuadas para llevar a buen fin
la investigación.
Este diseño inicial, dentro del que se plantea una hipótesis conjetural,
puede ser «replanteada» en la medida que avanza la investigación y aportar
nuevos datos.
«Hipótesis» es «lo que se pone debajo», «lo que se supone», es decir, un
enunciado conjetural que el investigador formula inicialmente como
respuesta al problema que se va a investigar. «En contraste con la mayor
parte de los métodos, en los que las hipótesis y procedimientos de los
investigadores están determinados a priori, el diseño de la investigación en la
observación participante permanece flexible, tanto antes como durante el
proceso real […]. Hasta que no entremos en el campo, no sabemos qué
preguntas hacer, ni cómo hacerlas. En otras palabras, la imagen preconcebida
que tenemos de la gente que intentamos estudiar puede ser ingenua, engañosa
o completamente falsa. La mayor parte de los observadores participantes
tratan de entrar en el campo sin hipótesis o preconceptos específicos» (Taylor
y Bogdan, 1998:31-32).

12.3.3.3. Acceso al campo


En la etnografía clásica efectuada sobre los llamados pueblos primitivos, el
investigador solía ser aceptado en una tribu si el investigador aportaba algo
(medicamentos, dinero, ropa, técnica, etc.) o por amistad con algunos de los
jefes de la tribu. Puede ser que las autoridades de la comunidad lo permitan,
pero esto no significa que sea fácilmente acogido por los trabajadores, o los
sindicatos, o los directivos de la organización, al sospechar del investigador
que puede ser un periodista intruso, y un espía de la patronal o un infiltrado
de la competencia. Durante la entrada en el campo, además de una actitud
abierta y receptiva («allí donde fueres, haz lo que vieres»), la tarea más
importante es la de familiarizarse con el escenario y las personas, y dejar para
más adelante la recopilación de datos.
La entrada en el campo supone romper la membrana protectora
(psicosocialcultural) que toda organización tiene (homogeneidad identitaria)
como defensa contra el intruso.
Por eso, es necesario negociar el propio rol (antes de que le «califiquen» y
construyan su imagen los demás). En vez de esperar pasivamente, el
investigador debe generar una imagen propia como soporte de la relación
posterior. Entre caer bien o ser recibido con actitudes paranoides puede estar
en juego la propia investigación. Hay roles más aceptados que otros
(consultor de Recursos Humanos, cooperante, profesor universitario,
doctorando que pide ayuda, etc.), siendo uno más en el grupo, sin exhibir
títulos, siendo buen técnico y mejor persona, que no es engreída, que trata de
aprender, evitando discutir de política y religión, aparecer como moralista
radical o como dogmático, etc. Lo importante es que construya un nexo de
confianza con todos.

12.3.3.4. La observación participante


Ya hemos aludido, anteriormente, a que la documentación, la observación
participante y las entrevistas en profundidad constituyen las tres técnicas
principales en el trabajo de campo con metodología cualitativa.
Resumiendo lo anteriormente dicho sobre la observación participante,
decimos que es:
• Una investigación realizada sobre una comunidad interactiva.
• No manipulable en laboratorio, sino abordada en su propio contexto.
• Abierta y flexible, que reconstruye la realidad humana y la interpreta.
• Realizada por el observador que participa en la interacción del grupo.
• Obteniendo inmediatez y confianza, a la vez que distancia.
• Desde la que se obtiene un conocimiento idiográfico.
La observación participante se realiza a través de cuatro fases, en las que el
observador se posiciona como:
• Fase de acceso al campo.
• Fase de miembro provisional.
• Fase de miembro opaco y desapercibido.
• Fase de elaboración de la ruptura.
Suelen distinguirse dos fases de intensidad en la observación participante:
• Perspectiva general y descriptiva, en la que el observador abre el ángulo
de observación a toda la realidad, tanto para tener una visión amplia de la
interacción humana que estudia como para describir todo lo que ve.
• Perspectiva selectiva de la realidad, donde el investigador, en ángulo más
cerrado, focaliza un aspecto de prevalente interés y relega la realidad
observada a la situación de contexto.
Cuando el observador exclama «estuve allí» es como si condensara en una
expresión el descubrimiento de la realidad humana investigada.
La fase de la ruptura o abandono del campo se realiza cuando el
investigador estima que ya tiene suficiente material para apoyar la
investigación. Entonces comienza una suave ruptura con la comunidad
investigada, que culminará con el abandono del campo para proceder al
registro y codificación de los datos.

12.3.3.5. Notas de campo


Las notas de campo son el material registrado a través de la observación
participante, tanto en el día a día de la estancia como en los momentos de
intensidad interactiva (fiestas, convenciones, reuniones familiares,
inauguraciones, etc.).
No existen apenas indicaciones prácticas de cómo tomar las notas de
campo, y ello es debido, en gran parte, a que cada observador suele actuar de
manera personal. Una recomendación primera es que hay que tomar notas de
todo lo que llame la atención del observador, pero con el lenguaje y
significación del observado. Podríamos distinguir cuatro tipos de notas:
• Notas resumidas de lo que acaba de ser visto u oído.
• Notas extensas, a partir de los resúmenes inmediatos.
• Reflexiones personales, recogidas en el diario de campo, sobre todo lo
registrado.
Como en la redacción final, el investigador necesita apoyarse en el dato
concreto, hay que huir de las generalizaciones. Taylor y Bogdan (2002)
sugieren toda una gama de técnicas de registro, de las que seleccionamos
estas:
• Prestar atención a lo que se observa: no lo hace del mismo modo un
psicoanalista habituado a escuchar que un neurótico autorreferencial que solo
se escucha a sí mismo. Saber ver y escuchar supone paciencia y perspicacia.
• Cambiar la lente del objetivo: pasar de una visión amplia a otra de ángulo
pequeño. Sin caer en la obsesión compulsiva de quien se pierde en el detalle
y prescinde del contexto general, en momentos de intensidad observacional,
como puede ser una fiesta, es conveniente buscar un ángulo de perspectiva
que comienza con lo concreto para agrandarse hasta la totalidad.
• Buscar palabras claves en las observaciones de la gente: no es necesario
reproducir literalmente lo que la gente dice; sin embargo, algunas palabras o
frases expresan con bastante fidelidad el significado de lo que se dice.
• Saber describir cómo comienza y termina una conversación como un
hecho argumental definido, reproduciendo los escenarios contextuales en los
que se ubica la narración.
• Abandonar el escenario cuando se haya observado todo lo que se pueda
recordar, tal como sucede con la saturación de quien observa los museos. Por
otra parte, tomar las notas tan pronto como sea posible, para no olvidar o caer
en el peligro de la elaboración subjetiva por parte del observador.
12.3.3.6. Los diarios de campo
Cuando B. Malinowski etnografió la cultura de las islas Trobriand produjo
dos narrativas un tanto dispares: por un lado, nos legó los conocidos textos de
Los argonautas del Pacífico occidental, Jardines de coral, etc., para ser
publicados; y, por otro lado, escribió un diario de campo, que publicó
posteriormente su viuda.
En el diario de Malinowski se relatan los sinsabores cotidianos, la
contemplación del paisaje, su xenofobia para con los nativos, todo tipo de
valoraciones, los problemas de salud, etc., y todo un elenco abigarrado de
subjetividades afirmativas o negativas, que contrastan con la casi idílica
descripción de la cultura de los nativos, en sus libros publicados. El diario va
dirigido al propio autor, es una reflexión emocional privada que contrasta con
la reflexión científica de sus libros. Una confrontación de textos para
reflexionar.

12.3.3.7. El registro audiovisual


Como complemento a las técnicas clásicas de registro observacional
(transcripción escrita de lo observado), han cobrado cada vez más
importancia en la actualidad las técnicas de registro audiovisual. Desde el
principio, la fotografía fue considerada, frente a la objetividad de la pintura,
espejo objetivo de lo real, aunque la fotografía también puede ser creativa.
Con el avance de las técnicas audiovisuales, surgieron el magnetófono y el
vídeo, que ya incorpora movimiento y color.
En el registro audiovisual del trabajo de campo pueden considerarse cuatro
perspectivas: la primera, de índole fundamentalmente técnica, se refiere a la
forma adecuada de realizar una buena grabación; la segunda, a cómo
seleccionar los hechos que han de ser grabados a lo largo del trabajo de
campo; la tercera perspectiva hace referencia a la selección de las imágenes y
vídeo ya grabados, para constituirlos en testimonios significativos; y la cuarta
trata de la interpretación de esos testimonios seleccionados.
Se reconoce como punto de partida de los registros audiovisuales la obra de
M. Mead y G. Batenson, Balinese carácter. A fotographic analysis (1942),
realizado en Bali con 25.000 fotografías y 6.000 metros de película, sobre la
relación de los niños balineses con sus madres, de las que el libro selecciona
759 fotografías para su publicación.

12.3.3.8. Entrevistas en profundidad y selección de informantes24


La entrevista suele entenderse, en su uso habitual, como un diálogo entre el
periodista que pregunta para obtener información interesante y el entrevistado
que contesta, e investiga más que el hacer de los hechos, el «decir del hacer»
de los mismos. Podríamos decir que el entrevistador «saca a escena» al
entrevistado y lo transforma en actor principal.
La entrevista en profundidad (término con resonancias psicoanalíticas)
tiene sus principales antecedentes en la confesión religiosa, en la inquisición
de las creencias, en los interrogatorios judiciales y policiales y en el diálogo
terapéutico.
Por entrevistas cualitativas en profundidad entendemos reiterados
encuentros, cara a cara, entre el entrevistador y los informantes, para
comprender las experiencias y vivencias interactivas en la comunidad
estudiada.
El entrevistador en profundidad dirige la interacción preguntando,
escuchando, seleccionando e interpretando, sin perder la tensión interactiva y
comunicacional, aunque en un clima de sosiego e interés mantenido. Su
profesionalidad, adquirida por la formación y la práctica, le permite
improvisar (¡está tan lejos de las encuestas cerradas y de los esquemas
estándar!), desde el conocimiento de la materia que investiga.
En un primer momento, el entrevistador se coloca en una posición
levemente pasiva y cordial (acercamiento, preguntas de transición, etc.), para
adentrarse en las cuestiones clave (en forma de espiral, hacia dentro, sin
invadir asertivamente al entrevistado), potenciando o enfriando el tono
potencial cuando convenga.
Todo entrevistador debe ser tan experto en preguntar como en escuchar, y
es sumamente útil trabajar las respuestas.
Resulta especialmente importante el cuidado del lenguaje paraverbal
(proxémico, protésico, cinésico, etc.) en distancias intercorporales, en
posturas y movimientos, en añadidos corporales como gafas, vestido, en
miradas, etc., así como el profundo respeto hacia la información ofrecida.
Una entrevista es una conversación en profundidad, no un interrogatorio
inquisitorial, en la que el entrevistador sabe sugerir, resumir lo dicho, enlazar
con otros temas, crear silencios adecuados, dejar abierta la posibilidad de
nuevos encuentros, etc., siempre cuidando la puesta en escena.
Las entrevistas en profundidad deben ser realizadas en situaciones
cómodas, relajantes, sin presiones espacio temporales, creando un vínculo de
relación. El entrevistador debe escuchar más que hablar, comprender más que
juzgar, explorar mucho más que interrogar.
Se realiza en forma espiral hacia el núcleo, comenzando con el modo de
quien desea aprender, a través de preguntas iniciales más generales, abiertas y
flexibles (que dan máxima libertad al informante), para acercarse al núcleo
temático (que ha sido preparado en el guion oculto, o que surge a lo largo del
desarrollo de la entrevista). Al principio, interesan más los hechos y las
descripciones, para indagar más tarde los significados que surgen de la
interpretación.
El entrevistador debe saber que el entrevistado puede elaborar las
respuestas, magnificando, minimizando o silenciando algunos datos, de
acuerdo con sus resistencias personales producidas por la ansiedad. Para ello
hay que contrastar las informaciones, cruzándolas con otras entrevistas.
Informante es todo individuo con conocimientos importantes sobre su
comunidad, que tiene voluntad de informar y que actúa de puente entre el
investigador y la comunidad investigada.
El número y selección de los informantes dependen del criterio del
investigador, ya que importa más su potencial informativo que el número.
Hay informantes globales que proporcionan una visión holística de la
comunidad investigada; e informantes específicos para aspectos concretos. A
ser posible, los informantes deben pertenecer a todos los estratos socio-
culturales de la comunidad investigada.
Hay que tener cuidado con el sesgo de los informantes, ya que en ellos
encontramos, desde el informante militante, que cree que su cultura es la
mejor, hasta el informante ya aculturado, que se identifica más con la cultura
del investigador que con la suya, porque la considera más prestigiosa. Por
ello, decimos que el informante, desde su ideología, tiende a ser «in-
formante».
Por último, debemos distinguir entre las entrevistas sistematizadas y no
sistematizadas.
La entrevista sistematizada:
• Pretende explicar más que comprender, adopta el formato de estímulo-
respuesta, para obtener datos racionales, y deja de lado los emocionales.
• El entrevistador formula preguntas con respuestas prefijadas que hay que
elegir, según un patrón estandarizado previamente. Permanece en una
posición neutral y adopta el estilo de oyente interesado.
• Todos los entrevistados reciben el mismo paquete de pregunta como paso
hacia una cuantificación, y las respuestas son orientadas al cuadro de
categorías preestablecido.
La entrevista no sistematizada:
• Es creativa y se adapta al entrevistado, aunque discurre a través de un
diseño establecido. No desdeña las respuestas emocionales ni las racionales.
• El entrevistador formula preguntas abiertas y altera con frecuencia el
orden prefijado de preguntas, permite interrupciones, explica el sentido y
alcance de las preguntas.
• Las respuestas son abiertas y enfocadas a una codificación flexible y
abierta a cambios en todo momento.
Las entrevistas sistematizadas suelen ser un soporte para la intención
cuantificadora, mientras que las entrevistas no sistematizadas son más
genuinamente cualitativas.

12.3.4. Evaluación de la investigación de campo


El objetivo primordial del investigador es demostrar la certeza de lo
investigado.
Los criterios cualitativos de validación de lo investigado son radicalmente
diferentes de los de la posición cuantitativita. Los autores suelen señalar
como criterios de confianza para la investigación cualitativa los de
credibilidad (observación persistente, triangulación, juicio crítico de colegas,
comprobaciones con los participantes), los de transferibilidad (muestreo
teórico, descripciones densas, recogida abundante de información), los de
dependencia (establecer pistas de revisión, auditoría de dependencia, réplica
paso a paso, métodos solapados) y los de confirmabilidad (auditoría de
confirmabilidad, ejercicio de reflexión); los de triangulación son los más
utilizados.
La triangulación
De los cuatro criterios de confiabilidad, la mayoría de los autores se centran,
sobre todo, en el criterio de credibilidad, a base de las técnicas como la
documentación, la observación persistente, las entrevistas y, sobre todo, la
triangulación.
El concepto de triangulación procede del uso de múltiples fuentes y
estrategias en la evaluación de un mismo fenómeno. En concreto, la
triangulación ha sido utilizada por la navegación en la localización. Los
ángulos interiores de un ángulo suman 180º. Si se conoce la suma de dos
ángulos, se facilita la localización de un tercero, tal como sucede en los GPS
(Global Positions Systems).
En metodología cualitativa, la triangulación resulta por el cruce de datos
recogidos en diferentes espacios y tiempos por diversos investigadores y por
diversas técnicas, sobre un mismo fenómeno, aunque habitualmente solo se
realice la triangulación de datos en la metodología cualitativa.
Solo apuntamos aquí, ante la falta de espacio, que la triangulación de datos
en la metodología cualitativa, si bien es prolija y laboriosa, fortalece y
consolida la confiabilidad de la investigación.

12.4. Retirada del campo y codificación


El proceso de trabajo de campo termina con la retirada del campo y con la
codificación del material. El cese de la investigación se realiza cuando se da
ya una cierta saturación temática y la codificación da paso a una organización
del material investigado, de cara a la hipótesis de trabajo definitiva que
emerge del material investigado.
En efecto, cuando el investigador cree que tiene suficiente material
(saturación temática), se distancia física y psíquicamente de la comunidad
investigada para que los vínculos afectivos contraídos durante la estancia en
el trabajo de campo no enturbien la objetividad de la redacción final». B.
Malinowski, por ejemplo, dejó las islas Trobriand del S.E. asiático y se
instaló en la isla canaria de Tenerife para redactar su obra cumbre, Los
argonautas del Pacífico occidental.
A partir del cese de la investigación de campo se realiza la codificación del
material, acto que constituye, por un lado, el final del «proceso» de campo y,
por otro, inicia el producto del trabajo de campo.
Codificar es agrupar el material investigado en dirección hacia la hipótesis
final que emerge de la propia investigación. Lo observado en el trabajo de
campo y lo transcrito en las entrevistas en profundidad representan un gran
volumen de datos en páginas y grabaciones audiovisuales, que, para ser
operativo, debe ser ordenado, seleccionado y codificado.
En la labor continuada del trabajo de campo se suele proceder a clasificar el
material investigado en carpetas temáticas, lo que supone ya una primera
codificación.
Desde la totalidad del material investigado se descubre una orientación de
la investigación, desde la que emerge la hipótesis final que ha de
transformarse en tesis.

12.5. El producto del trabajo de campo: categorización, interpretación


e informe final
Terminado el trabajo de campo y realizada la codificación de los datos
obtenidos, comienza la elaboración del producto de la investigación, a través
de la categorización y la interpretación.

12.5.1. La categorización
Las categorías son unidades de significado, producidas por el investigador, a
partir de las narrativas que aporta el investigado. Así, por ejemplo, si un
enfermo narra los síntomas (escalofríos, fiebre, dolor muscular, tos,
cefalalgia, etc.), el médico los categorizará como gripe. La transferencia de
los síntomas que realiza el enfermo, más la auscultación del médico,
permitirá a este comprenderlos como una unidad de significado mediante la
categoría de gripe. Se ha pasado de la escucha de una narrativa patográfica a
una categorización patológica; del lenguaje descriptivo a la categorización
que para ese grupo de síntomas tiene la ciencia médica (en el caso de que no
exista una categorización previa, se crea una nueva, como sucede en la
creación de nuevas patologías diferenciadas).
Para la llamada nueva etnografía, los investigados organizan su mundo
cultural con categorías propias, que el investigador debe conocer y
comprender y que pueden ser traducidas a las categorías del investigador. Por
el contrario, para la etnografía posmoderna, las descripciones del investigador
son meras retóricas que surgen de su experiencia etnográfica, sin interesarse
demasiado por la comprensión de los datos de la cultura que se investiga.
Desde nuestra posición, adoptaremos la perspectiva habitual de la
metodología cualitativa etnográfica, que distinga funcionalmente emic/etic.
Estos términos fueron introducidos por el lingüista y misionero K. L. Pike en
1954: la fonémica (phonemic), que nosotros llamamos fonología, se centra en
el estudio de las unidades de sonido significativas para el hablante; la fonética
(phonetic) se refiere a la descripción de los sonidos del hablante efectuada
por un observador exterior al hablante. Traspasada esta distinción a la
metodología cualitativa, el nativo (el paciente, el portador del problema, etc.)
transfiere a través de sus narrativas, su cultura, sus problemas, etc.; el
investigador (terapeuta, etnógrafo, etc.) realiza una contratransferencia a
través de la categorización y la interpretación.
Todo el material recogido a través de la documentación, la observación
participante y las entrevistas en profundidad y posteriormente codificado, se
ofrece al investigador («narrativas emic») en forma descriptiva; por su parte,
el investigador sale al encuentro de estas narrativas categorizándolas e
interpretándolas.
La investigación se completa cuando el investigador devuelve al
investigado su interpretación y ambos, investigador e investigado, reconocen
mediante una coincidencia diagnóstica que emic y etic responden a una
misma realidad.

12.5.2. La interpretación
El intérprete es el que hace de intermediario entre dos lenguajes. Es un
traductor o descubridor que desvela el significado de algo que está oculto.
Esta tarea ha recibido varios nombres: hermenéutica (por el título del libro de
Aristóteles Peri hermeneias), exégesis (por su importante presencia en los
ámbitos bíblico y jurídico) y más habitualmente interpretación.
La interpretación tiene parte de subjetiva y parte de objetiva. Una obra
cumbre de la música, como es el Réquiem (KV 626) de W. A. Mozart, tiene
un partitura objetiva que ha sido interpretada por la subjetividad de los
diversos directores de orquesta. La fidelidad objetiva a la partitura permite
también la subjetividad de las diversas interpretaciones, incluso llegar a ser
una interpretación de referencia, como fueron las dos versiones de K. Böhm
(abril y diciembre de 1971) del Réquiem de Mozart.
Podemos distinguir una hermenéutica ontológica y otra metodológica. En
la primera, el hombre, mediante la interpretación de su mundo, da sentido a
su existencia. El hombre comprende, a través del lenguaje, el sentido de su
existencia y de su acción tanto cognoscitiva como operacional. En este
sentido, todas las ciencias, cuantitativas y cualitativas, remiten a una
hermenéutica ontológica, porque es el conocimiento humano el que las
comprende e interpreta desde la red de significados que ha creado el ser
humano.
La hermenéutica metodológica ha estado secularmente presente en la
exégesis o interpretación bíblica y jurídica. El juez interpreta, por ejemplo, un
hecho presuntamente delictivo a la luz de un texto legal o de una praxis
interpretativa anterior, a la vez que tiene en cuenta el contexto en que se
produjo la acción. Conjugando todos estos elementos, el juez pronunciará una
sentencia como interpretación diagnóstica. Como la literatura, tanto sobre la
exégesis bíblica como sobre la exégesis jurídica, es abundante y
suficientemente reconocida, tomaremos como ejemplos, entre otros muchos
referidos a las ciencias humanas, dos lugares de interpretación: el
antropológico y el terapéutico.
Para referirnos a ambos ejemplos, nos serviremos de dos obras recientes: la
de C. Geertz, La interpretación de las culturas ([1973]1990), y la de J.
Coderch, La interpretación en psicoanálisis (1995), sin olvidar la obra
cumbre para la comprensión de la hermenéutica, de H. G. Gadamer, Verdad y
Método ([1960]1976) y Verdad y Método II ([1977]1994).
Para C. Geertz, la antropología no es una ciencia experimental que busca
leyes generales, sino una ciencia interpretativa en busca de significados. En
antropología no se parte de una teoría abstracta, sino de la realidad del
micromundo interactivo que se investiga. Esta realidad se describe
fenoménicamente (tal como aparece), pero se interpreta en su sentido más
profundo (descripción densa a la que se refiere Geertz).
Siguiendo la senda de S. Freud en su obra capital, La interpretación de los
sueños (1900), el psicoanalista J. Coderch declara abiertamente, «en mi
opinión, toda esencia del psicoanálisis queda contenida en el acto
interpretativo». El psicoanálisis y en general todo acto terapéutico ponen de
manifiesto dos tipos fundamentales de interpretación: el traductor y el
dinamizador.
El acto interpretativo traductor permite entender el sentido profundo de
algo aparentemente superficial (Geertz lo denomina lectura densa de lo que
acontece).
El acto interpretativo es dinamizador cuando la interpretación promueve
importantes potencialidades de autoconocimiento y de acción en la
comunidad investigada.

12.5.3. Informe final


Queda claro que la metodología cualitativa es descriptiva e interpretativa. Es
descriptiva de los hechos observados y es interpretativa porque indaga en el
significado profundo de lo observado. En este sentido, una buena descripción
(«densa») de lo observado nos posibilita para una interpretación adecuada.
En la metodología cualitativa clásica, la descripción se quedaba anclada en
la mera narrativa de lo observado a través del proceso de campo. Así, muchos
trabajos etnográficos se quedan en meras narrativas sobre fiesta del carnaval
de Río de Janeiro, sobre la cultura de pueblos primitivos, sobre un ritual
religioso concreto, etc.
El nuevo enfoque de la metodología cualitativa presupone dar dos pasos
más: el primero, que las narrativas solo son válidas si son interpretadas en
profundidad por el investigador; y el segundo, que todas las narrativas
interpretadas deben ser devueltas a los investigados, para que se reconozcan
en ellas.
El informe final o tesis está, pues, construido por una narrativa que surge
del trabajo de campo (documentación, observación participante, entrevistas
en profundidad) sobre un poblamiento reducido (empresa, población
primitiva, grupo de inmigrados, secta, etc.). Esta narrativa que surge del
proceso de campo se transforma en producto al ser codificada, categorizada e
interpretada por el investigador, en la que lo narrado e interpretado obtiene la
afirmación de verdad descubierta (tesis).
Un ejemplo clarificará la importancia de las narrativas («densas») que,
mediante la interpretación, llegan a descubrir sus significados latentes.
En un artículo (Revista Mal-estar e Subjectividade. 2010: 1069-1104) sobre
«Ingeniería ritual en la comunicación de masas: a propósito de los JJ. OO. de
Río de Janeiro 2016», analicé los Juegos Olímpicos celebrados en Barcelona
en 1992 para que sirvieran de contrapunto a los de Río de Janeiro. Después
de hacer una pormenorizada «descripción» de los actos de Barcelona, centré
la interpretación en tres puntos clave:
• Los Juegos Olímpicos son una fiesta entendida como un paso del caos al
cosmos, a través del cual se alumbra un orden nuevo, un futuro prometedor.
La fiesta constituye un agente antropológico de cambio.
• Los Juegos Olímpicos son un ritual espectáculo conductor y
nacionalizador de las masas, que opera a través de una estética pública,
primariamente visual y secundariamente auditiva.
• Los Juegos Olímpicos son un ritual religioso-civil, cuya meta es la
conquista de la trascendencia histórica. La ciudad anfitriona y el Estado,
junto con sus jóvenes héroes, ponen de manifiesto la identidad nacional y
refuerzan su unidad de destino.
En primer lugar, la descripción densa de lo acontecido y narrado permitió
descubrir el eje caos/cosmos de la fiesta (a mayor caos, mayor orden
posterior), así como los tres tipos de fiesta observados: celebrativa,
reivindicativa y subversiva.
Al interpretar la fiesta olímpica como espectáculo donde se privilegia el
sentido de la vista escénica (masas organizadas en desfiles que invitan al
nuevo orden), seguido del sentido auditivo de la escena (himnos, sonidos de
contagio emocional colectivo, como los tambores, las cornetas, etc.), estos
espectáculos dirigidos a las masas son, fundamentalmente, aseverativos, rara
vez interrogativos y nunca negativos. Su mensaje es ortopráxico referido a la
práctica correcta (evitan las discusiones ortodóxicas referidas a la doctrina
correcta). El espectáculo del orden estético es creado por el poder como una
ingeniería ritual comunicativa, en el que la estética festiva es portadora del
orden social que diseña el poder, que alcanzó en los totalitarismos su mayor
expresión (como sucedió con las paradas militares del nazismo en Nüremberg
y del estalinismo en la plaza Roja de Moscú).
Puede parecer que estas manifestaciones de orden estético se dan solo en
los regímenes totalitarios y no en la fiesta latina, concebida como espontánea.
Pero, como dice Queiroz, a propósito de cómo se organizan los desfiles de la
samba brasileña, todo está convenientemente programado: los temas para el
gran desfile deben sacarse de la historia brasileña, no se permite ni la sátira,
ni la parodia, ni la crítica política o de hechos actuales. En los desfiles se
penaliza a las escuelas de samba si sobrepasan el tiempo asignado a su
exhibición o si la disciplina de sus ritmos musicales y pasos de baile no son
perfectos. En los desfiles, el orden es la base interna de la celebración del
carnaval. El «ethos burocrático del Estado» (Handelman) ha encontrado en
estos desfiles (con cuarenta mil bailarines en el de Río de Janeiro) la manera
de exhibir la unidad de Brasil, afirmando el orden social establecido y
anulando el caos turbulento de la pobreza por medio en un nacionalismo del
sentimiento, implícito en los desfiles y bailes, que aunque nacieron de la
tradición popular como forma de liberación, han quedado sometidos a la
normativa del poder.
No tenemos espacio suficiente para analizar aquí cómo la estética oficial se
transforma en una religión civil, donde se apela a un origen casi sagrado o
elegido del pueblo (cosmogonía), a la manifestación transformada en camino
o éxodo hacia la utopía (soteriología) y hacia una afirmación del futuro
histórico del pueblo (escatología). De hecho, en los JJ. OO. se dan estos tres
momentos rituales: la cosmogonía (ceremonia de apertura), la soteriología
(lucha y competición) y la escatología (despedida de los juegos y exaltación
del fututo del pueblo).
A través de este ejemplo, necesariamente resumido, queremos patentizar
cómo solo una interpretación densa, propia de la metodología cualitativa, es
capaz de analizar en profundidad el significado latente de la fiesta, en este
caso olímpica.
Es patente que solo nos hemos aproximado, en esta interpretación, a
algunos de los aspectos del descubrimiento, porque el análisis cualitativo
podría continuar con otros temas tales como la ingeniería ritual de los
desfiles, manifestaciones, peregrinaciones espontáneas o dirigidas, en la
potencialidad de cambio que alberga la fiesta, cuando pasa del caos festivo
(desorden, destrucción) al cosmos ordenado.
La labor de la metodología cualitativa termina cuando los descubrimientos
de la interpretación se transforman en tesis incontestables, porque los hechos
más que medidos deben ser comprendidos.

12.6. Conclusiones
En primer lugar, es preciso asumir que la metodología cualitativa es
radicalmente distinta de la metodología positivista, pero que ambas son
científicas y pueden llegar a ser complementarias.
En segundo lugar, la metodología cualitativa trabaja con un poblamiento
reducido, pero dedica mucho tiempo a la investigación (el largo tiempo del
trabajo etnográfico o del análisis psicoanalítico, por poner dos ejemplos). Los
resultados no son generalizables, sino asimilables, y producen microteorías
que abren otras investigaciones.
En tercer lugar, el trabajo metodológico-cualitativo discurre a través de dos
tiempos: el proceso (mediante la documentación, la observación participante
y las entrevistas en profundidad) y el producto (mediante la codificación, la
categorización y la interpretación), que culminan en el descubrimiento o tesis
final.
En cuarto lugar, la investigación cualitativa opera sobre la interacción
humana en su estado natural y contextual, sin manipulaciones de laboratorio,
para captar su significación idiográfica, fundamentalmente, sobre el
comportamiento humano psico-socio-cultural.

Bibliografía
Aguirre Baztán, A. (2015). Metodología cualitativa etnográfica. Universidad
UDAFF, Ayacucho.
Alonso, L. E. (1998). La mirada cualitativa en sociología. Fundamentos,
Madrid.
Coderch, J. (1995). La interpretación en psicoanálisis. Herder, Barcelona.
Denzin, N. y Lincoln, Y. (eds.) (1994). Handbook of qualitative research.
SAGE Publications, Londres.
Geertz, C. ([1973]1990). La interpretación de las culturas. Gedisa,
Barcelona.
Hammersley, M. y Atkinson, P. ([1983]1994). Etnografía. Métodos de
investigación. Paidós, Barcelona.
Ruíz Olabuénaga, J. I. (1996). Metodología de la investigación cualitativa.
Universidad de Deusto, Bilbao.
Taylor, S. J. y Bogdan, R. ([1975]2002). Introducción a los métodos
cualitativos de investigación. Paidós, Barcelona.
Vallés, M. S. (2009). Entrevistas cualitativas. CIS, Madrid.

24 Este apartado complementa lo tratado en el capítulo 8 dedicado a exponer en detalle el contenido de


las entrevistas.
13 Validación de las hipótesis

13
VALIDACIÓN DE LAS HIPÓTESIS
Susana Marín, Elena Rico, Francisco Llorente y Salvador Torra (UB)
y Jordi Martí (UB y RAED)

Objetivos del capítulo

• Conocer las fuentes de datos primarios disponibles en abierto y con coste.


• Tipos de software para el tratamiento de datos, libre y con licencia.
• Cuáles son los conceptos básicos sobre los que se fundamenta un análisis inferencial.
• Conocer las etapas de un contraste de hipótesis.
• Saber cómo utilizar el programa del R-Commander para hacer inferencia sobre datos reales.

13.1. Introducción: bases de datos-software


En cualquier proceso de investigación es necesario trabajar con datos de
distinta tipología para la verificación de hipótesis, ya sea con software de
carácter libre como comercial. Así, cualquier proceso de validación supone
una serie de premisas sobre la muestra analizada, si bien en la actualidad y
debido al auge del Big Data, la información disponible es cada vez mayor.
Un ejemplo precisamente del avance actual del Big Data frente a la
estadística oficial es el proyecto PriceStats, que permite medir la inflación
online en 22 países utilizando datos diarios de los precios en línea. Esta
información permite anticiparse a cambios importantes en su evolución,
mucho antes de que se publique la correspondiente estadística oficial
(http://www.pricestats.com/).
La filosofía de datos abiertos persigue que la información, que poseen las
Administraciones públicas, sea accesible para todo el mundo sin restricciones
y así poder redistribuir y reutilizar la información para aumentar los niveles
de transparencias (http://datos.gob.es/ y http://dadesobertes.gencat.cat/es). En
especial es remarcable la aplicación de tecnologías de visualización de datos,
por ejemplo, en EE. UU. (https://www.data.gov/ y https://datausa.io/) o en
RU (https://data.gov.uk/), donde existe una verdadera preocupación por el
tema, http://theodi.org/.
Las fuentes oficiales de datos son muy variadas y existen una gran variedad
de instituciones que ofrecen datos oficiales para su consulta. Un ejemplo de
ello es el Eurostat, donde podemos encontrar un volumen importante de
datos ordenados y presentados en el clásico formato de árbol
(http://ec.europa.eu/eurostat/data/database). Otro ejemplo importante es el
Banco Central Europeo, que ofrece información desde su Data Warehouse
(http://sdw.ecb.europa.eu/), o los bancos centrales nacionales, que
suministran información de carácter financiero a través de su portal
(http://www.bde.es/bde/es/areas/estadis/). Existen otros organismos
internacionales que, como por ejemplo el Fondo Monetario Internacional,
ofrecen acceso a datos financieros y macroeconómicos a escala internacional
(https://www.imf.org/en/Data). También el propio Banco Mundial
proporciona microdatos (http://datos.bancomundial.org/).
Uno de los organismos más importantes que facilita una gran cantidad de
información para su análisis es la OCDE, conjuntamente con otros
organismos, como por ejemplo UNECE; UN y, en especial para todo aquello
relacionado con el comercio exterior, UNCOMTRADE, cuya potencia de
visualización es muy interesante para los análisis de mercados
(https://data.oecd.org/ y https://comtrade.un.org/). En último lugar, otros
organismos como UN, ILO, UNESCO, WHO, WTO, entre otros, también
han realizado un esfuerzo importante por abrir sus datos para su consulta y
tratamiento posterior (http://www.ilo.org/global/statistics-and-databases/lang-
-en/index.htm).
En el ámbito español, destaca el portal del INE, donde se encuentra
múltiple información estadística (http://www.ine.es/ ). También casi todos los
servicios de estudios de las entidades financieras ofrecen información sobre
indicadores económicos, exponemos dos ejemplos:
http://www.caixabankresearch.com/ y https://www.bbvaresearch.com/.
En último lugar se mencionan algunas páginas web
(http://www.economagic.com/; https://www.quandl.com/) que suministran
información estadística que puede ser vinculada mediante API a los paquetes
estadísticos libres, como puede ser el software R (https://www.r-project.org/).
Algunos ejemplos de fuentes de datos con coste: Bloomberg
(https://www.bloomberg.com/enterprise/content-data/market-data/) y Reuters
(http://www.reuters.com/finance/global-market-data); Factset y Datastream
(http://www.factset.com/).
Tal y como hemos comentado, para el desarrollo de cualquier investigación
normalmente es necesario aportar una parte empírica, de ahí la necesidad de
conocer qué posibilidades existen y cuáles pueden ser útiles. El software que
actualmente se dispone en las universidades se diferencia entre aquel que
necesita licencia y aquellos denominados software libre. A su vez, la
especialización también supone una diferencia importante, de forma que
podremos encontrar software de carácter generalista o específico.
Desde la óptica universitaria y respecto al software comercial, se pueden
utilizar los siguientes aplicativos de carácter generalista: SAS, SPSS-IBM,
STATGRAPHICS, y de forma más específica, el SPSS-AMOS (IBM) para
realizar análisis de ecuaciones estructurales. El Eviews, muy utilizado desde
la óptica de la econometría (existen otros aplicativos menos conocidos
similares al Eviews, como puede ser el ESTIMA, o mucho más específicos,
como el GAUSS o STATA). Capítulo aparte son aquellos aplicativos más
orientados a un componente más matemático, como el MATHEMATICA de
Wolfram o el MATLAB.
Actualmente existe una corriente cada vez más importante en las
universidades y/o empresas de utilizar software libre. Uno de ellos es el PSPP
o el Gretl (http://gretl.sourceforge.net/), pero el que posee más difusión actual
es el software R con sus interfaces, R-Studio (https://www.rstudio.com/) y R-
Commander (http://www.rcommander.com/).
En la misma línea que el software R está la plataforma libre Python,
actualmente más utilizada por ingenieros (https://www.python.org/), y
también el WEKA, para análisis de datos
(http://www.cs.waikato.ac.nz/ml/weka/).

13.2. Conocimientos básicos de la teoría de la probabilidad y de


estadística teórica
Muchos aspectos de nuestra realidad están inmersos en situaciones de
incertidumbre (fenómenos aleatorios25) y, por ello, la probabilidad ha
adquirido relevancia porque facilita medir dicha incertidumbre. Tal como
citan Casas y Santos (2002), «la corriente clásica de la inferencia se apoya en
el concepto frecuencialista de la probabilidad26 obtenido de la información
descriptiva de la muestra cuando el experimento aleatorio de la investigación
se realiza en las mismas condiciones un número elevado de veces».
El tema de este capítulo se centra en el contraste y validación de hipótesis,
que constituye una parte importante de la estadística inferencial. Cualquier
análisis inferencial tiene como objetivo aproximarse a alguna característica
desconocida de la población, a partir de los datos obtenidos de una muestra
representativa de la misma. Este proceso se basa en aplicar un método
inductivo que nos permita pasar de lo particular (muestra) a conclusiones
genéricas de la totalidad de la población (general).
Dado que la inferencia estadística utiliza conceptos que proceden de la
estadística teórica, hay que recordar que los más relevantes son el de variable
aleatoria, parámetro y la distribución normal. Veamos brevemente las
características básicas de cada uno de ellos:
a) Variable aleatoria es uno de los conceptos básicos porque cualquier
análisis inferencial se fundamenta en el uso de variables aleatorias. Por tanto,
vale la pena recordar que una variable aleatoria es simplemente una función
matemática que asigna un valor numérico a cada uno de los resultados
(sucesos elementales) de un experimento aleatorio. Según los valores que
puede tomar, se diferencia entre discreta o continua. La probabilidad de que
una variable aleatoria discreta tome un valor concreto se especifica con su
función de cuantía. En cambio, si la variable aleatoria es continua, para
conocer su comportamiento probabilístico se precisa de una función de
densidad. En ambos tipos de variables se puede definir también la función de
distribución, que calcula las probabilidades acumuladas hasta un valor
concreto de la variable.
b) Parámetro es cualquier medida numérica que se calcula a partir de todos
los elementos de una población. Es un valor numérico que caracteriza a la
población. Los parámetros más analizados son la media poblacional (µ), la
varianza poblacional (σ2) y la proporción poblacional (p).
c) La distribución normal es el principal modelo probabilístico y su
relevancia radica en que en muchos fenómenos de la realidad, si se analiza su
comportamiento, este se aproxima a una modelización normal (campana de
Gauss). Además, si la distribución no es de este tipo, en bastantes ocasiones
se puede aplicar el teorema central del límite27, que permite, en determinadas
condiciones, aproximarla mediante la distribución normal.

13.3. Conceptos básicos de inferencia estadística


La inferencia estadística permite establecer conclusiones acerca de cómo se
comporta una población utilizando la información de una muestra aleatoria
obtenida de la misma. La muestra aleatoria se define como una sucesión de n
variables aleatorias (X1,X2,...,Xn), extraídas de una población en la que se
analiza una variable aleatoria X, siendo cada una de ellas independientes entre
sí y con la misma distribución de probabilidad que la correspondiente a la
variable aleatoria X. Hay que diferenciar conceptualmente la muestra
aleatoria (se le puede denominar muestra aleatoria genérica) del concepto
de realización muestral (también denominada muestra aleatoria concreta). En
la realización muestral ya no se dispone de variables aleatorias, sino de
valores concretos obtenidos del conjunto de individuos seleccionados en una
muestra concreta, es decir, se dispone de n datos28.
El enfoque clásico de la inferencia pivota en la utilización de los
estadísticos muestrales. Por definición, un estadístico muestral es cualquier
función matemática de las observaciones muestrales, donde no se incorpora
ningún parámetro desconocido. Cuando un estadístico se utiliza para
aproximar un parámetro desconocido, entonces se denomina estimador.
Como cualquier variable aleatoria tiene asociada una distribución de
probabilidad (distribución muestral). Si se quiere obtener un único valor que
aproxime la magnitud del parámetro desconocido, es necesario realizar una
estimación a partir de la expresión matemática de cálculo del estimador. Al
incorporar los datos muestrales se obtiene la estimación del parámetro. Ello
implica que si se utiliza otra realización muestral, su fórmula no cambiará,
pero sí su magnitud.
No hay que olvidar algo muy importante, el hecho de trabajar con
información muestral conlleva que en cualquier proceso de estimación se
generen errores que se evalúan a través de la expresión: «Error estimación =
Valor estimado – Valor del parámetro».
Veamos un ejemplo: supongamos que en una pyme del sector industrial, un
investigador desea analizar tres variables aleatorias relacionadas con las
características de su plantilla: edad, sexo y nivel de estudios. Respecto a la
variable «Edad», sería interesante conocer el valor de la edad promedio, su
varianza y desviación estándar. De las otras dos variables aleatorias, podría
interesar la proporción de la plantilla de sexo femenino y proporción de la
plantilla con estudios «Alto». Por tanto, de la población de personas
contratadas en esa pyme se desea conocer el valor de los parámetros: media
poblacional, varianza poblacional, desviación típica y proporción
poblacional. Ahora bien, si no se dispone de los datos de todos los
trabajadores de la población para tales variables, no podemos conocer el valor
de tales parámetros. Esto lleva al investigador a buscar el mejor estimador
para cada parámetro poblacional y determinar el tamaño muestral. En tales
circunstancias se deben considerar respectivamente los estimadores: media
muestral, varianza muestral, desviación estándar muestral y proporción
muestral.
Supongamos que se selecciona una realización muestral de cinco personas
de esta pyme y se les envía un cuestionario que incorpora tales variables, de
cuyas respuestas se obtienen los siguientes datos para cada una de ellas (sería
la realización muestral):
a) Edad: (20, 25, 51, 37, 42)
b) Sexo: (H, M, H, H, M)
c) Nivel de estudios: (Bajo, Medio, Medio, Alto, Medio).
Obsérvese que cada variable aleatoria está medida con diferente escala. La
variable Edad es una variable cuantitativa medida con escala de razón, la
variable Sexo es nominal (con dos categorías: Hombre y Mujer) y el Nivel de
estudios es una variable ordinal (modalidades: Bajo, Medio, Alto). Los datos
muestrales en el caso de la variable Sexo requieren codificar las dos
modalidades (H = 0, M = 1) para incorporarse como datos y ser tratados con
un paquete estadístico. La variable Nivel de estudios se debe codificar
respetando el orden por ejemplo: Bajo=0, Medio=1, Alto=2. Dado que nos
interesa el nivel de estudios «Alto», entonces podríamos recodificar así:
Bajo/Medio = 0 y Alto = 1. Las estimaciones de cada parámetro serían: a)
Media muestral de la variable Edad = 35 años; b) Varianza muestral de la
variable Edad = 158,5 años2; c) Desviación típica muestral de la variable
Edad = 12,59 años; d) Proporción muestral de mujeres = 2/5 y e) Proporción
muestral de personal con estudios altos: 1/5.
Por último, insistir en que en cualquier estudio muestral, hay un aspecto
previo a realizar el análisis que es fijar cuál es el número de observaciones
que debe seleccionarse de la población, para incorporarlas a la muestra, para
que esta sea representativa. Para la determinación de este tamaño muestral
(n) existen fórmulas de cálculo, en función de si la población es finita o
infinita (poblaciones muy grandes), tema abordado en el capítulo anterior de
muestreo.

13.4. Conceptos básicos del contraste de hipótesis


Según Casas et al. (2010), «una hipótesis estadística es cualquier afirmación,
verdadera o falsa, realizada sobre alguna característica desconocida de la
población». El contraste de hipótesis es una técnica estadística que sirve para
juzgar si los datos aportan evidencia o no, para confirmar una hipótesis. La
decisión se efectúa atendiendo a los datos muestrales, y por ello puede ser
incluso equivocada, dado que se basa en la información de solo una muestra
(seleccionada mediante métodos probabilísticos).
Los contrastes son de dos tipos:
a) Contrastes paramétricos: la hipótesis se formula sobre el valor de algún
parámetro desconocido de la población estudiada.
b) Contrastes no paramétricos: la hipótesis es sobre la característica de la
distribución, es decir, sobre la función de probabilidad (si la variable aleatoria
es discreta) o la función de densidad de la población (si la variable aleatoria
es continua).
Todo contraste siempre consta de dos hipótesis: la hipótesis nula (H0) y la
hipótesis alternativa (H1), que han de ser siempre excluyentes
(incompatibles). Las características que presentan cada una de estas dos
hipótesis son:
Hipótesis nula (H0)
• Es aquella hipótesis que se considera cierta de partida.
• Se escoge porque se considera la apropiada, que puede venir dada por
experiencias pasadas o por interés del investigador.
• Se considera la hipótesis más conservadora, más estable, y refleja el
status quo. Por tanto, no incorpora el cambio que se desea introducir
• Se mantiene como válida mientras los datos muestrales no aporten
suficiente evidencia empírica de lo contrario. Ahora bien, rechazarla no
significa que sea falsa, pues se adopta la decisión a partir de datos de una
muestra y no con datos de toda la población.
Hipótesis alternativa (H1)
• Generalmente es la hipótesis opuesta (complementaria) a la hipótesis
nula. Suele confrontar el status quo, la situación normal. Recoge las
sospechas del investigador sobre la cuestión que le interesa, es decir,
incorpora el cambio.
Desde el inicio, se supone siempre que es cierta la hipótesis nula.
Posteriormente, se trata de determinar con los datos de la muestra hasta qué
grado las observaciones registradas son coherentes con la hipótesis nula29.
Por tanto se mantiene la H0 como válida, mientras no haya evidencia empírica
suficiente de lo contrario30.
Las hipótesis paramétricas se caracterizan porque se contrasta el valor de
un parámetro poblacional, de forma que las hipótesis sobre los posibles
valores del parámetro pueden ser de dos tipos:
a) Hipótesis simples: aquellas que plantean valores puntuales concretos
para los parámetros poblacionales.
b) Hipótesis compuestas: se asigna un rango de posibles valores para los
parámetros poblacionales (diferente, mayor o menor a un valor concreto).
El objetivo de cualquier contraste es decidir si la hipótesis nula formulada
está sustentada por la evidencia empírica que proporcionan los datos de la
muestra aleatoria disponible. Es decir, se pretende evaluar el grado de
discrepancia entre los datos observados y la hipótesis nula que se postula31.
Hay diferentes posibilidades de especificar las dos hipótesis de un
contraste, en función de si esta es simple o compuesta. Si la hipótesis
alternativa especifica que el parámetro toma un valor diferente del
incorporado en la hipótesis nula, el test se denomina bilateral o a dos colas,
mientras que si es de un valor superior o inferior al propuesto, es un test a una
cola superior o inferior, en el segundo caso.
En todo contraste se precisa formular un estadístico de prueba para evaluar
en su formulación el grado de discrepancia que existe entre los datos
observados y la afirmación de la hipótesis nula postulada. En los contrastes
paramétricos, esta valoración se realiza a través de un estimador puntual del
parámetro analizado, que bajo la hipótesis nula cierta, tendrá una distribución
de probabilidad que coincide con la distribución del estadístico de prueba.
A partir de dicha distribución, hay que establecer dos zonas disjuntas y
complementarias que permiten adoptar una decisión del test:
a) Región de aceptación: conjunto de valores para los que si está dentro el
valor del estadístico de prueba, no se rechaza la hipótesis nula.
b) Región crítica (o de rechazo): conjunto de valores en los que si cae
dentro el valor del estadístico de prueba, se rechaza la hipótesis nula.
Cualquier decisión final que se adopte conlleva asumir que se pueden
cometer dos tipos errores:
a) Error tipo I: rechazar la hipótesis nula cuando es correcta.
b) Error tipo II: no rechazar la hipótesis nula cuando es incorrecta.
La probabilidad de error tipo I se denomina nivel de significación, que se
simboliza por la letra griega α, y la probabilidad error tipo II que se simboliza
por la letra ß32. El valor complementario de ß, es decir, 1-ß, indica la
probabilidad de rechazar una hipótesis nula falsa, denominada potencia del
contraste. Cuanto mayor sea la potencia, mejor es el contraste. Por tanto,
como señala Vargas (1995), interesa trabajar con un α reducido y la mayor
potencia posible. Expone que la potencia depende del nivel de significación
escogido, el tamaño de la muestra y del índice de discrepancia (medida del
grado de falsedad de la hipótesis nula en el caso de que esta sea falsa). Se
puede establecer la función de potencia para diversos valores del parámetro
en la hipótesis alternativa, cuando esta es compuesta.
Los pasos a realizar en un contraste de hipótesis de la forma tradicional
son:
1. El investigador identifica el parámetro poblacional de interés en el
estudio (se escoge según el objetivo que tenga en la investigación).
2. Formular la hipótesis nula y la hipótesis alternativa.
3. Seleccionar el nivel de significación (en general, valores no superiores al
10 %).
4. Establecer la región crítica y la región de aceptación, a partir del nivel de
significación escogido y el tipo de hipótesis alternativa.
5. Seleccionar una muestra de la población.
6. Formular el estadístico de prueba y calcular su valor (obtener el valor
experimental).
7. Comparar el valor del estadístico de prueba con el área de la región
crítica.
8. Adoptar la conclusión del contraste (rechazar o no rechazar H0).
9. Dar la interpretación al resultado obtenido desde un enfoque no
estadístico, según el ámbito analizado (biológico, médico, sociológico,
económico, financiero, etc.)
Este proceso de análisis teórico para realizar los contrastes de hipótesis
también puede realizarse, aplicando algunos de los diferentes paquetes
informáticos (software estadísticos/econométricos). Ello supone cierta
alteración en los pasos del contraste que realizar, en concreto no son precisos
los anteriores apartados 4 y 7. Entre los outputs calculados por los paquetes
informáticos ya aparece el valor probabilístico (valor-p) o p-valor (p-value),
como forma alternativa para tomar la decisión sobre si rechazar o no rechazar
la hipótesis nula. El p-valor se utiliza para medir la significación en los
contrastes y es una probabilidad a tener en cuenta para rechazar o no la
hipótesis nula.
Este p-valor se determina a partir del valor experimental (valor del
estadístico de prueba) obtenido al sustituir en su formulación los datos
muestrales y el valor del parámetro que establece la hipótesis nula. El p-valor
puede considerarse como el nivel de significación mínimo que lleva a adoptar
la decisión de rechazar H0. Indica el grado de credibilidad de la hipótesis
nula, al proporcionar información del nivel de compatibilidad de los datos
observados de la muestra disponible respecto a la hipótesis nula. Si su valor
es alto, entonces la muestra seleccionada no ofrece argumentos para poder
dudar de la hipótesis nula, porque son compatibles. En cambio, cuando su
valor es muy reducido, debe interpretarse que hay incompatibilidad entre la
hipótesis nula y los datos muestrales.
El nivel de significación es un nivel de referencia a comparar con el p-
valor. En tal sentido, escogido un determinado nivel de significación α y a
partir de la magnitud del p-valor, se adopta el siguiente criterio de decisión:
a) Si p-valor < α ð se rechaza H0. Hay evidencia empírica suficiente para su
rechazo.
b) Si p-valor > α ð no se rechaza H0. No existe evidencia significativa para
cuestionar la afirmación de H0.
Por último, hay que mencionar cuáles son los principales contrastes
paramétricos. Se pueden clasificar en función de si el análisis es para una
población o para dos o para más de dos.
Si solo se estudia una población son: el test de la media poblacional (su
estadístico de prueba se basa en la distribución de la media muestral), el test
de la varianza poblacional (su estadístico de prueba se basa en la distribución
de la varianza muestral) y el test de la proporción poblacional (su estadístico
de prueba se basa en la distribución de la proporción muestral).
Si son dos poblaciones: el test de igualdad de medias poblacionales (su
estadístico de prueba se basa en la distribución de la diferencia de medias
muestrales), el test de igualdad de varianzas poblaciones (su estadístico de
prueba se basa en la distribución del cociente de varianzas muestrales) y el
test de igualdad de proporciones (su estadístico de prueba se basa en la
distribución de la diferencia de proporciones muestrales).
Si son más de dos poblaciones, destaca el test ANOVA (análisis de la
varianza) que, siempre que se verifiquen determinadas condiciones de
partida, compara si varias poblaciones tienen la misma media poblacional y
su estadístico de prueba se formula atendiendo al análisis del estudio de las
causas que pueden explicar las diferencias observadas entre las distintas
muestras.

13.5. Casos prácticos de contrastación clásica (media, proporción y


ANOVA)
El objetivo de este apartado es mostrar algunas aplicaciones prácticas de la
teoría (teoría de la contrastación clásica de hipótesis estadísticas) expuesta en
el apartado anterior. A partir de la información disponible de los datos
económicos y financieros para un conjunto de empresas, se aplicará el
programa estadístico R/R-Commander.
Empezaremos describiendo brevemente las características de ambos
elementos (software y base de datos), para pasar después a algunos de los
contrastes más importantes (más ampliamente utilizados), como son el
contraste de una media, el contraste de una diferencia de al menos dos
medias (ANOVA) y el contraste de una proporción.
Para cada uno de estos tests, se especificará cuál es el supuesto de partida
(para una aplicación rigurosa de los mismos), la expresión (fórmula) del
correspondiente estadístico de prueba, justificando intuitivamente el porqué
de esa fórmula, y el correspondiente criterio decisor que conduciría, en su
caso, al rechazo de la hipótesis nula.
Software de análisis (R/R-Commander) y datos
Como es natural, la aplicación de las diferentes técnicas estadísticas a datos
reales pasa por el uso de algún tipo de herramienta informática.
Afortunadamente, hoy día los ordenadores personales tienen la potencia
suficiente como para soportar aplicaciones con la capacidad de gestionar y
analizar bases de datos de un tamaño ya considerable.
Existen diferentes aplicaciones comerciales, muy completas la mayoría,
que permiten implementar los diferentes métodos que conforman la disciplina
de la estadística, tanto procedimientos propios de la estadística descriptiva
como los de análisis inferencial, como son los contrastes objeto del tema. Por
otro lado, existe también la posibilidad de trabajar con un programa hoja de
cálculo, aunque en este caso las opciones estadísticas son mucho más
reducidas y se limitan solo a algunos procedimientos estadísticos más básicos
(por ejemplo, el Excel tiene esta opción incorporada en un complemento
llamado de análisis de datos).
No obstante, para llevar a cabo las aplicaciones que se mostrarán a
continuación se ha optado por hacer uso de un programa de libre distribución:
el paquete estadístico R. Como se indica en la página web del proyecto33, R
es un lenguaje y un entorno para el análisis estadístico y gráfico, que
proporciona una amplia variedad de técnicas (modelización lineal y no lineal,
contrastes estadísticos clásicos, análisis de series temporales, análisis
multivariable, etc.) y es fácilmente extensible, mediante complementos. En
realidad, R es una suite de aplicaciones que permite un trabajo de principio a
fin, ya que incorpora también facilidades de gestión y manipulación de datos,
actividades que son el paso previo al análisis estadístico propiamente dicho.
Por último, el hándicap que para el usuario supone este paquete por su
relativa complejidad para hacerlo funcionar desaparece en el momento en que
existe una interfaz de usuario como R-Commander que funciona para
diferentes plataformas, entre ellas Windows34. De esta forma, se utiliza el
paquete R como si de un programa de Windows se tratase: dispone de unos
menús desplegables que agrupan los diferentes comandos (o instrucciones) en
función de su tipo; al seleccionarse un comando se abre el correspondiente
cuadro de diálogo en el que habrá que introducir toda la información
necesaria (variables, opciones, etc.) para la ejecución de la orden; los
resultados se van mostrando y conservando en pantalla y pueden salvarse en
fichero al finalizar (figura 13.1). En resumen, R-Commander constituye un
entorno que facilita enormemente el trabajo con R.

Figura 13.1. Menús desplegables de R-Commander.

Los datos que se han utilizado para ilustrar algunas de las técnicas de
contrastación más populares son datos de carácter económico-financiero
correspondientes a una muestra35 de empresas obtenida de la base de
datos SABI.
En concreto, se disponía de la siguiente información (variables) para cada
una de las empresas de la muestra (año 2015): activo, fondos propios, número
de empleados, ingresos de explotación, resultado de explotación, resultado
del ejercicio, gastos de personal, valor añadido y los (tres) ratios rentabilidad
sobre recursos propios, rentabilidad sobre activo y apalancamiento.
La mayoría de bases de datos (como SABI) incorporan la opción de
exportar la información a ficheros de diferente formato, siendo
probablemente los de texto y Excel los más usados. Ello facilita que,
posteriormente, este tipo de archivos sean fácilmente leídos en la mayoría de
los programas estadísticos. Una vez cargados los datos en la aplicación (R-
Commander, en este caso) conviene guardarlos en un fichero de datos
propios de la misma (RData, en el caso de R), que incorporará no solo esos
datos sino también la información que se haya podido asociar a ellos cuando
se ha trabajado con la aplicación (metadata). Por otro lado, la lectura de estos
ficheros de datos con el formato propio de un programa es siempre más
rápida (figura 13.2).

Figura 13.2. Datos cargados en R-Commander.

Contraste de una media


Para obtener el estadístico de este contraste, cuya hipótesis nula sostiene que
la media de una población (distribución de probabilidad) toma un
determinado valor, el punto de partida es una distribución normal de la media
muestral, centrada en la media poblacional y con varianza igual a la de la
población dividida por n: ). Que la media presente esa distribución
muestral normal requiere que la población sea normal o la muestra tenga un
número elevado de observaciones. Si la hipótesis nula del contraste se
supone cierta (solo inicialmente, para realizar la prueba), el siguiente
estadístico de prueba (que es el del contraste) tiene una distribución muestral
(t de Student con n-1 grados de libertad; siendo n el tamaño muestral).

S es la desviación estándar muestral que sustituye a (estima) la desviación


estándar poblacional, que será (habitualmente) también desconocida, como la
media. El cociente (estadístico) es el llamado error estándar de la media
muestral ( ) y es una medida fundamental: mide la variación que tendría la
media muestral en un muestreo y, por tanto, la confianza que se puede
depositar en la media muestral observada como estimador de la poblacional.
En el contraste bilateral ( ), cuando el estadístico anterior (estadístico t
por su distribución muestral bajo H0) toma un valor absoluto suficientemente
distante de cero (valor esperado de la distribución t de Student) se rechaza H0.
[El punto crítico dependerá del nivel de significación α fijado por el
investigador para el contraste]. Obsérvese que esto sucederá cuando la media
muestral tome un valor que se separe de µ0 (la hipótesis nula) en más de
.

En los contrastes a una sola cola (superior e inferior) solo valores extremos
del estadístico en una de las colas conducirán al rechazo de H0. Así, por
ejemplo, en el contraste a una cola superior ( ) solo un valor extremo
positivo del estadístico t permitirá rechazar H0. Eso se producirá cuando la
media muestral tome un valor significativamente por encima de µ0. De nuevo
la significación depende de α, que ahora se concentra (no se divide por dos;
entre las dos colas).

Si se utiliza el procedimiento moderno del valor-p hay que saber que el


ordenador lo calculará como la probabilidad a las dos colas del valor de
estadístico t en una t(n-1) en el contraste bilateral; la probabilidad por encima
del estadístico t en el contraste a una cola superior; y la probabilidad por
debajo del estadístico t en el contraste a una cola inferior. En los tres casos,
un valor-p inferior a α conducirá al rechazo de H0.

A continuación se muestra una aplicación del contraste para una sola media
haciendo uso del paquete estadístico R. La ilustración de la figura 13.3
muestra la secuencia de opciones de menú (Estadísticos > Medias) que hay
que seleccionar en R-Commander para acceder al procedimiento test t para
una muestra. Aparece también, como se puede apreciar, el procedimiento
ANOVA de un factor (en el mismo submenú Medias). En seguida
hablaremos también de este contraste ANOVA y mostraremos una
aplicación.
Figura 13.3. Test de la media.

La salida del programa (figura 13.4) muestra los resultados del


procedimiento Test t para una muestra, aplicados a la variable Rentabilidad1
(rentabilidad sobre activos, en porcentaje) para la submuestra de empresas de
mayor tamaño (45 observaciones)36. R muestra el valor del estadístico t de
contraste (1,33) y el correspondiente valor-p (0,19) en el contraste bilateral de
la hipótesis nula . También proporciona el intervalo de confianza para la
media poblacional al 95 % (8,75-16,07) y el valor de la media muestral
(14,41), que es el centro de ese intervalo de confianza.
A partir de estos resultados la conclusión sería el no poder rechazar esa
hipótesis nula (rentabilidad media poblacional del 10 %) al 5 % de
significación habitual. [De hecho, dado el valor-p del 19 %, tampoco sería
posible rechazar H0 al 10 %]. De acuerdo con esta conclusión, se observa que
el intervalo de confianza al 95 % contiene el valor 10. El resultado del
contraste podría cambiar si se hiciese a una cola superior. Ahora el valor-p
del estadístico (que no cambia) se reduce a la mitad (0,095). En este caso
(contraste unilateral), al 5 % se persistiría en el no rechazo de H0 pero, ahora,
al 10 % se tendría que rechazar.

Figura 13.4.

El mismo contraste utilizando ahora la submuestra de pequeñas empresas


(52 observaciones) arroja un resultado más contundente (figura 13.5): dado el
valor tan alto (próximo a la unidad) del valor-p (0,85), la evidencia empírica
(la muestra) y H0 (rentabilidad media poblacional del 10%) son claramente
compatibles y no es posible rechazar la hipótesis nula. En este caso, el valor
negativo del estadístico se debe a que la media muestral (igual a 9,335) es
inferior a la hipótesis (10). En el contraste bilateral, el signo (positivo o
negativo) del estadístico no es relevante; solamente su magnitud o tamaño.

Figura 13.5.

Sobre la normalidad de los datos


Como se indicó anteriormente en el texto, el procedimiento utilizado se basa
en la normalidad de la distribución en el muestreo de la correspondiente
media muestral. Normalidad que exige a su vez la de la población o, en su
defecto, un tamaño mínimo de la muestra. Con el objeto de analizar este
aspecto, el programa R elabora los diagramas de caja (box-plots; figura 13.6)
asociados a cada una de las tres muestras utilizadas, que permite observar
cómo están distribuidas las observaciones que configuran cada una de las
muestras. Posteriormente se aplica un contraste de normalidad (de Shapiro-
Wilks) para las tres muestras de empresas (figura 13.7).

Figura 13.6. Box-Plots.

Por lo que se refiere a la herramienta gráfica, al box-plot de una


distribución normal se le exige una mínima simetría: lados de la caja
(cuartiles de la distribución) y bigotes (valores más extremos en el rango
), a aproximadamente la misma distancia del centro (mediana). Y
aproximadamente el mismo número de outliers (valores extremos) en los dos
extremos. Por lo que se refiere al contraste de normalidad, como en cualquier
otro contraste, no se suele rechazar H0 (en este caso, la normalidad) si el
valor-p del estadístico de contraste es superior al 5 % o al 1 %.
Así, la normalidad de los datos (de rentabilidad) en la subpoblación de
pequeñas empresas podría sostenerse sin problema (box-plot bastante
simétrico y valor-p en el contraste de normalidad del 8 %), con reservas en el
caso de la subpoblación de las grandes empresas (box-plot con asimetría
positiva, pero no excesivamente marcada y valor-p del contraste de
normalidad de un 2,2 %) y no podría aceptarse en el caso de la subpoblación
de empresas de tamaño medio (valor-p extremadamente reducido). En este
caso (el de la subpoblación de medianas empresas), sin embargo, la muestra
disponible es mucho mayor.

Figura 13.7. Contraste de normalidad (de Shapiro-Wilks).

Contraste de igualdad de varias medias (ANOVA)


A menudo es más interesante comparar varias medias que estimar o hacer un
contraste de solo una de ellas. El llamado contraste ANOVA no es más que
un contraste de igualdad de medias. Sostiene la hipótesis nula de que varias
poblaciones (o subpoblaciones de una población, definidas atendiendo a un
determinado criterio) todas tienen la misma media. La hipótesis alternativa
sostiene que eso no ocurre, es decir, que por lo menos alguna de esas medias
es diferente (podrían también serlo todas o existir grupos).
Este contraste es de una complejidad superior al anterior. Exige calcular (lo
hará el ordenador) una serie de tres sumas de cuadrados a partir de los datos,
datos que ahora conforman una matriz de n observaciones (filas) por k
columnas (variables o subpoblaciones). Estas sumas de cuadrados son una
suma de cuadrados total (o variación total, VT), que refleja la variación
global en los datos, una suma de cuadrados explicada (SCE) que indica la
variación observada en las medias muestrales de las diferentes variables
(también variación entre muestras, VEM) y una suma de cuadrados residual
que es reflejo de la variación observada en cada una de las muestras
(variación dentro de las muestras, VDM). Ocurre que la variación total es
igual a la suma de las otras dos.
En el estadístico de prueba del contraste (el que aparece a continuación del
párrafo), se comparan las dos variaciones parciales, entre grupos y dentro de
los grupos (después de haberse promediado convenientemente). Cuanto
mayor es la primera respecto a la segunda, menos creíble es la hipótesis nula
que, recordemos, sostiene la igualdad de todas las medias poblacionales. Bajo
H0 se puede demostrar que ese estadístico tiene una distribución muestral
, siendo k el número de muestras (subpoblaciones). Por
tanto, superado un determinado punto crítico (en función del nivel de
significación) se rechaza H0. Si se usa un programa informático para llevar a
cabo el contraste, este mostrará el valor-p del estadístico. Como siempre, un
valor bajo (inferior al 5 % o al 1 %) conducirá al rechazo de H0.

A continuación se muestra una aplicación del contraste ANOVA


utilizando, de nuevo, el paquete R y los datos de la base de empresas. Ahora
se trataría de contrastar la hipótesis nula de que la rentabilidad (sobre
recursos propios) media en los tres grupos de empresas (grandes, medianas y
pequeñas) es la misma.
R muestra en primer lugar (figura 13.8) la llamada tabla del ANOVA con
las (2) sumas de cuadrados explicada (por el tamaño de la empresa) y
residual; o también llamadas variaciones entre muestras y dentro de las
muestras. A partir de ellas se calcula el valor del estadístico F, que resulta ser
de 1,25, y se muestra también su valor-p (0,29). Este valor-p no permitiría
rechazar H0 (las tres medias poblacionales son iguales) ni siquiera a un nivel
de significación del 10 %. A continuación R muestra media, varianza y
número de observaciones de cada una de las (3) muestras. La conclusión sería
que la diferencia observada entre las tres medias muestrales (de 12,4, 18,4 y
9,3) no es significativa; no es suficientemente grande como para pensar que
se debe a que las medias poblacionales son también distintas.
Figura 13.8. Tabla del ANOVA.

Contraste de una proporción


Otro contraste importante por su uso frecuente (habitual) es el del valor de
una proporción poblacional. El marco teórico es el de una población
dicotómica (binaria) donde los elementos verifican (1) o no (0) una
determinada característica. La letra p representa la proporción desconocida de
los elementos que presentan la característica a nivel de la población. La
hipótesis nula sostiene que p toma un determinado valor p0.
En este caso, el punto de partida es una distribución de la proporción
muestral aproximadamente normal, centrada en la proporción poblacional y
con una varianza determinada tanto por p como por n.

Efectivamente, la distribución de la proporción muestral es discreta


(derivada de la binomial) pero se puede aproximar por una normal cuando el
tamaño de la muestra es suficientemente grande. Hay que señalar aquí que
cuanto mayor simetría exista en la población (más similares las
probabilidades p y 1 – p), mejor será la aproximación o, de otra forma, una
menor muestra será necesaria. Una condición que se suele señalar para una
aproximación aceptable es que se verifique: que se tendrá que evaluar
utilizando pˆ, por no disponerse de p.
Tipificando el resultado anterior, incorporando después la hipótesis nula (
) y sustituyendo por último p que se desconoce por pˆ, que se obtiene a
partir de la muestra, se llega al siguiente estadístico de contraste que tendría
una distribución muestral aproximadamente normal estándar (Z). En el
denominador del estadístico estaría el error estándar de pˆ (Spˆ) bajo el
supuesto de que H0 es cierta.
De forma análoga al caso de una media (de hecho una proporción no es
más que una media encubierta), en el contraste bilateral, un valor extremo del
estadístico, suficientemente distante de cero (valor esperado de una variable
Z), conducirá al rechazo de la H0. Esto ocurrirá cuando se observe una
proporción muestral significativamente distante de p0, la hipótesis. (La
significación o no significación estadística dependerá, como siempre, del
nivel de significación fijado).

Si se opta por el uso del ordenador y el procedimiento del valor-p, este se


calculará como la probabilidad a las dos colas del estadístico z en el contraste
bilateral, o por encima o por debajo en los contrastes a una sola cola, superior
o inferior, respectivamente.
A continuación ilustramos este contraste mediante un ejemplo con R. La
figura 13.9 muestra las opciones de menú (Estadísticos > Proporciones) que
hay que seleccionar para acceder al procedimiento test de proporciones para
una muestra.

Haciendo uso de las facilidades de manipulación de datos que incorpora R,


se ha generado (incorporado al fichero de datos) una variable binaria que
refleja si la correspondiente observación (empresa) tuvo en 2015 una
rentabilidad sobre recursos propios igual o superior al 10 % (1) o inferior a
este valor (0). Esta variable dicotómica constituirá la muestra del ejemplo de
contraste de una sola proporción. La hipótesis nula será que la proporción
(poblacional) de empresas con una rentabilidad igual o superior al 10 % es de
0,50 (50 %).
Como se puede observar en los resultados (figura 13.10), la proporción
muestral (de empresas con una rentabilidad igual o superior al 10 %) es de
0,57 (57 %) y el valor-p del estadístico37 en el contraste bilateral de esa
hipótesis nula es de 0,035 (un 3,5 %). Ese valor-p llevaría al rechazo de H0 al
5 % de significación estadística, pero al resultado contrario (no poder
rechazar) si el nivel de significación de la prueba se redujese al 1 %. Cuando
el test se realiza a una cola superior, las sospechas en torno a la falsedad de
H0 (y la veracidad de Ha) se incrementan, pues el valor-p se reduce a la
mitad.

Figura 13.10. Ejemplo de contraste de hipótesis.

Esperamos haber podido ilustrar convenientemente la filosofía y la


aplicación práctica de las técnicas de contraste de hipótesis mediante el uso
de un interesante (por ser de libre distribución) paquete estadístico como es R
y su aplicación a una base de datos de tipo empresarial. Esta misma
metodología se puede aplicar a otra tipología de datos, en el contexto de otras
disciplinas científicas o de otro tipo de investigación, siempre y cuando se
cumplan los correspondientes supuestos.

13.6. Otras tipologías de contraste de hipótesis


Tras explicar la construcción de contraste de hipótesis desde un enfoque
básico, en este apartado se desea realizar un paseo sobre otras tipologías de
contraste que pueden ser necesarias en un proceso de investigación.
En primer lugar, la gran mayoría del análisis inferencial se basa en asumir
que la variable o variables que se estudian tienen un comportamiento que se
aproxima a una distribución normal. Este supuesto que se asume a priori,
antes de seguir con el estudio se debería comprobar que realmente se verifica,
para que las conclusiones posteriores no queden invalidadas. Para contrastar
la hipótesis de normalidad de los datos se puede aplicar uno de los siguientes
contrastes: el test de Kolmogorov-Smirnov, el test de Shapiro-Wilk y el test
de Jarque-Bera.
En segundo lugar y muy vinculado a otros apartados de esta obra, cuando
se analiza una variable económica, es habitual que el objetivo último que se
persigue es predecir cuál va a ser su comportamiento futuro. Este análisis se
puede realizar desde dos puntos de vista diferentes que conlleva dos
modelizaciones distintas. El primero consiste en establecer una relación
causal respecto a otras variables que permitan explicar cómo evoluciona,
modelos de regresión o, por el contrario, solo se persiga realizar un análisis
univariante de la misma, métodos de series temporales.
Si nos ceñimos a los modelos de regresión y sus necesidades de
contrastación, para poder validar el modelo hay que comprobar dos tipos
diferentes de contrastes. El primero engloba el análisis de significación de
cada uno de los coeficientes del modelo, tanto de forma individual como
conjunta (análisis ANOVA), a partir de los coeficientes estimados. El
segundo analiza si las hipótesis básicas establecidas inicialmente se verifican
en función de los resultados obtenidos. Normalmente estamos hablando de
comprobar si existe en el modelo analizado:
a) Multicolinealidad, a través del factor de inflación de la varianza.
b) Heterocedasticidad, con el test de Breusch y Pagan, test de Glejser o test
de White.
c) Autocorrelación, con el test de Durbin y Watson.
d) Linealidad, con el test RESET.
La presencia de estas características supone alteraciones en la validez del
modelo propuesto, y ello implicará en algunos casos reestimar el modelo,
ampliarlo o modificarlo.
Por el contrario, cuando se analizan series temporales, se persigue conocer
la trayectoria que sigue una determinada variable con un objetivo único de
realizar un pronóstico futuro de la misma y con la única información de la
variable estudiada. Se utilizan dos tipos de modelos, los modelos
deterministas (modelos clásicos) y los modelos estocásticos. El enfoque
clásico se centra en analizar las componentes básicas de la serie: tendencia,
ciclo, estacionalidad y componente irregular, a través de un esquema aditivo
o multiplicativo. La validez de cada uno de estos modelos se fundamenta en
el análisis de los errores de predicción cometidos. En cambio, el análisis
estocástico especifica unos modelos en función de unos esquemas específicos
y una relación estocástica (metodología Box-Jenkins). A partir de los
resultados obtenidos tras su estimación, se requiere una validación del mismo
donde intervienen contrastes de significación individual de los coeficientes
del modelo y contrastes globales, como es el test de Box y Pierce.
También existen otras técnicas estadísticas que permiten establecer otras
especificaciones sobre las variables que se desean analizar. En este grupo
destacan los métodos denominados multivariantes. Hay distintas opciones en
función de cómo sea la relación entre las variables. Si esta relación es de
dependencia, encontramos el modelo de regresión ya explicado. Cuando hay
varias variables que explicar, entonces tenemos la correlación canónica (en
ambos casos las variables tienen que ser cuantitativas). Si la dependencia se
realiza sobre variables no cuantitativas, la modelización puede ser realizada
mediante modelos discriminantes38, regresiones logísticas39 o modelos
lógicos.
Ahora bien, si la relación es de interdependencia y las variables son
cuantitativas, nos podemos encontrar con técnicas como, por ejemplo,
componentes principales, análisis factorial o análisis clúster40, que poseen su
propia especificidad en la forma de contrastar los parámetros, su forma
funcional y validez del modelo. Finalmente si las variables son de carácter
cualitativo, tenemos técnicas de posicionamiento como análisis de
correspondencias, muy aplicado en los análisis de marketing.

Bibliografía
Alegre, J. et al. (2003). Análisis cuantitativo de la actividad turística.
Pirámide, Madrid
Canavos, G. C. (2001). Probabilidad y estadística. Aplicaciones y métodos
(cap. 9). McGraw-Hill, Madrid.
Casas, J. M., Cortiñas, P. y Zamora, A. I. (2010). Estadística económica y
empresarial (capítulo 8). Distribuciones e inferencia. Editorial
Universitaria Ramón Areces, Madrid.
Casas, J. M. y Santos, J. (2002). Introducción a la estadística para
administración y dirección de empresas. Centro de Estudios Ramón
Areces, Madrid.
Delgado, M. y Mori, M. (1983). «Desestacionalización con variables
ficticias. Una aplicación al caso del turismo en España». Estadística
Española. 100, pp. 93-103.
Kmenta, J. (1987). Elementos de Econometría. Vicens Vives, Barcelona
López, A. (2007). Sistemas de Gestión de la Calidad ISO 9000 en Ciudad
Guayana. CITEG. 1 (1), pp. 34-41.
Llorente, F., Marín, S. y Torra, S. (2001). Inferencia Estadística aplicada a
la empresa (cap. 4). Centro de Estudios Ramón Areces, Madrid.
— (2008). Métodos y técnicas de estadística descriptiva aplicados a la
empresa. Edición a cargo de los autores, Barcelona.
Marín, S. et al. (2008). Pràctiques informàtiques: inferència estadística.
Textos Docents, 339. Publicaciones y Ediciones de la Universidad de
Barcelona.
— (2009). Pràctiques informàtiques: estadística descriptiva. Teoria de la
probabilitat. Textos Docents, 346. Publicaciones y Ediciones de la
Universidad de Barcelona.
— (2013). Introducción a la inferencia estadística en un entorno
empresarial. Gráficas Rey, Barcelona.
Mayer-Schönberger, V. y Cukier, K. (2013). Big Data. La revolución de los
datos masivos. Editorial Turner.
Nevado, D. y López, V. (2004). «Una herramienta de gestión de intangibles
ocultos mediante técnicas econométricas. Método y aplicación». Revista de
Contabilidad y Dirección. 1, p.163-182.
Newbold, P. (2013). Estadística para administración y economía (cap. 9).
Pearson Education, Madrid.
Quilis, E. y Vivar, R. (2000). Estacionalidad y ciclos en las series
provinciales de pernoctaciones. INE, Madrid.
Quintana, C. et al. (2013). «Capacidades de investigación y directivas:
señales informativas en la salida a bolsa de las empresas de base
tecnológica». Cuadernos de Economía y Dirección de la Empresa. 16, pp.
270-280.
Ross, S. (2007). Introducción a la estadística (cap. 9). Reverté, Barcelona.
Saldaña, L. y Tompson, P. (2002). «Concepcions of simple and their
relationship to statistical inference». Educational Studies in Mathematics.
51, pp. 257-270.
Terceño, A. y Guercio, M. (2011). «El crecimiento y el Desarrollo del
sistema financiero. Un análisis comparativo». Investigaciones Europeas de
Dirección y Economía de la Empresa. 17 (2), pp. 33-46.
Vargas, A. (1995). Estadística descriptiva e inferencial. Servicio de
Publicaciones de la Universidad de Castilla-La Mancha.

25 Un experimento es una situación en la que puede darse uno o varios resultados de un conjunto de
resultados posibles establecidos a priori. El experimento aleatorio se caracteriza porque al repetirse en
las mismas condiciones no se puede conocer cuál de los posibles resultados será. Si tal experimento se
repite un número elevado de veces, se verificará algún modelo de regularidad estadística en los
resultados.
26 Los conocimientos básicos de la teoría de la probabilidad asociados a un experimento aleatorio
(Fernández, 1995) son, entre otros, los siguientes: el conjunto de los posibles resultados forma el
espacio muestral (W) que incluye todos los sucesos elementales. El álgebra de sucesos (ß) se considera
el conjunto de todos los sucesos del espacio muestral, y se establece una aplicación entre el álgebra de
sucesos y el conjunto de los números reales, de forma que si el suceso A pertenece a ß mediante la
citada aplicación P(A) pertenece a R. Según la definición axiomática esta aplicación es una
probabilidad si cumple estos tres axiomas: a) 0 ≤ P(A) ≤ 1 siendo A un suceso cualquiera; b) P (W) =1;
y c) Si los sucesos A y B son disjuntos entonces P(A U B) = P(A) + P(B).
27 Este teorema exige establecer una nueva variable aleatoria formada por la suma de más de treinta
variables aleatorias sin distribución normal, que sean independientes entre sí (el hecho de conocer que
una variable toma cierto valor no condiciona la probabilidad que tendrá la otra variable).
28 Para entender mejor tales conceptos, supongamos que la variable aleatoria X fuese el salario
mensual (en euros) de los trabajadores de una empresa en cierto mes, que siga la distribución X~N
(1250,10). Cuando se dice una muestra aleatoria de tamaño 3 se refiere al vector aleatorio (X1, X2, X3),
donde esas tres variables aleatorias tienen una distribución de probabilidad N (1250,10). Una
realización muestral o muestra concreta, en cambio, consistiría en seleccionar aleatoriamente a tres
individuos concretos del total de individuos de la población, utilizando alguno de los procedimientos de
muestreo citados en el tema anterior, y verificar el valor del salario que le corresponde a cada uno de
los tres individuos. Supongamos que los datos obtenidos son: 1.200 €; 1.100 €; 1.800 €. Si escojo otra
realización muestral de tres individuos, el valor de sus salarios podría ser diferente.
29 Una primera aproximación del sentido de ambas hipótesis nos viene dado del mundo jurídico en el
caso de un juicio (como recoge Kmenta, 1987, p. 132); cuando se debe juzgar a un imputado, el jurado
debe tomar una decisión sobre dos hipótesis: a) H0: el acusado es inocente; b) H1: el acusado es
culpable. Su decisión debe fundamentarse en la valoración de un conjunto de pruebas que han sido
recogidas. Hasta que no tiene evidencia suficiente para decidir quedarse con H1, tiene que mantener H0.
En todo juicio sabemos que el imputado es inocente mientras no se demuestre lo contrario, pues hay
que mantener su presunción de inocencia. A veces solo se tienen ciertos indicios contra el imputado,
pero debe tomarse una decisión en función de las evidencias aportadas, aunque sean incompletas.
30 Mediante el contraste se busca decidir si la hipótesis nula está sustentada por la evidencia empírica
que proporcionan los datos de la muestra aleatoria. Se pretende analizar el grado de discrepancia entre
los datos observados y la hipótesis nula que se postula.
31 Un contraste de hipótesis es un procedimiento estadístico que permite adoptar una decisión sobre el
planteamiento previo de una conjetura realizada sobre una población.
32 Interesaría en un contraste que ambas probabilidades (α y ß) fueran lo más reducidas posible, pero
cuando se ha escogido una muestra concreta, si una de tales probabilidades se disminuye (aumenta),
entonces la otra aumenta (disminuye) y viceversa, es decir, α y ß se mueven en sentido contrario, si
bien no son probabilidades complementarias. Solo al aumentar el tamaño muestral se consigue reducir
ambas probabilidades simultáneamente. Ello parece intuitivamente lógico, pues se dispone de mayor
información muestral y tenemos más datos muestrales, lo que es mejor. Interesa controlar la P (error
tipo I). Una vez fijada para reducir la P (error tipo II), se debe aumentar el tamaño muestral. Ahora
bien, aumentar el tamaño de la muestra tiene un coste y a veces no es posible, ya sea por falta de
presupuesto, tiempo, por inviabilidad. En términos prácticos, el nivel de significación se preestablece a
priori, y se fija aquel nivel de significación con el que se quiere trabajar, cuyos valores más utilizados
en la práctica el 5 % y el 1 %. En cambio, ß es variable. Entre los posibles contrastes se escoge el de
mayor potencia, lo que supone considerar el menor beta. Según Neyman-Pearson, debería elegirse entre
todas las regiones críticas de nivel α la que minimice ß. Cuanto mayor sea la potencia de un contraste,
mejor será el contraste.
33 https://www.r-project.org/about.html.
34 Desde la página web siguiente (http://knuth.uca.es/R/doku.php?id=instalacion_de_r_y_rcmdr:r-uca)
es posible descargarse el paquete R-UCA para Windows, que es una recopilación de R junto a R-
Commander y algunos paquetes de uso frecuente. Las ventajas de usarlo son las siguientes: i) se instala
en un único paso, ii) permite instalar R en un ordenador sin conexión y iii) se configura R para que, al
iniciarse, se inicie R-Commander.
35 Es importante señalar que la versión más sencilla de las diferentes técnicas de la inferencia
estadística, incluidos los procedimientos de contrastación objeto del tema, se basan en el supuesto de
que la muestra disponible es una muestra aleatoria simple, esto es, del tipo más sencillo (siempre
hablando de muestras aleatorias). Es importante señalarlo porque la validez de los resultados de un
análisis está a menudo condicionada a la verificación de los supuestos de partida, aunque en algunos
casos algunas técnicas pueden ser relativamente robustas a la violación de alguno de sus supuestos. Las
expresiones (fórmulas) de la inferencia se complican rápidamente cuando se abandona el muestreo
aleatorio simple (MAS) y se utiliza algún otro método más sofisticado como pueda ser, por ejemplo, el
muestreo aleatorio estratificado (MAE). Remitimos al lector al tema 10, donde se tratan las cuestiones
relativas al muestreo.
36 Con el objetivo de ilustrar el contraste ANOVA de igualdad de medias que viene a continuación y
de conseguir una mayor homogeneidad en los datos, se ha subdividido la muestra inicial en tres
submuestras en función del tamaño de la empresa. El tamaño de la empresa se ha medido atendiendo al
número de trabajadores (variable «Empleados»), variable que arrojaba mejores resultados (en la
agrupación) que la variable «Activos».
37 R muestra, de hecho, en este procedimiento, el cuadrado del estadístico Z indicado en el texto. Este
2
cuadrado tiene una distribución x . Así, el valor del estadístico z sería, en este caso, de 2,1
aproximadamente. (Ocurre, en ocasiones en estadística, que dos contrastes con formas diferentes son en
realidad el mismo; son equivalentes; uno es un caso particular de otro más general).
38 Su objetivo es poder analizar las variables que más discriminan a los elementos de los diferentes
grupos que se establecen por la variable dependiente. Ejemplo: analizar el éxito de un nuevo producto
de limpieza en función del precio, los gastos en publicidad, etc.
39 En este caso la variable dependiente es cualitativa y el objetivo es prever la pertenencia de los
elementos a un grupo en función de sus puntuaciones en variables independientes. Ejemplo: prever si
una persona que se presenta al examen teórico de conducir va a aprobar o suspender en función del
nivel de asistencia a las clases teórica programada, el número de horas de estudio del código de
circulación, nivel de estudios, etc.
40 Entre las variables, las clasifica en grupos por la homogeneidad de las mismas y, a su vez, los
grupos entre sí deben ser muy heterogéneos. Ejemplo: análisis de los individuos de una población en
grupos homogéneos, etc.
14 Investigación en ciencias sociales

14
INVESTIGACIÓN EN CIENCIAS
SOCIALES
Miguel Ángel Gallo
(IESE, Universidad de Navarra y RAED)

Objetivos del capítulo

• Delimitar el campo en el que se quiere investigar. Acotarlo con precisión. Concreción final.
Formular la pregunta de la investigación (research question).
• Conocer lo que ya se ha trabajado, estado de la cuestión.
• Distinción entre lo seminal, lo anecdótico y lo trivial. Distinción entre lo prehistórico y lo actual.
• Análisis prudente de los recursos de que se dispone.
• Diseño de la investigación.
• Elección de métodos cuantitativos y cualitativos, deductivos e inductivos.

14.1. Introducción
Se puede definir una ciencia particular, caso habitual en las ciencias sociales,
«como el conocimiento de las cosas por sus causas, adquirido mediante la
razón» (Gay, 2004, p. 22).
«El objeto de una ciencia puede ser material o formal. El objeto material es
lo que estudia dicha ciencia, y el objeto formal es el aspecto bajo el cual se
estudia el objeto material» (Gay, 2004, p. 22).
Las ciencias sociales estudian el comportamiento de las personas y el de las
comunidades a las que las personas dan lugar. Ambos comportamientos
pueden ser estudiados desde múltiples aspectos.
El campo de investigación en las ciencias sociales resulta ser amplísimo, al
cubrir áreas que pueden ir, por ejemplo, desde la metafísica de la familia
(Cruz, 2010) hasta, y de nuevo solo como de ejemplo, la formación de las
expectativas del consumidor (Nueno, 2016).
De aquí la extraordinaria importancia que tiene para el investigador llegar a
definir con precisión la pregunta de investigación.
La ciencia se adquiere mediante la razón, pero como es bien conocido, la
razón no funciona sola, siempre está en relación con la voluntad y los
sentimientos (Zubiri, 1985, p. 124). Razón, voluntad y sentimientos que son
activados por el yo (Sellés, 2013, p. 73).
De aquí la importancia que tiene para el investigador el conocimiento de sí
mismo. Cuáles son sus saberes y cuáles puede alcanzar con el tiempo de que
dispone. Cuál es el nivel del querer de su voluntad, y cuáles su disposición a
respaldarla constantemente. Conocimiento prudente sin sobrevalorarse ni
tampoco desestimarse.
Conocimiento realista que no se fía solo de la intuición, pues, aunque la
intuición es la mejor forma de alcanzar conocimientos, la intuición se da muy
pocas veces, por lo que es un error frecuente confundir la intuición con las
preferencias personales, los deseos o las aspiraciones (Gallo, 2016, p. 71).
La racionalidad, la facultad intelectiva de una persona que juzga las cosas
con razón, es siempre una racionabilidad limitada y sesgada. Limitada por la
falta de conocimientos y por carencias en la voluntad; sesgada por la
influencia de sus sentimientos.
Encontrar una buena pregunta de investigación en el campo de las ciencias
sociales, una pregunta que sea relevante, cuya contestación dé lugar a un
avance en los conocimientos, no solo un avance anecdótico o trivial como
repetición de lo que ya se conoce, es una tarea difícil. En sí misma, la
formulación de la pregunta de investigación es ya resultado de un proceso
iterativo de búsqueda y estudio, que sucesivamente pasa por cuestionarse
cosas, para lo que hay que conocer el estado de los conocimientos sobre esas
cosas, hay que evaluar con realismo los recursos de que se dispone para
avanzar en el conocimiento de las cosas, diseñar el método de investigación
con el que se va a intentar responder a esa cuestión, e implantarlo.
Conocer lo que más arriba se ha designado el estado de los conocimientos,
o estado de la cuestión de investigación, precisa distinguir lo que es seminal,
es decir, las verdaderas semillas de nuevos conocimientos, de lo que, por ser
trivial, es sabido por todos, así como también separar lo que no pasa de ser
una pura anécdota que se ha puesto de moda. En investigación también hay
modas, pero que pronto serán olvidadas.
El conocimiento del estado de la cuestión sin la ayuda de personas expertas
puede hacerse eterno. Las personas con auctoritas en el campo que se
investiga acostumbran a estar también investidas por la potestas, y saben que
mandar es servir, pero, para avanzar en investigación, es siempre preferible
lograr con ellos una relación de amistad, una relación de aceptar y dar,
imposible de alcanzar si no es un recíproco aceptar y dar.
Para seleccionar la pregunta de la investigación es imprescindible conocer
si se dispondrá de los recursos que para su contestación se necesitan. La
contestación es la meta y sin recursos no se podrá alcanzar. En la
investigación en ciencias sociales estos recursos acostumbran a estar fuera de
uno mismo y fuera de su entorno investigador próximo.
Finalmente, el diseño de la pregunta de investigación, el progresivo
conocimiento del estado de la cuestión de que se dispone, en unión con las
cualidades del investigador, van perfilando el método en sus dimensiones
básicas: deductivo, inductivo, cuantitativo, cualitativo.

14.2. Delimitar el campo de la investigación. Definir el problema que se


va a investigar
Algunas consideraciones previas
En un proceso de investigación en ciencias sociales, antes de concretar la
delimitación del campo de investigación y la definición del problema que
resolver, es decir, la formulación de la pregunta de investigación, parece
oportuno que el investigador repase algunas consideraciones, como las que a
continuación se indican.
La experiencia hace ver que un porcentaje importante de las personas que
se adentran por primera vez en investigación, así como de investigadores
jóvenes, piensan conocer muy bien el problema o problemas que quieren
resolver y, en su ignorancia, lo confunden con sus sueños y aspiraciones41.
Incluso algunos parecen seguros de que van a conseguir el paradigma42 que
falta, o a cambiar el paradigma existente en un determinado campo del saber.
Asimismo, la experiencia hace ver que otra parte de estas personas, por
falta de decisión, por falta de ayuda o de entendimiento con los que asesoran
o dirigen sus estudios, caen en un diletantismo importante que les conduce a
resolver muy pocas cosas relacionadas con la pregunta de investigación
durante un periodo prolongado de tiempo.
Un punto influyente en la delimitación del campo de investigación y en la
definición del problema a resolver es comprender que una parte importante
de las ciencias sociales es ciencia factual, es decir, una ciencia que
principalmente recurre a la observación de hechos. Quiere estudiar hechos y
sus causas, quiere conocer causas y los hechos a que las mismas dan o
pueden dar lugar. Y estos hechos y causas no siempre están al alcance del
investigador para su estudio.
Delimitar el campo de investigación es encontrar un área y ponerle límites,
es acotar dónde se va a trabajar. Es estudiar y decidir si la investigación va a
estar más relacionada con el objeto material de una ciencia o con uno de sus
objetos formales43.
Para un acertado conocimiento del campo, así como para llegar a conocer
el estado de la cuestión, es decir, el estado de los conocimientos existentes en
relación con las preguntas que se va a hacer el investigador con intención de
averiguar la verdad, es necesario tener en cuenta que los mismos
conocimientos se encuentran formulados de maneras diferentes en las
distintas explicaciones. Por ello, es muy conveniente estar y trabajar en un
ambiente investigador, tener la oportunidad de preguntar a los que saben, de
hablar con investigadores prestigiosos y con profesores, la posibilidad de
conocer lo que están haciendo otros investigadores que empiezan o no hace
mucho que empezaron.
Delimitar el campo de investigación y conocer el estado de la cuestión
requiere el aprendizaje de la terminología propia del campo del saber, muchas
horas de relaciones con otros investigadores y, de manera especial, muchas
horas de lectura no solo bien orientada y comprendida, sino también bien
clasificada para las posteriores referencias.
Es, asimismo, oportuno recordar que, en una primera aproximación, la
actividad científica se dirige a dos objetivos generales:
• Conocer la naturaleza de las cosas. En el campo de las ciencias sociales,
las cosas que ocurren en el comportamiento de las personas y de las
comunidades.
• El dominio controlado de esto que ocurre.
Siempre todo nuevo conocimiento es resultado del intento de solucionar un
problema concreto. Por ello, en el proceso que transcurre desde delimitar el
campo hasta concretar la pregunta de investigación, el investigador debe
tener presente si su esfuerzo se va a orientar a conocer la naturaleza de las
cosas, o al dominio controlado de lo que ocurre, o ambos objetivos al mismo
tiempo.
En las ciencias sociales, ciencias humanas, existen factores que no se
pueden sujetar a una experiencia repetida y controlada, porque se relacionan
con la libertad del hombre. En el campo de las ciencias sociales hay muchos
aspectos de la realidad que están relacionados con características que el
hombre posee, características que están por encima de lo material. Lo
importante es conocer al hombre, y en el estudio científico y experimental de
su comportamiento, no se puede pretender agotar la realidad de lo que se
estudia. Por eso, en muchas ocasiones, la investigación tratará de buscar
mejores soluciones a unos problemas que nunca podrán considerarse
definitivamente resueltos44.
Finalmente, tener en cuenta que si aquello que se va a estudiar cambia
mucho con el paso del tiempo, es difícil acumular conocimientos. Además,
por otra parte, la mera acumulación de datos no siempre conduce a alcanzar
nuevos conocimientos. Todo el secreto del método científico reside en la
buena disposición para aprender de los errores cometidos» (Popper, 2010, p.
179). «La ciencia se vale por igual de la experimentación y del pensamiento»
(Popper, 2010, p. 437).

14.3. Una ojeada al conjunto del proceso de investigación


Es habitual que la pregunta de investigación cambie o, al menos, evolucione,
conforme se avanza en el conocimiento del campo de investigación. Es decir,
en el conocimiento del estado de los saberes sobre los problemas que el
investigador cuestiona y a medida que se conoce más y mejor diversos
elementos de la realidad de la cuestión que quiere plantearse y resolver.
En efecto, existe una relación «circular» entre los elementos del proceso, la
delimitación del campo de investigación, aprendizaje del estado de la
cuestión, la consecución de recursos, el diseño del método de investigación y
su implantación. Esta relación circular da lugar a que un avance positivo en
uno de los elementos ayude a avanzar en varios de los demás. Y es al
mantener esta relación circular de forma positiva cuando se concreta, se
descubre y describe con más rigor. Se «afina», en fin, el problema a
investigar.
En estas ojeadas al conjunto del proceso de investigación, hay que
mantener encendido el foco del realismo que, con frecuencia, conduce a
«disminuir el ancho», a reducir, a estrechar el campo de investigación, y a
concretar con más precisión la pregunta de investigación. La pregunta de
investigación puede ser más o menos amplia, pero siempre debe ser concreta
y estar rigurosamente formulada.
En este realismo tiene especial importancia el juicio prudente acerca de los
recursos disponibles y de los que se pueden allegar. Recursos que van más
allá de los económicos, aunque estos son siempre importantes. Recursos
como el tiempo de que se dispone; como el apoyo de personas expertas en el
campo y en los métodos, apoyo que, por razones de fuerza mayor, puede
resultar escaso. La existencia de un número suficiente de situaciones reales
que permitan construir la muestra adecuada en un tiempo razonable, o de la
existencia de una situación en la que se tiene posibilidad cierta de llegar hasta
el final del análisis. Resulta frecuente que los fallos en este recurso se
presenten cuando el investigador piensa que se encuentra casi al final del
proyecto.

14.4. La pregunta de investigación


En la acertada definición de esta pregunta, acertada por su concreción, rigor e
importancia del problema que se quiere estudiar, acostumbra a encontrarse el
germen de la investigación. Es ella la verdadera fuente del diseño del método
que seguir. Esta pregunta tiene que huir de lo que conduce a redescubrir lo ya
conocido, de resolver problemas triviales y de que su contestación sea un
simple añadir datos que no aportan nada.
En la estructuración de la pregunta hay que tener en cuenta a qué tipo de
afirmación científica puede conducir su respuesta:
• Una afirmación definitiva y cierta.
• Afirmaciones que son ciertas en el marco de determinadas condiciones.
• Afirmaciones que gozan de algún apoyo.
• Solo una hipótesis.
El conocimiento de buena parte de los problemas de las ciencias sociales es
un conocimiento parcial, perfectible y contextual.
La investigación puede tratar de axiomatizar, proponiendo principios
generales y verdades tan evidentes45 que no necesitan explicación.
Asimismo, la investigación puede tratar de deducir de los axiomas un
conjunto de enunciados, o de completar los enunciados ya descubiertos, hasta
llegar a formar una teoría.
La investigación puede tratar de reformar un paradigma46 en el que alguna
pieza no ajusta tan bien como debería, o de añadir nuevas piezas al
paradigma.
La investigación puede tratar de proponer o reformar modelos
conceptuales, en los que se aíslan algunos aspectos de la realidad para
simplificarla y, así, hacer viable su estudio.
Cuando no hay evidencia racional en la resolución de un problema, hay que
partir de hipótesis y comprobar sus causas y sus consecuencias. La
formulación de hipótesis, como suposiciones que se hacen para sacar de ellas
consecuencias en el esfuerzo de su comprobación, y la formulación de
predicados como afirmaciones que se hacen sobre el sujeto de la suposición,
es el procedimiento más habitual de definir el problema a investigar.
Asimismo, es habitual explicitar la pregunta de investigación formulando
hipótesis.
En general, en ciencias sociales, las hipótesis no se pueden verificar,
porque no se pueden comprobar en su totalidad o plenitud. Su verificación
positiva sí que puede añadir evidencia, o dar algún apoyo a alguna verdad
científica. El esfuerzo de la comprobación de una hipótesis puede dar lugar a
la formulación de una mejor hipótesis.
«¿Cuándo una hipótesis científica es mejor que otra hipótesis? La respuesta
es: la ciencia es una actividad crítica. Examinamos críticamente nuestras
hipótesis. Las criticamos a fin de encontrar errores, en la esperanza de
eliminar los errores y así estar más cerca de la verdad.
Consideramos que una nueva hipótesis es mejor que otra si satisface los
tres requisitos siguientes. En primer lugar, la nueva hipótesis debe explicar
todas las cosas que explicaba con éxito la hipótesis antigua. En segundo
lugar, debe evitar algunos de los errores de la antigua hipótesis. En tercer
lugar, debería explicar, a ser posible, cosas que no pudieron ser explicadas o
predichas mediante la antigua hipótesis». (Popper, 2015, p. 62).
La verificación de una hipótesis siempre está sujeta a la falsedad del
consecuente, es decir, a que se produzca una posterior comprobación
negativa de lo que se había afirmado. Por otra parte, la afirmación procedente
de una hipótesis no tiene valor demostrativo si el mismo fenómeno puede ser
explicado con otra hipótesis distinta.
Se llega hasta donde se puede sin olvidar que «el ahondar en la verdad no
se logra solo por análisis de las diversas especialidades, sino reuniendo, es
decir, con la síntesis» (Sellés, 2013, p. 99).

14.5. Diseño del método


Toda explicación de un problema consiste en explicar hechos a través de sus
causas con un rigor lógico y sistemático. Es deducir, procediendo por
conexión lógica de lo general a lo particular, para posteriormente inducir,
también por conexión lógica, principios generales de los casos concretos.
El método científico utiliza la experiencia, el razonamiento, la deducción y
la inducción como cánones del conocimiento que sirven para juzgar sobre la
validez de cualquier tipo de saber de la realidad.
Si se parte de una experiencia, esta es correctamente interpretada y se
razona rigurosamente, se llegará a conclusiones correctas.
En el conocimiento se puede dar error, y de hecho se da, por eso el
conocimiento se somete a pruebas lógicas.
«Las funciones de la inteligencia son: aprehensión, juicio y raciocinio. El
raciocinio es el movimiento de la mente por el que se procede de varias
verdades conocidas y, al compararlas entre sí, da lugar a una nueva verdad
inteligible que se desconocía» (Gay, 2004, p. 198). El raciocinio puede ser
por deducción y por inducción.
El raciocinio por deducción es una argumentación en la que se procede de
lo general a lo particular. En esta argumentación el intelecto infiere de las
premisas una conclusión. La inferencia es precisamente este vínculo lógico
entre premisas y conclusión. (Gay, 2004, p. 200).
El raciocinio por inducción es una argumentación en la que, partiendo de
hechos conocidos de manera sensible, suficientemente enumerados, el
intelecto infiere una verdad universal (Gay, 2004, p. 206). Inducir es
encontrar una verdad sin cuya existencia no se podrían explicar la presencia
de los hechos particulares.
En la inducción empírica, propia de las ciencias experimentales, en la
generalización de hechos que se repiten y de esos hechos se forma un juicio
universal, se produce certeza si hay una enumeración completa, y se produce
probabilidad si la enumeración es incompleta (Gay, 2004, p. 207).
Tanto en el racionamiento por deducción como en el racionamiento por
inducción, si se estudian aspectos de la realidad que son más estables, se
puede prescindir del tiempo; si tanto depende lo que se estudia del tiempo, la
ciencia no es tan perceptible.
Hechos estos comentarios, parece oportuno entrar en más detalle en qué
experiencia se va a estudiar, cómo se va a investigar, cuáles serán las
características básicas del razonamiento que se va a seguir.
El investigador manifiesta la experiencia sobre la que se quiere trabajar en
la pregunta de investigación y al relacionar esta pregunta con el estado de la
cuestión del correspondiente campo del saber.
El tipo de experiencia sobre la que se quiere investigar condiciona en buena
parte la investigación sea de tipo cuantitativo o de tipo cualitativo. Es decir, si
la argumentación se va a basar en la recogida de una muestra importante de
datos, o por el contrario, en el análisis de un número inferior de ellos.
Con esto se llega a la definición de la muestra, es decir, qué situaciones se
van a estudiar, qué características de tiempo, lugar, tamaño, estructura
interna, etc., deben tener; así como cuál es el número de situaciones que se
deben estudiar.
La definición de una muestra homogénea de situaciones que resulten
comparables, o de varias muestras que permitan el contraste, acostumbra a
ser una de las tareas más importantes de la investigación por métodos
cuantitativos. Y la consecución de un número suficiente de estas situaciones
en un determinado periodo de tiempo es, con frecuencia, la pesadilla del
investigador que no puede olvidar que cuantos más datos corroboren la
conjetura, más verosímil o parecido a la verdad resultará lo que afirma o
niega sobre la cuestión de investigación.
Para recoger e interpretar los datos que se dan en la muestra, las
herramientas habituales en la investigación cuantitativa son los cuestionarios
y las entrevistas breves.
Los cuestionarios están formados por preguntas. Preguntas, en primer
lugar, para conocer lo mejor posible, qué características tienen quienes
componen las muestras, así como para conocer las características de las
personas que contestan el cuestionario. Es decir quién habla y en nombre de
quién habla.
Preguntas, en segundo lugar, relacionadas con la hipótesis, lo que significa
que se ha sabido reducir, modelar, el problema de la hipótesis o un número
no muy elevado de cuestiones. Cada pregunta tiene que pasar por el test de
«para qué esta pregunta», «qué aporta a la confirmación o negación de la
hipótesis» y «qué elementos de la verdad proporcionará su contestación».
La longitud de un cuestionario, el tiempo que la persona tarda en
responderlo, no de cualquier manera, sino dando información real, es una de
las más importantes dimensiones del cuestionario.
Las preguntas de un cuestionario pueden ser posicionales, para determinar
una característica de la situación, cerradas para conseguir una sola cantidad o
elegir una sola cualidad, para pedir una afirmación o una negación; abiertas
para obtener opiniones, interpretaciones u otro tipo de comentarios; y de
contraste para comprobar la exactitud de las contestaciones a otras preguntas.
Las preguntas de un cuestionario no pueden ser ambiguas, de manera que
quien la contesta no sabe que se está preguntando; ni tampoco de muy difícil
respuesta; ni pueden ser preguntas con respuesta pagada.
Tanto para la delimitación de la muestra como para el diseño final del
cuestionario, es oportuno hacer pruebas, es decir, disponer de una muestra
pequeña en la que se observen los posibles defectos de forma o contenido del
cuestionario y se compruebe la utilidad de la información que sobre el
problema estudiado se logra con él.
Todo dato que se consigue es, en cierto modo, un dato interpretado por la
persona que contesta, de aquí la conveniencia de conocer las cualidades de
esta persona, al menos las cualidades que más pueden influir en la pregunta
de investigación. Sin olvidar que la gran mayoría de las cualidades de una
persona son de naturaleza inmaterial y, por eso, es prácticamente imposible
conocerlas a través de cuestionarios.
La información aportada por los cuestionarios acostumbra a ser tratada con
herramientas estadísticas que ayudan al raciocinio, es decir, a descubrir
inferencias y así lograr nuevas verdades por deducción e inducción. El
desarrollo de la estadística es ciertamente notable, como lo es el apoyo que
presta a las ciencias sociales, pero no es la única forma de razonar, ni se
puede confundir un brillante y elegante trabajo de estadística aplicada a un
problema trivial con el avance de que el conocimiento de la verdad se
consigue estableciendo nexos causales, descubriendo inferencias lógicas,
deduciendo e induciendo.
En buena parte de las investigaciones de tipo cualitativo, el conocimiento
de la situación real se pretende lograr por medio de entrevistas, que el
investigador lleva a cabo con protagonistas de la situación o con personas
muy directamente relacionadas con ella.
La elección de la persona que se va a entrevistar es de gran importancia en
la investigación cualitativa, tanto por el conocimiento de la situación que
pueda tener como por su apertura parcial o completa a describirla. El
investigador no puede olvidar que todo dato aportado por una persona es un
dato interpretado por ella. Interpretación que depende de su conocimiento de
la realidad, de su capacidad intelectiva para razonar sobre ella, de su voluntad
para concretar y, quizás lo más importante en la interpretación, de sus
sentimientos y preferencias personales.
De mayor importancia que la persona que se va a entrevistar, es la calidad y
preparación del entrevistador, habitualmente, en buena parte de las ciencias
sociales, el propio investigador. Salvo algunas personas que poseen el saber
conducir una entrevista como cualidad innata, las demás si quieren hacerlo
bien, tienen que aprender a hacerlo.
El entrevistador debe preparar las preguntas de manera que con ellas sea
posible tener una observación clara del problema. Ha de saber reaccionar de
acuerdo con las contestaciones que recibe, cambiando el orden de las
preguntas, añadiendo algunas preguntas y eliminando otras. El entrevistador
administra un recurso escaso, el tiempo del entrevistado, debiendo ser ágil
para mantener el interés y el deseo de contestar de esta persona. Finalmente,
ha de jugar sobre la calidad de relación de las respuestas con el problema; es
decir, si reflejan la realidad o están sesgadas por intenciones, sentimientos y
preferencias de la persona entrevistada.
Las entrevistas habitualmente se clasifican en razón de su profundidad, es
decir, en razón de hasta dónde se quiere llegar en el conocimiento del
problema, de sus causas más hondas y de las características del entorno que
lo rodean.
Las entrevistas pueden ser grabadas para tener así la oportunidad de volver
a oírlas y de que las oigan otras personas, de nuevo sin olvidar que no se
pueden grabar ni los sentimientos ni las intenciones de la persona
entrevistada.
En la investigación de tipo cualitativo en una parte de las ciencias sociales,
por ejemplo, investigación sobre empresa, investigación sobre orientación
familiar para las relaciones conyugales y con los hijos, es frecuente el empleo
de casos.
Los casos son descripciones escritas de la realidad, como es natural,
escritas de la forma más objetiva y completa posible. Habitualmente basados
en entrevistas hechas a los protagonistas, completadas con datos que ayudan
a comprender mejor los aspectos cuantitativos de esa realidad. Naturalmente,
cuanto más completo es un caso, mejor, pero completitud no quiere decir
longitud; y cuánto más tiempo cubra, mejor se conocerán los antecedentes del
problema, y sus consecuencias.
La discusión de casos entre expertos ayuda a comprender cómo es
interpretada la situación por otras personas, acostumbra a ser origen de
nuevos problemas que estudiar, mejora el conocimiento de la situación y
suele producir la comprensión de más inferencias como nexos lógicos.
Recalcar, finalmente, la importancia que tanto en el método cualitativo
tiene el diseño y el cumplimiento de lo que se designa como protocolo de la
investigación. El protocolo es procedimiento adoptado para registrar los datos
observables y observados en relación con los predicados, es decir, con
aquello que se afirma en una suposición. Un protocolo bien realizado permite
que otras personas interpreten los mismos datos o la luz de otras teorías, y el
contraste ayuda a avanzar.

Bibliografía
Agnes, M. (ed.) (2000). Webster’s New World, College Dictionary. IDG
Books Worldwide, Inc., Cleveland, Ohio.
Artigas, M. (2001). Lógica y ética en Karl Popper. EUNSA, Pamplona.
Cruz, J. (ed.) (2010). Metafísica de la familia. EUNSA. Pamplona.
Gallo, M. A. (2016). El poder en la empresa. Libros de Cabecera, Barcelona-
Madrid.
— (2016). Empresa familiar: ¿Sucesión? ¿Convivencia generacional? Reial
Acadèmia de Doctors, Barcelona.
Gay Bochaca, J. (2004). Curso de Filosofía. Rialp, Madrid.
Nueno, J. L. (2016). ¿Puede el Marketing salvar el mundo? Expectativas
para la era de escasez. Real Academia Europea de Doctores, Barcelona.
Popper, K. (2010). La sociedad abierta y sus enemigos. Paidós, Barcelona.
— (2015). En busca de un mundo mejor. Paidós, Barcelona.
Sellés, J. F. (2013). Los tres agentes de cambio en la sociedad civil. Familia,
universidad y empresa. Ediciones Internacionales Universitarias, Madrid.
Zubiri, X. (1985). El hombre y Dios. Alianza Editorial, Madrid.

41 En el campo de los saberes sobre empresa familiar, la contestación, casi habitual, a la pregunta «¿en
qué deseo investigar?» es «en sucesión».
42 Concepto aceptado por la mayoría de las personas en una comunidad intelectual, por su efectividad
en explicar un proceso complejo, idea o conjunto de datos.
43 Por ejemplo, en una investigación en empresa, el objeto material podría ser «el ejercicio del poder
en la empresa», y el objeto formal, «el ejercicio del poder en el proceso de gobierno de la empresa».
44 Recordar aquí el «racionalismo crítico» que Karl Popper describió como la actitud: «Yo puedo estar
equivocado y tú puedes tener razón, per sentémonos juntos y discutamos los asuntos de modo crítico y,
al final, puede que no estemos de acuerdo, pero ambos habremos aprendido algo» (Artigas, 2001, p.
80). «La crítica siempre consiste en señalar las contradicciones» (Popper, 2010, p. 428).
45 Evidencia es certidumbre manifiesta y tan perceptible, que nadie puede dudar racionalmente de ella.
46 Puzzle solving.
15 Investigación en ciencias experimentales y ciencias de la salud

15
INVESTIGACIÓN EN CIENCIAS
EXPERIMENTALES Y CIENCIAS DE LA
SALUD
Albert Bosch (UB y RAED) y M. Àngels Calvo (UAB y RAED)

Objetivos del capítulo

• Aspectos diferenciales de la investigación en ciencias experimentales y en ciencias de la salud, en


relación con otras áreas del conocimiento.
• La importancia de la investigación en la universidad, en estos ámbitos.

15.1. Introducción
Al plantear el desarrollo de la investigación en ciencias experimentales y de
la salud, y fundamentalmente por lo que se refiere al planteamiento y
desarrollo de máster y doctorado, a la luz de la legislación vigente, nos
encontramos frente a varios aspectos en común con los restantes ámbitos de
las ciencias, ya tratados en capítulos anteriores, por lo que en este y con el fin
de no caer en repeticiones innecesarias, destacaremos aquellos que
consideramos más diferenciales y relevantes.
Asimismo, en este capítulo, se aporta la importancia de la investigación en
la Universidad en Ciencias Experimentales y de la Salud, y se destacan
aquellos aspectos en los que consideramos que debería centrarse la
investigación en estos ámbitos.
Debe tenerse en cuenta que en el concepto actual de una sola salud, la
investigación en sanidad abarca la salud, en su globalidad, y destina esfuerzos
de toda índole con el fin de plantear metodologías de estudio e investigación
que permitan alcanzar un completo conocimiento de la misma, al implicar
profesiones de todos los ámbitos de la salud: médicos, farmacéuticos,
veterinarios, odontólogos, enfermeros.
La investigación científica para la salud se debe promover a través de
coordinar los esfuerzos para mejorar los entornos normativos, de
financiamiento y de desarrollo. Su fin debe centrarse en mejorar la salud y el
bienestar de la población mediante la investigación científica.

15.2. Programas de máster y doctorado en Ciencias Experimentales y


de la Salud. Etapas que seguir una vez alcanzado el grado
Obtenido el grado, debe tenerse en cuenta que la ley actual indica que es
indispensable seguir los estudios para la obtención de un máster, puerta de
entrada a los estudios de doctorado. Sin embargo, aquellos grados de cinco o
más años de duración implican que, tras su obtención, el graduado superior
(equivalente a la anterior licenciatura) puede iniciar directamente los estudios
de doctorado, sin precisar la realización de un máster y tras la aprobación de
su inclusión en un programa de doctorado por la comisión preceptiva de la
escuela de doctorado.
Si se ha obtenido un grado de cuatro años, antes de los estudios de
doctorado y como inicio de los mismos, el futuro doctor deberá inscribirse en
un programa de la universidad elegida y, una vez aceptado en el mismo,
deberá llevar a cabo los cursos teórico-prácticos que incluya el programa, así
como el trabajo final de máster que deberá defender frente a una comisión
creada para tal efecto.
Máster y trabajo de final de máster
El máster implica la asistencia y participación del estudiante en un programa,
en el que deberá cursar las asignaturas programadas, así como prácticas de
laboratorio tutorizadas.
La obtención del título de máster implica la elaboración y presentación del
trabajo final de máster.
Se trata de un trabajo de investigación que deberá dar constancia de la
capacidad del alumno para participar en todas las fases del proyecto de
investigación, dirigido por su tutor y con el seguimiento anual de la comisión
ad hoc.
El trabajo final de máster se puede desarrollar eligiendo una de las
siguientes opciones:
1. Un estudio de revisión bibliográfica de un trabajo de investigación, cuyo
proyecto fue previamente aprobado por el director y tutor, conforme a lo
definido en el programa.
2. Un estudio planteando un proyecto de investigación, desarrollando el
apartado de introducción, objetivos y material y métodos, y planteando
posibles resultados y aplicaciones.
En ambos casos, el estudio elaborado se debe defender ante un tribunal
que, tras la exposición del mismo, planteará dudas y preguntas sobre
planteamiento y metodología, así como sobre la viabilidad del proyecto
presentado.
El aumento del número de estudios de investigación y tesis doctorales
escritas, supervisadas o evaluadas por médicos de atención primaria es una de
las consecuencias positivas de la creciente presencia de la medicina familiar
en las universidades. Las tesis doctorales se han considerado siempre como
una modalidad de literatura gris y, por ello, de difusión muy limitada a pesar
de los hallazgos que contengan. Por este motivo se han establecido normas en
las diferentes facultades de medicina que contemplan la posibilidad u
obligatoriedad de publicar el contenido de la tesis, en parte o en su totalidad,
antes de su defensa, y en muchas universidades se acepta la presentación de
tesis por compendio de publicaciones (TCP).
En el caso del médico de familia que lleva a cabo la elaboración de una
tesis, debe decidir, en colaboración con sus directores, qué formato es el más
apropiado, teniendo en cuenta las normas de la universidad, las ventajas de
cada uno, el contenido de la tesis, la metodología que emplear y las
circunstancias personales y profesionales de las personas implicadas en el
proyecto.
En los estudios epidemiológicos, la singularidad del paquete de datos
propio, confeccionado con los permisos éticos adecuados, se ha visto
remplazada por la posibilidad de acceder a tamaños de muestra más grandes,
recogidos en redes de datos, tanto en el plano de la biología básica como en
el epidemiológico. La aparición del software libre para el análisis estadístico
de los proyectos epidemiológicos ha sido otro hito; nos referimos
principalmente al programa R, diseñado por dos profesores de estadística
neozelandeses y que en la actualidad es un fenómeno global.
Las expectativas iniciales que tuvo el aprendizaje virtual no se han
alcanzado de forma completa, y ello hace imprescindible un modelo mixto,
en el que si bien el trabajo y la interrelación a través de ordenador es
importante, no puede reemplazar de forma absoluta la relación personalizada,
y por ello se impone una enseñanza semipresencial.
Aspectos previos al inicio de la tesis
a) Elección del tema o del proyecto de investigación
Se llevará a cabo de común acuerdo con el director de la tesis y en
función de las líneas de investigación del grupo al que se incorpora el
doctorando.
b) Selección y descripción de los participantes
Se debe describir claramente el diseño del estudio, la selección de los
participantes en el estudio observacional o experimental (pacientes o
animales del laboratorio, incluyendo los controles), los criterios de
exclusión e inclusión y una descripción de la población de origen.
Cuando la relación de las variables con el objetivo de la investigación,
tales como la edad y el sexo, no esté clara, se deben justificar los criterios
utilizados. El objetivo principal en este apartado consiste en exponer con
claridad cómo, por qué y de qué modo se ha hecho el estudio. Cuando los
autores utilicen las variables de raza o etnia, deberán definir cómo se
miden estas variables y justificar su relevancia.
Ética y legislación
En España, el derecho de privacidad de los pacientes está protegido por el
consentimiento informado, regulado por la Ley 41/2002, de 14 de noviembre,
básica reguladora de la autonomía del paciente y de derechos y obligaciones
en materia de información y documentación clínica, que se debe adjuntar a la
tesis en el caso de haberlo necesitado para la realización del estudio.
Cuando los sujetos de la experimentación sean seres humanos, el autor
deberá indicar si los procedimientos seguidos están de acuerdo con las
normas éticas de la Declaración de Helsinki y han sido revisados y aprobados
por el comité ético institucional donde se realiza el trabajo de investigación.
En los experimentos con animales, se deberán seguir también las
instrucciones legales nacionales y comunitarias correspondientes.

15.3. Publicaciones científicas en ciencias experimentales y de la salud


En las publicaciones que se generan a partir de la investigación realizada, en
el apartado de metodología, se suele incluir una sección de materiales. En
esta sección se hace una descripción ordenada de los diferentes materiales, así
como las técnicas analíticas empleadas. Se deben identificar con precisión
todos los fármacos y sustancias químicas utilizadas, incluyendo nombres
genéricos, dosis y vías de administración.
Cuando es pertinente, se debe mencionar el lugar donde se trabajó, sus
características geográficas y climáticas, el tipo de animales empleados (peso,
edad, raza, sexo), su manejo veterinario y zootécnico, la forma en que fueron
alojados, el alimento y el agua proporcionados (composición de las dietas,
cantidades ofrecidas, frecuencias de alimentación), pesos y, si es el caso, el
método de sacrifico.
A continuación, se aportan los detalles de los muestreos (tipo de muestra,
frecuencia, cantidad) y los métodos para su conservación. Se debe describir el
diseño estadístico, el modelo experimental, las repeticiones y la unidad
experimental.
Posteriormente se anotan los métodos de laboratorio. En este caso, se dan
los detalles solamente de aquellas técnicas nuevas o modificadas. Las que son
de uso rutinario solo son mencionadas a través de las referencias
correspondientes.
Tipos de artículos
La producción científica puede aportarse de forma escrita en distintos
formatos, que darán lugar a artículos en el ámbito de las ciencias
experimentales y de la salud.
Los distintos tipos de trabajos o artículos se resumen en:
• Original.
• Revisión.
• Original breve.
• Diagnóstico y tratamiento.
• Nota clínica.
• Artículo especial.
• Carta al editor.
• Conferencia clínica.
• Carta científica
• Conferencia clínico-patológica.
• Editorial.
• Conferencia de consenso.
• Series.
• Reportajes.
• Crítica de libros.

15.5. La investigación en la Universidad en Ciencias Experimentales y


de la Salud
El entorno científico universitario
La universidad es la institución social a la que corresponde impartir el nivel
superior de la enseñanza. Esta responsabilidad es crítica, ya que determina en
parte el futuro profesional de un enorme número de estudiantes y la
capacidad técnica y científica de nuestra sociedad. Además de este
importante papel, la universidad debe representar el papel de centro de
investigación y de producción de cultura.
La universidad puede definirse como la institución social a la que compete
el cultivo, desarrollo y transmisión de la ciencia y de la cultura en general, así
como la formación de profesionales para el ejercicio de actividades que
requieren unos conocimientos de nivel elevado y competitivo. Podemos
resumir los objetivos de la universidad de este modo: la transmisión de los
conocimientos a través de la actividad docente y la adquisición de nuevos
conocimientos a través de la actividad investigadora.
La universidad debe mantenerse abierta, crítica y activa ante la sociedad en
la que vive inmersa. En los últimos años, el gran avance tecnológico de la
mayoría de los sectores productivos de la sociedad ha condicionado las
relaciones entre el hombre y su trabajo. Así pues, la universidad, que está
plenamente implicada en la formación de los profesionales del país, se ve
ante el reto de un continuo y rápido reciclaje en la adquisición y transmisión
de nuevos conocimientos. Ello obliga a una mayor intercomunicación y
participación con las empresas y entes públicos. También requiere la
contribución y colaboración en los Planes Nacionales de Investigación del
país para unir esfuerzos ante los retos culturales y técnicos comunes de
nuestra sociedad.
El profesor universitario, en sus labores mentoras, debe motivar, enseñar a
aprender, estimular el deseo de conocer en el discípulo y potenciar la
creatividad en sus tareas investigadoras. El mentor en un grupo de
investigación debe transmitir vivencialmente el espíritu crítico e innovador
que caracteriza a la ciencia e interesar a sus discípulos en sus valores. Podría
ello resumirse en las siete reglas propuestas por San Bernardino de Siena
(1380-1444) el año 1427 a los profesores y estudiantes de la Universidad de
Siena:
1. Enamorarse del saber.
2. Discernir y prescindir de lo innecesario.
3. Disponer de paz y equilibrio interno.
4. Mesura en todo.
5. Perseverancia: voluntad, tenacidad, paciencia.
6. Discreción: conocer nuestras posibilidades y limitaciones.
7. Deleitación en la investigación y en el estudio.
François Jacob (1920-2013), en su autobiografía La estatua interior,
declara haber descubierto en la investigación científica un mundo lleno de
curiosidad, imaginación, y sorpresas; una vida, según sus propias palabras,
llena tanto de pasión como de lógica: «Una actividad de la que uno puede
vivir, viajar, comer y formar una familia mientras pasa la mayor parte del
tiempo propio haciendo lo que a uno le gusta, que parecía un milagro que
sigo encontrando difícil de creer».
Cierto es que la investigación tiene un aura mágica y el médico y escritor
Martin Henry Fischer (1879-1969), famoso por sus citas, que han sido
incluso bautizadas como fischerismos, se refirió a la investigación con la
frase: «Research has been called good business, a necessity, a gamble, a
game. It is none of these — it’s a state of mind». Indudablemente, la
investigación es un estado mental que provoca que difícilmente el
investigador pueda desconectar su mente incluso en los momentos de asueto,
ya que la implicación en encontrar el adecuado camino para lograr los
objetivos propuestos en el proyecto investigador es máxima.
No debe no obstante soslayarse la enorme dificultad de mantener un alto
nivel de competitividad en el actual entorno universitario, donde en muchas
ocasiones la investigación es contemplada como un impedimento para
cumplir con las tareas docentes propias de la universidad. Por otro lado,
mantener el nivel de competencia en las tareas investigadoras con colegas
pertenecientes a instituciones, nacionales o internacionales, exclusivamente
dedicadas a la investigación, es arduamente difícil. No obstante, el propio
Jacob afirmaba que no existe mejor profesor que aquel que transmite a sus
discípulos los conocimientos adquiridos a través de su experiencia
investigadora.
Objetivos de la investigación
1. Favorecer la investigación científica de excelencia
• Fomentar el conocimiento científico básico.
• Perfeccionar los mecanismos de evaluación de la investigación basados
en criterios cuantitativos.
• Diseñar mecanismos de evaluación basados en indicadores de calidad
científica
• Favorecer la creación de grupos de trabajo interdisciplinario que
aborden problemas de investigación biomédica avanzada.
2. Incentivar las actividades de investigación y desarrollo tecnológico
interdisciplinario que afectan de forma prioritaria a la población.
3. Transferir los resultados de la investigación y desarrollo tecnológicos
hacia la toma de decisiones y las actividades en materia experimental y de
salud.
4. Promover la estricta observancia de los códigos nacionales e
internacionales de bioética.
5. Consolidar y desarrollar armónicamente los diferentes grupos de
investigación.

Bibliografía
Camí, J. et al. (2005). «Mapa bibliométrico de España 1994-2002.
Biomedicina y Ciencias de la Salud». Med. Clin,. 124 (3), pp. 93-101.
Gutiérrez, J. A. y Carrasco, M. (2003). «Gestión de investigación
biomédica». En: Gutiérrez, J. A. y Puerta, J. C. (eds.). Reflexiones sobre la
ciencia en España. El caso particular de la biomedicina. Fundación Lilly,
Madrid. pp. 137-66.
Ley 16/2003, de 28 de mayo, de cohesión y calidad del SNS. BOE núm. 128
de 29 de mayo de 2003.
Ministerio de Ciencia y Tecnología (1999). Plan Nacional de Investigación
Científica, Desarrollo e Innovación Tecnológica, 2000-2003. Oficina de
Ciencia y Tecnología, Presidencia de Gobierno.
— (2003). Plan Nacional de Investigación Científica, Desarrollo e
Innovación Tecnológica, 2004-2007. Oficina de Ciencia y Tecnología,
Presidencia de Gobierno.
Poncela, M. L. et al. (2004). «La promoción de la investigación y el
desarrollo tecnológico en la industria farmacéutica: Profarma II». Inv. Clín.
Farm. 1 (2), pp. 31-36.
Secretaría de Salud (2007). Programa específico 2007-2012. Investigación
para la salud. México.
16 Investigación en ciencias humanas

16
INVESTIGACIÓN EN CIENCIAS
HUMANAS
Josep Ignasi Saranyana (UN y RAED) y Josep Maria Sans y Travé (Reial
Acadèmia de les Bones Lletres y RAED)

Objetivos del capítulo

• Discutir sobre el método y los objetivos de la investigación en ciencias humanas.


• Proponer los pasos para llevar a cabo la revisión de la bibliografía y para referenciar
adecuadamente.
• Plantear varias cuestiones que considerar al trabajar con archivos.

16.1. Consideraciones generales


A raíz de la irrupción del positivismo científico, a mediados del siglo XIX, y a
consecuencia de la sombra, cada vez más larga, que proyectaba el
neokantismo sobre la investigación humanística, los estudios humanísticos
quisieron imitar la metodología de las ciencias positivo-experimentales.
Recordemos la famosa expresión de Leopold von Ranke (1795-1886),
considerado el creador de la historiografía positivista, según la cual, la tarea
del historiador es solo ofrecer o describir las cosas wie es eigentlich gewesen
sind, como han sido realmente. Esta fue la reacción de la historiográfica
positivista, por decirlo de alguna manera, ante la historia entendida como una
idea que se desarrolla a lo largo del tiempo, según habían postulado los
autores de la generación siguiente a Immanuel Kant (1724-1804) y anteriores
al positivismo, como Johann Gottlieb Fichte, Georg Wilhelm Friedrich Hegel
y Friedrich Wilhelm Joseph Schelling, por mencionar los más conocidos.
De este modo cuajó paulatinamente la distinción entre la Historie y la
Geschichte, la primera noción referida a la «segunda navegación», como es el
caso del Platón socrático en el diálogo Teéteto, donde fundamentalmente se
interesa por el nivel noético en el que se interpretan los hechos y no solo se
describen; mientras que la segunda expresión quiere significar la escueta
exposición de los hechos, tal como son o fueron, sin ulteriores
especificaciones o lecturas. Ahí está la objetivación elevada a su máxima
expresión.

16.2. De la historiografía positivista a la historia total


La posición de Leopold von Ranke tuvo seguidores en Francia a pesar de la
derrota de Sedan (1870), donde los prusianos deshicieron el Ejército francés.
Gabriel Monod (1844-1912) fundó la Revue historique, que defendía un
discurso histórico estrictamente científico, ajeno a cualquier dogmatismo,
neutral ante cualquier prejuicio y basado en un crítica cuidadísima de las
fuentes. El manual clásico de esta escuela, llamada escuela metódica, fue
Introduction aux études historiques, publicada por Charles-Victor Langlois y
Charles Seignobos, en 1898. La influencia en España de este grupo fue
notable en los primeros años del siglo XX, cuando nació en Madrid la escuela
metódica de los historiadores del Derecho, cuyo representante más conocido
fue don Eduardo de Hinojosa (1852-1919).
No le faltaron contradictores en la escuela metódica. Quizás el más
conocido fue el francés Henri Berr, filósofo, aunque también historiador, que
en 1900 fundó la Revue de synthèse historique. En esta revista colaboraron
desde el primer momento Lucien Febvre y Marc Bloch, que años después
iniciarían, en 1929, la revista más importante para la historiografía de los
últimos cien años: Les Annales d’histoire économique et sociale, que más
adelante, en 1946, ya asesinado por los nazis, Marc Bloch cambiaría su
nombre por Les Annales. Économies. Sociétés. Civilisations. Esta publicación
inició una nueva manera de hacer historia, bautizada como historia total, y
acogió, entre sus colaboradores habituales, a profesionales tan destacados
como Gabriel Le Bras, Fernand Braudel y Jacques Le Goff. La influencia de
Les Annales en España comenzó en 1950, cuando nuestro Jaume Vicens
Vives (1910-1960) fue a París, para participar en el congreso quinquenal del
Comité International des Sciences Historiques (CISH).
Dicha historia total quería armonizar y conjuntar lo mejor de la
historiografía positivista, sin dejar de lado las reflexiones hechas a segundo
nivel, es decir, la especulación con el fin de encontrar una explicación a los
hechos pasados, cada vez mejor conocidos por la investigación archivística;
y, además, tampoco quería omitir ningún evento pasado, no solo la historia de
los grandes protagonistas (emperadores, reyes, papas, guerreros), sino
también la historia real del pueblo (la práctica religiosa, la vida femenina en
el hogar, la economía y el pequeño comercio, las costumbres cotidianas, el
ocio, la estrategia militar, la práctica médica, los cambios demográficos, la
afición por la lectura y las tendencias literarias, los gustos musicales, el
folclore, las modas en el atuendo , etc.).
A pesar del tiempo transcurrido, recomiendo leer la larga introducción de
Jaume Vicens Vives a su monumental Historia Social y económica de
España y América (primera edición en cinco volúmenes, de 1957 a 1959).
Aquí ilustra cómo aplicar a la historia de España y de América Latina las
nuevas corrientes de la escuela metódica, dando todo el protagonismo al
pueblo llano (artesanos, agricultores, comerciantes, pequeños burgueses,
sirvientes de casas buenas, obreros, militares sin graduación, clero bajo, etc.).
Vicens, que había redactado en 1937 su tesis doctoral sobre Fernando II (una
tesis marcada por la escuela metódica), bajo la dirección de don Antonio de la
Torre, medievalista en la Universidad Autónoma de Barcelona que se
trasladó a Madrid en 1939, al terminar la guerra civil, abandonó así la escuela
metódica para pasarse a la escuela total. Y así vinieron sus libros de historia
de la economía, entre los que destacan, por la nueva metodología, las
monografías El gran sindicato remensa (1488 a 1508). La última etapa del
problema agrario catalán durante el reinado de Fernando el Católico
(publicada en 1954) e Industriales y políticos del siglo XIX (salida en 1958),
entre otros.

16.3. La filosofía y las otras ciencias del espíritu


Contemporáneamente, algo parecido ocurrió también en otras áreas de las
ciencias del espíritu (según la tipología de Wilhelm Dilthey [1833-1911]),
principalmente en la filosofía y en la teología. Descartados por los
neokantianos los objetos no directamente experimentables, o sea los que no
están al alcance de nuestra percepción sensorial, como Dios, el alma humana
y más adelante también la sustancia, la filosofía quedó reducida a la historia
de la cultura o del pensamiento, o bien fue subsumida por la sociología, sobre
todo desde que el positivista francés Émile Durkheim (1858-1917) diseñó las
reglas del método sociológico y distinguió las ciencias sociales de la filosofía
y psicología políticas.
Por otra parte, sobre todo en el campo protestante, la teología especulativa,
también conocida como teología dogmática, desapareció de los centros
académicos protestantes, reemplazada por la teología histórica y, muy
particularmente, por la exégesis histórico-crítica de los textos bíblicos y
patrísticos, y la cuidadísima publicación de las fuentes documentales y de las
opera omnia de los principales filósofos y teólogos de tiempo antepasados. A
modo de ejemplo, entre los precursores de esta corriente, hay que citar el
teólogo Friedrich Schleiermacher (1768-1834), contemporáneo de Hegel y
también profesor en Berlín.
Quizás el hito más destacado y pionero de esta voluntad de poner las
fuentes cristianas antiguas y medievales al alcance de todos, incluso de
personas con poco capital, la desarrolló el presbítero francés Jacques Paul
Migne (1800-1875), con su magno Patrologiæ cursus completus, cuya serie
latina consta de 221 volúmenes en folio (1844-1845), mientras que la serie
griega (bilingüe latín-griego) cuenta con 165 volúmenes (1857-1858).
Después vinieron las ediciones críticas, algunas de las cuales todavía siguen
publicándose: el Corpus Scriptorum Ecclesiasticorum Latinorum (Viena,
desde 1866) y Die Griechischen Christlichen Schrift-steller (Berlín-Leipzig,
desde 1897). A estos dos proyectos editoriales se añadieron posteriormente el
Corpus Christianorum (Turnhout, desde 1954) y la serie bilingüe Sources
Chrétiennes (París, desde 1942).
Con respecto a otras ciencias del espíritu (huelga decir, la psicología, la
antropología, la estética, la musicología, la jurisprudencia, la economía, etc.),
el proceso siguió un itinerario análogo. Por ejemplo, la psicología
especulativa cedió el paso a la psicología experimental (que, por otra parte,
alcanzó unos éxitos espectaculares con el descubrimiento de los estratos del
espíritu humano o niveles del consciente); y la antropología rehuyó las
grandes cuestiones que afectan al espíritu humano y la cultura, para volcarse
en el estudio de aspectos parciales de la naturaleza humana, cuantificables
mediante encuestas, pruebas psicotécnicas u otras analíticas cuantitativas,
fagocitada menudo por alguna de las vertientes de la sociología o de la
psicología clínica.

16.4. La elección del tema de tesis doctoral en las ciencias del espíritu

Como es obvio, todavía no hemos salido del todo de esta positivización de las
ciencias del espíritu. Hay que reconocer que al redactar su tesis doctoral (y
más aún si es una tesis de habilitación para la docencia), el doctorando lo
tiene mucho más fácil cuando su tarea consiste en estructurar y sintetizar el
pensamiento de un autor conocido (un filósofo o teólogo o jurista, por
ejemplo) que cuando tiene que enfrentarse directamente con una cuestión
altamente especulativa. Es mucho más difícil inventar y crear que reordenar y
reeditar lo ya dicho. Sin embargo, una tesis doctoral no debería ser nunca,
como se ha subrayado irónicamente alguna vez, un «traslado de huesos de un
armario a otro armario».
Vale la pena, pues, afrontar —cuando el alumno se siente con fuerzas— el
estudio de cuestiones que son más especulativas, como, por ejemplo, ¿qué es
el conocimiento humano y qué lo hace posible; por qué el habla refleja la
realidad extramental y responde siempre a lo que pensamos; por qué Dios es
providente (es decir, interviene en la historia humana), aunque sin cambiar,
por ser acto puro; qué queremos decir cuando hablamos de los límites del
universo; qué es propiamente la sustancia inmaterial y por qué estamos
seguros (hablando filosóficamente) de que el alma humana no puede ser
material, etc.? O en otras vertientes del espíritu humano: ¿qué es el arte y qué
quiere expresar; qué es lo consciente y cómo podemos distinguir entre sueño
y realidad; qué queremos decir (en las ciencias económicas) cuando hablamos
del valor o valía de las cosas; qué significa trabajar desde la perspectiva
antropológica y por qué el hombre es faber; qué entendemos por «justo»,
«contrato» o «proceso» u otros «negocios jurídicos» (cuando nos situamos en
el campo de la jurisprudencia)? Y en las ciencias políticas: ¿qué es la libertad
religiosa entendida como derecho civil y cómo hay que defenderla; cuáles
son los derechos fundamentales del hombre, que deben ser protegidos
constitucionalmente; qué es una nación, según la tradición cultural europea;
cuáles son las relaciones entre orden, justicia y libertad, etc.?
Ahora bien: los temas más especulativos no siempre están al alcance de
cualquier doctorando, y además exigen una gran dedicación por parte del
director de la investigación, que por lo pronto debe conocer bien la materia, a
fin de orientar adecuadamente al discípulo. A menudo, para evitar el fracaso
o la dispersión, será necesario que un tema especulativo se ciña a un
momento histórico o a un autor de primerísima línea. Por ejemplo: estudiar
qué es la sustancia en la metafísica de Aristóteles resultará
extraordinariamente enriquecedor para el doctorando, al ofrecerle un bagaje
de conocimientos que luego le permitirá, a lo largo de su carrera académica,
abordar cuestiones de gran calado y profundidad, y entender el porqué de
otras sistematizaciones filosóficas posteriores. Asimismo, y siguiendo con los
ejemplos, analizar qué es el tiempo según San Agustín (como lo hizo Martin
Heidegger) le habilitará para comprender mejor el estallido del impresionante
debate, en los albores de la modernidad, sobre la naturaleza del cambio, o
hacerse cargo del problema, insoluble hasta ahora para la física, a propósito
de lo que había antes del Big Bang47. O bien, espigar las reflexiones de los
medievales sobre la materia prima le permitirá al recién llegado investigador
adentrarse más adelante, cuando esté más maduro, en la dialéctica entre el ser
(ser o ente) y la nada (ya apuntada por Leibniz y mucho más tarde por
Heidegger). E cosí via, según el dicho italiano.
Sin embargo, un trabajo de máster o de iniciación a la investigación (lo que
antes se llamaba tesis de licenciatura) puede ser mucho más modesto, y debe
serlo. Y si el director de la tesis doctoral tiene espíritu práctico, dicho trabajo
de iniciación puede dirigirse a preparar una cuidadosa revisión bibliográfica,
con vistas a la tesis doctoral, porque hay que leer mucho antes de empezar
una tesis doctoral o de habilitación, que constituyen la cima de la
especialización universitaria. Después de todo, si no se conoce muy bien el
status quæstionis de la materia que se quiere investigar, no vendrán a la
mente nuevas ideas, que nos hagan avanzar por el camino de la innovación.
Por este motivo, una vez determinada la hipótesis de trabajo, que deberá ser
propuesta de ordinario por el director de la investigación, una revisión
bibliográfica bien digerida es fundamental para poder hacer camino. Y eso es,
o tal vez puede serlo, una buena tesis de máster o de grado: una selecta
bibliografía, comentada y criticada de manera pertinente.
En el caso de las ciencias del espíritu y según el tema elegido, el
conocimiento de lenguas es imprescindible, tanto de las lenguas clásicas
(particularmente el griego y el latín) como de las lenguas modernas cultas
(alemán, francés e italiano, además del inglés, que ya ahora todo el mundo
puede leer).
Si la tesis tiene una vertiente más positiva, las lecturas no serán tan
necesarias, lo que repercutirá casi siempre en unas conclusiones más
modestas. Al fin y al cabo, terminar una tesis diciendo que en tal región o
ciudad o país en el siglo XIX la alimentación era deficiente en proteínas
animales, porque solo comían carne una vez al mes y pescado dos veces por
semana; o que las cruzadas del siglo X I I y XIII estallaron, además de por
motivos religiosos, para abrir el camino de las especias (fundamentales para
conservar los alimentos o disimular el mal sabor cuando comenzaban a
pudrirse), es interesante, sin duda, pero no aporta mucha novedad, si no
trascendemos este primer nivel expositivo.
De todas formas, en el mundo de las letras, cada especialidad tiene su estilo
y forma de enfocar la investigación. Por ejemplo, si uno quiere acercarse a la
historia del arte, no debe seguir el mismo camino que si quiere adentrarse en
un estudio filológico. Hay guías que orientan la investigación en ramas
concretas. Por ejemplo, y ya que hablábamos de la historia del arte: Borrás
(2001).

16.5. El modus procedendi y la investigación de bibliografía


Pensemos, a modo de ejemplo, que se quiere iniciar un tesis de filosofía.
Verbigracia: ¿qué se entiende por sustancia (ousía) en el corpus aristotélico?;
bien, ¿por qué la lengua latina premedieval y altomedieval empleó tres
términos para traducir la expresión griega ousía (substantia, subsistentia,
essentia), lo que produjo un revuelo considerable? Puesto que la categoría
sustancia es el principal predicamento entre los aristotélicos (arrinconado por
los fenomenólogos, que pretextaban que solo podemos percibir el fenómeno
y de ninguna manera el noümen), es obvio que cada una de las dos vertientes
mencionadas acerca a asuntos capitales de la cultura contemporánea. Aunque
el tema escogido parece importante y ya ha sido trabajado, quizás se pueden
decir cosas nuevas.
Empezamos, pues, por la revisión bibliográfica sobre la ousía en
Aristóteles.
En las ciencias del espíritu se encuentran casi siempre cuatro niveles o
estratos bibliográficos, que procuraremos individuar en el ejemplo ahora
mencionado.
1. Lo primero es leer algunas obras muy generales, bien escogidas, que
sitúen al investigador en el contexto cultural e histórico del tema. El
doctorando debe conocer cómo era la vida cotidiana en el Ática en el tiempo
de Aristóteles, cómo funcionaba académicamente –por decirlo
anacrónicamente– la enseñanza y la investigación en el Liceo de Atenas,
cómo llegaban las ideas del otro lado del mar Egeo a la capital, cuáles eran
las corrientes filosóficas predominantes en la ciudad, cómo se organizaba la
vida política, etc. Y, además, qué características tenía la lengua griega
entonces y por dónde andaban las ideas estéticas predominantes. Es
imprescindible haber leído la Odisea y algunas obras dramáticas del
momento, dado el caso que queremos ejemplificar.
2. Hay que conocer algunas obras generales sobre el pensamiento de
Aristóteles, por ejemplo los escritos sobre Aristóteles del gran helenista
Werner Wilhelm Jaeger (1888-1961), y algunas obras generales de carácter
filosófico sobre la sustancia en el pensamiento peripatético y posterior (sobre
todo escritos medio platónicos). Es importante no rehuir las voces
correspondientes de los grandes diccionarios (generales y especializados),
algunas de las cuales son pequeñas joyas. Ya que hablamos de un tema
filosófico, hay que considerar el magnífico Ferrater (1994) o el famoso
(Lalande, 1956), que se sigue publicando y revisando.
Los franceses han sido unos maestros en este género. Tienen diccionarios
de todas las materias: de historia general y de todas sus ramas; de
arqueología y lingüística; de teología, espiritualidad y Biblia; de
geografía, etc.
Los estudiosos alemanes no se han quedado atrás. Por ejemplo, para la
antigüedad y el pensamiento clásicos, Pauly et al. (1894-1980), conocida
también como Pauly-Wissowa o más abreviadamente RE, comenzada en
1839, pero terminada definitivamente en la serie de 80 volúmenes y un
volumen índice en 1980, aunque se continúa trabajando con nuevas
presentaciones y nuevos suplementos.
3. Después hay que entrar en el tercer nivel bibliográfico: ensayos
específicos sobre la idea de sustancia en Aristóteles.
4. Seguidamente se ha de empezar la lectura de las obras más significativas
del pensador macedonio, primero en buenas traducciones y después se en la
lengua original, al menos en los pasajes más relevantes, según la edición
crítica más fiable (normalmente la edición de Immanuel Becker [1785-1871]
o derivadas de esta).
5. Llega el momento de redactar un boceto de esquema, que habrá que
discutir con el director de la tesis, para que refleje bien la hipótesis de trabajo.
Las conclusiones de la tesis deben surgir de la investigación realizada y
expuesta en los capítulos anteriores, y nunca jamás las conclusiones deben
ser un mero resumen de la tesis, sino un paso adelante. La introducción es la
última pieza que se ha de redactar.

16.6. Algunas cuestiones metodológicas


En las ciencias del espíritu es muy importante que la bibliografía citada vaya
al pie de página o, como mucho, al final del capítulo, con la expresión bien
precisa del título y la página, para que se pueda comprobar por parte del
lector la autenticidad de la cita.
Siempre hay que decir de dónde se toma una idea (aunque el aparato crítico
a pie de página se engorde mucho), a no ser que la idea sea tan común que no
valga la pena apoyarla en ningún autor. El plagio está muy mal visto y puede
ser el fin definitivo de una carrera científica y académica. No es necesario
citar a nadie para decir que en invierno se hiela el mar Báltico o que los
mosquitos necesitan agua para reproducirse. En cambio, si se argumenta que
una vez, en el siglo XVII, se congeló el canal de la Mancha, y que por ello la
armada holandesa fue destrozada por los ingleses, al no poder maniobrar, hay
que referir de dónde se ha sacado el dato, porque es relevante para la
argumentación.
Si el libro citado ha tenido más de una edición, hay que indicarlo, porque la
paginación puede cambiar o la redacción puede ser diferente (no es
infrecuente que un autor cambie su punto de vista al preparar una nueva
edición de su obra, como fue el caso de Immanuel Kant al publicar la
segunda edición de su Crítica de la razón pura). No basta con una referencia
genérica, que remita a la bibliografía final, como las investigaciones en
ciencias experimentales, pues las publicaciones de las ciencias positivas a
menudo son muy cortas, sintéticas y escuetas, mientras que las publicaciones
de las ciencias humanas o del espíritu suelen ser largas, densas y pesadas. El
contexto de una afirmación bibliográfica, dentro de la obra de la que se ha
tomado, es muy importante, para captar el sentido exacto de la citación y
poder seguir el razonamiento de la tesis doctoral. Hay que evitar siempre la
descontextualización.

16.7. Normas de citación bibliográfica


Las normas de citación bibliográfica son algo variadas. A grandes rasgos,
primero se transcribe el nombre del autor (si está al alcance del doctorando,
cabe citar el nombre completo, porque a veces los apellidos no son suficiente
indicación). Después viene la referencia al título del libro o del ensayo, sin
abreviaciones, al menos la primera vez que se cita. Hay que indicar
seguidamente, cuando se trata de una monografía, la ciudad y el año de
edición y la página o las páginas citadas. La editorial se puede dejar, aunque a
menudo es importante, porque hay editoriales que tienen mucho prestigio o
bien porque así se orienta al lector, caso de querer comprar tal monografía
(además, y aunque no se haga a pie de página, se recomienda referir la
editorial, en la bibliografía final de la tesis).
Cuando es un ensayo publicado en una revista, se dará el nombre exacto de
la revista o bien su abreviatura reconocida universalmente. Hay guías de
abreviaturas de revistas. La más conocida para materias teológicas y otras
disciplinas cercanas es Schwertner (1992).
En Cataluña hay una guía muy bien hecha (Borrell et al., 2008).
Muchas de las grandes revistas ofrecen también una relación de
abreviaturas de otras revistas y de las colecciones más destacadas, y siempre
cada una de las revistas científicas da sus siglas propias, que es como quiere
ser citada.
La bibliografía final debe estar muy bien trabajada y seleccionada. Es
mejor no inflarla, es decir, nunca citar libros que no se han consultado,
porque el tribunal lo descubrirá fácilmente y les causará mala impresión.
¡Fuera, pues, las obras que no se han utilizado para la demostración de la
hipótesis de trabajo! Es importante que no haya errores ortográficos, sobre
todo cuando se citan obras en otros idiomas, porque podrían ser una señal de
que el alumno no conoce esas lenguas.
Lo habitual es dividir la bibliografía en tres capítulos: fuentes (si son
documentos inéditos hay que indicar el archivo al que pertenecen y la
catalogación bien exacta), bibliografía general (muy bien escogida) y
bibliografía específica.
Los títulos originales que no vayan en el alfabeto latino (árabe, cirílico,
sánscrito, hebreo, etc.) se pueden transliterar, según los convenios
internacionales, salvo el griego, que hay que dar en caracteres griegos.
A modo de orientación de cómo se puede desarrollar formalmente una
investigación que conduzca a un tesis doctoral de letras, véase, por ejemplo,
las normas ofrecidas por la Universidad de Navarra:
http://www.unav.edu/web/facultad-de-teologia/doctorado-en-sagrada-
teologia/normas-para-presentar-la-tesis

16.8. Los archivos


La documentación conservada en los archivos puede ofrecer una nueva
perspectiva o nuevas luces sobre un asunto ya conocido, ofrecer la solución a
una cuestión discutida o descubrir una materia hasta ahora insospechada. Hay
que tener muy buen olfato para orientarse en un archivo y poder sacar
provecho. No se recomienda entrar en un acervo documental, si no se sabe
muy bien qué se busca. Ir a ver si hay suerte, sería perder el tiempo. A veces
hay que hablar con el archivero y ganarse su confianza para levantar la liebre,
a pesar de que los archiveros suelen ser muy reservados. Si se hace un
descubrimiento, hay que pedir la autorización para publicar los documentos
encontrados y luego enviar al archivo la publicación que ha salido.
Es importante que los manuscritos que se trabajan (y se publican como
documentación de la tesis) hayan sido cuidadosamente paleografiados, sin
errores. Los conocimientos paleográficos son insoslayables, si se trabaja en
un archivo. Si se encarga la transcripción a un profesional, habrá que
confrontar el resultado con el original, porque a menudo los paleógrafos
tienen la técnica pero desconocen el tema.
Para orientarse en los archivos, hay algunas guías espléndidas, que
incluyen también bibliografía. Se recomienda especialmente la extraordinaria
Martí (2001), también Inspección General de Archivos de España (1972) y la
más antigua y modesta, pero todavía útil, Baucells (1978).

Bibliografía
Baucells, J. (coord.) (1978). Guia dels arxius eclesiàstics de Catalunya,
València, Balears. Presentación de Àngel Fàbrega y Grau, Arxivo
Capitular de la Catedral de Barcelona-Secretariado de Archiveros
Eclesiásticos de Cataluña, Barcelona, pp. 62.
Borrás, G. M. (2001). Cómo y qué investigar en historia del arte. Una crítica
parcial de la historiografía del arte española. Ediciones del Serbal,
Barcelona, pp. 205.
Borrell, A., Castanyé, J., Montserrat, J., De Puig, J., Puig, A. y Rius-Camps,
J. (2008). Llibre d’estil per a escrits de teologia i filosofia. Facultad de
Teología de Cataluña-Facultad de Filosofía de Catalunya-Asociación
Bíblica de Cataluña, Barcelona.
Eco, U. (2010). Cómo se hace una tesis. Técnicas y procedimientos de
estudio, investigación y escritura, Gedisa, Barcelona, p. 233.
Ferrater, J. (1994). Diccionario de Filosofía. (Edición revisada, aumentada y
actualizada por Josep-Maria Terricabras). Ariel, Barcelona, 4 vols.
Inspección General de Archivos de España (1972). Censo-guía de archivos
españoles. Ministerio de Educación y Ciencia (Dirección General de
Archivos y Bibliotecas), Madrid. pp. 1061.
Lalande, A. (1956). Vocabulaire technique et critique de la philosophie.
Presses Universitaires de France, París.
Martí, J. M. (dir.) (2001). Guía de los Archivos de la Iglesia en España.
Barcelona, Archivo Diocesano de Barcelona-Asociación de Archiveros de
la Iglesia en España-Ministerio de Educación, Cultura y Deporte, pp. 1044
(con una amplísima información sobre archivos y muy buenas referencias
bibliográficas). Disponible en: http://www.mecd.gob.es/cultura-
mecd/dms/mecd/cultura-mecd/areas-cultura/archivos/recursos-
profesionales/documentos-tecnicos/ArchivosIglesia.pdf
Pauly, A., Wissowa, G., Kroll, W., Witte, K., Mittelhaus, K. y Ziegler, K.
(eds.) (1894-1980). Paulys Realencyclopädie der classischen
Altertumswissenschaft:neue Bearbeitung. J. B. Metzler, Stuttgart.
Schwertner, S. (1992). Internationales Abkürzungsverzeignis für Theologie
und Grenzgebiete., Walter de Gruyter, Berlín.

47 Una nueva prueba de que las ciencias experimentales o positivas plantean cuestiones diferentes, no
ajenas, pero si alejadas de los intereses de las ciencias del espíritu, son unas palabras de John Mather,
premio Nóbel de Física: «El universo no tiene centro. No tiene márgenes ni límites. No tuvo un primer
momento, que es lo contrario de lo que la gente considera cuando piensa en el Big Bang. No comenzó
con un bang. [...] No comenzó. No hay un momento cero, porque habría debido ser un momento de
densidad infinita, lo cual no es posible. Todo lo que hacemos en física tiene que ver con procesos.
Tiene que haber una cosa ya existente que se transforme en una cosa diferente. No podemos decir que
no había nada y que después hubo alguna cosa» (La Vanguardia, 11 de octubre de 2016, p. 28).
17 Investigación en ciencias tecnológicas

17
INVESTIGACIÓN EN CIENCIAS
TECNOLÓGICAS
Jaime Rodrigo de Larrucea
(UPC y RAED)

«La historia de la civilización es, en cierto sentido, la historia de la ingeniería de la larga y ardua lucha
para hacer que las fuerzas de la naturaleza trabajen a favor del bienestar del hombre».
L. Sprague de Camp (1963). The ancient engineers

Objetivos del capítulo

• Comprensión de la relación entre ciencia y tecnología.


• Notas características del proceso científico en la tecnología.
• La evolución de la investigación en ingeniería en un mundo cambiante
• La interacción entre tecnología y arte en la arquitectura.
• La investigación en la arquitectura: sus claves y futuro.
• La relación entre universidad e industria: los doctorados industriales.
• El resultado de la investigación tecnológica: las patentes tecnológicas: patentes y modos de
utilidad. Las patentes de software.

17.1. Introducción: la relación entre ciencia y tecnología


El objeto del presente capitulo es introducir las peculiaridades y principales
notas características de la investigación en el campo de las llamadas ciencias
aplicadas, entendiendo por tales aquellas que suponen la aplicación del
conocimiento científico de una o varias áreas especializadas de la ciencia
para resolver problemas prácticos. Frente a las ciencias aplicadas aparecen las
ciencias básicas, caracterizadas por una utilización de la investigación para la
profundización del saber científico, pero sin aplicación práctica inmediata.
La tecnología y la ingeniería constituyen la aplicación material del
conocimiento científico y producen resultados prácticos. Los científicos
trabajan con la ciencia y los ingenieros con la tecnología. Sin embargo, la
ingeniería se desarrolla al combinar ciencia y tecnología, al intentar resolver
problemas planteados por la industria o por las necesidades humanas. No es
por tanto excepcional que los científicos se vean comprometidos en el
desarrollo de la tecnología y de la ingeniería por las aplicaciones de sus
descubrimientos. En igual sentido que los científicos se vean implicados en
nuevos retos o caminos derivados de preguntas o cuestiones prácticas
planteados por los ingenieros. La ingeniería es una actividad que transforma
el conocimiento en algo práctico. Resulta muy expresiva y lúcida la famosa
frase de Asimov: la ciencia puede divertirnos y fascinarnos, pero es la
ingeniería la que cambia el mundo.
La vinculación es tan fuerte que ha dado lugar en las fases iniciales de
formación del investigador a una nueva modalidad de doctorado
característica de este ámbito: el doctorado industrial (Engineering Doctorate-
Eng). Con origen en Inglaterra en 1992, el joven investigador trabaja en su
investigación durante cuatro años de la mano de un socio industrial que
además ejerce el patrocinio. Este esquema ha sido incorporado recientemente
en nuestro país. Supone en el plano conceptual un nuevo esquema de
investigación frente al clásico doctorado (PhD).
En este campo surgido de la búsqueda de soluciones prácticas del mundo
real, son características la pluridisciplinaridad del enfoque y una mentalidad
abierta, actitudes que quedan reflejadas en la siguiente cita de Albert
Einstein: «Una locura es hacer la misma cosa una y otra vez esperando
obtener resultados diferentes. Si buscas resultados distintos, no hagas siempre
lo mismo». Por otra parte, la resolución de un problema debe ser abordada
desde varias perspectivas y animada por un espíritu tenaz de búsqueda: «Lo
importante es no dejar de hacerse preguntas».

17.2. Notas características del proceso científico en la tecnología


El desarrollo de investigaciones en ingeniería resulta ser un campo de estudio
de gran complejidad, sobre todo porque no existe una literatura específica
sobre esta actividad, a diferencia de lo que ocurre en ciencias básicas. La nota
de aplicabilidad y el enfoque pragmático típicos de la ingeniería hacen que no
existan, o bien que sean muy escasas, las reflexiones originales sobre
métodos de investigación comparables a los de otras materias. La filosofía de
la ciencia y la epistemología pueden aportar reflexiones en este sentido, pero
ciertamente la filosofía de la ingeniería es una materia muy ocasionalmente
tratada en el ámbito académico (Mitcham, Ellul, Jonas) y casi exclusivamente
relacionada con el debate de la ética en el mundo tecnológico.
La ingeniería es una disciplina que participa de las ciencias, pero se
concreta en una praxis que persigue la mejora de la vida mediante la solución
técnica de problemas; y para ello emplea una metodología propia: el método
de diseño en ingeniería (Krick, Wrigth), un método diferente al de la
investigación clásica en ciencia, pero próximo a él48. La ingeniería comparte
elementos teóricos y paradigmáticos con las ciencias en general, pero los
adapta para usos particulares y específicos, singularmente en el área del
desarrollo tecnológico. En la ingeniería sobresale un énfasis positivista por el
que se otorga la mayor relevancia posible al conocimiento objetivo, medible,
contrastable y verificable. Así, la producción del saber en las disciplinas de la
ingeniería tiene un fuerte carácter empírico49.
El proceso de investigación en la ingeniería es fundamentalmente
instrumental, en contraste con el método científico puro, cuya esencia es de
carácter teórico o no aplicado. Ello se debe a que los problemas que se
resuelven en ingeniería pertenecen al orden de la realidad y, para abordarlos,
el ingeniero no solamente debe aplicar ciencia, sino también conocimiento
heurístico de primer orden, de manera que sea posible transformar un
problema abierto en uno cerrado. Si un problema pertenece al dominio de lo
real, puede presentarse en estados y manifestaciones cambiantes, con
independencia del ingeniero que intente abordarlo; en otras palabras, la
resolución y el control de un fenómeno problemático es relativo en
ingeniería, a diferencia de lo que ocurre en el caso del ámbito puramente
científico.
Por la misma naturaleza de la materia que tratan, los trabajos de
investigación en ingeniería suelen ser aplicados, muy concretos; y, en
consecuencia, tradicionalmente no ha sido fácil publicar sus resultados en
revistas científicas internacionales.
Los problemas en ingeniería se diferencian de los problemas de la ciencia
en general en ciertos rasgos básicos enumerados a continuación y sin carácter
exhaustivo:
1. La necesidad de mejorar de la vida humana en un sentido tangible. Se
trata de una premisa práctica y a la vez ética que orienta toda actuación en el
campo de la ingeniería.
2. El enfoque multidisciplinar: en la resolución de los problemas de
ingeniería se utilizan instrumentos tanto de ciencias básicas como de ciencias
sociales, pero también de ciencias humanas. El problema se aborda de
manera práctica, lo que acepta y permite distintas aproximaciones y caminos.
3. En cualquier desarrollo de la ingeniería existe una marcada orientación a
la invención y a la mejora de dispositivos, diseños, componentes o sistemas
existentes, de manera que el trabajo del ingeniero se traduce con frecuencia
en nuevas patentes (invenciones) o en nuevos modelos de utilidad (ideación
de nuevos procesos).
4. De manera particular, en el campo de la ingeniería, paradójicamente, se
requiere en muchos casos la aplicación de protocolos de resolución existentes
(por ejemplo, en tareas complejas de mantenimiento), pero en otras muchas
situaciones (en proyectos para nuevos diseños) es necesario poner en juego la
facultad creativa del ingeniero. En este último caso, el concurso de un
pensamiento auténticamente disruptivo suele ser obligatorio para hallar
soluciones eficaces y no sujetas a ningún estándar.
La técnica difiere de la ciencia tanto por la naturaleza del conocimiento
generado como por el método seguido para generarlo. La ciencia es uno entre
varios ingredientes de la técnica, como la técnica lo es de la ciencia.
El análisis planteado resulta dual: por una parte, se vincula la ingeniería
con un estado del conocimiento sólido; es decir, un conjunto de disciplinas a
las que se puede calificar de científicas, de saberes basados en la experiencia
y estructurados racionalmente de acuerdo con el método científico. Por otra,
hay que considerar la ingeniería como una profesión y una práctica. El
conocimiento, aunque es una parte esencial del patrimonio intelectual del
ingeniero, es solo una parte de él. El planteamiento polivalente y transversal
hace que se pueda dedicar tanto a hacer proyectos como a la dirección de la
producción, la gestión, la investigación etc. El complejo proceso de la
ingeniería implica desde componentes de análisis, lógica, creatividad y
cálculo hasta implicaciones de tipo ético y humano.

17.3. La investigación en ingeniería en un mundo cambiante


Nuevas áreas estratégicas de investigación en ingeniería
Desde el punto de vista de la ingeniería, la Universidad de Cambridge ha
señalado cuatro grandes temas que abren nuevas oportunidades para la
investigación y ofrecen desafíos estratégicos50:
1. Energía, transporte e infraestructura urbana: creación de soluciones
integradas y sostenibles para la provisión de energía, transporte, información,
vivienda, agua y tratamiento de residuos en el contexto del entorno urbano.
2. Fabricación, diseño y de materiales: transformación de la ingeniería
mediante la comprensión de todo el proceso de los fundamentos de los
materiales, a través del diseño y de la fabricación, incluyendo el
mantenimiento y la reutilización. Hay que destacar en la actualidad la
nanotecnología como ingeniería de sistemas funcionales a escala molecular,
un campo en el que se abren dimensiones realmente nuevas, como es la
arquitectura molecular y la interactuación atómica a través del control de la
física cuántica y la inteligencia artificial. Es muy significativa la atención que
el MIT ha dedicado en los últimos años al grafeno, un material que permite
construir por primera vez materiales de dentro hacia fuera, es decir, desde la
primera molécula. La posibilidad de crear complejas estructuras atómicas
disponiendo los átomos a voluntad y ordenándolos de forma adecuada, con el
objetivo de obtener una funcionalidad concreta, representa una de las grandes
revoluciones en este campo.
3. Bioingeniería: aplicación del enfoque de la ingeniería a la comprensión
de los sistemas biológicos y apoyo a la innovación en la asistencia sanitaria,
creando nuevos conocimientos, así como soluciones para aplicaciones
biológicas y médicas y soluciones inspiradas en la biología en otras áreas de
la ingeniería.
4. Sistemas complejos, resilentes e inteligentes: desarrollo de modelos,
simulación y métodos analíticos para la comprensión de grandes sistemas
complejos, que aseguren su resiliencia a través de enfoques nuevos de
optimización, de toma de decisiones y de inteligencia artificial. Los sistemas
de seguridad industrial, tradicionalmente secuenciales, están transformándose
en sistémicos (en el transporte, en la industria, etc.), y en este sentido el
futuro viene determinado por la llamada «ingeniería de la resiliencia», que se
caracteriza por el diseño de dispositivos y sistemas que impiden activamente
la pérdida de control. El nuevo paradigma enfatiza además la adaptabilidad y
la capacidad autónoma de recuperación de los sistemas.
Ingeniería del software y robótica
Por otra parte, existe un área multidisciplinar vinculable a cualquiera de los
apartados anteriores, y a la que actualmente se destina un enorme esfuerzo
intelectual y una gigantesca cantidad de recursos (de investigación, de
experimentación, etc.). Son las llamadas nuevas tecnologías de la
información, mediante las cuales la ingeniería del software y de las
telecomunicaciones ha implementado nuevas y sofisticadas redes virtuales de
comunicación. En universidades, en centros tecnológicos y en empresas de
vanguardia de todo el mundo, la ingeniería informática sigue perfeccionando
las soluciones que ya han transformado el panorama de las comunicaciones y
que seguirán caracterizando el siglo XXI.
Como punta de lanza de la investigación y la innovación en este entorno
multifacético, tiene lugar actualmente la revolución del control virtual de
máquinas y dispositivos a través de los protocolos de internet. Situándose
entre la ingeniería informática y las telecomunicaciones, el llamado internet
de las cosas (Internet of Things, abreviado IoT) se refiere a la interconexión
digital de objetos y aparatos a través de internet. Una definición del internet
de las cosas es, en efecto, la de una red que interconecta objetos físicos
(domésticos, urbanos, industriales) utilizando la red. La primera
transformación en este sentido está sucediendo en el ámbito de los objetos
cotidianos o domésticos (televisores, electrodomésticos, kits de suministro
energético a edificios, etc.), que empiezan a valerse de sistemas incrustados o
embebidos en pequeñas memorias digitales, es decir, que incorporan
hardware especializado de conexión. La idea reguladora es que los objetos o
aparatos no tengan solo conectividad a internet, sino que además puedan
programarse eventos específicos en función de las tareas que remotamente se
les encomienden. El IoT también suele referirse como el internet de todas las
cosas o internet en las cosas51.
Otros aspecto de gran desarrollo van a ser la automatización y la robótica,
tecnologías estrechamente relacionadas. En un contexto industrial se puede
definir la automatización como una tecnología que está relacionada con el
empleo de sistemas mecánicos-eléctricos basados en ordenadores para la
operación y control de la producción. Por tanto podemos considerar la
robótica como una forma de automatización industrial52.
La definición oficial de un robot industrial se proporciona por la Robotics
Industries Association (RIA), anteriormente el Robotics Institute of América.
«Un robot industrial es un manipulador multifuncional reprogramable
diseñado para desplazar materiales, piezas, herramientas o dispositivos
especiales, mediante movimientos variables programados para la ejecución
de una diversidad de tareas».
La robótica es una tecnología con futuro que será capaz de proporcionar a
estas máquinas capacidades más similares a las humanas. Serán en el futuro
unidades móviles con uno o más brazos, capacidades de sensores múltiples y
con la misma potencia de procesamiento de datos y de cálculo que los
grandes ordenadores. Serán capaces de recibir órdenes e instrucciones, con el
uso de la inteligencia artificial, y realizar un conjunto de acciones. Podrán
ver, oír, palpar, aplicar una fuerza media con precisión a un objeto y
desplazarse por sus propios medios. Todo ello va a requerir un gran avance y
un trabajo conjunto de la ingeniería mecánica, ingeniería electrónica,
informática, ingeniería industrial, tecnología de materiales, ingenierías de
sistemas de fabricación e incluso de las ciencias sociales, ante los nuevos
retos regulatorios. Actualmente la tecnología avanza más deprisa que el
derecho.

17.4. La relación entre tecnología y arte en la arquitectura


Dentro del ámbito de la tecnología y vinculada al arte aparece la arquitectura
entendida como la técnica de diseñar, proyectar, edificar y modificar el
entorno humano, incluyendo estructuras habitables y construcciones de todo
tipo, así como soluciones materiales que inciden directamente en la
ordenación de la ciudad y el territorio, y que dan lugar en este último ámbito
al urbanismo. Aun siendo indispensable su asociación con la técnica y la
tecnología, las referencias de la arquitectura a valores intangibles forman
parte de su esencia; no en vano en el mundo clásico la arquitectura era
considerada una de las Bellas Artes53. A consecuencia de la aparición de
nuevas tecnologías estructurales de sustentación y de cerramientos, la
tecnología ha cambiado la relación del arquitecto con su obra y ha refinado la
interpretación tradicional de esta inaugurada en el Renacimiento, una época
en que la arquitectura reivindicó históricamente su condición de arte54.
La Revolución Industrial iniciada en las últimas décadas del siglo XVIII
significó la transformación de las ciudades y el territorio. La dinamización de
la industria propició movimientos migratorios que provocaron
concentraciones de población. Se produjo entonces el nacimiento de la
denominada ciudad industrial, en paralelo a la extensión del ferrocarril y a la
aparición de nuevas necesidades socioeconómicas que exigieron dotar las
poblaciones de alimento, vestido, sanidad y enseñanza.
Este contexto de transformación trajo consigo un desdoblamiento en una
actividad hasta entonces confundida, de manera que desde aquel momento se
hace presente la dualidad entre la ingeniería y la arquitectura. Así, para
responder al aumento de encargos de mayor extensión y complejidad edilicia,
se formaron las primeras escuelas politécnicas en Europa, en contraposición a
las academias artísticas tradicionales55.
El siglo XIX representó para la arquitectura la integración de los avances
científicos en la construcción de estructuras y edificios, y así se incorporaron
al cálculo de estructuras, por primera vez, las nociones de las leyes físicas.
Este fenómeno escenificaba la aparición del conocimiento científico en las
aplicaciones y técnicas constructivas, lo que dio lugar a un nuevo ámbito
«tecnológico» de la construcción56.
Al mismo tiempo, a causa de las concentraciones de población, y debido a
la explotación de la mano de obra para satisfacer las demandas de
producción, sobre todo de algodón, carbón y hierro, en el siglo XIX,
aparecieron las primeras reformas políticas vinculadas a leyes urbanísticas.
Estas reformas estaban estrechamente asociadas a la aparición de la ciudad
industrial, un fenómeno urbano caracterizado por problemas de escala, de
masificación, de gestión, de gobernabilidad, etc., del que deriva toda la
práctica urbanística moderna, y cuyo ejemplo paradigmático fue la
transformación de la ciudad de París gracias a las iniciativas del barón
Hausmann (1809-1891).
El progreso científico asociado a la construcción se hizo patente a finales
del siglo XIX en las exposiciones universales. En este sentido, el primer gran
cambio tecnológico en arquitectura en un sentido moderno lo encontramos en
el Palacio de Cristal, en la primera exposición universal de Londres, en 1851,
construido por Joseph Paxton (1803-1865), una obra emblemática que integró
las nuevas tecnologías del acero y el vidrio. Posteriormente, la misma torre
Eiffel, en la exposición de París de 1889, representó otro logro histórico y
tecnológico destacable, que además se revistió de un valor icónico que ha
persistido en el tiempo.
La transformación de los vínculos entre la ingeniería y la arquitectura, dos
disciplinas solidarias, se consolidó con la eclosión de las primeras
vanguardias plásticas del nuevo siglo XX. La arquitectura se sumará al
movimiento artístico revolucionario y reivindicará a partir de entonces un rol
funcional que responda a la democratización de la sociedad, erigiéndose en el
reflejo de la clase media emergente. A principios del siglo XX, el nacimiento
del movimiento moderno escenificó la dicotomía, y a la vez la fusión, entre
las vertientes artísticas y técnicas de la arquitectura. Esta contraposición
fecunda enriqueció la arquitectura y derivó en dos maneras coetáneas, aunque
contrapuestas, de entender la antigua disciplina de Vitruvio; las defendidas
respectivamente por dos grandes arquitectos, considerados ambos pilares de
la arquitectura contemporánea: Le Corbusier (1887-1965) y Mies Van der
Rohe (1886-1969). Mientras Le Corbusier afirmaba que «la arquitectura es
cuestión de armonías, una pura creación del espíritu», Mies Van der Rohe
postulaba: «Rechazamos conocer problemas de forma, sino solo de
construcción. La forma no es el objetivo de nuestro trabajo, sino el
resultado».
A partir del movimiento moderno, el arquitecto usará frecuentemente la
tecnología como herramienta esencial para conseguir un fin que trasciende la
materialidad estricta de lo empírico. En ocasiones, en edificios ejemplares ya
históricos, es la propia tecnología la que iba a convertirse en objeto de valor.
Después de la revolución metodológica y visual del movimiento moderno en
arquitectura, en verdad, se asume que los procedimientos técnicos empleados
son tan importantes como las cuestiones formales que resolver. Así, la
aparición de un nuevo material físico suele ser tan relevante que el solo hecho
de exhibirlo puede provocar per se una ganancia estética, de modo que el
edificio llegue a funcionar como novedad en varias direcciones. El
surgimiento de esta nueva liason entre ingeniería y arquitectura quedó
inicialmente patente con el trabajo pionero de Auguste Perret (1874-1954),
que empleó el hormigón armado en obras arquitectónicas57.
Siguiendo esta corriente histórica, en el último tercio del siglo XX, junto con
el desarrollo de tecnologías y materiales novedosos, se erigieron obras
arquitectónicas donde las soluciones estrictamente técnicas se disponían de
manera que entrañaran un valor artístico. Como muestra de esta tendencia
imparable en el desarrollo de la arquitectura, hay que citar una de las
primeras obras que mereció el apelativo de High Tech: el famoso Estadio
Olímpico de Múnich (1972), de Frei Otto (1925-2015); una construcción que
aunaba ingeniería y arquitectura de manera ejemplar, por cuanto combina la
tecnología de precisión, nuevos materiales ligeros y transparentes de
cubrición, y un diseño paisajístico notable, gracias al cual la construcción
conseguía diluirse en la topografía. El estadio de Múnich representó la
culminación de algunas utopías de la posguerra y el inicio de una nueva era
en la que se deberán integrar tecnología, naturaleza y edificación.
Siempre hubo y habrá una nueva tecnología útil para el arte y la
arquitectura, ya sea mediante el empleo de nuevas herramientas para el
proyecto (como los programas de ordenador), o bien mediante la
incorporación de nuevas estrategias de construcción y composición en el
diseño, o bien gracias al soporte de materiales de condiciones estructurales y
visuales novedosas.
El contexto profesional de la arquitectura resultante es, en consecuencia, de
alta complejidad, y en efecto, hace tiempo que han quedado desdibujados los
límites entre la ingeniería y la arquitectura. Actualmente, y por fortuna, las
dos disciplinas se retroalimentan entre ellas, encauzadas en un itinerario
histórico del que fueron hitos las espléndidas estructuras de hormigón armado
de Pier Luigi Nervi (1891-1979) o de Eduardo Torroja (1899-1961), o las
grandes membranas de cerámica de Eladio Dieste (1919-2000), o las
estructuras geodésicas tensadas de Buckminster Fuller (1985-1983). A partir
de los inicios del siglo XX, la asociación entre ingenieros y arquitectos, ya
implicados en un mismo empeño, ha dado como fruto un abanico de ejemplos
magistrales. Un repertorio en el que se incluyen, entre otros, edificios de
Cecil Baldmond (1943), Jorn Ützon, Zaha Hadid, Rem Kolhaas o Daniel
Libeskind. O también, los de Frei Otto, Norman Foster o Shigeru Ban.
En el ámbito de la metodología, la informática brinda hoy un sinnúmero de
nuevas herramientas técnicas y posibilidades a los creadores de edificios
desde la fase del proyecto. Así, han surgido estrategias de diseño nuevas a
partir de las posibilidades que brindan las tecnologías digitales y el software
de dibujo, modelado y representación, que llegan a transformar
materialmente los resultados, como mínimo en la variabilidad potencial de
sus formas. Actualmente, las tecnologías digitales son parte fundamental de
los procesos conceptuales, de diseño y de gestión de la mayoría de los
estudios de arquitectura. El repertorio de herramientas digitales al alcance de
los constructores de edificios ha establecido tendencias importantes en la
práctica internacional de la profesión, y enlaza íntimamente con las
investigaciones morfológicas tradicionalmente asociadas al quehacer y a la
inquietud de los arquitectos.

17.5. La investigación en arquitectura


La reflexión crítica en arquitectura y urbanismo involucra una serie de
dominios que pueden enumerarse sin carácter exhaustivo: la representación
arquitectónica, la teoría de la arquitectura (incluyendo su historia e
interpretación) y de los proyectos, la tecnología de la construcción, el cálculo
y diseño de estructuras e instalaciones en edificios, la formalización del
entorno urbano y periurbano y la planificación del territorio.
En muchos casos, la investigación es el resultado del encuentro entre, por
un lado, la permanente búsqueda de soluciones morfológicas y estructurales –
consustanciales al desarrollo histórico de la arquitectura– y, por otro, los
métodos surgidos de las ciencias sociales y experimentales en ámbitos más
específicamente tecnológicos. Puede decirse que la investigación en
arquitectura surge de la propia historia y práctica de la disciplina, en lugar de
originarse fuera de ella. Los hallazgos en arquitectura suelen tener que ver
con las exigencias básicas que determinan la relación entre forma, función y
técnica (una relación que remite a la clásica tríada vitruviana de la venustas,
utilitas y firmitas).
La investigación en arquitectura y urbanismo se relaciona con la
compresión, la configuración o la reestructuración del espacio a partir de
condiciones multifactoriales: culturales, técnicas, económicas y
medioambientales, que varían en cada etapa histórica. En síntesis, es un
esfuerzo que persigue mejorar el paisaje y el hábitat contemporáneos. El
campo de acción e investigación en las disciplinas arquitectónicas es la
optimización de la relación entre ciudad, territorio y paisaje, y su traducción
en un escenario más racional, acorde con las claves de un mundo abierto a las
dinámicas globalizadoras y cambiantes, y a la vez sensible a la idiosincrasia
del lugar y a las características del entorno.
El concepto de la investigación en arquitectura es el de la búsqueda de
nuevas estrategias de diseño y gestión capaces de favorecer las relaciones
globales del mundo civilizado, que incluyen la indagación de soluciones para
grandes estructuras, la aproximación creativa al problema de la vivienda
(vivienda mínima, vivienda colectiva, vivienda de construcción rápida ante
catástrofes de origen natural o antrópico, como migraciones, etc.), o el
hallazgo de dispositivos para responder a los nuevos impulsos y movimientos
metropolitanos.
Se puede considerar que la investigación actual en arquitectura se mueve en
la dirección de tres vectores:
1. Digitalización y tecnología industrial. Con los ordenadores, los
programas de CAD, los procesadores de control numérico y la producción
automatizada de materiales, se abre una nueva era en el diseño arquitectónico
y en la producción real del edificio. Una primera etapa consistió en mejorar la
eficacia en los trabajos más mecánicos de la profesión arquitectónica (dibujo,
producción de planos, etc.). No obstante, en apenas unas décadas, la
digitalización del taller del arquitecto ha alterado significativamente,
optimizándolos, los procesos industriales y constructivos a los que va
encaminado su trabajo. Es especialmente interesante, en este sentido, la
representación paramétrica, que introduce un nuevo modo de concebir los
proyectos. Los avances digitales sumergen aún más la arquitectura y la
ingeniería, el diseño formal y el diseño industrial en una nueva convergencia
de intereses, y a la postre en nuevos sistemas de producción proclives a la
mecanización robotizada. En la actualidad, las escuelas de arquitectura más
relevantes del mundo albergan departamentos de investigación dedicados a
estos campos de innovación.
2. Nuevos materiales. La era digital también ha propiciado un nuevo campo
científico que ya está empezando a tener aplicaciones en la edificación: la
investigación en nuevos materiales, y, en especial, en nanotecnología. Las
posibilidades de manipulación química y molecular de la realidad ofrecen
posibilidades tecnológicas revolucionarias en la obtención de materiales de
altísima resistencia a tensiones de tracción, durabilidad, o incluso de
aislamiento térmico. En este sentido, destacan las tecnologías de fibras de
carbono, polímeros, termoplásticos, etc.
3. Territorio y medio ambiente. Uno de los ámbitos más complejos y
sensibles de la investigación arquitectónica es el correspondiente al territorio.
Los instrumentos de planeamiento del urbanismo tradicional ya no sirven
para dar respuesta a las emergentes y vastas formaciones urbanas que han
surgido en las últimas décadas en el planeta. Ciudades como Calcuta,
Bombay o São Paulo albergan poblaciones gigantescas en condiciones
insalubres donde los tradicionales sistemas de urbanización de
infraestructuras no son aplicables. Es necesaria la concepción de nuevas redes
e infraestructuras sociales y geográficas. Por otra parte, a causa de los
movimientos migratorios causados por el desequilibrio territorial y los
conflictos bélicos, aparecen constantemente asentamientos temporales que
permanecen durante mucho tiempo como guetos de población marginada.
Esta realidad debe ser afrontada mediante el estudio de nuevos sistemas
urbanos que den respuesta al problema. En cuanto al conflicto
medioambiental, la creciente demanda energética y las emisiones de CO2 a la
atmósfera polarizan las grandes preocupaciones del planeta. En este ámbito,
las investigaciones convergen en un mismo campo de investigación: la
obtención de recursos mediante energías renovables y bajas emisiones.
Diversas organizaciones internacionales han señalado que los procesos
industriales y constructivos, y el consumo energético asociado al consumo,
representan la mayor demanda energética mundial; por lo que la arquitectura
está directamente concernida. En consecuencia, ha de continuar una búsqueda
centrada en el proyecto entendido de una manera amplia y con un sentido de
responsabilidad medioambiental manifiesto de los arquitectos. Es decir, el
proyecto arquitectónico, como espacio privilegiado de investigación y de
innovación, ha de ser no únicamente una etapa de concepción de una obra
que precede a su materialización, resolviendo determinados asuntos formales,
sino una estrategia multidisciplinar para la acción responsable; ha de ser una
oportunidad para ensamblar métodos, materiales e instrumentos retórico-
formales, pero con un indispensable sentido ético y cívico. Es decir, el
proyecto –mediante el ingenio, la originalidad y las soluciones técnicas– ha
de convertirse, por una parte, en una táctica de combinación de ítems
disponibles eventualmente necesarios para dar respuesta a un problema de
cobijo y de habitabilidad, y, por otra parte, en la ocasión de aminorar un
problema global y específicamente urbano al que la humanidad se enfrenta: la
contaminación y la destrucción del medio ambiente.

17.6. La relación entre universidad e industria: los doctorados


industriales
A partir de 1992, en el Reino Unido se ha ido imponiendo una metodología
que sirve de modelo para el doctorado industrial. En este ámbito, la
investigación del futuro doctor inglés se desarrolla en un periodo de cuatro
años bajo la tutela formal de un socio industrial que lo patrocina.
Este esquema, que se ha revelado fructífero, se ha incorporado en nuestro
país, complementándose con ayudas públicas y con otros estímulos
económicos, ya sea al doctorando o a la empresa que respalda su trabajo58.
Asimismo, el doctorando no deja de desarrollar su proyecto de investigación
en colaboración con una universidad o centro de investigación, que da
validez académica y científica a la tesis doctoral definitiva. Los doctorados
industriales actúan, de este modo, como puentes de transferencia del
conocimiento y estrechan las relaciones entre el tejido industrial y
empresarial y las universidades y los centros de investigación.
Este modo de proceder aporta muchas ventajas para el futuro doctorando:
a) El doctorando tiene la oportunidad de participar en un proyecto de I+D+i
que puede generar alto valor añadido a su currículum, al ser contratados por
una empresa vinculada con la innovación y la investigación.
b) El doctorando está tutelado por personas de la empresa y de la
universidad que orientarán y evaluarán de forma continua sus progresos.
c) El doctorando trabaja en los laboratorios universitarios y en las
instalaciones de las empresas implicadas.
d) El doctorando recibe una formación complementaria combinada,
necesaria para las partes implicadas.
e) El doctorando suele realizar estancias internacionales y acude
regularmente a congresos y jornadas, de modo que comienza a entablar
relaciones y contactos muy útiles para desarrollarse profesionalmente.

17.7. El resultado de la investigación tecnológica: las patentes


tecnológicas. Patentes y modelos de utilidad. Las patentes de software
Indicadores muy elocuentes de la investigación en tecnología son las patentes
y/o modelos de utilidad.
De la misma forma que hay que destacar negativamente la escasez de
publicaciones indexadas en el ámbito de la ingeniería, en comparación con
otras ramas del saber humanístico y científico, cabe subrayar, por el
contrario, la posibilidad de preservar y proteger jurídicamente la
investigación en ingeniería mediante estos mecanismos. La creación de
nuevas invenciones (patentes) o la formulación de nuevas soluciones a
problemas prácticos conocidos (modelos de utilidad) representan un
beneficio positivo para el autor, además de repercutir socialmente en el bien
de la sociedad.
Dicha protección jurídica está regulada a través de la Ley 24/2015, de 24
de julio, de Patentes.
Una patente es un título que reconoce el derecho de explotar en exclusiva
la invención patentada, impidiendo a otros su fabricación, venta o utilización
sin consentimiento del titular. En contrapartida, la patente se pone a
disposición del público para generar conocimiento. El registro en nuestro país
se realiza a través de la Oficina Española de Patentes y Marcas59. Es
asimismo muy relevante la Organización Mundial de la Propiedad Intelectual
(OMPI-WIPO), un organismo especializado del Sistema de Naciones Unidas,
creado en 1967 con la firma de la Convención de Estocolmo. La OMPI está
dedicada a fomentar el uso y la protección de las obras del intelecto
humano60.
Para que una invención sea considerada nueva, debe diferenciarse en un
grado razonable de todas aquellas invenciones previas aparecidas en el sector,
lo que se determina principalmente a través de examen del estado del arte
(state of the art) en cada ámbito establecido. La utilidad de una invención
está definida por el campo para el que la invención ha sido concebida. La
mayoría de las invenciones patentables son denominadas propiedad
industrial, por cuanto sirven a un fin productivo y tienen una aplicación
técnica.
Finalmente, para que pueda otorgarse una patente de invención a un
concepto, este debe poseer un grado de inventiva suficiente y demostrable
que suponga un avance claro en el campo tecnológico de que se trate, en
comparación con las creaciones previas. Esta condición es la más subjetiva
que se requiere y queda sujeta al juicio de un jurista especializado, quien
determina el mérito de la inventiva y originalidad del nuevo concepto y
quien, en uso de sus mejores facultades y juicio, determina si constituye de
hecho un avance relevante para el estado del arte del campo tecnológico en
cuestión.
Respecto del modelo de utilidad, no se exige el mismo grado de inventiva
que en la patente, pero en cambio es necesario probar que representa una
nueva aproximación práctica a un problema. El dispositivo, instrumento o
herramienta protegible por el modelo de utilidad se caracteriza por su utilidad
y su practicidad y no por su estética, como, por ejemplo, ocurre en el diseño
industrial.
Según la oficina de patentes de Estados Unidos (United States Patent and
Trademark Office), en el año 2011 se completó la increíble cifra de ocho
millones de patentes registradas. Lo más sorprendente es que dicha entidad
tardó 75 años en llegar al primer millón de patentes registradas, 25 años en
alcanzar las dos millones y solo cinco años en completar las ocho millones de
registros. Gran parte de esas patentes provienen del ámbito tecnológico, y se
da la circunstancia de que entre los veinte mayores registradores de patentes,
únicamente las empresas Honda y General Electric no se relacionan
directamente con la fabricación de dispositivos de telefonía móvil.
El contexto de las patentes y los modelos de utilidad es complejo, pero su
importancia económica ha transformado la industria tecnológica mundial.
Hoy en día se libran verdaderas batallas jurídicas al respecto, en especial en
el campo de las soluciones originales en nuevas tecnologías, que combinan
hardware y software: Nokia llevó a los tribunales a Apple por la infracción de
diez de sus patentes en el año 2009. Apple, a su vez, demandó a la empresa
finlandesa, que contraatacó añadiendo a sus quejas más patentes. La
compañía Oracle demandó a Google y le reclamó el pago de seis millones de
dólares, argumentando que el sistema operativo Android (software) utiliza el
software Java, que es de su pertenencia. Asimismo, la coreana Samsung vio
cómo Apple intentaba bloquear la venta en Europa de su tableta Galaxy Tab,
siendo demandada a su vez por el fabricante taiwanés HTC. Mientras tanto,
Microsoft mantiene contenciosos contra Motorola y cobra hasta cinco euros
por cada dispositivo HTC que se vende en el mercado. Como resultado de
toda esta confusión, en los últimos años, el precio de las patentes del sector
tecnológico directamente relacionado con las nuevas tecnologías digitales se
ha elevado hasta en 400 %61.

Bibliografía
Aracil, J. (2010). Fundamentos, método e historia de la ingeniería. Una
mirada al mundo de los ingenieros. Síntesis, Madrid.
Benévolo, L. (1982). Historia de la Arquitectura Moderna. Gustavo Gili,
Barcelona.
Bettin, G. (1984). Los sociólogos de la Ciudad. Colección
Arquitectura/Perspectivas. Gustavo Gili, Barcelona.
Coley, C. y Bignon, J. C. (1990-1992). Jean Prouvé, entre artisanat et
industrie. Ecole d’Architecture de Nancy.
Fraenkel, J. R. y Wallen, N. E. (2012). How to Design and Evaluate
Research in Education. McGraw-Hill, Nueva York.
Giedion, S. (1978). La mecanización toma el mando. Colección Punto y
Línea. Editorial Gustavo Gili, Barcelona.
Itriago, M. y Zerpa, C. E. (2011). «El planteamiento del problema en el
proyecto de investigación en ingeniería». Revista de la Facultad de
Ingeniería. UCV, Caracas. 26 (3).
Krick, E. (1999). Fundamentos de ingeniería: métodos, conceptos y
resultados. Porrúa, México.
Landis, R. B. (1995). Studying Engineering. A road map to rewarding career.
Discovery Press, Burbank.
Pawley, M. (1999). Norman Foster, a Global Architecture. Thames &
Hudson Ltd., Londres.
Morris, E. J. (1984). Historia de la forma urbana. Gustavo Gili, Barcelona.
National Academy of Engineering (1995). Forces Shaping the U.S. Academic
Engineering Research Enterpris. National Academy Press, Washington,
D.C.
Neumeyer, F. (2000). Mies van der Rohe. La palabra sin artificio.
Reflexiones sobre arquitectura 1922/1968. El Croquis, El Escorial.
Oehme, F. y Seitzer, D. (2000). «Learn by doing: How to include new
requirements of research in engineering education». European Journal of
Engineering Education. 25.
Rapoport, A. y Muntañola J. (1978). Aspectos humanos de la forma urbana.
Colección Arquitectura/Perspectivas. Gustavo Gili. Barcelona.
Schleifer, S. (ed.) (2007). Edifici Spettacolari. Evergreen Taschen Sigfried,
G.
Smithson, Alison y Smithson, P. (2007). De la casa del futuro a la casa de
hoy. COAC/Polígrafa. Barcelona.
Torres, J. (2011). Sobre la investigación en arquitectura y urbanismo. IV
Jornadas Internacionales sobre Investigación en Arquitectura y Urbanismo.
Vincenti, G. W. (1990). What Engineers Know and How They Know It. Johns
Hopkins University Press.
Wright, I. C. (1997). A review of research into engineering change
management: implications for product design. ELSEVIER. 18 (1), pp. 33-
42.
Wright, P. (2004). Introducción a la ingeniería. Limusa, México.

48 Ver Wright P. (2004). Introducción a la ingeniería, Limusa, México; Krick E. (1999). Fundamentos
de ingeniería: métodos, conceptos y resultados. Porrúa, México; Aracil Santonja J. (2010).
Fundamentos, método e historia de la ingeniería Una mirada al mundo de los ingenieros. Ed. Síntesis,
Madrid.
49 Ver Itriago, M., Zerpa C.E. (2011). «El planteamiento del problema en el proyecto de investigación
en ingeniería». Rev. Fac. Ing. UCV Caracas. 26 ( 3).
50 Disponible en: http://www.eng.cam.ac.uk/research/strategic-themes-overview.
51 El concepto de internet de las cosas fue empleado inicialmente por Kevin Ashton en el Auto-ID
Center del MIT en 1999, donde se realizaban investigaciones en el campo de la identificación por
radiofrecuencia en red (RFID) y tecnologías de sensores.
El internet de las cosas debería codificar de 50 a 100.000 billones de objetos y seguir el movimiento
de estos; se calcula que todo ser humano está rodeado de por lo menos 1.000 a 5.000 objetos. Con la
próxima generación de aplicaciones de internet (protocolo IPv6) se podrían identificar
alfanuméricamente todos los objetos, algo que no se podía hacer con la capacidad del protocolo IPv4.
El nuevo estándar sería capaz de identificar instantáneamente por medio de un código cualquier tipo
de objeto. Todavía en una fase inicial, Apple y Google han dado algunos pasos con tecnologías como
Home Kit y Android@Home. Las aplicaciones posibles son múltiples: control ambiental, salud,
producción en masa, infraestructura urbana, etc.
52 Historia de la Robótica. Disponible en:
http://www.profesormolina.com.ar/tecnologia/robotica/historia.htm.
53 De hecho, la misma etimología de «arquitectura» integra las nociones de arte y técnica; pues el
propio término proviene de la palabra en antiguo griego τεχνη´ (techné), que significa ‘creación,
invención o arte’. Esto es, arte y tecnología son hoy en día dos acepciones diferentes que en la antigua
Grecia estaban acuñadas en un mismo término.
54 Este momento queda ejemplarmente ilustrado en el memorable pasaje en el que Brunelleschi gana el
concurso en 1418 para la construcción de Santa María del Fiore, en Florencia, al poseer el
conocimiento del aparejo árabe en «espina de pez», cuya técnica posibilitaba la construcción de la
enorme cúpula sin la necesidad de andamios estructurales. Este episodio de la historia de la arquitectura
ha sido considerado por muchos historiadores la escenificación de la aparición del arquitecto moderno.
55 Ecole des Ponts et Chaussées (1747), Ecole des Ingénieurs de Mézières (1748), Ecole Polytechnique
(1795).
56 Ley de Hooke de Deformación del material (1676); introducción de las nociones de tensiones por
flexión y eje neutro, por Leibniz, Mariotte y Bernoulli (1864), estudios de torsión y empuje de tierras,
por Coulomb (1755), y formulación del cálculo estático, por Navier (1785-1836), considerado el
fundador de la moderna ciencia de la construcción.
57 El cemento es un material descubierto por el inglés Aspdin (patente de 1824). Hacia 1845 empieza
a producirse industrialmente y se hacen los primeros intentos de asociarlo al hierro. La primera cubierta
de cemento y hierro es construida posiblemente en 1852 en St. Denis por F. Coiquet.
58 Disponible en:
https://sede.micinn.gob.es/portal/site/eSede/menuitem.df29f2378d5d10a0cee63510223041a0/?
vgnextoid=7f962e3ff103b410VgnVCM1000001d04140aRCRD&vgnextfmt=formato1; en Cataluña:
http://doctoratsindustrials.gencat.cat/es.
59 Ver página OEPM: https://www.oepm.es/es/invenciones/patentes_nacionales/.
60 Ver página WIPO: http://www.wipo.int/portal/en/index.html.
61 Información extraída de: http://www.altonivel.com.mx/12444-patentes-tecnologicas-el-negocio-de-
hoy/.
18 Redacción de la investigación

18
REDACCIÓN DE LA INVESTIGACIÓN
Dolors Celma (Tecnocampus-UPF), Esther Martínez y Josep Viñas (UdG)

Objetivos del capítulo

• Explicar la capacidad de transmitir información de una manera clara y precisa utilizando un


número limitado de palabras.
• Establecer el tipo de lenguaje, para evitar un vocabulario inadecuado y unas frases confusas.
• Definir una estructura determinada, que vaya desde el planteamiento del problema hasta la
obtención de la solución.
• Explicar la manera de persuadir a los lectores comunicando mediante la presentación de
argumentos lógicos de la manera más convincente.

18.1. Introducción
Los investigadores tienen diferentes razones que pueden impulsar a escribir.
Sean las que sean, redactar implica la gran dificultad de resumir en pocas
páginas los conocimientos y las experiencias adquiridas durante mucho
tiempo y, además, hacerlo con claridad.
Existe, principalmente, la voluntad de compartir y debatir con la
comunidad científica los resultados de la investigación desarrollada por un
conjunto de profesionales, de los que todo el mundo supone la capacidad de
saber cómo escribir, y que podrán, sin dificultades, transmitir todas las etapas
de su proceso creativo.
Pero esto no es tan fácil, y esta circunstancia se concreta en que, cuando se
utilizan las palabras, se olvida la necesidad de revisar escrupulosamente su
significado porque la mayoría de las afirmaciones se pueden decir de otra
manera, que tal vez será más rotunda, más ajustada o menos enrevesada.
Así pues, redactar un trabajo es dar forma escrita a un conjunto de
contenidos respetando las normas de construcción de un texto, pero cuando
esta redacción se refiere a la investigación, debe priorizar la exposición de
argumentos de forma lógica. La práctica continuada es un buen método de
aprendizaje.
Con el objetivo de comunicar los hallazgos originados por el proceso de
investigación, hay que utilizar un lenguaje que priorice la eficacia
comunicativa, es decir, sin ambigüedades, que sea lo más exacto posible, que
las personas a las que va dirigido lo puedan entender sin dificultades y que se
centre en la información relevante.
A la hora de redactar un trabajo de investigación es muy importante seguir
una secuencia lógica en la exposición de los conceptos, es decir, debe estar
bien estructurado. Una adecuada división en apartados o subapartados facilita
su comprensión. Asimismo, es importante que el mensaje sea nuevo o, en
todo caso, que confirme o amplíe otros estudios recogidos parcialmente en la
literatura científica.
En este capítulo se exponen una serie de pautas para entender el proceso de
redacción de la investigación, desde la planificación hasta la textualización,
que deben permitir ordenar toda la información disponible y plasmarla en un
escrito coherente y estructurado para presentar de forma adecuada la
investigación realizada. También se hace referencia a los aspectos más
formales, en los que se detallan los ajustes del texto, la elaboración del índice,
la bibliografía o la manera de exponer las fórmulas, entre otros. Asimismo, se
habla de la forma en la que hay que incluir los autores y algunas cuestiones
relacionadas con el lugar donde publicar la investigación.

18.2. Partes del proceso de escritura de la investigación


Una vez se ha delimitado un tema de investigación y se ha hecho la revisión
de la literatura, el proceso para escribir un documento de investigación pasa
principalmente por dos etapas: la planificación del trabajo, que sirve para
determinar la situación comunicativa (es decir, las circunstancias que rodean
el documento que se quiere elaborar) y para ordenar toda la información
encontrada para construir un discurso; y en segundo lugar, la textualización,
mediante la cual se redacta el documento de investigación y se estructura toda
la información en frases y párrafos coherentes y ordenados que permitan
presentar adecuadamente la investigación realizada.

18.2.1. La etapa de planificación de la escritura


Antes de empezar a redactar el documento de investigación, conviene
detenerse a pensar en las circunstancias que rodean el texto, teniendo en
cuenta básicamente cuatro aspectos:
• El propósito comunicativo: en el caso de una investigación, el propósito
de un documento de investigación es comunicar los resultados de
investigaciones, ideas y debates de una manera clara, concisa y fidedigna.
• La audiencia a quien va dirigida la investigación: es importante tener en
cuenta a quién va dirigido el documento de investigación que se quiere
elaborar. Así, por ejemplo, no tiene la misma trascendencia científica ni las
expectativas del lector son las mismas en un trabajo de fin de grado que en
una tesis doctoral o un artículo científico.
• Cómo se presenta el emisor: en el caso de los documentos de
investigación, el texto se formulará prescindiendo de la relación inmediata
entre el emisor y alguno de sus receptores. Esto garantiza la difusión
universal del texto. Por ello es recomendable evitar la primera persona del
singular, utilizar construcciones impersonales y especialmente importante es
evitar elementos subjetivos como valoraciones o comentarios personales o
palabras de registro coloquial.
• El contenido del texto: hay que pensar cómo se organizará el texto para
que la comunicación sea eficaz. Los puntos en los que suelen coincidir la
mayoría de los documentos de investigación son: introducción, revisión de la
literatura, metodología de trabajo, resultados de la investigación, discusión y
conclusiones, bibliografía y anexos.
Una vez se han determinado las circunstancias que rodean la escritura del
documento de investigación, hay que organizar todas las ideas antes de
empezar a redactar. Para cada punto previsto del documento se recomienda
reunir y subdividir las ideas en grupos, de tal manera que cada grupo de ideas
corresponda a una parte unitaria del punto que se quiere elaborar. Cada uno
de estos grupos tiene que estar organizado y subdividido en subgrupos: por
medio de este procedimiento se construye un mapa de ideas, en el que los
elementos se presentan en orden jerárquico. Una vez reunidas las ideas en
grupos y subgrupos, el contenido del escrito es más claro y se puede redactar
un esquema, que guiará la redacción.

18.2.2. La textualización
Con la textualización se organiza y ordena el texto y se va generando el
documento de investigación de forma que sea legible y claro para el lector. A
la hora de crear el texto hay que tener en cuenta la coherencia y la cohesión
del texto.
Un texto es coherente si adopta una estructura comprensible y no cae en
contradicciones, y un texto está bien cohesionado si hay un vínculo lógico
entre las diferentes partes que lo integran, es decir, si se ve claro que cada
parte del texto está bien relacionada con las otras. Si se ordenan bien las
ideas, pero no se indica cómo se relacionan, el texto no está bien
cohesionado.
Para favorecer la coherencia y la cohesión en un documento de
investigación, es importante que dentro de cada apartado haya una parte
introductoria de su contenido y una parte final donde se expone un breve
resumen de lo expuesto anteriormente. En caso de que sea posible, para dar
sentido a todo el documento, es recomendable el uso de estos conceptos
como conexión entre apartado y apartado; la introducción debe comenzar el
apartado haciendo referencia a la conclusión anterior y la conclusión ha de
introducir el siguiente capítulo, de tal forma que siempre se cree un nexo de
unión.
Para conseguir una buena textualización es aconsejable utilizar manuales
de estilo de redacción. Los manuales de estilo dan recomendaciones
principalmente sobre los siguientes aspectos: uso de palabras, estructura de
las frases y uso de conectores, separación de párrafos y uso adecuado de la
puntuación.
• Uso de palabras: es importante elegir bien las palabras que se usan a la
hora de escribir cada frase, ya que si se utilizan de manera correcta, facilitan
la legibilidad del texto, y si no se emplean correctamente, la pueden
dificultar.
Las propiedades básicas que hay que tener en cuenta en el uso de las
palabras en un texto estándar son:
- Usar palabras adecuadas a la situación comunicativa.
- Buscar la claridad utilizando palabras de uso corriente y construcciones
sintácticas que faciliten la comunicación con el lector.
- Usar palabras precisas evitando el uso de palabras multiuso.
- Utilizar palabras con un significado específico.
- Evitar repeticiones y utilizar sinónimos para expresar una mayor riqueza
verbal.
- Evitar cacofonías utilizando sonidos desagradables que se producen en
repetir de una manera reiterada algunas letras o sílabas idénticas.
- Limitar el uso de adverbios terminados en –mente.
- Limitar el uso de posesivos.
- Limitar los incisos, como guiones, paréntesis, comas, etc.
• Construcción de oraciones: la estructura de las oraciones ayuda a
conseguir una redacción clara.
Las propiedades básicas que tener en cuenta para construir las frases en
un texto estándar son:
- Evitar frases demasiado largas: en general, las frases largas cuestan más
de leer que las cortas, ya que sobrecargan la memoria y no se pueden
retener todas las palabras.
- Evitar los incisos extensos: mantener el orden lógico de los sintagmas y
rechazar estructuras sintácticas complicadas, que dificultan la lectura.
- Evitar ambigüedades y contradicciones: evitar las frases ambiguas,
contradictorias o que pueden ser interpretadas de más de una manera.
- Utilizar adecuadamente los conectores: dar preferencia a la orden neutra
de la frase (sujeto-verbo-complemento) y colocar los componentes de la
oración cerca de sus núcleos.
- Evitar las negaciones: las frases negativas son difíciles de entender,
porque requieren más atención y tiempo que las afirmativas.
- Mantener una ratio baja de nombres y verbos: cuando se ponen muchos
nombres y verbos se pierde claridad.
• Separación de párrafos: el párrafo sirve para estructurar el contenido del
escrito y para mostrar formalmente esta organización. Es importante
distribuir el texto con párrafos equilibrados que ayuden a la comprensión. Un
párrafo es un conjunto de frases relacionadas que desarrollan un único tema.
Es una unidad intermedia, superior a la oración e inferior al apartado o al
texto y tiene identidad gráfica para que se distinga.
Las propiedades básicas para construir párrafos en un texto estándar son:
- Respecto a la extensión que debe tener el párrafo, no hay directrices
absolutas. Varía notablemente según el tipo de texto y los tamaños del
soporte (papel, línea y letra). Un mismo párrafo escrito con tamaños de
letra y de línea distintas cambia notablemente de volumen y puede
resultar largo o corto. En general, se recomienda que los párrafos tengan
un tamaño promedio de 100-150 palabras.
- El aspecto visual es importante a la hora de decidir los párrafos.
Generalmente, es importante que haya un equilibrio entre página y
párrafos. Una recomendación que suele utilizarse es que cada página
tenga entre tres y ocho párrafos, y que cada uno contenga entre tres y
cuatro frases, aceptando siempre todas las excepciones justificadas que
sean necesarias.
- Evitar repeticiones y desórdenes: no poner ideas que deberían estar
juntas en párrafos diferentes o no repetir la misma idea en dos o más
párrafos.
- Evitar párrafos-frase: no formar un párrafo con una frase larga sin poner
puntos y seguido.
• Uso de la puntuación: la puntuación es muy importante para distribuir y
organizar la estructura y el contenido del texto escrito. Por tanto, es
importante utilizar de manera adecuada los diferentes signos de puntuación:
la coma, el punto y coma, el punto, los dos puntos, los puntos suspensivos, el
paréntesis, el guion y las comillas.

18.3. Redacción del documento: aspectos formales


Por su parte también son importantes los aspectos formales a la hora de
redactar un documento de investigación. En este apartado haremos referencia
a los aspectos formales que tener en cuenta para la redacción de un
documento de investigación, específicamente: la configuración del
documento, la elaboración del índice y la bibliografía, la inserción de citas
textuales, así como figuras, tablas y otros elementos.
• Configuración del documento: la configuración adecuada del texto
favorece la legibilidad y la comprensión. Los principales aspectos que
configurar son: márgenes, justificación del texto, numeración,
encabezamiento, interlineado y tipo de letra. Habrá que determinar qué
configuración del texto se pide, según el tipo de documento de investigación
que se está elaborando.
• Elaboración del índice: el índice general del documento de investigación
recoge todos y cada uno de los apartados en los que se organiza el trabajo,
seguidos del número de página correspondiente. Además del índice general,
el documento puede contener otros índices: de términos especializados, de
figuras, de tablas, etc.
• Elaboración de la bibliografía: la bibliografía es una lista de las
referencias bibliográficas de los textos que se citan en el trabajo o que se han
consultado para su elaboración.
No existe un acuerdo unánime para confeccionar la bibliografía, aunque
hay unas normas internacionales (ISO 690: 1987) y nacionales (UNE 50-104-
94, adaptación de la norma ISO), en las que quedan perfectamente definidas
tanto la selección de elementos como la secuencia de presentación de los
mismos. Sin embargo, para estas normas no son prescriptivas ni la
puntuación ni el estilo tipográfico.
Dependiendo de donde se quiere presentar un documento de investigación,
es especialmente importante ceñirse a las normas particulares de los libros de
estilo de editoriales, revistas científicas o entidades que regulan la
presentación de documentos.
En caso de no tener que ceñirse a ninguna norma concreta, se deberá
adoptar una pauta unificada a lo largo de todo el trabajo. Uno de los
estándares más ampliamente aceptados para la elaboración de la bibliografía
es el de la American Psychological Association, APA.
• Inserción de citas: en los documentos de investigación, las citas textuales
muy breves pueden insertarse entre comillas dentro del texto del trabajo,
seguido entre paréntesis del apellido del autor, el año de publicación y la
página de donde se ha citado.
Si se trata de una cita textual extensa (a partir de unas tres o cuatro
líneas), debe ocupar un párrafo aparte y, en general, con un cuerpo de
letra más pequeño, sangría e interlineado sencillo. También pueden
indicarse en una nota a pie de página, si no son indispensables para la
comprensión del trabajo.
Cuando la cita no es textual, se hace un resumen de la información textual
a la que se quiere hacer referencia y se pone entre paréntesis el apellido
del autor y el año de publicación de donde se ha extraído la información.
• Figuras, tablas, fórmulas y ecuaciones: es importante adoptar una
metodología para insertar en el texto tablas, fórmulas y ecuaciones en un
documento de investigación. La forma de insertarlas dependerá en muchos
casos de donde se publique el documento. Al igual que en la elaboración de
la bibliografía, hay que ceñirse a las normas particulares de los libros de
estilo de editoriales, revistas científicas o entidades que regulan la
presentación de documentos.
En caso de no tener que ajustarse a ninguna norma concreta, se deberá
adoptar una pauta unificada a lo largo de todo el trabajo.
En conclusión, se presenta a continuación como resumen-corolario un
decálogo de los aspectos que sería recomendable tener en cuenta a la hora de
redactar la investigación:

Fuente: Joaquín Prats, «Técnicas y recursos para la elaboración formal de tesis y trabajos de
investigación». Departamento de didáctica de las ciencias sociales de la Universidad de Barcelona.
Curso 2011-2012.

18.4. Otras cuestiones: los autores y dónde publicar


18.4.1. Los autores
En teoría debería ser uno de los apartados más sencillos de la redacción de la
investigación, pero a veces no se tienen en cuenta una serie de cuestiones que
vale la pena mencionar y que nos pueden evitar errores difíciles de solucionar
más adelante.
El primer autor asume la responsabilidad intelectual del trabajo porque es
la persona que más ha contribuido al desarrollo de la investigación y, a la
vez, suele ser la persona que puede encargarse de la relación con el editor y
de adaptar el texto teniendo en cuenta los comentarios de los editores.
El resto de los autores aparecerán por orden de responsabilidad en el
trabajo, aunque si esta ha sido relativamente similar, la decisión del orden se
podría adoptar de forma conjunta por parte de todos los autores y buscar otras
posibilidades, como por ejemplo el orden alfabético de los apellidos o la
antigüedad de los investigadores en la estructura de investigación.
Para poder formar parte de la lista de autores, cada uno de ellos tendrá que
haber participado en un grado suficiente para asumir la responsabilidad
pública del contenido del trabajo, especialmente en el diseño del estudio, en
el análisis e interpretación de los datos, en la redacción del artículo y en la
aprobación final de la versión que sea publicada.
Como la investigación es un trabajo cada vez más transversal, se produce
una tendencia al aumento del número de autores en los trabajos científicos
porque para buscar la calidad se necesitan investigadores de diferentes
ámbitos. No hay que confundirse, y para que este número de autores no
tienda a ser excesivamente grande, bastará con citarlos, junto con los
colaboradores, en un apartado final de agradecimientos.
Respecto a la identificación de los autores, estos deben escribir sus
nombres siempre de la misma manera para intentar facilitar su localización en
las bases de datos científicos. Normalmente se recomienda utilizar un solo
apellido y, en caso de que el primer apellido sea muy común, se pueden
emplear los dos apellidos unidos por un guion, para evitar confusiones en los
datos bibliográficos internacionales. Finalmente, el nombre de los autores
debería ir acompañado de su categoría académica o nivel de responsabilidad
en la estructura de investigación.

18.4.2. El lugar donde publicar la investigación realizada


La adaptación de una investigación científica en un texto para publicar puede
llegar a ser un proceso complejo. En primer lugar, tenemos que elegir qué
tipo de publicación queremos de las muchas posibilidades que nos ofrece el
mercado. De entrada, se puede publicar investigación en artículos de
congresos, capítulos de libros, revistas profesionales, documentos de trabajo
y, principalmente, en revistas científicas, en las que nosotros pondremos la
máxima prioridad.
De hecho, diríamos que la publicación de artículos en congresos no es un
fin en sí mismo sino el principio de una investigación y el anuncio de futuros
trabajos. Las revistas profesionales pueden ser útiles para investigaciones
muy aplicadas, entendidas como una transferencia rápida de conocimiento a
la sociedad, y los demás documentos solo pueden considerarse cuando quien
lo publica tiene alguna trascendencia específica en nuestro ámbito.
Por tanto, enfocando la cuestión a las revistas científicas, en primer lugar
tenemos que decidir a qué público nos queremos dirigir, es decir, perfiles más
académicos (normalmente) o también profesionales (en menos ocasiones).
Otro aspecto que hay que plantearse es qué ámbito temático queremos que
cubra la publicación, para ver si nuestro artículo encaja en el perímetro de la
revista.
Otra posibilidad es analizar qué revistas publican artículos sobre este tema.
Por eso es importante analizar el apartado sobre las instrucciones a los
autores que la mayoría de las publicaciones tienen adjuntada en su página
web.
Si ya hemos publicado alguna vez y lo que queremos es mejorar el nivel de
la investigación publicada, es imprescindible analizar en qué índice
internacionalmente reconocido (JCR, Scopus, Latindex,...) está referida la
revista y el índice de impacto de esta en los últimos años.

Bibliografía
Amadeo, I. y Solé, J. (2009). Curs pràctic de redacció. Educaula, Barcelona.
Cassany, D. (2002). La cuina de l’escriptura. Empúries, Barcelona.
De Carvajal, N. M., Estrada, R., Moreno, F. y Rebolledo, L. A. (2004). Cómo
elaborar y presentar un trabajo escrito: cómo escribir bien, teoría y
práctica; normas internacionales y del ICONTEC. Universidad del Norte.
Ferriols, R. y Ferriols, F. (2005). Escribir y publicar un articulo científico
original. Ediciones Mayo.
Gómez de Segura, I. A. et al. (2003). «Cómo redactar un artículo científico».
Revista AVEPA. 23 (3).
Liesa, M. (2009). La redacció d’un treball de recerca científic. Facultad de
Geología, Universidad de Barcelona.
Lluch, G. y Nicolàs, M. (2015). Escriptura académica: planificació,
documentació, redacció, citació i models. Editorial UOC, Barcelona.
Walker, M. W. (2000). Cómo escribir trabajos de investigación. Gedisa.

Fuentes electrónicas
Guía de la comunicación eficaz: UAB
http://wuster.uab.es/assessorament/guia/index.html [Consulta 28 de marzo
de 2017].
Criterios lingüísticos, bibliográficos, de estilo y convenciones (UB)
http://www.ub.edu/cub/criteris.php [Consulta 28 de marzo de 2017].
Centro de redacción-UPF
http://parles.upf.edu/llocs/cr/catacd/index.html [Consulta 28 de marzo de
2017].
Itinerarios de aprendizaje de la lengua catalana-Generalitat de Catalunya
http://aplicacions.llengua.gencat.cat/itineraris-
aprenentatge/intermedi/icl/icl3/icl32/icl32_02_03_02.htm [Consulta 28 de
marzo de 2017].
19 Presentación de la investigación

19
PRESENTACIÓN DE LA INVESTIGACIÓN
Ester Oliveras y Ángel Lozano
(UPF)

Objetivos del capítulo

Los principales objetivos de este capítulo son los siguientes:


• Conocer los diferentes formatos de presentación de la investigación: oral y póster.
• Distinguir los diferentes tipos de sesiones de presentación oral de la investigación.
• Aprender a estructurar una comunicación oral.
• Conocer los elementos que tener en cuenta a la hora de diseñar el apoyo visual de una presentación
oral.
• Saber la importancia que tienen el lenguaje verbal, la voz y el lenguaje corporal durante una
presentación.
• Aprender cómo gestionar rondas de preguntas.

19.1. Introducción
La presentación de la investigación es una actividad extremadamente
importante en la carrera investigadora y una vertiente a la que a menudo no se
dedica suficiente tiempo y esfuerzo. Durante el transcurso de congresos y
jornadas es cuando existe la oportunidad de compartir nuestra investigación
más allá de la institución en la que trabajamos, y también de conocer la
investigación que se está realizando dentro de nuestra área de conocimiento e
incluso en otras áreas. En los congresos, en particular, se crea un entorno
favorable al networking y el intercambio de ideas.
Por este motivo, y tal y como se ha comentado en el capítulo 2, la habilidad
de comunicación es básica, ya que hay que saber presentar y defender los
resultados obtenidos, así como contribuir a su difusión de una manera
comprensible.
Es recomendable que se busquen oportunidades para presentar la
investigación, al menos una o dos veces cada curso académico, y si puede
ser, aún más. A la vez, también es deseable evitar un exceso de congresos y
jornadas, que puede llevar a la saturación y restar energía al proceso
puramente productivo de resultados y nuevas ideas. Hay que tener en cuenta
que suele haber ciertas redundancias entre jornadas cercanas en el tiempo y
en un mismo tema, con lo que no hace falta necesariamente asistir a todas
ellas.
Cuando se tiene interés en asistir y presentar a un congreso, hay cierta
planificación para asegurarse de que se cumplen los plazos y que se tiene
tiempo y financiación para asistir. Normalmente se requiere una planificación
de unos seis meses de antelación. Es adecuado identificar las conferencias
principales en nuestro campo de conocimiento y tener controladas los
siguientes datos:
1. Fechas y lugar donde se realiza el congreso.
2. Calidad de ediciones anteriores y comité organizador de la edición en
cuestión.
3. Coste del congreso y posibles fuentes de financiación.
4. Plazo de la presentación de propuestas o call for papers, es decir, en qué
momento hay que enviar las propuestas y qué formato deben tener. A veces
se pide solo un resumen y existe un segundo plazo para el trabajo final.
5. Plazo de presentación del trabajo final, en su caso.
6. Existencia o no de una publicación posterior de los trabajos presentados
en la conferencia.
Habitualmente, los congresos se realizan periódicamente en las mismas
épocas del año, por tanto, una vez se ha asistido una vez o dos, este
información ya se tiene internalizada. Si se decide asistir al congreso, hay que
asegurarse de que tendremos un trabajo de investigación a punto para ser
presentado, aunque no esté finalizado. Que tendremos tiempo para asistir, es
decir, que las fechas no nos coinciden con clases u otros compromisos
laborales que nos impedirán hacer el viaje, y también que tendremos
suficiente tiempo para trabajar en la presentación.
Vale la pena valorar el tamaño de la actividad; los grandes congresos
permiten abarcar más temas y personas, mientras que los pequeños (a
menudo llamados workshops) ofrecen un ambiente más íntimo y más
conductivo a discusiones pausadas y profundas entre los asistentes.
El hecho de que después haya una publicación posterior de los trabajos
presentados en el congreso también puede ser un buen incentivo para
presentar la investigación. Si hay dudas entre dos congresos, siempre es
mejor elegir aquel del que luego se pueda obtener una publicación. Hay que
tener cuidado, sin embargo, con que el hecho de publicar el trabajo en este
momento no impida publicar una versión posterior en una revista que pueda
tener más impacto.
Cada congreso o jornada tiene una estructura específica, pero casi siempre
podemos distinguir dos grandes formatos para presentar nuestra
investigación:
1. Comunicación oral.
2. Póster.
En algunas disciplinas, el formato póster se utiliza cuando la investigación
se está desarrollando y los resultados son preliminares o aún no están
disponibles, o también cuando es un tema muy específico que no tendría un
interés suficientemente amplio como para una comunicación oral. En otras
disciplinas, en cambio, el formato póster se emplea de manera más general,
porque a menudo favorece una interacción más cercana y efectiva entre
presentador y audiencia. Tradicionalmente impresos en papel, los pósters
están en proceso de migración a un formato digital, que se proyecta
directamente en una pantalla.
Las presentaciones orales, por su parte, pueden tener varios formatos:
1. Seminarios: son presentaciones relativamente largas (entre 40 y 90
minutos) que se realizan en universidades, centros de investigación y
ocasionalmente también en empresas. En estas presentaciones, hay que hacer
una explicación detallada de la investigación realizada y las preguntas de los
asistentes ayudan a identificar puntos de mejora y extensiones futuras.
2. Congresos y jornadas: en estos contextos, las presentaciones pueden
tener diferentes formatos. Las más habituales son las siguientes:
• Sesiones plenarias: en estas sesiones hay un único orador, normalmente
alguien de reconocida trayectoria profesional en su área de conocimiento.
Son presentaciones de duración larga, normalmente 45 o 60 minutos, y
donde se espera un número elevado de asistentes.
• Sesiones paralelas o simultáneas: se realizan varias sesiones al mismo
tiempo en diferentes salas y cada investigador escoge qué quiere
escuchar. En cada una de estas sesiones se hacen varias presentaciones en
torno al mismo tema, normalmente tres o cuatro, y suelen tener una
duración de entre diez y veinte minutos, dejando un breve tiempo para
preguntas. En estas sesiones la asistencia es muy inferior a la de las
sesiones plenarias.
• Foros: tienen una estructura similar a las sesiones paralelas, pero son
ideas de investigación aún por desarrollar o resultados muy preliminares.
Las presentaciones duran entre cinco y diez minutos.
• Mesas redondas: son sesiones en las que interviene más de una persona,
típicamente tres o cuatro, que aportan diferentes perspectivas en torno a
un mismo tema. En este caso es importante coordinar bien los contenidos
que aporta individualmente de cada ponente en la parte inicial, para que
no haya repeticiones innecesarias y para maximizar el tiempo disponible
para la discusión e intercambios posteriores.
Con independencia del tiempo de duración de la presentación, cuando se
prepara la misma hay que tener en cuenta los siguientes elementos:
• Mensaje: qué quiero explicar y a quién.
• Expresión oral: cómo lo cuento.
• Historia audiovisual: cómo puede ayudar a mi expresión oral.
No hay que olvidar nunca que el objetivo de la presentación es captar el
interés en el trabajo académico del autor o autores.
La cantidad de tiempo que hay que dedicar a una presentación es
proporcional a la importancia de lo que está en juego. Como dato orientativo,
podríamos decir que para una hora de presentación de calidad hay que contar
con unas veinte o treinta horas de preparación.
Podemos segmentar la actividad de una presentación en las siguientes fases
(figura 19.1).
Figura 19.1. Fases de una presentación.

En los siguientes apartados desgranaremos cada una de estas fases.

19.2. El mensaje: la comunicación oral


La preparación del discurso oral o narración debería realizarse de manera
integrada con la creación del soporte audiovisual, pero lo trataremos en dos
apartados diferenciados.
La comunicación oral es una actividad humana que realizamos
habitualmente y, por tanto, si la queremos mejorar, tendremos múltiples
ocasiones para practicar. En el anexo 1 hay un cuestionario inicial que
proporcionará indicaciones respecto a cuáles son las actitudes iniciales de la
comunicación oral del investigador y dará una idea de si es un aspecto al que
hay que dedicar más o menos tiempo. Aunque la comunicación oral del
investigador tenga un buen punto de partida, esto no quita que cualquier
presentación de investigación debe prepararse cuidadosamente.
A la hora de preparar la presentación, en primer lugar, es necesario elaborar
un guion o un mapa conceptual de lo que se quiere contar. Lo más habitual es
que se trate de un discurso secuencial en el que un punto lleva al siguiente (el
apoyo visual será con un tipo PowerPoint), pero en algunos casos una
comunicación basada en un mapa conceptual también puede ser útil. El
soporte visual será en Prezi o similar, que permite una visión de conjunto
(figura 2).

Figura 19.2. Visión de conjunto de la presentación.

Como las comunicaciones orales son las más habituales, nos centraremos
en esta estructura. Un ejemplo habitual de los puntos a tratar serían los
siguientes:
1. Presentación.
2. Introducción/motivación.
3. Estudios previos/teoría.
4. Metodología.
5. Resultados.
6. Conclusiones.
7. Posibles extensiones futuras.
Las primeras veces que se realizan presentaciones hay que escribir la
totalidad del discurso y practicarlo repetidamente. Es especialmente
importante cuidar el inicio y el final del discurso. Se recomienda memorizar
el inicio del discurso con el fin de asegurarse el empezar con buen pie y coger
confianza. Tener bien preparado el discurso da seguridad.
En términos generales, hay una regla de oro genérica que hay que tener
presente:
«Decir lo que dirás, decirlo y decir lo que has dicho».
• «Decir lo que dirás» se puede hacer durante la presentación y la
introducción.
• «Decirlo» se hace en los estudios previos, metodología y resultados.
• «Decir lo que has dicho» se hace en las conclusiones.
Hay que utilizar un lenguaje académico y evitar coloquialismos. Las
bromas pueden ser apropiadas en momentos puntuales, pero es un recurso
que se debe utilizar con mucho cuidado y no abusar. Durante las primeras
presentaciones, es recomendable obviarlo del todo. Es muy importante evitar
el uso del lenguaje sexista o no inclusivo y no decir que se está nervioso o
poco preparado.
Cuando se elabora el discurso hay que ir presentando las diferentes ideas de
una manera a la vez ordenada y fluida. Cuando hay conceptos desvinculados
y teorías desarticuladas, el discurso se convierte en deficiente y existe el
peligro de que la audiencia pierda interés y termine desconectando. (Hoy en
día, un buen indicador del nivel de atención de la audiencia es el porcentaje
de gente que está pendiente de sus dispositivos móviles en lugar de
pendientes del ponente).
En el apartado de presentación, se explicará cuáles son los autores/autoras
del trabajo, la afiliación, y se harán agradecimientos, si corresponde. Si
alguno de los autores está en la sala, aunque no presente, es bueno
comentarlo.
El apartado de motivación es el equivalente al primer párrafo de
introducción de un artículo escrito. En caso de que la investigación sea
aplicada, se pueden describir los datos y los objetivos científicos. Si la
investigación es teórica, hay que describir el problema y las limitaciones de
los enfoques actuales.
En el apartado de estudios previos, hay que explicar en qué trabajos previos
se ha basado la investigación. Si se prevé que la audiencia pueda no estar
familiarizada con alguno de los conceptos que se irán repitiendo durante la
presentación, se puede hacer una breve explicación, sin entrar en demasiado
detalle.
El apartado de metodología es la parte principal de la presentación. No solo
consiste en explicar los métodos empleados, sino que hay que explicar por
qué se han utilizado e interpretarlos para dar una visión más amplia.
Después hay que explicar los resultados del estudio. Es mejor presentar
pocos resultados pero bien explicados, antes que intentar cubrirlos todos
superficialmente. Intentar incluir un número excesivo de resultados es una
tentación que hay que resistir y un defecto frecuente en muchas
presentaciones, sobre todo por parte de investigadores noveles que quieren
causar buena impresión. La calidad de los resultados presentados es más
importante que la cantidad, y en ningún caso se puede compensar un déficit
de la primera con un exceso de la segunda.
Por último, se explicarán unas conclusiones. Finalmente, se agradecerá la
atención recibida y, en su caso, se abrirá una ronda de preguntas.
Es habitual y más fácil que cuando se prepare el discurso uno se dé cuenta
de si alguna frase no suena bien o hay alguna parte de la investigación que no
acaba de tener sentido. Esto puede ayudar a ir redefiniendo el proyecto de
investigación.
Si la presentación se hace en inglés, hay que asegurar una correcta
pronunciación de las palabras técnicas que más se repiten. Si la presentación
no es en inglés, entonces hay que decidir qué términos técnicos se traducen y
cuáles se mantienen es su forma original. En las disciplinas en que los textos
de referencia se utilizan directamente en su versión original, es preferible no
traducir los términos técnicos en la presentación incluso cuando esta no sea
en inglés.
A pesar de que el discurso esté escrito, y se pueda tener a mano, la
presentación en ningún caso se leerá, ya que esto no permite mantenerse
atento a las señales no verbales de los asistentes. Hay que confiar en la
práctica que se ha ido adquirido durante la preparación de la presentación; de
hecho por eso es tan importante esta práctica.
Más sobre el discurso oral
A la hora de elegir el lenguaje que utilizamos para el discurso oral, puede ser
útil tener unas nociones de cómo las personas recibimos e interpretamos la
información que nos llega del exterior. Para los humanos, las puertas de
percepción del mundo son los sentidos: la vista, el oído, el tacto o los
sentimientos, el olfato y el gusto. Cuando recordamos algún acontecimiento
pasado o bien proyectamos uno futuro, también lo estamos reproduciendo
internamente utilizando estas puertas de entrada, ya sea en imágenes, sonidos,
gustos o sensaciones; el conjunto de estas sensaciones también se denomina
cinestesia. Por ejemplo, si te pido que recuerdes las últimas vacaciones, algún
recuerdo aparecerá en tu pensamiento. Este recuerdo será diferente en
función de las preferencias individuales de cada uno; para algunos, será una
imagen con colores, para otros será algún sonido o palabras que se
escucharon y, para otro grupo, las sensaciones corporales que produce estar
de vacaciones. También serán combinaciones de los tres elementos en mayor
o menor proporción en función de las preferencias individuales.
Estudios previos demuestran que un 65 % de la población tiene como
puerta preferente de entrada la vista, el 20 % el oído y el 5 % las sensaciones.
El gusto y el olfato suelen ser minoritarios y se suelen incluir en el tacto y las
sensaciones corporales. Estos sistemas representativos tienen un impacto en
las palabras que se eligen para hablar. Por ejemplo, una persona muy visual
utilizará frases como «lo veo claro», «miramos este problema» o «estoy
enfocado en eso». Construcciones auditivas serían: «me suena a chino», «alto
y claro» o «hacerse el sordo» y frases cinestésicas serían «estamos en
contacto», «quitarse un peso de encima» o «romper el hielo».
El discurso se enriquece mucho y llega mejor si se utilizan palabras que
hagan referencia a los diferentes sistemas de representación. A continuación
hay una lista de palabras que se pueden tener en cuenta (figura 19.3).

Figura 19.3. Ejemplos de palabras de los diferentes sistemas de representación.

Otro aspecto que podemos tener en cuenta a la hora de construir el lenguaje


es el uso de los conectores, que ayudan a organizar la información, a
relacionar aspectos y a ordenar el discurso. A continuación se listan
diferentes conectores que se pueden utilizar en lengua española:
• Aditivos: y, de nuevo, otra vez, igualmente, además, también, asimismo,
incluso, aunque, tampoco.
• Enumerativos: en primer lugar, en segundo lugar, a continuación, de
entrada, a continuación, más tarde, finalmente, al principio, después, al fin.
• Consecutivos: así que, en consecuencia, entonces, dado, por esta causa,
por eso.
• Transitivos: por otra parte, fuera de eso, por lo demás, aparte de eso.
• Explicativos, continuativos: es decir, para decirlo mejor, mejor dicho,
para decirlo de otro modo, con respecto a, en otros términos, al margen de
eso.
• Ejemplificador: por ejemplo, como muestra, tales como, entre otros,
sobre todo, especialmente, particularmente, esto es, así.
• Adversativos: pero, mas, aunque, por el contrario, sin embargo, a pesar
de que...
• Comparativos: cuanto más... más; cuanto más... menos; en comparación
con; en comparación a; o mejor...
Por internet es relativamente sencillo encontrar conectores en otras lenguas,
en el caso de que la presentación sea en inglés o en castellano. Es importante
consultar este tipo de palabras sobre todo si la presentación no se hace en la
lengua materna, ya que es cuando tenemos menos recursos lingüísticos y hay
tendencia a utilizar en exceso expresiones conocidas.
Otro dato que también puede ser útil son las fluctuaciones en la capacidad
de atención y concentración que tiene un adulto. El tiempo máximo que un
adulto puede mantener la atención es de 45 minutos, durante este tiempo se
habrá asimilado una tercera parte de lo que se haya dicho y se retendrían
como máximo siete conceptos. A continuación se muestra la figura 19.4
sobre cómo fluctúa la atención a medida que pasa el tiempo. Al principio y al
final es cuando se produce el pico de concentración y, por tanto, es un buen
momento para destacar los aspectos más importantes.

Figura 19.4. Cómo fluctúa la atención a medida que pasa el tiempo. Fuente: Marcos, C. L.;
Llorens, F.; Satorre, R. (2013).

19.3. El soporte audiovisual en la comunicación oral


A medida que se vaya preparando el discurso, se irá preparando –cuando sea
adecuado– el apoyo audiovisual que acompañe, complemente y facilite la
comprensión del discurso oral. Se pueden utilizar diferentes tipos de
software, y los más habituales son PowerPoint, Keynote o Prezi. También
hay que tener en cuenta que algunos congresos tienen unas plantillas en las
que aparecen los gráficos y logotipos deseados por los organizadores. Hay
que enterarse de si es necesario y adaptarse a su estructura.
Un error habitual al inicio de la carrera académica es crear muchas
diapositivas que contienen todo el discurso, a fin de no perder el hilo debido a
los nervios. Las pantallas o diapositivas como una herramienta para ayudar a
los asistentes a entender el discurso y no como una herramienta para ayudar
al investigador o que reproduzca el discurso. Las dispositivas en ningún caso
deberían estar excesivamente repletas de contenido, sino que deberían ser
ligeras, dado que el tiempo de proyección es breve y en cualquier caso no
deben ser una distracción sino un apoyo. Tampoco hay que abusar de las
animaciones en los elementos contenidos, aunque un uso esporádico de
animaciones puede hacer la presentación más atractiva.
El tiempo para diapositiva adecuado está entre el minuto y los dos minutos.
Debe haber suficiente tiempo para escuchar al ponente y asimilar el apoyo
visual.
En la primera diapositiva se recomienda que conste, como mínimo, la
siguiente información:
• Título de la ponencia.
• Autor/es de la comunicación.
• Institución académica a la que pertenecen.
• Si se ha recibido financiación de alguna institución para la elaboración del
trabajo también hay que hacerlo constar.
En la segunda pantalla, hay que poner un índice con todos los apartados
que se tratarán, siguiendo la estructura del discurso oral preparado.
Pese a que no es demasiado habitual, en algunas ocasiones puede ser útil
dar indicaciones visuales a los asistentes de qué progreso se está haciendo en
la propia presentación. Esto se puede hacer poniendo en algún rincón el
número de la diapositiva en la que se está (y el número total de dispositivas)
o bien en qué apartado del índice se encuentra. Este tipo de guías ayudan a
mantener la concentración de los asistentes o en reubicar a alguien que haya
desconectado temporalmente.
Otros aspectos que tener en cuenta a la hora de crear presentaciones:
• Como se ha dicho ya, no poner demasiada información en una sola
diapositiva. Utilizar la regla del 7 x 7. No más de siete líneas por pantalla y
menos de siete palabras por línea.
• Es mejor un listado que un párrafo.
• El tamaño de la letra debe ser legible. Los títulos principales deben tener
un tamaño mínimo de 26 y el texto no conviene que sea inferior a 20.
• Elegir tipo de letras que favorezcan la lectura en pantalla, normalmente
sans serif, fuente tipo Arial o Calibri.
• Utilizar un fondo y letras con contraste (por ejemplo: fondo blanco y
letras negras o al revés).
• Utilizar los colores con medida. El rojo, el azul y el verde son colores
sólidos que se ven bien en presentaciones. Evitar otros colores como el
amarillo, rosas o el morado.
• Las gráficas y las tablas también deben ser legibles y entendibles. Vigilar
en gráficas exportadas que tengan una resolución baja. Es mejor crear los
materiales en la presentación.
• Como se ha comentado antes, no abusar de transiciones entre pantallas y
las animaciones, que pueden distraer la audiencia.
• No utilizar fórmulas numeradas, tablas o figuras. Los asistentes no podrán
recordar los datos de la tabla 4, hay que ponerlos de nuevo.
• Cuidar la ortografía y los errores tipográficos. La presencia de errores
tipográficos da una impresión de descuido y mala preparación.
• No leer las pantallas, comentarlas.
Una vez se haya realizado la presentación final, replantear los contenidos
visuales en función de lo que haya pasado.
Aunque la información esté simplificada en las diapositivas, hay que tener
a mano los resultados completos, en el caso de que haya preguntas más
detalladas sobre la metodología o los datos.

19.4. El lenguaje no verbal


El investigador Albert Mehrabian afirma que cuando se emite un mensaje,
solo el 7 % del impacto proviene de las palabras utilizadas, el 38 % de la voz
y el 55 % de las señales y los gestos. El componente verbal es el que
comunica la información y el no verbal da información sobre el estado y las
actitudes personales del comunicador. Seguramente, en la comunicación
académica, el impacto de la comunicación verbal es superior, pero
igualmente hay que ser consciente de la importancia de los otros aspectos.
En el lenguaje no verbal se identifican los componentes siguientes: voz,
mirada, sonrisa, gesticulación de las manos y posición del cuerpo. Vemos a
continuación cada uno de ellos:
• La voz tiene diferentes elementos (volumen, tono, ritmo). El volumen de
la voz debe ser lo suficientemente fuerte para que el público pueda escuchar
al poniente con claridad. Comprobar si en la sala hay un micrófono. Hay que
asegurarse de que la proyección de la voz es suficiente para llegar a la última
fila donde haya personas sentadas.
El tono de la voz varía de grave a agudo. En general, las voces graves son
las preferidas, ya que se perciben como más creíbles y seguras. Además, la
voz grave se debe forzar menos para ganar en volumen y se puede hablar
durante más tiempo sin sobreesfuerzo. En cambio, la voz aguda tiene menos
presencia. En términos genéricos, esto favorece las voces masculinas por
encima de las femeninas.
En este aspecto, las investigadoras mujeres es necesario que pongan más
atención a las características de su voz.
Para mejorar la voz hay que poner atención en la respiración y asegurar una
buena respiración abdominal.
Si la presentación es inglés, hay que asegurarse de que estamos
pronunciando correctamente las palabras.
• La mirada debe dirigirse a la audiencia, sin quedarse fijada solo en una
persona o dos y evitando mirar al techo. La mirada se comporta como un faro
que va de un lado al otro de la audiencia, intentando que todo el mundo se
sienta tratado en algún momento de la presentación.
• Las manos: se recomienda no hacer grandes gesticulaciones con las
manos y los brazos, aunque puede ayudar en algún momento para dar énfasis
a alguna idea. No ponerse las manos en los bolsillos. A veces, puede ser útil
tener un bolígrafo o un puntero en la mano, para dar seguridad. No tocarse el
pelo u otras partes del cuerpo, ni ponerse la mano sobre la boca.
• Los gestos del cuerpo: la dirección del cuerpo debe ser en dirección al
público. Si se utiliza pizarra o proyector, asegurarse de que no se está dando
la espalda a la audiencia. El contenido de las diapositivas no se debe leer y de
nuevo esto apunta a la importancia de una buena preparación previa.

19.5. Job talk


En una conferencia de quince o veinte minutos de duración, el objetivo es
conseguir aumentar el número de personas interesadas en el trabajo de quien
presenta. En un seminario encaminado a obtener una oferta de trabajo por
parte de la universidad, centro o empresa, hay que demostrar sobre todo que
la contribución en investigación es importante y que se es un buen
comunicador.
Los seminarios o presentaciones del mercado de trabajo tienen una
duración más larga y el objetivo es ofrecer una buena imagen sobre el
conocimiento en un área específica de conocimiento y la contribución que la
investigación está haciendo a esta área. El resto de los asistentes deben ser
capaces de entender cuál es el problema que se les muestra, porque este es
relevante, así como tener una idea básica de lo que se ha hecho en la
investigación presentada.
• Un consejo que se ofrece habitualmente es: «Les ha gustado bastante tu
currículum para ofrecerte un seminario. El seminario es una oportunidad para
demostrar que también eres un buen comunicador».
• En esta presentación la forma en que se dirigen las preguntas es muy
importante.
• En la figura 19.5 se exponen las diferencias entre una conferencia de una
duración de entre quince y veinte minutos y la de un seminario de una
duración de cincuenta minutos.

Figura 19.5. Diferencias entre conferencia y seminario.

19.6. El ensayo
Hay que ensayar el discurso oral varias veces y asegurarse de que las ideas
fluyen y el material visual acompaña de una manera adecuada.
Después es importante hacer un ensayo ante algunos colegas; si esto no
fuera posible, grabarse en vídeo y mirarlo. Verse uno mismo en vídeo puede
crear mucha inseguridad, ya que la tendencia es enfocarse en todo lo que es
negativo. Si se prevé que este será el caso, es mejor grabar solo la voz o no
grabarse. Grabar la voz puede ser muy útil para detectar palabras o frases que
se utilizan muy repetidamente, son tics inconscientes y que cuestan de
eliminar. Se puede pedir a los amigos y colegas si hay alguna palabra o tic
que se pronuncie con demasiada frecuencia y pedir que nos avisen cada vez
que lo digamos, para ir ganando confianza.
Si algún colega escucha la presentación, se le puede pedir su opinión (en el
anexo 2 hay una tabla de valoración descriptiva que se puede utilizar, total o
parcialmente). La valoración descriptiva da mucha información sobre la
calidad y características de la presentación.
Una vez se reciba el feedback, es necesario incorporar los cambios que se
crean adecuados en el discurso oral y en el soporte visual y continuar
practicando de forma individual, hasta que se tenga la sensación de que se
domina la presentación.

19.7. El día de la presentación


Conviene prepararse para el día de la presentación. Buscar información sobre
cómo y dónde se desarrollará ayudará a tener tranquilidad y sensación de
control.
La información que es útil saber:
• Qué ropa es más adecuada. Hay áreas de conocimiento que son más
informales y áreas que son más formales, también va en función del tipo de
conferencia.
• Qué material habrá en la sala y qué hay que llevar. Conviene llegar unos
minutos antes a la sala para familiarizarse con el espacio y asegurarse de que
todos los elementos tecnológicos funcionan correctamente.
• Si se lleva puntero láser, no abusar de ellos durante la presentación y
vigilar de no apuntar hacia la audiencia.
• Tener una idea aproximada del número de personas que vendrán.
• Tamaño de la sala.
• Cuántas presentaciones hay en la misma sesión y en qué orden va la
nuestra.
• La hora a la que nos toca presentar y si la audiencia estará más o menos
receptiva; no es lo mismo una presentación a las diez de la mañana que
después de comer o a última hora del día.
Al llegar a la sala, conviene averiguar quién es el coordinador de la sesión
y presentarse, a fin de que pueda saber qué ponentes han llegado ya. Es un
buen momento para confirmar el orden de las presentaciones y para pedirle
cómo se realizará el control de tiempo y cómo se gestionarán las preguntas.
También se puede aprovechar para asegurarse de que la presentación está
cargada en el ordenador, y si no es así, hacerlo. Si hay tiempo, es un buen
momento para saludar al resto de los ponentes.
Una vez llegue el turno de hacer la presentación, toda la preparación previa
dará sus frutos. Si hay muchos nervios, quizá convenga centrar la atención en
la respiración durante unos minutos o centrarse en el contacto de la planta de
los pies en el suelo. También es bueno que acudan compañeros con los que
haya confianza para disfrutar de un cierto apoyo emocional. De hecho, estar
nervioso es una buena señal: indica que se da a la actividad el grado de
importancia que tiene y que físicamente hay un nivel adecuado de energía,
adrenalina, para encararla.
Mientras se realice la presentación, no conviene acelerar el discurso. Los
nervios a veces hacen que se quiera ir más rápido para acabar antes. En este
sentido, puede ser útil poner la atención en el público, olvidarse uno mismo y
tener presente que el objetivo es que se entienda la explicación que se está
dando.
Es conveniente llevar tarjetas de visitas, tal vez al final de la presentación
se acercan interesados en el trabajo y quieren mantener el contacto.

19.8. La gestión de las preguntas


En algunos contextos académicos se permite hacer preguntas durante las
presentaciones orales, interrumpiendo el discurso del investigador. En otros
contextos, el turno de preguntas se abre una vez finalizada la presentación, a
menudo bajo el tutelaje de quien preside la sesión o actividad.
Cuando una persona hace una pregunta o una sugerencia, es adecuado
recoger la intervención agradeciendo el interés, señalando que la pregunta es
interesante o cualquier otro comentario que reconozca la aportación que
proviene del público. En caso de que la pregunta no se haya escuchado bien
por el resto del auditorio, es conveniente enmarcar la respuesta, para que el
resto de las personas entiendan lo que se está hablando. En espacios grandes
donde el ponente dispone de micrófono pero no así la audiencia, es
recomendable incluso repetir la pregunta.
Hay que contestar de forma breve y directa, sin extenderse en otros temas
no relacionados con la pregunta formulada.
También hay que evitar entrar en un diálogo extenso con una única
persona, tal vez diciendo «esto es muy interesante, quizás lo podemos
continuar discutiendo después de la sesión».
Fin de respuesta pidiendo si se ha contestado con bastante claridad lo que
se había preguntado.
Si no se conoce la respuesta, hay diferentes maneras de reaccionar:
• Si la pregunta o comentario es pertinente y puede ayudar a mejorar
nuestra investigación, conviene agradecerlo y anotarlo como una línea que
investigar.
• Ofrecer otros recursos que puedan ayudar a resolver la pregunta a quien la
ha realizado.
• Pedir sugerencias al público.
• Si la pregunta no está directamente relacionada con la presentación o solo
tangencialmente, se puede ofrecer discutir en privado después de la sesión.
• Se puede decir que no se conoce la respuesta, y de hecho es preferible eso
a intentar improvisar una respuesta argumentativa que podría ser rebatida por
parte de quien pregunta.
En caso de que las preguntas sean durante la presentación oral, hay todavía
una mayor preparación por parte del investigador. Estas preguntas pueden
hacer perder el hilo argumental y poner más nerviosa a la persona que está
presentando. Es adecuado contestar este tipo de preguntas con la máxima
agilidad posible a fin de volver a la presentación. Si la pregunta será
contestada en alguna parte más avanzada de la presentación, se puede indicar
este hecho.

19.9. Presentación en pósters


En algunos congresos se hacen sesiones de pósters. Este formato es adecuado
para propuestas de investigación que aún no están del todo desarrolladas,
incluso pueden ser ideas de trabajo futuras o el diseño de una investigación
que aún se ha de realizar.
En el caso de presentación de póster, el trabajo principal es preparar un
póster que resuma las ideas principales de la investigación y sea gráfico y
atractivo visualmente. Es preferible utilizar color que no hacerlos en blanco y
negro. No es necesario llenarlo de muchos datos y la letra debe ser lo
suficientemente grande para que sea de fácil lectura. En este póster también
deben constar los datos de contacto de la persona investigadora, el logo de la
institución académica a la que se pertenece, así como referencias a la
financiación recibida para realizar la investigación, si es pertinente. Cuando
se esté diseñando, hay que asegurarse de las medidas que tendrá el lugar
donde irá expuesto. Esta información suele estar disponible en la web de la
conferencia o si no hay que ponerse en contacto con los organizadores para
conocerla.
Lo más habitual es que el investigador esté cerca de su póster a la hora
indicada para esta sesión. Los asistentes se acercan para leerlo y si tienen
interés en el tema, pueden preguntar. En cuanto al discurso oral, es
importante llevar preparado un elevator pitch, es decir, una frase muy corta
que resuma el trabajo y que se pueda decir en unos 30 segundos. Esta frase
resumen hay que escribirla, practicarla a solas y con colegas e irla ajustando
hasta que estemos seguros de que describe de la manera más efectiva posible
nuestra investigación.
Aunque no se presente un póster, puede ser de mucha utilidad tener un
elevator pitch preparado. A veces durante los descansos se conocen colegas
de otras instituciones y es habitual hablar de la investigación que se ha
presentado, por lo tanto si se ha preparado una manera sintética de explicarlo,
se podrá utilizar.
Para la sesión hay que llevar el póster impreso, para poderlo colgar.
También es recomendable llevar algunas copias en formato pequeño para que
las personas que estén interesadas se los puedan llevar. También pueden
dejarse tarjetas.

Bibliografía
Becker, L. (2014) Presenting your Research. Conferences, Symposiums,
Poster Presentations and Beyond. SAGE Publications, Londres.
Cortázar, M. I. y Rojo, B. (2007). La voz en la docencia. Graó, Barcelona.
Marcos, C. L., Llorens, F. y Satorre, R. (2013). «Estructura narrativa en las
presentaciones académicas. Mapas conceptuales frente a discursos
secuenciales». Ponencia en las XI Jornadas de Redes de Investigación en
Docencia Universitaria (Alicante).
Reyzabal, M. V. y Casanova, M. A. (1993). La comunicación oral y su
didáctica. La Muralla, Madrid.

Anexo 1. Cuestionario para la autoevaluación inicial de las


características personales en la comunicación oral
Anexo 2. Escala de valoración descriptiva
20 La transferencia de tecnología y conocimiento en la universidad

20
LA TRANSFERENCIA DE TECNOLOGÍA
Y CONOCIMIENTO EN LA
UNIVERSIDAD
Albert Bosch (UB y RAED) y M. Àngels Calvo (UAB y RAED)

Objetivos del capítulo

• Resaltar la importancia de la transferencia de conocimiento.


• Describir las fases de la transferencia de conocimiento.
• Exponer las modalidades de la transferencia de conocimiento.
• Describir los aspectos más relevantes de las patentes.
• Exponer los aspectos clave de la comercialización de la propiedad industrial y de la creación de
empresas de base tecnológica.

20.1. Introducción
La transferencia de tecnología y conocimiento constituye el eje central de la
llamada «tercera misión de la universidad», es decir, del papel de la
universidad como agente de desarrollo económico y social del entorno en que
se ubica, que contribuye de este modo a la mejora de la capacidad de
innovación del territorio y de la competitividad de su tejido productivo.
Lo anteriormente expuesto no debe llevarnos a subestimar el papel de la
ciencia básica a la hora de generar resultados transferibles a la sociedad.
Frecuentemente, la ciencia básica es injustamente tildada de no proporcionar
réditos a corto plazo. No obstante, difícilmente se generan resultados
susceptibles de brindar respuesta a problemas específicos de la sociedad sin
los sólidos cimientos de la investigación básica sobre los que se edifiquen los
pilares de la investigación aplicada.
De hecho, España ocupa la décima posición en el ranking de países según
su producción científica y genera aproximadamente un 3 % de la producción
científica mundial, pero sin embargo ocupa alrededor de la trigésima en
cuanto a capacidad de innovación (Testar).
El proceso de la transferencia de conocimiento se puede asimilar a una
«cadena de valor» que nos debe permitir transitar desde la investigación, la
I+D, que se lleva a cabo en el entorno público, hasta su transformación en
nuevos o mejorados productos y servicios que las empresas trasladarán al
mercado, es decir, a los ciudadanos y potenciales clientes, a través de la
innovación. Pero siendo las fases que conforman la cadena de valor de las
transferencias múltiples y diversas para cada caso concreto, globalmente
considerado el proceso, se puede estructurar en tres etapas esencialmente
comunes: evaluación, valorización y comercialización.
Por otra parte, la transferencia de tecnología y conocimiento constituye en
último término una de las fuentes de la innovación de las empresas. Por ello,
tan importante como la generación del conocimiento y la tarea de la unidad
de interfaz, es el entorno en que se desarrollan. Es decir, la existencia o no de
un contexto innovador y de empresas capaces de identificar en el ámbito de la
I+D pública resultados y capacidades de su interés y que puedan ser
incorporados a sus procesos productivos, a través del proceso de innovación.
De ahí la relevancia de contar con un «ecosistema de la innovación» maduro,
completo y equilibrado, que haga posible que la innovación fluya y se
produzca no de una forma puntual sino sostenida.

20.2. La transferencia de conocimiento, elemento central de la relación


universidad-sociedad
La relación entre la universidad y su entorno ha sido tradicionalmente un
tema objeto de debate y controversia. Este debate abarca los múltiples
aspectos de dicha relación, empezando por el que constituye la raíz de la tarea
de la universidad y su primigenia razón de ser, es decir, la transmisión de
conocimiento y, como resultado de ello, la formación de titulados superiores
y futuros profesionales de la sociedad, sea en el sector público o en el
privado. En efecto, es bien sabido que tanto la pertinencia de los títulos
ofertados como los contenidos de los estudios y, por tanto, el perfil de los
titulados matriculados también ha sido y es a menudo cuestionado desde el
punto de vista de su adecuación a las necesidades de las empresas, sea por los
conocimientos adquiridos o, más frecuentemente, por sus competencias para
el desempeño de las tareas que les son encomendadas. Este cuestionamiento
de hecho refrenda la formación de titulados y su posterior incorporación al
mercado laboral, globalmente considerado el vector más importante de la
relación universidad-sociedad, sin duda en el pasado pero también en la
actualidad.
Indudablemente, este mayor interés y relación se han dado en paralelo al
creciente desarrollo de la tarea investigadora que se realiza en el seno de la
universidad moderna y que tiene su origen en la implantación, a principios
del siglo XIX, en la Universidad de Berlín, y posterior generalización de la
universidad humboldtiana, modelo que aúna de forma inseparable formación
e investigación, que refuerza así su capacidad de retorno efectivo a la
sociedad.
A medida que las universidades y centros públicos de investigación han
incrementado su capacidad de generación de nuevo conocimiento, tanto en
cantidad como en calidad, se ha ido acrecentando la demanda de un retorno,
un rendimiento, en beneficio de la sociedad, que hace posible la actividad
investigadora, en su mayor parte a través de los presupuestos públicos
destinados a este fin. Por tanto, la consolidación de la universidad
investigadora no es independiente, sino todo lo contrario, de la evolución de
la transferencia en sus distintas modalidades, de los conceptos y realidades
vinculados a dicha transferencia entre la universidad y su entorno.
Dicho de otro modo, el advenimiento de la llamada «tercera misión» de la
universidad no habría tenido lugar sin el previo reconocimiento por parte de
los poderes públicos y de la sociedad del papel central de la universidad en la
generación de conocimiento gracias a la I+D que se lleva a cabo en sus
departamentos, centros y facultades. La transferencia de conocimiento en
ningún modo se puede considerar un proceso aislado e independiente de la
primera y de la segunda misión de la universidad, es decir, de la formación de
titulados superiores y de la investigación, sino que de hecho es una derivada
de estas dos y hunde sus raíces precisamente en su desarrollo y en los niveles
de calidad alcanzados en las mismas. En efecto, la transferencia de
conocimiento presupone la previa generación del mismo, o sea, la obtención
de resultados de la investigación que se lleva a cabo, y que así genera la
«materia prima» que alimentará el proceso de transferencia. Ello nos indica
que la mayor y mejor transferencia deberá darse, potencialmente, donde se
desarrolle mayor y mejor investigación, y que la existencia de esta es una
condición previa necesaria, aunque no suficiente, para impulsar procesos de
transferencia.
Las fases que conforman la cadena de valor de la transferencia son
múltiples y, en la práctica, distintas y diversas para cada caso concreto, si
bien pueden existir unos determinados patrones específicos que se dan con
mayor frecuencia. En todo caso, sea cual sea el número y diversidad de
dichas fases, se pueden estructurar en tres etapas claramente definidas y
podríamos decir que comunes a cualquier proceso de transferencia. Estas tres
etapas esenciales son: evaluación, valorización y comercialización.
La evaluación consiste en la verificación de la novedad de los resultados de
la investigación, de su carácter de verdadera invención y de su posibilidad de
protección, sea mediante patente o por otras vías, condición indispensable en
la mayoría de los casos para poder iniciar el proceso de transferencia.
La valorización es la etapa que en general comporta un mayor y más
diverso número de pasos, y consiste globalmente en la realización de un
conjunto de procesos dirigidos a aportar valor a los resultados de la
investigación o a la tecnología objeto de transferencia, con el fin de verificar
si cumple los requisitos para poder ser trasladada de manera efectiva al
mercado. En esta etapa se reduce la incertidumbre en cuanto a sus
posibilidades reales de aplicación e industrialización, por lo que se
incrementa el posible interés de las empresas por la invención y/o tecnología
que transferir.
Globalmente, este conjunto de procesos y, en su caso, investigaciones
adicionales, desarrollos o ensayos, recibe el nombre genérico de «prueba de
concepto». De hecho, en los procesos de transferencia esta etapa se
corresponde en gran medida con la D de la I+D, es decir, con la etapa de
desarrollo, que implica, en los casos en que sea aplicable, fases como la del
prototipado del posible futuro producto.
Por último, la tercera etapa es la comercialización, por tanto, la cesión,
transmisión y/o venta de la tecnología a la empresa cliente, que en caso de
encontrarse y de llegar a un acuerdo con ella, será la responsable de llevarla
al mercado, en forma de un producto o servicio concreto, que dará lugar a la
generación de innovación y culminará el proceso de transferencia.
En todo caso, hay que tener presente que las claves del proceso de
transferencia son distintas para los distintos ámbitos de conocimiento y que,
en muchos de ellos, como sucede en los campos de las ciencias humanas y
sociales, no son de aplicación los mecanismos de protección que sí se utilizan
en las ciencias experimentales, ciencias de la salud y las disciplinas
tecnológicas.
En cuanto a las formas o modalidades que puede adoptar la transferencia,
un compendio de las múltiples existentes se recoge en la figura 20.1, en la
que también se indican algunas de las funciones que las distintas
Administraciones pueden desarrollar con el objetivo de impulsar la
transferencia. Como se puede observar, entre el conjunto de modalidades de
vinculación entre la universidad y la empresa, destacan las que en la figura
20.1 se consideran la misión principal de las universidades en su tarea de
favorecer la innovación, sin menoscabo de la importancia de tareas dirigidas
a un mayor conocimiento mutuo entre ambas realidades, tanto por vías
formales como informales, o de las que promueven la intersección de
disciplinas tradicionales en el marco de contratos de investigación
universidad-empresa o en proyectos conjuntos de I+D, así como la
consultoría técnica, los prototipos y el diseño y realización de pruebas de
concepto.
Figura 20.1. Matriz de mecanismos de transferencia de conocimientos y tecnología. Fuente:
Informe de la comisión de expertos internacionales de la Estrategia Universidad 2015.

20.3. Modalidades de la transferencia de conocimiento: características


y limitaciones
El análisis de las modalidades de transferencia de conocimiento se puede
abordar de múltiples formas, y aquí se va a realizar teniendo en cuenta donde
reside la fuerza motriz del proceso. Así, se habla de market pull cuando es el
mercado el que «tira» de los resultados de la investigación; y de science push
o technology push cuando es la ciencia la que «empuja» para llegar al
mercado (figura 20.2). Esta figura muestra la primera clasificación que se ha
de tener en cuenta y es la que condiciona, para cada caso o modalidad
concreta, cuáles son las etapas y pasos que seguir en el proceso de
transferencia. En efecto, el segundo aspecto global que considerar es que los
procesos que hacen realidad las diferentes modalidades de transferencia son
distintos y requieren estructuras e instrumentos también distintos para su
impulso. De hecho, el proceso de la transferencia de conocimiento puede ser
visto como una «cadena de valor» que nos debe permitir transitar desde la
investigación, la I+D, que se lleva a cabo en el entorno público, hasta su
transformación en nuevos o mejorados productos y servicios que las
empresas trasladarán al mercado, es decir, a los ciudadanos y potenciales
clientes, a través de la innovación.
Hablamos de market pull cuando es la empresa la que se dirige al mundo
de la investigación en busca de respuestas a sus necesidades, sea de I+D o de
innovación. Esta aproximación puede ser específica, a la búsqueda de
capacidades y/o resultados concretos, o genérica, apoyando la empresa una
colaboración con la universidad/centro de investigación a medio/largo plazo,
estableciendo unas normas por las que, en su caso, es beneficiaria de los
avances de la investigación que contribuye a financiar. Básicamente puede
ser de dos tipos: la investigación por contrato, que habitualmente comporta
una relación bilateral entre el investigador o grupo de investigación con una
empresa concreta; y la investigación colaborativa, que acostumbra a ser
multilateral, con la participación de más de un grupo de investigación y/o
más de una empresa, y que a menudo cuenta con el apoyo de algún tipo de
ayuda de los programas públicos de estímulo a la transferencia y a la
innovación, sean de ámbito de la comunidad autónoma, estatal o comunitario,
como los proyectos del Programa Marco de I+D de la UE.

Figura 20.2. Principales modalidades de la transferencia de conocimiento.


Fuente: ACC1Ó.

La «investigación por contrato» se da cuando la empresa «contrata», por un


determinado importe y con unas condiciones determinadas, un proyecto
concreto de I+D que, sin estar exento del riesgo inherente a cualquier proceso
investigador, implica un riesgo «acotado», tanto en importe como en tiempo,
que será el del contrato y su duración. Podemos decir que esta modalidad de
transferencia constituye el primer escalón, o nivel, de la colaboración
universidad empresa y muy a menudo representa la que podríamos
denominar «modalidad de acceso» a dicha colaboración.
En la investigación por contrato, a veces también llamada «investigación o
proyecto por encargo», es frecuente que la empresa busque en la
investigación pública más sus capacidades (científicas, tecnológicas, de
know-how y de capital humano) que resultados concretos ya generados, ya
existentes, aunque lógicamente los resultados previos del grupo constituyen
una parte importante de la garantía del grado de desarrollo y nivel de calidad
de dichas capacidades. Una de sus ventajas es que, potencialmente, es
accesible a una amplia tipología de empresas, las pymes entre ellas, siempre y
cuando estas sepan definir sus necesidades de I+D o innovación y, por
supuesto, encuentren en el ámbito público las capacidades necesarias para dar
respuesta a dichas necesidades. En este sentido, el asesoramiento tecnológico
a una empresa también puede ser un paso previo al establecimiento de un
contrato alrededor de un proyecto concreto.
En el «debe» de esta modalidad de relación universidad-empresa hay que
considerar que, en general, ya que sin duda existen excepciones, el potencial
de innovación de cada contrato individual será limitado, aspecto que
comentaremos luego para el caso de España. Sin embargo, su potencial de
innovación agregado es muy elevado, por ser una modalidad accesible a un
amplio abanico de empresas y por la posibilidad de que se den un conjunto de
contratos «seriados» entre una empresa y un mismo grupo de investigación,
sea de modo continuado o no. De hecho, la investigación por contrato
constituye una de las vías por las que una empresa puede externalizar su I+D
o parte de ella. Además, la fidelización en la relación universidad-empresa,
que puede durar años, es uno de los resultados positivos habituales de esta
modalidad de transferencia de conocimiento, poniendo de manifiesto
distintos estudios que cuando una empresa ha realizado ya una colaboración
con un grupo de investigación, la probabilidad de que repita, sea con el
mismo equipo investigador o con otro, es muy elevada. No obstante, todavía
es bajo el porcentaje de empresas que se dirigen a la universidad en busca de
respuestas a sus necesidades de I+D, tecnología y/o innovación.
La otra modalidad de transferencia de conocimiento con enfoque market
pull es la «investigación colaborativa», también llamada «investigación
concertada», «cooperativa» o «proyectos colaborativos», que consiste en el
establecimiento de una relación a menudo más a largo plazo que la
investigación por contrato y en la que en bastantes casos participan más de un
grupo de investigación y/o más de una empresa, de manera que, de forma
física o no, colaboran en el proyecto tanto investigadores de la universidad
como de las empresas y que se dirige a abordar retos de mayor envergadura.
Por tanto, en estos casos, la incertidumbre y la serendipity inherentes a
cualquier investigación estarán mucho más presentes que en la investigación
por contrato. Por todo ello, para disminuir los costes del riesgo del proyecto y
también como instrumento de estímulo a la colaboración universidad-
empresa, la investigación colaborativa ha contado con el apoyo económico de
distintos programas a escala nacional y europea.
Las modalidades de transferencia que se engloban en la denominación
science push son aquellas en que los investigadores, con el apoyo de las
instituciones a las que pertenecen, impulsan el proceso de transferencia, sea a
través de la protección de los resultados de la investigación y su posterior
comercialización, o bien mediante la creación de una nueva empresa, una
spin-off, generada a partir de los resultados de la investigación o know-how
derivado, las denominadas «empresas de base tecnológica» (EBT).
La transferencia de tecnología basada en el science push se centra alrededor
de la protección de los resultados de la investigación, que transforma el
nuevo conocimiento generado en un bien susceptible de ser transaccionado
como cualquier otro producto «físico». Mientras que en la trasferencia de
tecnología vía investigación por contrato el conocimiento que se transacciona
puede ser tanto de tipo explicito (codificado) como tácito, inherente a las
personas del equipo de investigación que participan en él, en el caso del
science push el valor de la transferencia reside en que el conocimiento a
transferir está no solo, en sentido amplio, plenamente codificado, sino que, a
través de su protección, se procura darle la máxima identidad y singularidad,
aumentando su atractivo para los posibles interesados.
20.4. Las patentes
El sistema de protección más potente y más extendido es la patente, que
permite formalizar la propiedad industrial (denominada intellectual property,
IP, en el mundo anglosajón) del conocimiento, reconociendo su condición de
inventores a los investigadores que lo han generado. Podemos decir que la
patente es una forma de «encapsular» el conocimiento, lo que aumenta su
valor potencial de transacción, frente al valor que pueda tener cuando se trata
de «conocimiento abierto», no protegido. En España, la propiedad de los
resultados de la investigación corresponde a las instituciones a cuya plantilla
pertenezcan los investigadores que los han generado. Pero los investigadores
universitarios tienen reconocido el derecho a participar de los beneficios de la
explotación de la propiedad industrial (PI a partir de ahora) a la que haya
dado lugar su tarea investigadora, así las universidades disponen de
normativas que regulan la distribución de los posibles beneficios derivados
de su comercialización vía venta o licencia. En el haber de la
comercialización de la PI como instrumento de transferencia, hay que
considerar su carácter de bien transaccionable y, en función de la naturaleza
de la patente/know-how, su importante valor añadido potencial, en caso de ser
transferido y, en su caso, explotado comercialmente por la empresa
adquiriente. En el debe, hay que tener en cuenta el coste inherente a la
protección, sea vía patente u otra modalidad; el de su extensión a distintos
países y su mantenimiento en el tiempo, que irán a cargo de la institución
pública hasta que, en su caso, se logre su comercialización, vía venta o
licencia, reteniendo la propiedad. En caso de no encontrar una empresa
interesada en un plazo determinado, en general los treinta meses cubiertos por
el año de prioridad más los dieciocho de validez de la PCT Europea, la
patente es posible que se abandone y la universidad pierda la posibilidad de
obtener un retorno por ella, pero habiendo ya asumido hasta ese momento
unos costes.
Por otra parte, el proceso de comercialización de una patente, además de
los requerimientos de tiempo, dada su complejidad, requiere que la unidad de
interfaz cuente con un equipo de profesionales bien preparados que puedan
dar respuesta, en tiempo y forma, tanto a la fase de protección como a la de
comercialización de la PI generada a partir de los resultados de investigación
del colectivo de profesores e investigadores de su institución. En efecto,
anterior al proceso de comercialización, existe otro y, si cabe, más importante
cuello de botella en la transferencia de conocimiento vía PI, como es la
necesidad de que los investigadores hayan interiorizado la necesidad de
consultar con los expertos de la unidad de interfaz la posibilidad de
protección e interés inventivo de sus resultados de investigación, antes de que
estos sean publicados o difundidos por cualquier vía, lo que invalida toda
posibilidad de protección de los mismos mediante patente.
Durante mucho tiempo, e incluso ahora, el dilema entre si la prioridad del
investigador debe ser publicar, sin atender a otros criterios, o bien si publicar
está reñido o no con patentar (en los casos en que además de ser posible sea
conveniente dado el potencial de innovación de los resultados), ha estado
muy presente entre el colectivo de profesores e investigadores universitarios.
Progresivamente, y a medida que la cultura de la transferencia y la
importancia de la tercera misión se ha ido difundiendo en el seno de las
universidades, unido al incremento de las capacidades y profesionalización
de las unidades de interfaz, se han podido establecer y normalizar los
procesos de modo que la preparación y depósito de una patente no tenga que
representar un retraso en la publicación de los resultados, aspecto relevante
para los investigadores, ya que constituye la base de su proyección científica
y reconocimiento.
Una limitación importante es encontrar la empresa cliente, sea en el
entorno geográfico más o menos inmediato o en el extranjero, que esté
interesada en la PI y, además, dispuesta a compensar económicamente a la
institución propietaria oferente. La experiencia muestra que no es fácil, ni
encontrar una empresa interesada ni llegar a un acuerdo con ella que implique
un adecuado retorno a la institución, por lo que la comercialización de la PI
es un proceso que puede llevar de uno a dos años de trabajo, o incluso más,
siempre con la incertidumbre de si se culminará positivamente. Pero incluso
cuando es así, los retornos acostumbran a tardar en hacerse efectivos, ya que
en la mayoría de los casos se vinculan a la consecución de determinados hitos
que pongan de manifiesto el avance de la tecnología hacia su explotación,
hasta el mercado. En efecto, con independencia de la existencia o no de unos
pagos iniciales, los retornos por patentes acostumbran a estar vinculados a
hitos y a los resultados de la explotación final, que darán lugar a la
percepción de los royalties que se hayan acordado en el proceso de venta o
licencia, lo que difiere de forma notable su percepción.
Precisamente el tiempo que toman dichos procesos es uno de los factores
que más inciden en su coste para la unidad de interfaz y por tanto para la
institución generadora de la PI. Además, dado que el tiempo de protección
que la patente otorga a la PI es de veinte años, el tiempo consumido en el
proceso de comercialización va en detrimento del tiempo que, en su caso, la
empresa podrá explotar la PI con posibilidad de defender dicho uso frente a
las actuaciones de posibles competidores. De hecho, la dificultad de encontrar
una empresa cliente junto al hecho de que la comercialización de la PI es una
«carrera contra el tiempo», por consumirse el plazo de protección pero
también por los costes asociados, a menudo la creación de spin-off a partir de
una determinada PI es la consecuencia de no poder hallar una empresa
dispuesta a adquirirla o a obtener una licencia de uso, como se comentará a
continuación. Por otra parte, la protección vía patente no es posible en todos
los campos, siendo en los ámbitos de la química, la biotecnología y la
biomedicina, pero también en los de la nanotecnología y los materiales,
incluyendo la parte de hardware de las TIC, donde su uso está más
generalizado y su papel es más importante.

20.5. Comercialización de la PI vía licencia


La comercialización de la PI en general se realiza mediante licencia, que
puede ser exclusiva o no, al limitarse a unas utilizaciones concretas
previamente acordadas de la tecnología licenciada. Además, aunque en
general se habla de licencia también cuando se cede la propiedad de la
misma, reteniendo siempre los investigadores su condición de inventores de
acuerdo con la normativa, en sentido estricto esta denominación corresponde
a los casos en que la entidad pública generadora de la PI cede los derechos de
utilización de la misma pero mantiene su propiedad, así como, en algunas
ocasiones, al derecho a recuperar su uso, cuando la empresa licenciataria
renuncie a llevar al mercado la tecnología cedida y/o a su explotación. Con
ello la entidad pública se garantiza el derecho a encontrar un nuevo
licenciatario que la comercialice de un modo efectivo, que evite el posible
bloqueo del proceso de transferencia por parte de la empresa licenciataria
inicial.
La cadena de valor de la transferencia de conocimiento vía la
comercialización de la PI o know-how requiere, en la mayoría de los casos,
distintos pasos previos a su comercialización vía licencia o venta, que
conjuntamente pueden englobarse en la denominación de «prueba de
concepto». Entre ellos podemos destacar el prototipado o escalado, o la
realización de determinados ensayos, en especial cuando la PI hace referencia
a moléculas nuevas o transformadas, de aplicación en el campo químico,
biotecnológico o farmacéutico.
La prueba de concepto, necesaria para aumentar el valor de la PI y, como
resultado de ello, su interés para las empresas, implica unos costes que no
siempre pueden ser asumidos sea por el equipo de investigación o por la
institución a la que pertenecen. Por ello, los programas dirigidos a cubrir,
total o parcialmente, dichos costes, constituyen un importante instrumento de
apoyo a la transferencia de conocimiento.
En la realización de dichas pruebas de concepto también puede ser
importante la colaboración con centros tecnológicos, que por definición son
centros principalmente dedicados al desarrollo tecnológico, es decir, a la D
del I+D, por lo que constituye la etapa, a menudo imprescindible, entre la
investigación y la innovación.

20.6. Creación de empresas de base tecnológica


Una de las modalidades de transferencia de tecnología de mayor impacto en
el entorno es la creación de empresas generadas a partir de resultados de la
I+D pública o surgidas del entorno de esta, las llamadas spin-off. En efecto, la
creación de empresas de base tecnológica (EBT) no solo implican la
traslación al mercado de investigaciones realizadas en el ámbito público sino
que, al crearse una nueva entidad económica, tienen un efecto directo en la
generación de nuevos puestos de trabajo que, dado el carácter claramente
innovador de la empresa, generan ocupación de calidad. De hecho, su
desarrollo puede dar lugar a un mercado laboral específico vinculado a la
tecnología y a la actividad económica de alto valor añadido.
Al igual que las otras modalidades de transferencia, la creación de EBT
presenta unas características que requieren de unas determinadas
infraestructuras e instrumentos para que se pueda desarrollar de forma
exitosa. En el caso de la creación de EBT impulsadas por investigadores de la
universidad, el papel de la unidad de interfaz es el del acompañamiento en el
proceso de creación, que asesora y facilita los distintos pasos que seguir. De
hecho, en la creación de EBT se dan, en paralelo, un proceso de transferencia
y de emprendimiento, por lo que la unidad de interfaz debe contar también
con las capacidades necesarias para dar apoyo a los profesores y otros
investigadores que serán los emprendedores impulsores del proyecto de la
nueva empresa.
En caso de que la empresa se genere a partir de resultados de investigación
llevada a cabo, totalmente o en parte, en la universidad, dicha institución ve
compensada, en forma de participación en la empresa, la cesión de la PI o
know-how para su explotación a la misma. Junto a la importancia de que la
unidad de interfaz tenga la capacidad de acompañar tanto el proceso de
creación como a los investigadores-emprendedores, otro elemento crítico es
el acceso a una primera financiación, en caso de que los emprendedores no
dispongan de ella.
En efecto, la disponibilidad de financiación es uno de los cuellos de botella
del proceso de transferencia vía la creación de EBT. Esta financiación puede
proceder de las llamadas «tres f» (fools, friends & family), de business angels
o de entidades de capital riesgo, más concretamente de «capital semilla», ya
que se trata de la etapa más inicial de la puesta en marcha de la empresa. La
aparición de asociaciones de business angels y de entidades de capital riesgo,
tanto para primeras rondas (capital semilla) como para posteriores, ha dado
lugar a una mayor disponibilidad de financiación que sin embargo continúa
siendo una de las principales limitaciones a la creación de EBT.

20.7. El «gap» de la transferencia: la importancia de la prueba de


concepto
Sucede a menudo que los resultados generados por la investigación
universitaria, con independencia de su carácter novedoso e importancia en
términos científicos y por ello merecedoras de publicación, se encuentran en
un estadio demasiado embrionario para despertar directamente el interés de
las empresas. Incluso cuando dichos resultados puedan dar lugar, de forma
más o menos inmediata, a propiedad industrial protegible mediante patente u
otros procedimientos, en la mayoría de los casos se requieren un conjunto de
ensayos y procesos, a los que como ya se ha mencionado globalmente se
denominan «prueba de concepto», para poner de manifiesto a la empresa la
posibilidad de la industrialización e incorporación a su proceso productivo de
la tecnología derivada de dichos resultados. De esta forma se facilita que la
empresa pueda valorar y, por tanto, apreciar el interés real que dicha
tecnología pueda tener para ella, con lo que también facilita la determinación
del importe del retorno que la universidad y los investigadores involucrados
deberán recibir por la cesión de dicha tecnología. Por tanto, la «prueba de
concepto» constituye una etapa clave de la cadena de valor de la transferencia
y a menudo representa un importante cuello de botella para su éxito. Forma
parte del comúnmente llamado «gap» de la transferencia entre la
investigación y el mercado, cuyo perfil se muestra en la figura 20.3.

Figura 20.3. El «gap» de la transferencia.


Fuente: Connecting universities to regional growth: a practical guide, Smart Specialization
Platform, Regional Politics, Unión Europea (2011).

Para superarlo, resultan claves tanto la existencia de fondos específicos,


con unas características y requisitos distintos de los dirigidos a financiar la
investigación, como el fomento de las colaboración con otros agentes del
ecosistema de la innovación, como los centros tecnológicos o las ingenierías.
En otras palabras, el incremento del interés de las empresas por los resultados
de la investigación científica y el conocimiento generado es paralelo a la
capacidad de realizar el paso que lleva de la y a la D de «desarrollo
tecnológico», que, a su vez, es previa a su transformación en innovación
trasladable al mercado, al tejido productivo.
Cuando se trata de know-how, la transferencia puede ser más inmediata,
pero su impacto potencial en la capacidad de innovación de la empresa a
menudo también es más limitado. En este sentido, a la hora de dar respuesta a
las demandas de las empresas, desde las universidades se debería favorecer la
colaboración entre distintos grupos de investigación. En efecto, las empresas
buscan en la universidad respuestas a sus necesidades de I+D y/o innovación,
que es lógico que no siempre puedan ser satisfechas desde un solo grupo, por
lo que el abordaje conjunto de dichas necesidades por parte de varios grupos
puede incrementar de forma notable la capacidad de aportación de valor a la
transferencia. La constitución de abordajes conjuntos ad hoc, que faciliten la
interdisciplinariedad, algo poco frecuente aún en nuestras universidades, así
como la promoción de la «clusterización» de la oferta de las capacidades
tecnológicas de diversos grupos, debe permitir superar críticas habituales del
mundo de la empresa respecto a la universidad, como son la dispersión de la
oferta de I+D y la falta de un enfoque integral en la respuesta a sus
demandas.
En algunos casos, en especial cuando la transferencia implica tareas más
cercanas a la D, sin que previamente los investigadores participantes hayan
generado la y que la sustenta, se puede plantear si dichas «tareas» deben
realizarse desde la universidad o podrían ser ofrecidas desde otros entornos,
como centros tecnológicos, centros privados de I+D o ingenierías. En este
sentido, la legitimación del proceso de transferencia desde la universidad está
estrechamente vinculada con su condición de institución puntera en la
generación de conocimiento, tanto globalmente como de los profesores,
investigadores y grupos de investigación que la integran. La habilitación de la
universidad como agente destacado de transferencia, junto con la derivada de
la legislación que promueve la imbricación con el tejido económico, viene
dada en gran medida por el carácter novedoso y avanzado del conocimiento
de que dispone, por haber sido originado y cultivado en su seno, por lo que
no sería accesible por otras vías o a través de otros proveedores.
Consideración que es aplicable tanto a los resultados susceptibles de
protección como al know-how no directamente protegible pero también
generado gracias a las tareas de investigación propias de la universidad.

Bibliografía
Agrawal, A. y Cockburn, I. M. (2002). «University Research, Industrial R &
D, and the Anchor Tenant Hypothesis». NBER Working Paper 9212,
National Bureau of Economic Research, Cambridge.
Association of University Technology Managers (2011). U.S. Licensing
Activity Survey Highlights, Federal Year 2010. AUTM.
Chesbrough, H.W. (2006). Open Innovation. Harvard Business School Press,
Boston.
Palomar, A. y Testar, X. (2008). Transferencia de tecnología de las
universidades catalanas a las empresas: Aportación de los contratos de
I+D a la innovación empresarial. [Monografía] Informe CYD 2007,
Fundación Conocimiento y Desarrollo. pp. 401-410.
Roessner, J. D. (2000). «Technology transfer». En: Hill, C. (ed.). Science and
technology policy in US. A time of change. Longman, Londres.
Testar, X. (2012). La transferencia de tecnología y conocimiento
universidad-empresa en España: estado actual, retos y oportunidades.
Colección Documentos CYD.
Unió Europea Política Regional (2011). Connecting universities to regional
growth: a practical guide, Smart Specialization Platform, 2011.
Weber, L. E. y Duderstadt, J. J. (eds.) (2010). University Research for
Innovation. Economica Ltd., Londres.