CALIDAD DE LAS EXPERIENCIAS DE APRENDIZAJE Y ENSEÑANZA EN LA
EDUCACIÓN UNIVERSITARIA DE PREGRADO: UNA MIRADA DESDE LOS
PROFESORES Y ESTUDIANTES

Informe Final


Investigador principal: Carlos González Ugalde; PhD
Coinvestigadoras: Helena Montenegro
Lorena López
Isabel Munita
Paula Collao


Facultad de Educación
Pontificia Universidad Católica de Chile









Contenido 

1  Introducción .............................................................................................................................. 8 
2  Marco teórico – conceptual: “Student Learning Research”, investigación sobre el
aprendizaje y la docencia en educación superior. .......................................................................... 11 
2.1  “Student Learning Research” (SLR): origen y principales características ..................... 11 
2.2  La experiencia de los estudiantes en educación superior ................................................ 13 
2.3  La experiencia de los profesores en educación superior ................................................. 14 
2.4  Investigación y políticas sobre aprendizaje y docencia universitaria en Chile ............... 16 
2.5  Resumen y justificación del presente estudio .................................................................. 18 
3. Metodología ............................................................................................................................... 20 
3.1  Objetivos .......................................................................................................................... 21 
3.2  Cuestionarios ................................................................................................................... 21 
3.2.1  “Study Process Questionnaire” (SPQ) .................................................................... 22 
3.2.2  “Course Experience Questionnaire” (CEQ) ............................................................ 23 
3.2.3  “Approaches to Teaching Inventory” (ATI) ............................................................ 26 
3.2.4  “Perception of the Teaching Environment Questionnaire” (PTE) .......................... 27 
3.2.5  Traducción y validación preliminar de los cuestionarios utilizados ........................ 28 
3.3  Muestra y recolección de datos ....................................................................................... 29 
3.4  Análisis ............................................................................................................................ 33 
3.5  Aseguramiento de estándares éticos en investigación social ........................................... 34 
3.6  Resumen y conclusión ..................................................................................................... 35 
4  Análisis de validez y confiabilidad de los instrumentos Study Process Questionnaire (SPQ),
Course Experience Questionnaire (CEQ), Approaches to Teaching Inventory (ATI) y Perception
of the Teaching Environment Inventory (PTE) .............................................................................. 36 
4.1  Análisis de confiabilidad y validez del Study Process Questionnaire (SPQ) ................. 36 
4.1.1  Análisis de confiabilidad .......................................................................................... 37 
4.1.2  Análisis de componentes principales ....................................................................... 37 
4.2  Análisis de confiabilidad y validez del Course Experience Questionnaire (CEQ) ......... 39 
4.2.1  Análisis de confiabilidad .......................................................................................... 39 
2

4.2.2  Análisis de componentes principales ....................................................................... 40 
4.3  Análisis de confiabilidad y validez del Approaches to Teaching Inventory (ATI) ............. 41 
4.3.1  Análisis de confiabilidad .......................................................................................... 42 
4.3.2  Análisis de componentes principales ....................................................................... 42 
4.4  Análisis de confiabilidad y validez del Perception of the Teaching Environment
Inventory (PTE) .......................................................................................................................... 46 
4.4.1  Análisis de confiabilidad .......................................................................................... 46 
4.4.2  Análisis de componentes principales ....................................................................... 47 
4.5  Resumen y conclusión ..................................................................................................... 48 
5  La experiencia de aprendizaje y docencia de estudiantes y profesores universitarios, y las
asociaciones entre ambas ............................................................................................................... 49 
5.1  La experiencia de aprendizaje de los estudiantes universitarios ..................................... 50 
5.1.1  Análisis de correlación ............................................................................................. 50 
5.1.2  Análisis de conglomerados ....................................................................................... 51 
5.2  La experiencia de docencia de los profesores universitarios ........................................... 54 
5.2.1  Análisis de correlación ............................................................................................. 54 
5.2.2  Análisis de conglomerados ....................................................................................... 56 
5.3  Asociaciones entre la experiencia de aprendizaje de los estudiantes y la experiencia de
aprendizaje de los profesores ...................................................................................................... 62 
5.4  Resumen y conclusión ..................................................................................................... 66 
6  Relaciones entre las escalas del “Course Experience Questionnaire (CEQ)” y el “Study
Process Questionnaire (SPQ)” ....................................................................................................... 67 
6.1  Modelo general para la muestra total .............................................................................. 68 
6.2  Modelo general por área disciplinaria ............................................................................. 70 
6.3  Modelo general para los grupos identificados a través de análisis de conglomerados .... 72 
6.4  Resumen y conclusión ..................................................................................................... 74 
7.  Variables demográficas y de contexto, y sus asociaciones con los procesos de aprendizaje y
docencia .......................................................................................................................................... 75 
7.1  Variables demográficas y de contexto, y sus asociaciones con el proceso de aprendizaje
de los estudiantes ........................................................................................................................ 75 
3

7.1.1  Variable “Sexo” ........................................................................................................ 75 
7.1.2  Variable “Área Disciplinaria” .................................................................................. 77 
7.1.3  Variable “Primera vez que realiza el Curso” ........................................................... 78 
7.1.4  Variable “Ha cursado otra Carrera” ......................................................................... 79 
7.1.5  Variable “Primero de su familia en asistir a la Universidad” ................................. 80 
7.2  Variables demográficas y de contexto, y sus asociaciones con el proceso de docencia de
los profesores. ............................................................................................................................. 81 
7.2.1  Variable “Sexo” ........................................................................................................ 82 
7.2.2  Variable “Área Disciplinaria” .................................................................................. 83 
7.2.3  Variable “Grado Académico” .................................................................................. 85 
7.2.4  Variable “Capacitación en Docencia” ...................................................................... 87 
7.2.5  Resumen y Conclusión ............................................................................................. 88 
7  Discusión, recomendaciones y conclusión ............................................................................. 89 
7.1  Discusión de los resultados del estudio ........................................................................... 89 
7.2  Recomendaciones ............................................................................................................ 97 
7.2.1  Recomendaciones para las políticas públicas y el desarrollo académico de la
docencia 98 
7.2.2  Recomendaciones para futuras investigaciones ..................................................... 102 
7.3  Conclusión ..................................................................................................................... 104 
8  Referencias ............................................................................................................................ 106 



4

Índice de figuras 

Figura 1: Modelo 3P de aprendizaje y docencia universitaria ....................................................... 12 
Figura 2: Estimación de los parámetros del modelo general propuesto para CEQ y SPQ aplicado a
la muestra total ............................................................................................................................... 68 
Figura 3: Estimación de los parámetros del modelo general para CEQ y SPQ por área
disciplinaria .................................................................................................................................... 70 
Figura 4: Estimación de los parámetros del modelo general para CEQ y SPQ por grupos que
emergen del análisis de conglomerados ......................................................................................... 73 
Figura 5: Resultados obtenidos por Webster et al (2009) .............................................................. 95 


5

Índice de tablas 

Tabla 1: Carreras en que se aplicaron los instrumentos y número de alumnos y profesores
participantes en cada Universidad .................................................................................................. 31 
Tabla 2: Coeficiente de confiabilidad para las subescalas del SPQ ............................................... 37 
Tabla 3: Análisis de validez de constructo del SPQ ....................................................................... 38 
Tabla 4: Coeficiente de confiabilidad para cada una de las subescalas del CEQ .......................... 39 
Tabla 5: Análisis de validez de constructo del CEQ ...................................................................... 40 
Tabla 6: Coeficiente de confiabilidad para cada una de las subescalas del ATI ............................ 42 
Tabla 7: Análisis de validez de constructo del ATI ....................................................................... 43 
Tabla 8: Análisis de validez de constructo del ATI ....................................................................... 44 
Tabla 9: Coeficiente de confiabilidad para cada una de las subescalas del PTE* ......................... 46 
Tabla 10: Análisis de validez de constructo del PTE ..................................................................... 47 
Tabla 11: Asociaciones entre las formas de abordar el aprendizaje y la experiencia del curso ..... 50 
Tabla 12: Resumen de estadísticos del análisis de conglomerados ............................................... 52 
Tabla 13: Perfilamiento de los conglomerados .............................................................................. 53 
Tabla 14: Asociaciones entre las escalas de ATI y el PTE ............................................................ 54 
Tabla 15: Asociaciones entre las escalas de ATI y el PTE ............................................................ 55 
Tabla 16: Resumen de estadísticos del análisis de conglomerados ............................................... 57 
Tabla 17: Perfilamiento de los conglomerados .............................................................................. 58 
Tabla 18: Resumen de estadísticos del análisis de conglomerados ............................................... 60 
Tabla 19: Perfilamiento de conglomerados .................................................................................... 61 
Tabla 20: Resumen de estadísticos del análisis de conglomerados ............................................... 62 
Tabla 21: Perfilamiento de conglomerados .................................................................................... 65 
Tabla 22: Valores para el tamaño de la muestra N, Normal Theory Weighted Least Squares Chi-
Square χ
2
, grados de libertad df, valores p, error cuadrado medio de la aproximación RMSEA,
índice de ajuste normalizado NFI, índice comparado de ajuste CFI y el índice para la calidad del
ajuste GFI (Muestra total) .............................................................................................................. 69 
Tabla 23: Valores para el tamaño de la muestra N, Normal Theory Weighted Least Squares Chi-
Square χ
2
, grados de libertad df, valores p, error cuadrado medio de la aproximación RMSEA,
6

índice de ajuste normalizado NFI, índice comparado de ajuste CFI y el índice para la calidad del
ajuste GFI (Áreas disciplinarias) .................................................................................................... 72 
Tabla 24: Valores para el tamaño de la muestra N, Normal Theory Weighted Least Squares Chi-
Square χ
2
, grados de libertad df, valores p, error cuadrado medio de la aproximación RMSEA,
índice de ajuste normalizado NFI, índice comparado de ajuste CFI y el índice para la calidad del
ajuste GFI (Muestra por grupos identificados a través de análisis de conglomerados) ................. 73 
Tabla 25: Valores promedio y t-tests para la variable “Sexo” ....................................................... 76 
Tabla 26: Valores promedio y t-tests para la variable “Área Disciplinaria” .................................. 77 
Tabla 27: Valores promedio y t-tests para la variable “Primera vez que realiza el Curso” ........... 78 
Tabla 28: Valores promedio y t-tests para la variable “Ha cursado otra Carrera” ......................... 79 
Tabla 29: Valores promedio y t-tests para la variable “Primero de su familia en asistir a la
Universidad” ................................................................................................................................... 81 
Tabla 30: Valores promedio y t-tests para la variable “Sexo” (cuestionario ATI) ........................ 82 
Tabla 31: Valores promedio y t-tests para la variable “Sexo” (cuestionario PTE) ........................ 83 
Tabla 32: Valores promedio y t-tests para la variable “Área Disciplinaria” (cuestionario ATI) ... 84 
Tabla 33: Valores promedio y t-tests para la variable “Área Disciplinaria” (cuestionario PTE) .. 85 
Tabla 34: Valores promedio y ANOVA para la variable “Grado Académico” (cuestionario ATI)
........................................................................................................................................................ 85 
Tabla 35: Valores promedio y y ANOVA para la variable “Grado Académico” (cuestionario
PTE) ............................................................................................................................................... 86 
Tabla 36: Valores promedio y t-tests para la variable “Capacitación en Docencia” (cuestionario
ATI) ................................................................................................................................................ 87 
Tabla 37: Valores promedio y t-tests para la variable “Capacitación en Docencia” (cuestionario
PTE) ............................................................................................................................................... 88 


7

1 Introducción

En este informe se presentan los resultados finales del proyecto “Calidad de las experiencias de
aprendizaje y enseñanza en la educación universitaria de pregrado: una mirada desde los
profesores y estudiantes”, que fue financiado por el concurso para fomentar la investigación en
educación superior del Consejo Nacional de Educación, en su versión correspondiente al año
2010. Este informe fue preparado por Dr. Carlos González, investigador responsable; las
candidatas a doctora Helena Montenegro y Lorena López, y la estudiante de doctorado Isabel
Munita, coinvestigadoras; el Dr. Maximiliano Montenegro, asesor estadístico, y Paula Collao,
asistente de investigación. El informe está estructurado de la siguiente manera:

- En la sección “Marco teórico-conceptual: Student Learning Research, investigación sobre
el aprendizaje y la docencia en educación superior” se presenta el origen y principales
hallazgos de esta línea de investigación, que ha orientado la indagación realizada a través
de este proyecto. Se describen el origen de esta perspectiva y sus principales resultados de
investigación en aprendizaje y docencia. Además, se presenta una discusión sobre el
estado del arte de la investigación y políticas de desarrollo en Chile sobre estos temas.
Finalmente, se argumenta por qué es importante realizar una investigación como la que se
reporta en este informe.
- En la sección “Metodología” se detalla cómo se realizó la investigación. En ella se
describe el objetivo general y los objetivos específicos del estudio; los cuestionarios
utilizados, enfatizando cómo se originaron, su desarrollo y cómo y para qué se han
empleado; la muestra y el proceso de levantamiento de información; los análisis
estadísticos realizados; y, finalmente, cómo se han asegurado los aspectos éticos que
deben guiar la investigación social.
- La sección “Análisis de validez y confiabilidad de los instrumentos Study Process
Questionnaire (SPQ), Course Experience Questionnaire (CEQ), Approaches to Teaching
Inventory (ATI) y Perception of the Teaching Environment Inventory (PTE)” presenta los
análisis que se realizaron para avanzar en la validación de los cuestionarios. Para cada uno
se presentan análisis de confiabilidad, realizados a través del α de Cronbach, y de validez
8

- La sección “La experiencia de aprendizaje y docencia de estudiantes y profesores
universitarios, y las asociaciones entre ambas” presenta los análisis de correlación y
conglomerados realizados, en primer lugar, con estudiantes y profesores por separado. El
análisis de correlación se realizó para indagar la fuerza de las asociaciones entre las
escalas de los cuestionarios, mientras que el análisis de conglomerados para identificar
experiencias de aprendizaje o docencia cualitativamente diferentes. Luego, en segundo
lugar, se procedió a realizar un análisis de conglomerados para explorar las asociaciones
entre las experiencias de estudiantes y profesores en el contexto de un curso.
- La sección “Testeo de las relaciones entre las escalas del “Course Experience
Questionnaire (CEQ)” y “Study Process Questionnaire (SPQ)” muestra los resultados de
un path analysis realizado para mostrar cómo se asocian cada una de las escalas del CEQ
con las del SPQ. Es decir, cómo están asociadas las percepciones del contexto de
aprendizaje con las formas en que los estudiantes abordan su aprendizaje. Se testeó el
modelo a nivel de toda la muestra, por área disciplinaria y a través de grupos con
experiencias de aprendizaje cualitativamente diferentes (identificados a través de análisis
de conglomerados).
- En la sección “Variables demográficas y de contexto, y sus asociaciones con los procesos
de aprendizaje y docencia” se presentan los resultados de análisis de diferencia de medias
en las escalas de los cuestionarios, en relación a variables demográficas y de contexto.
Para el caso de los estudiantes estas son “Sexo”, “Área Disciplinaria”, “Primera vez que
realiza el Curso”, “Ha cursado otra Carrera” y “Primero de su familia en asistir a la
Universidad”. En el caso de los profesores estas son “Sexo”, “Área Disciplinaria”,
“Grado Académico” y “Capacitación en Docencia”.
- En la sección “Discusión, recomendaciones y conclusiones” se avanza en discutir los
resultados del presente estudio en relación a investigaciones internacionales y al estado
del arte en Chile. Se presentan recomendaciones a nivel de universidades y de políticas
9

públicas. Finalmente, se presentan, a modo de resumen, las principales conclusiones de la
investigación.
- El documento termina con un listado de las referencias bibliográficas utilizadas. Además,
en la sección Anexos, se presentan estadísticos descriptivos para los ítems de los
cuestionarios empleados en el estudio.

El grupo de investigación desea agradecer a las universidades participantes por el apoyo e interés
demostrado a través de su participación en este proyecto. Además, queremos agradecer el
financiamiento otorgado por el Consejo Nacional de Educación para llevar a cabo la
investigación. Los resultados presentados en este informe son importantes y creemos que
presentan conocimiento relevante sobre cómo aprenden los estudiantes y cómo enseñan los
profesores universitarios. Este conocimiento puede informar debates actuales de académicos y
desarrolladores de políticas sobre la calidad de la educación superior en Chile, de manera de
avanzar en identificar qué son experiencias de aprendizaje de calidad, y alinear estas ideas con
políticas públicas y acciones al interior de las universidades que las promuevan.




10

2 Marco teórico-conceptual: “Student Learning Research”, investigación sobre el
aprendizaje y la docencia en educación superior.

En esta sección se presenta el marco teórico-conceptual que orienta el estudio. En la primera
sección se describen, a modo de introducción, las características generales de “Student Learning
Research”, la línea de investigación en que se ubica este trabajo. Las secciones siguientes
abordan investigaciones sobre la experiencia de los estudiantes y profesores en relación al
aprendizaje y la docencia, y cómo ambas están asociadas. Finalmente, se presenta el estado del
arte de la investigación e iniciativas de intervención sobre estos temas en Chile.

2.1 “Student Learning Research” (SLR): origen y principales características 
En los últimos 30 años, una importante línea de investigación sobre el aprendizaje y la enseñanza
universitaria, conocida como “Student learning research” (Biggs & Tang, 2007; Bowden &
Marton, 2004; Ellis & Goodyear, 2010; Prosser & Trigwell, 1999a) se ha desarrollado
significativamente, generando un cuerpo de conocimientos consistente sobre estos fenómenos.
Esta línea se inició como una forma de responder a la masificación de la educación superior en el
mundo desarrollado, cuando las universidades empezaron a trabajar con una población más
diversa de estudiantes. El foco principal trataba de responder cómo entregar experiencias de
aprendizaje de calidad sin importar el origen de los estudiantes (Noel Entwistle, 2007; Paul
Ramsden, 2003).











11

Figura 1: Modelo 3P de aprendizaje y docencia universitaria

Presagio Proceso Producto
-------------------------- ---------------------------------------------------- -------------------------














Características del
estudiante (por
ejemplo, experiencias
previas, origen
socioeconómico,
concepciones actuales)
1
Resultados del
aprendizaje (por
ejemplo, qué aprenden,
satisfacción)

8
Formas de abordar el
aprendizaje por parte
de los estudiantes
(superficial o
profunda)
6
Contexto de
aprendizaje (por
ejemplo, diseño de
cursos, evaluación)
2
Características del
profesor (por
ejemplo, experiencias
previas, concepciones
actuales) 3
Resultados de la
enseñanza (por
ejemplo, qué aprenden
los estudiantes,
satisfacción)

9
Formas de abordar la
enseñanza por parte de
los profesores
(enfocada en el
contenido– enfocada
en el aprendizaje)
7
Percepciones de los
profesores sobre el
contexto (por ejemplo,
tamaño de las clases,
control sobre la
enseñanza, carga de
trabajo apropiada)
5
Percepciones de los
estudiantes sobre el
contexto (por ejemplo,
enseñanza, metas
claras, carga de trabajo
apropiada.) 4


Tomado de Prosser & Trigwell (2006), p. 406.

En la figura 1 se presenta el modelo 3P (Presagio, Proceso, Producto) que permite sintetizar los
principales hallazgos de esta línea de investigación. Básicamente, este modelo establece que los
estudiantes y los profesores se incorporan a cualquier situación de aprendizaje con experiencias
previas (incluidas sus experiencias de aprendizaje y enseñanza, origen socio-económico,
concepciones sobre qué significa aprender y enseñar, etc.) que forman el background o marco de
referencia contra el cual interpretan la situación en la que se encuentran (“Presagio”, cuadros 1, 2
y 3). A su vez, en la situación de aprendizaje en que se encuentran, pueden adoptar formas
profundas o superficiales de aprender para el caso de los estudiantes; y enfocadas en el contenido
o el aprendizaje, en el caso de los profesores. Al mismo tiempo, desarrollan percepciones sobre el
12

contexto educativo que, a su vez, están relacionadas con la forma de abordar el proceso de
enseñanza y aprendizaje (“Proceso”, cuadros 4, 5, 6 y 7). Estos elementos se relacionan con los
resultados que se obtienen, tanto académicos como de satisfacción (“Producto”, cuadros 8 y 9).
Los elementos del modelo 3P operan como en un ecosistema donde se apoyan mutuamente.
Además, una característica distintiva de este modelo es que establece que el aprendizaje no está
determinado por características “fijas” de los estudiantes, sino que es una respuesta “relacional” a
cómo perciben la situación en que se encuentran. Del mismo modo, los profesores realizan sus
actividades de docencia respondiendo a cómo perciben la situación en que se realiza. Esta idea,
que se profundiza en las próximas subsecciones, es clave en esta perspectiva. Indica que hay
mucho que se puede hacer para mejorar la experiencia de aprendizaje desde las instituciones de
educación superior y que poner toda la responsabilidad en características “fijas” de los
estudiantes, como origen socioeconómico, estilos de aprendizaje, “falta de interés”, oculta una
parte importante del problema.

2.2 La experiencia de los estudiantes en educación superior 
A través de diversos estudios, se ha demostrado que los estudiantes universitarios adoptan
diferentes formas de abordar su aprendizaje (figura 1, cuadro 6), los cuales han sido tipificados
como “superficial”, con un énfasis en la memorización y reproducción de contenido y
“profundo”, con un énfasis en la comprensión de lo que se aprende (Marton & Saljo, 2005).
Varios estudios mostraron que abordar el aprendizaje de manera “profunda” estaba asociado a
mejores resultados académicos (figura 1, cuadro 8) (Ellis, R. A., Taylor, & Drury, 2007; Trigwell
& Prosser, 1991). Por esto, se empezó a indagar qué elementos de la experiencia de los
estudiantes podrían estar asociados con abordar el aprendizaje de manera “profunda”. Dos
elementos clave fueron identificados: las concepciones sobre el aprendizaje (figura 1, cuadro 1),
tipificadas como cuantitativas (enfocadas en incrementar la cantidad de conocimiento) y
cualitativas (enfocadas en crear significado sobre el objeto de aprendizaje) (Marton, Dall' Alba, &
Beaty, 1993) y la percepción sobre el contexto en que este se lleva a cabo (figura 1, cuadro 4);
sobre la cual se identificaron cinco dimensiones clave: metas claras, buena docencia, carga de
trabajo apropiada, evaluación apropiada y libertad para aprender ( Ginns, P., Prosser, & Barrie,
2007; Ramsden, P., 1991). Interesantemente, se ha mostrado que aquellos estudiantes que
13

abordan el aprendizaje de manera “profunda” tienden a presentar concepciones cualitativas y
percepciones positivas sobre el contexto. Además, estos estudiantes son los que tienen mayor
probabilidad de obtener mejores resultados. Por el contrario, los estudiantes que abordan el
aprendizaje de manera “superficial”, tienden a presentar concepciones cuantitativas, percepciones
negativas sobre el contexto de aprendizaje y son los que tienden a obtener peores resultados (por
ejemplo, Diseth, 2007; Ellis, Goodyear, Brillant & Prosser, 2008; Ellis, Goodyear, Calvo &
Prosser, 2008; Kreber, 2003a; Lingard, Minasian-Batmanian, Vella, Cathers, & Gonzalez, 2009;
Minasian-Batmanian, Lingard, & Prosser, 2006; Richardson, 2005c; Trigwell & Ashwin, 2006).
Las formas de abordar el aprendizaje no se conciben, en esta perspectiva, como elementos
“fijos” o “dados”. Son concebidos como respuestas específicas a cómo los estudiantes perciben
distintas situaciones de aprendizaje. Por ejemplo, un estudiante que percibe, en un curso
determinado, que la evaluación está centrada en la memorización puede tender a abordar su
aprendizaje de manera superficial para “cumplir” con las pruebas que se le presentan. Sin
embargo, el mismo estudiante puede, el mismo semestre, abordar su aprendizaje de manera
profunda en un curso donde perciba, por ejemplo, una docencia y evaluación apropiadas. En
ambos casos entrará a las situaciones de aprendizaje mencionadas con experiencias previas que le
permitirán hacer sentido de la situación. Sin embargo, cómo aborde uno u otro curso, dependerá
también de su percepción sobre los elementos que han sido reconocidos como claves respecto de
las decisiones que toman los estudiantes al enfrentar sus tareas de aprendizaje (Biggs & Tang,
2007). Esta perspectiva es importante pues implica que el tipo de docencia y cómo se diseña la
experiencia de aprendizaje de los estudiantes es clave sobre cómo ellos abordan sus estudios. De
este modo, el resultado de su experiencia es producto de una serie de elementos que interactúan
simultáneamente en una situación de aprendizaje; y no solo de sus rasgos psicológicos u origen
socioeconómico ( Ginns, P., Kitay, & Prosser, 2008). En la próxima sub-sección se presentan
estudios que aplican estos conceptos a la docencia.

2.3 La experiencia de los profesores en educación superior 
Los importantes resultados sobre el aprendizaje desarrollados por esta línea de investigación,
sintetizados en la sección anterior, llevaron a indagar si algo similar ocurría con la docencia. En
este sentido, diversas investigaciones encontraron que los profesores conciben y abordan la
14

enseñanza de manera diferente. Una serie de estudios han abordado las concepciones (figura 1,
cuadro 3) sobre la docencia desde principios de los 90 (por ejemplo, Åkerlind, 2003; 2004;
Ashwin, 2006; González, 2009; González, 2010b; González, 2011; Kember, 1997; Law, Joughin,
Kennedy, Tse, & Yu, 2007; Parpala & Lindblom-Ylänne, 2007). A pesar haberse llevado a cabo
en diferentes contextos y usando distintas metodologías, los resultados obtenidos han mostrado
ser consistentes entre sí (Åkerlind, 2003). Las concepciones sobre la docencia varían desde
aquellas en donde el foco de atención es la transmisión de información hacia aquellas en las que
el foco de atención se orienta a facilitar la expansión conceptual de los estudiantes. En las
concepciones centradas en la transmisión de información, el contenido “básico” que la disciplina
ha acumulado se conceptualiza como lo central de la enseñanza. Además, los profesores se ven a
sí mismos como transmisores de información y los estudiantes son concebidos en un rol pasivo
en el cual deben recibir el conocimiento experto que se les entrega. En las concepciones
centradas en facilitar el aprendizaje, se desea que los estudiantes vayan más allá de la mera
repetición del contenido. Se espera que logren una comprensión profunda sobre lo que se enseña,
de modo tal que puedan aplicarlo y relacionarse críticamente con el nuevo conocimiento. Los
profesores se ven a sí mismos como facilitadores de este proceso y esperan que los estudiantes
adopten un rol activo. Es importante mencionar que, desde la perspectiva empleada en este
estudio, las concepciones no son vistas como constructos independientes sino que están
organizadas en una jerarquía en que las concepciones más sofisticadas, centradas en el estudiante
y su aprendizaje, incorporan las menos sofisticadas, centradas en el profesor y el contenido
(González, 2011). Por otro lado, los profesores abordan su docencia (figura 1, cuadro 7) de
manera distinta. Las formas de abordar el aprendizaje se han tipificado como enfocadas en el
contenido, con la clase y el texto como principales medios de enseñanza y enfocadas en el
estudiante, donde además del uso de clases y textos, se realizan actividades que generan acciones
de aprendizaje activo (discusiones, revisión de pares, trabajos de campo, entre otros) (Postareff &
Lindblom-Ylänne, 2008). También se ha concluido que las percepciones sobre la situación en que
se enseña juegan un rol fundamental en la forma de abordar la docencia (figura 1, cuadro 5).
Cuando los profesores perciben una adecuada carga de trabajo apropiada, cursos no demasiado
grandes, etc.; tienden a abordar su enseñanza enfocándose en el estudiante (Prosser, Ramsden,
Trigwell, & Martin, 2003). Al igual que en el caso de los estudiantes, la perspectiva empleada en
15

este estudio concibe que las formas en que los profesores abordan su docencia no es estática, sino
que varía dependiendo de cómo hacen sentido de ellas y cómo perciben su situación de
aprendizaje. Por lo tanto, es clave que los elementos de la experiencia de los profesores estén
alineados con aquellos que han sido identificados como importantes para lograr una docencia de
calidad. Esto es particularmente importante pues se ha mostrado que cuando los profesores
enseñan centrándose en el aprendizaje, los estudiantes tienden a abordar el aprendizaje de manera
profunda y a obtener mejores resultados académicos (Trigwell, Prosser, & Waterhouse, 1999).
Esto ha llevado a generar un alto grado de consenso respecto a que abordar la enseñanza
centrándose en el aprendizaje y los estudiantes debería ser incentivado; y que abordarla
centrándose en el contenido y el profesor debería ser desincentivado (Ginns, P. et al., 2008). Para
esto, se han generado una serie de iniciativas, en el mundo desarrollado, para alinear la enseñanza
con el objetivo de fomentar el aprendizaje profundo. El foco de atención ha sido comprender, por
parte de los profesores, cómo aprenden los estudiantes en la educación superior y desarrollar, de
este modo, el conocimiento académico sobre la docencia universitaria (the scholarship of
teaching) (Benson & Brack, 2009; Brew & Ginns, 2008; Kreber, 2003b; Trigwell & Shale,
2004). También se ha considerado que es importante alinear el contexto de la enseñanza a través
de un liderazgo sensible a estos temas, que sea capaz de generar las condiciones propicias a
través de un clima de incentivos adecuados, colaboración y reflexión (Martin, Trigwell, Prosser,
& Ramsden, 2003; Ramsden, P., 1998; Ramsden, P., Prosser, Trigwell, & Martin, 2007) (para
una versión extendida de los puntos 2.1 a 2.3 véase: González, 2010a). En la siguiente sección, se
realiza una síntesis sobre la investigación y políticas sobre el aprendizaje y la docencia
universitaria en Chile

2.4 Investigación y políticas sobre aprendizaje y docencia universitaria en Chile  
En las secciones anteriores se describieron sintéticamente los principales hallazgos de la línea de
investigación utilizada en este estudio: “Student learning research”. Se empleó el modelo 3P de
Biggs & Tang (2007) para resumir sus principales hallazgos. En esta sección se avanza
utilizando este modelo para analizar el estado del arte de las investigaciones sobre la enseñanza y
el aprendizaje en Chile. Al realizar este ejercicio se aprecia, en primer lugar, una escasez de
estudios focalizados en el “Proceso” y el “Producto” del modelo 3P. Por el contrario, la mayor
16

parte de esos estudios se concentran en la fase “Presagio”. Específicamente, en los factores
previos que pueden afectar la situación de aprendizaje. Por ejemplo, se han realizado estudios
orientados a describir las características socioeconómicas de los alumnos que ingresan a la
educación superior (Donoso & Cancino, 2007); factores explicativos para la retención y
deserción de los estudiantes universitarios (Canales & de los Ríos, 2007; 2009); factores que
determinan el desempeño académico universitario (Contreras, Gallegos, & Meneses, 2009); la
concordancia entre el perfil de ingreso y el tipo de estudiante que ingresa a determinadas carreras
profesionales de una universidad (Casanova, Fernández, & Marín, 2005); y la medición del
impacto de programas de apoyo a la inserción universitaria (Allendes, 2005; Susperreguy, Flores,
Micin, & Zuzulich, 2007). Con relación a investigaciones focalizadas en el elemento “Proceso”
del modelo, se pueden nombrar los estudios enfocados en las creencias que poseen los profesores
universitarios respecto del proceso de enseñanza y aprendizaje (Solar & Díaz, 2009a, 2009b) y
los enfoques de aprendizaje y estilo de pensamiento que poseen los estudiantes universitarios
(Rojas, Salas, & Jiménez, 2006; Salas, 1998). Finalmente, no fue posible encontrar
investigaciones asociadas a la fase “Producto”. En términos generales, es importante indicar que
dichas investigaciones se aproximan al fenómeno en estudio de manera parcelada, colocando
como objeto de estudio al profesor o al estudiante universitario por separado. Desde la
perspectiva empleada en esta propuesta, esto es problemático ya que no se considera que
cualquier situación de aprendizaje sea una red de elementos interactuando simultáneamente,
como se resume en la figura 1. Investigaciones centradas en aspectos parciales del modelo, sin
tomar en cuenta la interacción simultánea de ellos, tienen el riesgo de acabar por ser
reduccionistas. Por otro lado, el énfasis en estudios asociados al “Presagio” ha llevado, de algún
modo, a justificar los bajos aprendizajes por las carencias de origen que traerían algunos
estudiantes, lo cual también es riesgoso, pues se tendería a responsabilizar a los estudiantes de sus
problemas académicos, sin considerar que estos son, finalmente, el resultado de los elementos
que interactúan simultáneamente en cada situación de aprendizaje. No es solo la carencia de
origen de algunos estudiantes lo que se debe intervenir para mejorar la calidad del aprendizaje,
sino el sistema complejo representado en la figura 1.

17

En segundo lugar, con relación a iniciativas de mejoramiento de la calidad de la enseñanza y el
aprendizaje, es posible afirmar que la mayoría están enfocadas a aspectos asociados a la fase
“Presagio” y “Producto” del modelo 3P. Por ejemplo, los procesos de acreditación están dirigidos
a asegurar un cumplimiento mínimo de elementos asociados al cuadro 2 de la figura 1 (contexto
de aprendizaje, “Presagio”). Las iniciativas del MECESUP relacionadas con los “Centros de
Desarrollo Docente” y “Cursos Remediales” también se asocian a la fase “Presagio”. En ambos
casos se orientan a mejorar las condiciones en que profesores y estudiantes entran a la situación
de aprendizaje: en el caso de los profesores, entregando algunas estrategias sobre cómo mejorar
su enseñanza; y, en el caso de los estudiantes, nivelando el conocimiento y habilidades dispares.
Por otro lado, la generación de “perfiles de egreso” en el contexto del MECESUP y asociado a
los criterios de evaluación del Sistema Nacional de Aseguramiento de la Calidad está asociado a
la fase “Producto” dentro del modelo 3P, ya que el énfasis está en la evaluación de la efectividad
del proceso de enseñanza-aprendizaje y en la introducción del seguimiento sistemático de los
destinos y resultados de los graduados. En estos términos, se espera que la estructura curricular
de un programa se enmarque en su perfil de egreso y contemple determinados objetivos de
aprendizaje.

2.5  Resumen y justificación del presente estudio 
Lo discutido anteriormente ha mostrado que:

- En el mundo desarrollado existe una línea de investigación bien establecida, conocida
como “Student Learning Research”, que ha realizado importantes avances en la
comprensión del aprendizaje y la enseñanza en educación superior. Esta línea ha
encontrado que estudiantes y los profesores ingresan a distintas situaciones de aprendizaje
con experiencias previas que forman el background o marco de referencia contra el cual
interpretan la situación en la que se encuentran. A su vez, pueden adoptar formas
profundas o superficiales de aprender para el caso de los estudiantes; y enfocadas en el
contenido o el aprendizaje, en el caso de los profesores. Al mismo tiempo, desarrollan
percepciones sobre el contexto educativo que, a su vez, están relacionadas con la forma de
abordar el proceso de enseñanza y aprendizaje. Un descubrimiento clave de esta línea es
18

que existe una asociación entre aprendizaje y docencia: cuando los profesores abordan su
docencia centrándose en el aprendizaje y los estudiantes, estos tienden a responder
abordando sus estudios de manera profunda. Estos resultados han generado importantes
políticas de diseño de experiencias de aprendizaje y de desarrollo académico para
promover una docencia profesional y de calidad.
- En Chile, es posible afirmar que la investigación sobre la educación superior como las
iniciativas de mejoramiento de la docencia y el aprendizaje están, mayoritariamente,
centradas en la fase “Presagio” del modelo 3P; que se han realizado un número reducido
de estudios centrados en el “Proceso”; y que existe una iniciativa de mejoramiento
centrada en el “Producto” (“perfiles de graduado”), a nivel de un grado académico
completo. Por otro lado, no se encontraron investigaciones enfocadas en el “producto” ni
iniciativas enfocadas en el “proceso”. Finalmente, las investigaciones e iniciativas
descritas no abordan el proceso de enseñanza-aprendizaje, incluidos “Presagio”,
“Proceso” y “Producto”; de un modo holístico y sistémico; todas abordan el fenómeno de
manera parcelada, centrándose en el profesor o el estudiante universitario por separado,
sin considerar que se trata de un sistema balanceado en que todos los componentes se
apoyan mutuamente como en un ecosistema (figura 1).
- Dado el estado del arte de la investigación en Chile, existe una necesidad de generar
conocimiento sobre el aprendizaje y la docencia en Chile que avance respecto de la
situación actual. Además, este conocimiento es importante para mejorar la situación
descrita en el reciente informe de la OECD (2009). Este estableció que en las
universidades chilenas primarían métodos pedagógicos de corte tradicional,
entendiéndose por tales aquellos orientados a la memorización de contenidos; que se
fomentaría el aprendizaje individual por sobre el colaborativo; que la evaluación estaría
basada en pruebas tradicionales en donde predomina la memorización y reproducción de
contenidos; y que, en general, no existiría una disposición positiva a la innovación en la
enseñanza y el aprendizaje.

Por lo tanto, el presente estudio se justifica porque avanzará conocimientos sobre el aprendizaje y
la docencia universitaria en Chile en aspectos poco considerados en las investigaciones
19

existentes. Al hacerlo, empleará el robusto marco conceptual y teórico desarrollado por “Student
Learning Research”. De este modo, generará conocimiento relevante para comprender estos
fenómenos con estudiantes y profesores chilenos, que permitan mejorar la situación descrita por
el informe de la OECD (2009) sobre la docencia en las universidades chilenas, a través de
recomendaciones de políticas públicas y de un modelo validado para alinear docencia y
aprendizaje de calidad al interior de las universidades. En términos concretos, este estudio
ayudará a:

- Proponer un modelo para investigar la calidad del aprendizaje y la enseñanza en las
universidades chilenas.

- Compartir modelos teóricos desarrollados por diversos investigadores respecto de las
características específicas del proceso de enseñanza y aprendizaje en contextos de
educación superior.

- Posibilitar instancias de benchmarking con universidades extranjeras donde se aplican
periódicamente instrumentos similares a los que se utilizan en este proyecto.

- Aportar elementos al debate en torno al concepto de calidad empleado en el Sistema
Nacional de Aseguramiento de la Calidad, alineando la definición a una de las misiones
clave de las universidades: la formación de personas.

- Profundizar e investigar en los procesos de enseñanza y aprendizaje que efectivamente
están ocurriendo al interior de las salas de clases universitarias.

- Aportar con un cuerpo de conocimientos empíricos que permita a Chile participar en
discusiones internacionales sobre la materia.



3. Metodología

En esta sección se avanza en presentar la metodología empleada en la investigación. En primer
lugar, se presentan los objetivos que la guían. En segundo lugar, se presentan los cuestionarios
empleados. Para cada uno se describe su origen, desarrollo y uso en estudios similares. En tercer
lugar, se presenta la muestra obtenida y se describe cómo se realizó el proceso de levantamiento
de información. En cuarto lugar, se describen los análisis estadísticos realizados; y cómo estos
20

están asociados a cada objetivo específico. Finalmente, se describe cómo se aseguró el
cumplimiento de los estándares éticos que deben regir en cualquier proceso de investigación
social.

3.1 Objetivos  
De acuerdo a la revisión de la literatura y la justificación de la investigación, presentadas en la
sección anterior, los objetivos que guían el presente estudio son los siguientes:

General
Indagar, a través de una batería de instrumentos cuantitativos, las formas de abordar la enseñanza
y el aprendizaje de profesores y estudiantes universitarios y su relación con las percepciones que
estos actores tienen del contexto educativo, en una muestra multidisciplinaria de cursos de
universidades tradicionales.

Específicos
a) Determinar la validez y confiabilidad de una batería de instrumentos utilizados en
profesores y estudiantes universitarios chilenos.

b) Explorar si existe relación entre los enfoques de enseñanza de los profesores y enfoques
de aprendizaje de los estudiantes y las percepciones que estos actores tienen sobre el
contexto educativo.

c) Determinar el tipo de relación existente entre las percepciones que tienen los profesores y
los estudiantes sobre el contexto educativo y su relación con los enfoques de enseñanza y
los enfoques de aprendizaje que adoptan.

d) Establecer si los enfoques de aprendizaje y enseñanza varían según el área disciplinar
llan. donde se desarro

3.2 Cuestionarios 
En esta subsección se presentan los cuatro cuestionarios empleados en esta investigación. Para
levantar información sobre los estudiantes se usaron el “Study Process Questionnaire” (SPQ)
(Biggs, Kember, & Leung, 2001) y el “Course Experience Questionnaire” (CEQ) (Richardson,
2009; Webster, Chan, Prosser, & Watkins, 2009). En el caso de los profesores se emplearon el
21

“Approaches to Teaching Inventory” (ATI) (Prosser & Trigwell, 2006) y el “Perception of the
Teaching Environment Questionnaire” (PTE) (Prosser, et al., 2003; Prosser & Trigwell, 1997).
Para cada uno de estos instrumentos se describe su origen, desarrollo y uso.

3.2.1 “Study Process Questionnaire” (SPQ) 
El “Study Process Questionnaire” (SPQ) se originó en el trabajo que Biggs realizó desde una
perspectiva de “teoría de procesamiento de información” (1987). Sin embargo, los análisis
factoriales llevados a cabo mostraron que los resultados podían ser mejor interpretados desde la
perspectiva de “Student Learning Research”, pues claramente se formaban constructos asociados
a formas profundas y superficiales de abordar el aprendizaje. Además, se identificó un tercer
constructo, caracterizado como aprendizaje “estratégico”, que daba énfasis a maximizar las notas
obtenidas a través de un uso racional del tiempo y una organización adecuada del proceso de
estudio. Cada una de las escalas identificadas contenía dos subescalas: motivo y estrategia. La
sub-escala “motivo” representaba el por qué los estudiantes abordaban su aprendizaje de la forma
que lo hacían; mientras que la subescala “estrategia” era un referente de qué hacían para lograr su
intención. Al asociar el SPQ a “Student Learning Research” se asumió que, como se estableció
en la sección de revisión de literatura, la forma en que los estudiantes abordan el aprendizaje no
es un “rasgo” más o menos estable de cada uno, sino una respuesta a la situación de aprendizaje
en que se encuentran. Por lo tanto, se asumió que cómo aprenden los estudiantes es resultado de
una serie de elementos interactuando simultáneamente, tal como se presentó en el modelo 3P
(Biggs & Tang, 2007). En un estudio realizado por Kember y Leung (1998) se demostró que las
escalas se alineaban mejor usando los constructos “aprendizaje superficial” y “aprendizaje
profundo” solamente, por lo que se dejó de utilizar la escala “aprendizaje estratégico”. El
desarrollo del instrumento siguió adelante con el estudio de Biggs, Kember y Leung (2001).
Estos autores identificaron la necesidad de contar con un instrumento robusto pero más corto que
las versiones anteriores. Se realizó un proceso de revisión de los ítems, a través del cual se llegó a
un número de 43 para ser testeados. Se analizó la confiabilidad de las escalas, a través del α de
Cronbach y la validez de constructo a través de una análisis factorial confirmatorio. Este
procedimiento logró llegar a un cuestionario con dos escalas, “aprendizaje superficial” y
“aprendizaje profundo”, con 10 ítems cada una. En estudios recientes, el SPQ se ha empleado con
22

diversos fines, tales como: evaluación de innovaciones pedagógicas, como un indicador de la
calidad de la docencia, como un indicador para los encargados del desarrollo docente sobre las
unidades o departamentos académicos que necesitan intervenciones, para el diagnóstico de
estudiantes con problemas académicos y como evidencia en procesos de aseguramiento de la
calidad (veáse por ejemplo, Bliuc, Ellis, Goodyear, & Piggott, 2010; Case & Marshall, 2004;
Diseth, 2007; Ellis, R., Goodyear, Calvo, et al., 2008; Gijbels, Coertjens, Vanthournout, Struyf,
& Van Petegem, 2009; Goodyear & Ellis, 2008; Kreber, 2003a; Leung, Ginns, & Kember, 2008;
Minasian-Batmanian, L. C., et al., 2006; Minbashian, Huon, & Bird, 2004; Prosser, et al., 2003;
Richardson, 2005b, 2005c; Richardson & Price, 2003; Rollnick, Davidowitz, Keane, Bapoo, &
Magadla, 2008). En Hispanoamérica, el SPQ ha sido el cuestionario más utilizado de los cuatro
empleados en el presente estudio (por ejemplo, Buendía y Olmedo, 2002; García, 2000;
Rodriguez y Cano, 2006; Rojas, Salas y Jiménez, 2006). Estos han abordado temas como
diferencias en las formas de abordar el aprendizaje en relación al sexo de los participantes,
orquestaciones y estilos de aprendizaje. Sin embargo, estos estudios no hacen referencia al
modelo sistémico y contextual desde el cual el SPQ proviene. Una diferencia clave de nuestra
investigación es que pone la información levantada a través del SPQ en el contexto teórico en que
este ha sido desarrollado: “Student Learning Research”. En este sentido, es un avance respecto
de estudios que consideran las formas de abordar el aprendizaje de una forma más bien
descontextualizada y sin una adecuada referencia al marco teórico-conceptual del cual este
instrumento proviene.

3.2.2 “Course Experience Questionnaire” (CEQ) 
El “Course Experience Questionnaire” (CEQ) se originó con el trabajo de Ramsden (1991),
quien desarrolló este instrumento como un indicador de la calidad de la docencia para programas
individuales realizados en universidades australianas. Basándose en los resultados auspiciosos de
estudios preliminares, se llevó a cabo una evaluación nacional en la que participaron 3372
estudiantes de último año provenientes de 13 instituciones de educación superior. El instrumento
testeado consistía de 30 ítems agrupados en las siguientes escalas: Buena Docencia, Metas y
Estándares Claros, Carga de Trabajo Apropiada, Evaluación Apropiada y Énfasis en
Independencia. Los resultados de esta evaluación indicaron que el instrumento tenía niveles
23

apropiados de validez y confiabilidad. Sobre la base de esto, desde el año 1993 se aplica
anualmente como parte de la “Encuesta de Destino de Graduados”, que debe responder todo
nuevo graduado de instituciones de educación superior en Australia. Originalmente, usar la
percepción de los estudiantes como una medida de la calidad de la experiencia de aprendizaje y
docencia fue resistida por las comunidades de académicos australianos. Sin embargo, la robustez
de los resultados obtenidos por la línea de investigación “Student Learning Research” logró
generar un consenso respecto a la importancia de esta medición (Wilson, Lizzio, & Ramsden,
1997). La discusión se centró entonces en que el cuestionario medía atributos puramente
académicos y dejaba de lado elementos como el apoyo institucional a los estudiantes, los recursos
para el aprendizaje, etc. En este sentido, diversos actores del sistema de educación superior
australiano presionaron para que se incluyeran otros elementos. En el año 2001, McInnis, Griffin,
James y Coates (2001) desarrollaron nuevas escalas para el CEQ: Apoyo a los Estudiantes,
Recursos de Aprendizaje, Organización del Grado Académico, Comunidad de Aprendizaje,
Cualidades del Graduado y Motivación Intelectual. Desde el año 2002 se empezaron a utilizar,
junto con las otras escalas que se aplicaban desde el año 93, en procesos de aseguramiento de la
calidad de la educación superior. Los resultados obtenidos de este proceso son publicados en la
“Guía de Buenas Universidades”, por lo que afectan la imagen y la credibilidad de las
instituciones de educación superior. También es importante destacar que el gobierno australiano
mantiene un “Fondo para el Rendimiento en Aprendizaje y Docencia” a través del cual entrega
recursos a las universidades (Harris & James, 2010). Este fondo entregó 55 millones de dólares
australianos en 2006, 84 en 2007 y 114 en 2008. Parte de las escalas del CEQ son usadas como
evidencia para obtener recursos de este fondo. Recientemente, Ginns y Ellis (2009) desarrollaron
una nueva escala sobre un aspecto importante y emergente en el aprendizaje universitario: e-
learning. Sin embargo, esta escala no ha sido aún incorporada al cuestionario oficial.

Si bien el “Course Experience Questionnaire” ha tenido un rol clave en procesos de
aseguramiento de la calidad del sistema de educación superior en Australia, también se ha
empleado con fines de investigación en ese país y en otros. En esta dirección, se ha empleado
para indagar en las percepciones de los estudiantes que se encuentran matriculados en el sistema
de educación superior (P. Ginns, et al., 2007). Por ejemplo, en situaciones pedagógicas
24

específicas (Richardson, 2010), en investigaciones sobre innovaciones pedagógicas (. Ellis, R. &
Goodyear, 2010), en evaluación de la calidad al interior de distintos departamentos (Diseth,
Pallesen, Brunborg, & Larsen, 2010), en situaciones como educación a distancia (Richardson,
2005c) e incluso para evaluar usarlo como insumo para procesos de aseguramiento de la calidad
en países distintos que Australia (por ejemplo, en Hong Kong, Webster, et al., 2009). Es
importante destacar que el CEQ es parte integral del modelo que se emplea en esta investigación
(“Student Learning Research”) que, como se ha explicitado anteriormente, establece que cómo
los estudiantes aprenden está relacionado con cómo perciben la situación en que se encuentran.
Esto permite afirmar que el CEQ es distinto de otros cuestionarios usados para evaluar cómo los
estudiantes perciben sus entornos de aprendizaje. Está directamente relacionado con una teoría
pedagógica, y no con medidas de satisfacción asociadas a teoría del consumidor (como, por
ejemplo, el “Noel-Levitz Student Satisfaction Inventory" aplicado en Estados Unidos (Bryant,
2006; Richardson, 2005a). En este sentido, es una potente herramienta para mejorar la calidad de
la experiencia de aprendizaje de los estudiantes. A pesar de estas posibilidades, en el contexto
Hispanoamericano solo hemos encontrado un artículo académico que usa el CEQ para levantar
información sobre las percepciones de los estudiantes. Fue realizado por Ruiz y Shumacher
(2008) en la Escuela de Ciencias Humanas de la Universidad del Rosario, en Bogotá, Colombia.
Lamentablemente, el trabajo de estos autores emplea el CEQ sin realizar los procesos de
validación mínimos necesarios (traducción, back translation, análisis de validez y confiabilidad)
para un instrumento construido en otro idioma y otro contexto cultural. Diversos investigadores
han largamente insistido que no se debería usar instrumentos en contextos diferentes sin realizar
estos procesos (Webster, et al., 2009). El trabajo de Ruiz y Shumacher pierde credibilidad al no
reportar si se realizó algún tipo de validación. En el estudio que aquí se reporta se emplea la
versión usada por Webster y sus colegas (2009) para validar el cuestionario con estudiantes de
Hong Kong. Esta es una versión corta (17 ítems) que incluye las escalas Buena Docencia, Metas
y Objetivos Claros, Evaluación Apropiada y Carga de Trabajo Apropiada. Además, incluimos la
nueva escala desarrollada por Ginns y Ellis (2009) sobre e-learning. El número total de ítems con
que trabajamos es 22.

25

3.2.3  “Approaches to Teaching Inventory” (ATI) 
El “Approaches to Teaching Inventory” (ATI) surgió en el contexto de la investigación realizada
por por Trigwell y Prosser (1999b; 1996) sobre cómo abordan la docencia los profesores
universitarios. Inicialmente, estos investigadores realizaron un estudio cualitativo para indagar
cómo abordaban la docencia profesores universitarios de ciencias (Trigwell, Prosser, & Taylor,
1994). En este estudio descubrieron, básicamente, que los profesores abordaban su docencia,
desde centrarse en ellos mismos para transmitir información a los estudiantes, hacia centrarse en
los estudiantes para expandir conceptualmente sus concepciones sobre los fenómemos enseñados.
Sobre estos resultados, Trigwell y Prosser (1996) desarrollaron un cuestionario para identificar
estos resultados de manera más generalizada. Los ítems fueron construidos a partir de las
transcripciones de las entrevistas. Se diseñaron un total de 74 preguntas, que fueron sometidas al
juicio de expertos. De dicho análisis se mantuvieron 49 ítems organizados en 5 subescalas. Esta
versión preliminar del ATI fue sometida a una validación de contenido por 11 docentes
universitarios pertenecientes al grupo de entrevistados. Se eliminaron 10 preguntas debido a falta
de consistencia entre los evaluadores. Consecutivamente, se aplicó el instrumento a una muestra
de 58 docentes universitarios del área de las ciencias y una vez obtenido los puntajes se evaluó su
confiabilidad, correlación entre las escalas y validez de constructo por medio de un análisis de
componentes principales. En el año 1999 los autores generaron una nueva versión del ATI
modificando los enunciados de las preguntas para que fuese más flexible a los distintos contextos
de enseñanza. Esta nueva versión redujo a 16 los ítems originales, agrupándolos en dos escalas de
8 ítems. Cada una representa los extremos de un continuo de los enfoques identificados en el
estudio previo: Cambio Conceptual/Estrategia centrada en el Estudiante (CCCE) y Transmisión
de Información/Estrategia centrada en el Profesor (TICP) (Trigwell, et al., 1999). Durante los
últimos años los autores han efectuado diversos estudios orientados a generar evidencia sobre la
estructura de las escalas del instrumento (Prosser & Trigwell, 2006; 2004; Trigwell, Prosser, &
Ginns, 2005). En ellos, el ATI se ha aplicado en muestras de profesores de distintos países,
registrándose resultados de confiabilidad y validez aceptables. Asimismo, es importante señalar
que en 2005 se generó una nueva versión de 22 preguntas: 11 correspondiente a la escala TICP y
11 en la escala CCCE (Trigwell, et al., 2005). Para responderlo se pide a los docentes que se
focalicen en una asignatura o curso con el propósito de alinear las respuestas a las características
26

del contexto de enseñanza, elemento clave de la perspectiva de “Student Learning Research”, en
que se sustenta el instrumento. El ATI ha sido utilizado en diversos estudios. Por ejemplo, para
investigar la relación entre el enfoque que se adopta y la profesionalización docente (Lueddeke,
2003), disonancias en la enseñanza (Postareff, Katajavuori, Lindblom-Ylänne, & Trigwell, 2008;
Prosser, et al., 2003) y los efectos de perfeccionamientos docente en los enfoques de enseñanza
(Gibbs & Coffey, 2004; Postareff, Lindblom-Ylänne, & Nevgi, 2007), entre otros. También se
han realizado estudios en idiomas distintos al inglés orignal, tales como español (Cañada, En
prensa); chino-mandarín, (Zhang, 2009); finés (Lindblom-Ylänne, Trigwell, Nevgi, & Ashwin,
2006); y holandés (Stes, De Maeyer, & Van Petegem, 2010; Stes, Gijbels, & Van Petegem,
2008). Sin embargo, no siempre se reportan los procesos de validación por los cuales el
instrumento debería haber pasado para ser aplicado en un contexto distinto. En este estudio
utiizamos la versión de 22 ítems del ATI.

3.2.4 “Perception of the Teaching Environment Questionnaire” (PTE) 
El “Perception of the Teaching Environment Questionnaire” surge en el contexto de una
investigación que tenía como finalidad relacionar la percepción de profesores universitarios de
ciencias respecto del contexto de enseñanza y la forma en que abordaban su docencia (Prosser &
Trigwell, 1997). Se entrevistó a 13 profesores universitarios, que impartían clases de ciencias a
estudiantes de primer año. En la entrevista se les consultó acerca de los factores que ellos
consideraban que influían en la forma en que abordaban su docencia. Las transcripciones de ese
material se codificaron por medio de un análisis de contenido, identificándose 17 áreas de
influencia en total. Posteriormente, en base a ese material se redactaron 250 preguntas iniciales,
las cuales fueron reducidas a 140 por medio del acuerdo del juicio de tres investigadores del
proyecto. Las preguntas seleccionadas se agruparon en 5 escalas y se aplicó de manera preliminar
a una muestra de 46 profesores. Los resultados obtenidos mostraron la existencia de las escalas
Control sobre la Docencia, Tamaño de Clase Apropiado, Características de los Estudiantes,
Apoyo de la Unidad Académica y Carga de Trabajo Apropiada. Además, se encontró que los
profesores adoptan un enfoque de enseñanza centrado en el estudiante si perciben que poseen
algún grado de control acerca de qué van a enseñar y cómo lo pueden llevar a cabo, el tamaño del
curso no es demasiado grande (con posibilidades de interactuar con sus estudiantes), los
27

estudiantes van a ser capaces de llevar adelante el curso, la enseñanza es valorada al interior del
Departamento al cual pertenecen, y el tiempo y dedicación para la enseñanza es el adecuado
(Prosser & Trigwell, 1997; Prosser & Trigwell, 1999b). El PTE ha sido aplicado en estudios
enfocados a relacionar las experiencias de aprendizaje entre profesores y estudiantes
universitarios y la calidad de los resultados académicos logrados (Prosser, et al., 2003) así como
también para asociar las experiencias de liderazgo académico de los profesores universitarios y
los enfoques de enseñanza que adoptan (Ramsden, P. et al., 2007). Es importante destacar que en
dichas investigaciones se reporta el uso de este instrumento pero sin especificar resultados de
validez y confiabilidad. En este sentido, el PTE es el instrumento, de los utilizados en este
estudio, con menos desarrollo en estos términos. Sólo se registra una investigación con datos
correspondientes las características del instrumento. En el presente estudio usamos una versión
sin la escala Tamaño de la Clase pues los cursos en universidades chilenas aún no son demasiado
grandes y, por lo tanto, podría parecer descontextualizada para los profesores que la
respondieran. Además, los ítems de esta escala están escritos de manera general (por ejemplo,
“me apego estrictamente a mis notas en cursos demasiado grandes”) y a nosotros nos importaba
identificar las percepciones de los profesores en un curso particular.

3.2.5 Traducción y validación preliminar de los cuestionarios utilizados 
El trabajo con los instrumentos utilizados en esta investigación se inició el año 2009. En ese
momento, realizamos procesos de traducción y validación preliminar. Esto fue realizado para
tener una base consistente que justificara aplicarlos en una muestra más grande. En términos de
traducción, para el SPQ ya existía una. Esta fue la que usamos para la validación preliminar. En
el caso del CEQ existía una traducción al español. Sin embargo, no correspondía con la versión
que se deseaba usar y, por lo tanto, decidimos realizar nuestro propio proceso de traducción.
Entonces, los instrumentos traducidos, en el marco del trabajo preliminar, fueron el CEQ, ATI y
PTE. Para cada uno de ellos se realizó el siguiente procedimiento:

a) Cada inventario en su totalidad fue traducido al español.
b) Por medio de la técnica del “back translation” cada uno fue nuevamente traducido al
idioma inglés por una persona de habla nativa de un país anglosajón, a quien se le entregó
la versión preliminar de cada instrumento en español.
28

c) Una vez obtenido el resultado de dicha traducción se procedió, para cada instrumento, a
comparar con la versión original en idioma inglés, apreciándose que ambas versiones eran
bastante similares entre sí.
d) Finalmente, para cada instrumento, se llevó a cabo un análisis de juicio de tres expertos
para efectos de validez de contenido.

Además, los instrumentos fueron aplicados a estudiantes y profesores para obtener datos de
confiabilidad y validez de constructo. En el caso del CEQ y SPQ, se aplicaron a una muestra de
325 estudiantes de primer año de ingeniería. Obteniéndose buenos resultados a través de análisis
de α de Cronbach y componentes principales. En el caso del ATI, se aplicó a 78 profesores de las
áreas de ciencias sociales, educación, salud e ingeniería. En el caso del PTE, se aplicó a una
muestra multidisciplinaria de 79 profesores. En ambos casos se obtuvieron resultados buenos en
términos de confiabilidad. En términos de validez de constructo, en el caso del ATI, un ítem
cargó en una escala que no era la original.
1
.

3.3 Muestra y recolección de datos
2
 
El estudio se llevó a cabo aplicando una muestra intencionada (Neuman, 2006), que incorporó a
cinco universidades tradicionales, complejas y con foco en enseñanza e investigación. Dos de
ellas se encuentran en la Región Metropolitana y tres en otras regiones del país. De esta manera,
la muestra fue constituida por universidades con los siguientes perfiles:
• Universidad 1: es una universidad tradicional privada de la Región Metropolitana.
• Universidad 2: es una universidad tradicional privada de la VIII Región.
• Universidad 3: es una universidad tradicional pública de la Región Metropolitana.
• Universidad 4: es una universidad tradicional pública de la V Región.
• Universidad 5: es una universidad tradicional pública de la XV Región.
En cada universidad se seleccionaron cursos de tercer año de carreras de las áreas de ciencias
sociales y humanidades, ciencias de la salud, ciencias e ingeniería y educación. Se optó por tomar
la muestra en el tercer año debido a que éste representa la mitad de la formación de pregrado en
la mayoría de las carreras, lo que implica que los estudiantes ya han sido socializados en la vida

1
Los resultados de la validación preliminar del CEQ, SPQ y ATI pueden consultarse en la propuesta de esta
investigación.
2
Una descripción más detallada se encuentra en el Informe 2 de este proyecto: “Descripción del proceso de
levantamiento de información”
29

universitaria. Con el objetivo de afinar un criterio teórico para la selección de las carreras a
incorporar, recurrimos a la clasificación de disciplinas de Becher y Trowler (2001)
3
. Estos
autores establecen cuatro grandes áreas disciplinarias, basándose en la cultura de indagación que
cada una presenta. Estas son:
• Duras: representadas por disciplinas como física, química, biología o matemática.
• Duras aplicadas: representadas por disciplinas como ingeniería o medicina.
• Blandas aplicadas: representadas por disciplinas como trabajo social, educación,
psicología o sociología.
• Blandas: representadas por disciplinas como filosofía, historia o literatura.

Teniendo claridad sobre las universidades participantes y las disciplinas que incorporaríamos en
la muestra, se construyó a partir de la base de datos “INDICES digital 2010”. Se seleccionaron
las universidades incorporadas al estudio y, en cada caso, las carreras asociadas a las áreas
disciplinarias definidas por Becher y Trowler (2001). Aún cuando no se incluyó en la muestra
final a todas las carreras, se siguieron determinados criterios para su selección: la presencia de las
carreras seleccionadas en todas las universidades (a excepción de medicina, que no se dicta en la
Universidad 5); que los cursos tuvieran al menos 10 estudiantes; que hubiera un número
equivalente de encuestados entre las distintas áreas disciplinarias. Estos criterios se aplicaron a
partir de los antecedentes de matrícula de primer año aportados por la base de datos utilizada.

Una vez definida la muestra se inició el trabajo en terreno en cada una de las universidades. Para
ello resultó clave el trabajo colaborativo con las instituciones, lo que implicó la interacción con
tres niveles: el nivel superior representado por los rectores, vicerrectores académicos o
encargados de docencia a nivel de toda la universidad; el nivel intermedio, representado por los
decanos, encargados de docencia a nivel de facultades o directores de pregrado; y el nivel micro,
representado por los profesores a cargo de los cursos. En esta etapa fueron los directivos de nivel
intermedio quienes colaboraron activamente para la definición de los cursos a los que se

3
Sin embargo, teniendo en cuenta las observaciones realizadas por el par evaluador que comentó el informe 2, para
el presente informe agrupamos las disciplinas de manera más amplia, considerando “Ciencias Sociales y
Humanidades” y “Ciencia y Tecnología”.

30

aplicarían los instrumentos, ya que ello permitió que dichos cursos correspondieran a cursos
clave para la formación profesional y académica de los estudiantes.

Si bien este proceso tomó características particulares en cada una de las instituciones debido a la
diversidad de culturas que priman en cada una de ellas y a la naturaleza del vínculo con que el
equipo investigador ingresó, en todas se logró disponer de una contraparte efectiva, con quien la
colaboración permanente permitió llevar a cabo el trabajo de aplicación de instrumentos de
manera organizada. Sin perjuicio de ello, la aplicación de instrumentos se pudo concretar en una
parte de las carreras previamente seleccionadas, en la mayor parte de los casos debido a
problemas netamente prácticos. En consecuencia, la muestra de carreras quedó establecida como
se indica en la tabla 1. En ella se puede observar que se obtuvo una muestra importante: 1687
estudiantes y 59 profesores.

Tabla 1: Carreras en que se aplicaron los instrumentos y número de alumnos y profesores
participantes en cada Universidad


Institución Área disciplinaria


Nombre de la carrera

Universidad 1



Estudiantes: 475
Profesores: 18
Disciplinas duras Licenciatura en Ciencias Biológicas
Licenciatura en Astronomía
Licenciatura en Física
Licenciatura en Matemáticas
Química
Disciplinas blandas
Aplicadas
Psicología
Sociología
Trabajo Social
Pedagogía en Educación General Básica
Educación de Párvulos
Disciplinas blandas Licenciatura en Historia
Licenciatura en Letras Hispánicas
Licenciatura en Letras Inglesas
Disciplinas duras Enfermería
31

Aplicadas Ingeniería Plan Común
Universidad 2



Estudiantes : 337
Profesores: 11


Disciplinas duras Licenciatura en Ciencias Físicas
Disciplinas blandas
Aplicadas
Psicología
Trabajo Social
Educación Básica, especialidad en Matemáticas y Ciencias
Naturales
Educación Básica, especialidad en Lenguaje y Ciencias Sociales
Educación Básica, primer ciclo
Educación Parvularia
Disciplinas duras
Aplicadas
Enfermería
Ingeniería Civil
Ingeniería Civil Química
Universidad 3



Estudiantes: 287
Profesores: 9
Disciplinas duras Licenciatura en Bioquímica
Ingeniería Física
Disciplinas blandas
Aplicadas
Educación General Básica
Disciplinas blandas Licenciatura en Historia y Ciencias Sociales
Licenciatura en Lingüística Aplicada a la Traducción
Disciplinas duras
Aplicadas
Enfermería
Ingeniería Civil en Electricidad
Ingeniería Civil en Industrial
Ingeniería Civil Mecánica



(Tabla 1, continuación)

Institución Área disciplinaria


Nombre de la carrera

Universidad 4


Estudiantes: 386
Disciplinas blandas
Aplicadas
Psicología
Sociología
Trabajo Social
Educación Parvularia
32

Profesores: 11 Pedagogía en Historia
Disciplinas duras
Aplicadas
Enfermería (sede Valparaíso)
Enfermería (sede San Felipe)
Ingeniería Civil Informática
Universidad 5

Estudiantes: 200
Profesores: 10
Disciplinas duras Química Plan Común
Disciplinas blandas
Aplicadas
Psicología
Trabajo Social
Parvularia y Psicopedagogía
Disciplinas blandas Licenciatura en Inglés
Licenciatura en Historia y Geografía
Licenciatura en Lenguaje y Comunicación
Disciplinas Duras
Aplicadas
Ingeniería Civil Industrial
Ingeniería Civil Eléctrica
Enfermería

En consecuencia, la aplicación de los instrumentos resultó exitosa, alcanzando a constituir una
muestra, tanto de alumnos como de profesores, importante para la aplicación de los análisis
estadísticos propuestos en el estudio.

3.4 Análisis 
Se realizaron análisis estadísticos asociados a cada objetivo específico de la investigación, de la
siguiente manera:

- Para el objetivo específico “Determinar la validez y confiabilidad de una batería de
instrumentos utilizados en profesores y estudiantes universitarios chilenos” se realizaron
análisis de componentes principales (Hair, 1998; Thompson, 2004) para cada uno de los
cuatro instrumentos a emplear, con el fin de generar evidencia sobre su validez de
constructo. Además, se utilizó el α de Cronbach (Howell, 2008) para establecer los
niveles de confiabilidad de cada una de las escalas de cada cuestionario. Estos resultados
se presentan en la sección 4.
33

- Para el objetivo específico “Explorar si existe relación entre los enfoques de enseñanza de
los profesores y enfoques de aprendizaje de los estudiantes y las percepciones que estos
actores tienen sobre el contexto educativo” se realizó un análisis de conglomerados
(incluyendo perfilamiento de los grupos que emergieron) (Hair, 1998; Howell, 2008).
Estos resultados se presentan en la sección 5, sub-sección 5.3.
- Para el objetivo específico “Determinar el tipo de relación existente entre las percepciones
que tienen los profesores y los estudiantes sobre el contexto educativo y su relación con
los enfoques de enseñanza y los enfoques de aprendizaje que adoptan” se realizaron
análisis de correlación y conglomerados (Hair, 1998), presentados en la sección 5, sub-
secciones 5.1 y 5.2 y path analysis (Mueller, 1996), presentado en la sección 6.
- Finalmente, debido a la sugerencia del par experto, el objetivo específico “Establecer si
los enfoques de aprendizaje y enseñanza varían según el área disciplinar donde se
desarrollan” se amplió a indagar otras variables que pudieran tener alguna incidencia en
las formas de abordar el aprendizaje y la enseñanza. Se incluyeron las siguiente variables:
“Sexo”, “Área Disciplinaria”, “Primera vez que realiza el Curso”, “Ha cursado otra
Carrera” y “Primero de su familia en asistir a la Universidad”, para estudiantes; y “Sexo”,
“Área Disciplinaria”, “Grado Académico” y “Capacitación en Docencia”, en el caso de
los profesores. Con ellas se realizaron análisis de t-test y ANOVA. Estos resultados se
presentan en la sección 7.

3.5 Aseguramiento de estándares éticos en investigación social  
La investigación se llevó a cabo considerando también los aspectos éticos involucrados en el
trabajo directo con individuos. De esta manera, se pueden distinguir dos niveles en que esta
preocupación toma forma: a nivel institucional, ya que algunas de las universidades involucradas
en la investigación así lo establecieron y a nivel individual, en el contexto de la aplicación de los
instrumentos a profesores y estudiantes. A nivel institucional dos universidades (universidad 3 y
universidad 4), siguiendo la iniciativa de algunas de las unidades académicas invitadas a
participar en el estudio, sometieron esta propuesta a consideración del Comité de Ética de dicha
unidad. Si bien fue una situación excepcional, da cuenta de la relevancia que este aspecto de la
investigación social ha ido adquiriendo. Cabe señalar que en ninguno de los casos en que se
34

siguió este procedimiento se interpuso algún impedimento a la realización de la investigación. A
nivel individual, todos los profesores y estudiantes invitados a participar del estudio a través de
sus respectivos cursos, tuvieron acceso a un Formulario de Consentimiento Informado. A través
de este instrumento se abarcan aspectos fundamentales como: información sobre el proyecto que
se está llevando a cabo y sus objetivos, voluntariedad de la participación de los individuos
encuestados, anonimato, confidencialidad. El formulario de consentimiento informado entrega
antecedentes sobre el objeto del estudio, las condiciones en las que se está llevando a cabo y el
uso potencial de los resultados. Con esta información los sujetos están en condiciones de decidir
su participación en la investigación, garantizando de esta manera el carácter voluntario de su
participación. En el mismo documento se garantiza el anonimato y confidencialidad de los
antecedentes aportados por los participantes de la investigación. Ambos aspectos se abordan
particularmente a través de los derechos de los participantes, debidamente señalados en el
formulario de consentimiento informado. Así también, se especifica un uso adecuado de los
resultados, que también garantizará la confidencialidad de quienes participaron de la
investigación.

3.6 Resumen y conclusión  
En esta sección se presentaron los aspectos principales de la metodología del proyecto. Se
presentaron los objetivos que guían el proyecto. Luego se presentaron los instrumentos utilizados
enfatizando su origen, desarrollo y uso. Se discutió que, si bien el SPQ y el CEQ habían sido
traducidos al español y usados en contextos hispanoamericanos, se han empleado de manera
descontextualizada del marco teórico que subyace y sin indagar en las asociaciones entre distintos
aspectos de la experiencia de aprendizaje. En la sub-sección sobre la muestra y recolección de
datos se describió cómo se llevó a cabo este proceso, indicando que había sido exitoso pues se
levantaron 1687 encuestas de estudiantes y 59 de profesores, que provienen de 5 universidades
tradicionales y que representan relativamente bien las distintas zonas geográficas del país. Al
presentar los análisis estadísticos realizados, se enfatizó a qué objetivo específico estaban
asociados y donde se presentan en el informe. También se indicaron algunos cambios realizados a
petición del par evaluador. Finalmente, se describieron las medidas tomadas para asegurar que el
estudio cumple, en todas sus etapas, con los criterios éticos de anonimato, confidencialidad y
35

consentimiento informado que debe guiar la investigación con personas. En la siguiente sección,
que corresponde a los análisis de confiabilidad y validez de los instrumentos utilizados, se inicia
la presentación de los resultados de la investigación.


4 Análisis de validez y confiabilidad de los instrumentos Study Process
Questionnaire (SPQ), Course Experience Questionnaire (CEQ), Approaches to
Teaching Inventory (ATI) y Perception of the Teaching Environment Inventory
(PTE)

Esta sección está asociada al objetivo específico “determinar la validez y confiabilidad de una
batería de instrumentos en profesores y estudiantes universitarios chilenos”. En ella se presentan
los resultados de los análisis realizados para validar los instrumentos SPQ, CEQ, ATI y PTE.
Para cumplir esta tarea se llevaron a cabo, para cada cuestionario, los siguientes análisis: 1) un
análisis descriptivo de los datos: porcentajes, promedios y desviaciones estándar (presentado
como anexo); 2) un análisis de confiabilidad de las escalas que los componen, a través del α de
Cronbach; y 3) un análisis de la validez de constructo, a través de componentes principales. Estos
análisis, para el caso de los instrumentos SPQ y CEQ, se realizaron tomando la muestra total de
1687 estudiantes obtenida en el proceso de levantamiento de información. En el caso de los
instrumentos ATI y PTE la muestra del presente estudio fue de solo 59 profesores, número
insuficiente para correr parte de los análisis previstos. Por esta razón, los análisis de confiabilidad
y validez de constructo se llevaron a cabo tomando cuestionarios aplicados en otros estudios. De
esto modo, fue posible realizar estos análisis con un total de 248 casos, para el ATI; y con 122,
para el PTE. Los análisis descriptivos, presentados como anexo, se llevaron a cabo, para el caso
de los profesores, tanto para el total de casos disponibles como para los 59 correspondientes solo
al estudio CNED.

4.1 Análisis de confiabilidad y validez del Study Process Questionnaire (SPQ) 
En esta subsección se presentan los resultados del análisis de confiabilidad y validez del SPQ.
Primero se presenta el análisis de confiabilidad de cada una de sus escalas y luego se presenta el
análisis de validez de constructo, a través de un análisis de componentes principales.
36


4.1.1 Análisis de confiabilidad  
La tabla 2 presenta los resultados del análisis de confiabilidad, realizado a través del α de
Cronbach, para las escalas “Aprendizaje Superficial” y “Aprendizaje Profundo”.

Tabla 2: Coeficiente de confiabilidad para las subescalas del SPQ

Escalas

N° de reactivos

α de Cronbach


Escala “Aprendizaje Superficial”

10

.772
Escala “Aprendizaje Profundo” 10 .750

n= 1687


Los resultados del α de Cronbach muestran que ambas escalas presentan valores buenos en
términos de confiabilidad.

4.1.2  Análisis de componentes principales 
La estimación de la validez de constructo del instrumento se llevó a cabo a través de un análisis
de componentes principales. Con el objetivo de indagar si los datos se adecuaban a un modelo
factorial se realizó la prueba de KMO, que entregó resultados muy buenos (KMO = .874). A su
vez la prueba de Barlett fue estadísticamente significativa (
X
2
= 6276.734; p= .000). En la tabla 3
se presentan los resultados del análisis.







37

Tabla 3: Análisis de validez de constructo del SPQ

AS



AP


1. Me parece que la mejor forma de aprobar un examen es tratar de memorizar respuestas a
preguntas que probablemente entren en él.

.667

.072
2. Aprendo algunas cosas mecánicamente repasándolas una y otra vez hasta que las sé de memoria,
aunque no las comprenda.
.658 .031
3. No tiene sentido estudiar el material que probablemente no va a entrar en el examen. .649 -.251
4. Creo que no es útil estudiar los temas en profundidad. Eso sólo confunde y hace perder el
tiempo, cuando lo único que se necesita es familiarizarse con los temas para aprobarlos.
.648 -.133
5. Generalmente me limito a estudiar sólo lo que se establece, porque creo que es innecesario hacer
cosas extra.
.628 -.333
6. Puedo aprobar la mayoría de las evaluaciones formales memorizando partes clave de los temas,
y no intentando comprenderlos creo que es innecesario hacer cosas extra.
.619 .025
7. Me parece que los profesores no deben esperar que los alumnos pasen mucho tiempo estudiando
materiales que se sabe que no van a entrar en el examen.
.586 -.135
8. Sólo estudio en serio lo que se ve en la clase o lo que está en el programa del curso. .416 -.281
9. Si no encuentro este curso interesante, me esfuerzo lo mínimo. .349 -.250
10. Mi objetivo es aprobar el curso haciendo el menor trabajo posible. .335 -.162
11. Dedico gran parte de mi tiempo libre a recopilar más información sobre temas interesantes ya
tratados.
-.102 .676
12. La mayoría de los temas nuevos me parecen interesantes y frecuentemente paso tiempo extra
tratando de obtener más información acerca de ellos.
-.070 .655
13. Me autoevalúo en temas importantes hasta que los entiendo por completo. -.070 .559
14. Tengo que trabajar bastante en un tema para poder formarme mis propias conclusiones; sólo así
me siento satisfecho.
-.046 .543
15. Para mí sí tiene sentido revisar la mayoría de las lecturas recomendadas para cada clase. -.250 .535
16. En ocasiones el estudio me proporciona un sentimiento de profunda satisfacción personal -.190 .527
17. Asisto a la mayoría de las clases con preguntas en mente de las cuales busco respuesta. -.066 .526
18. Siento que realmente cualquier tema puede ser interesante una vez que me pongo a trabajar en él. -.015 .473
19. Me parece que estudiar temas académicos puede ser en ocasiones tan emocionante como una
buena novela o película.
-.250 .447
20. Trabajo duro en mis estudios cuando creo que el material es interesante. -.099 .427

n=1687. Análisis de componentes principales, con rotación Varimax. Valores sobre .3 son destacados en negritas.
AS: “Aprendizaje Superficial”, AP: “Aprendizaje Profundo”.
38


Los resultados del análisis de componentes principales presentado en la tabla 3 muestran
claramente que los factores corresponden a las escalas del cuestionario SPQ como se han
presentado en estudios previos. Sin embargo, el porcentaje de la varianza explicada por estos
factores fue baja (33.8%). Ninguno de los ítems presentó cargas cruzadas mayores a .3. La
varianza acumulada fue 23.5% para el primer factor (valor eigen = 4.70) y 10.3% para el
segundo (valor eigen = 2.06).

4.2 Análisis de confiabilidad y validez del Course Experience Questionnaire (CEQ) 
En esta subsección se presentan los resultados de la validación del CEQ. Primero se presenta el
análisis de confiabilidad de cada una de sus escalas y luego se presenta el análisis de validez de
constructo, a través de un análisis de componentes principales.

4.2.1 Análisis de confiabilidad 
La tabla 4 presenta los resultados del análisis de confiabilidad, realizado a través del α de
Cronbach, para las escalas “Buena Docencia”, “Carga de Trabajo Apropiada”, “Metas y
Objetivos Claros”, “Evaluación Apropiada” e “E-learning”

Tabla 4: Coeficiente de confiabilidad para cada una de las subescalas del CEQ

Escalas

N° de reactivos

α de Cronbach


Escala “Buena Docencia”

6

.846
Escala “Carga de Trabajo Apropiada” 4 .610
Escala “Metas y Objetivos Claros” 4 .744
Escala “Evaluación apropiada” 3 .632
Escala ”E-learning” 5 .802

n= 1687

Los resultados del α de Cronbach muestran que las escalas “Buena Docencia” e “E-learning”
presentan valores muy buenos, que la escala “Metas y Objetivos Claros” presenta un valor
39

aceptable y que las escalas “Carga de Trabajo Apropiada” y “Evaluación Apropiada” presentan
valores moderadamente aceptables.

4.2.2 Análisis de componentes principales 
Para estimar la validez de constructo del CEQ se realizó un análisis de componentes principales.
Para indagar si los datos se adecuaban a un modelo factorial se realizó la prueba de KMO, la que
entregó los resultados muy buenos (KMO = .884). Además, la prueba de Barlett fue
estadísticamente significativa (
X
2
= 11310.204; p= .000). En la tabla 5 se presentan los resultados
del análisis.

Tabla 5: Análisis de validez de constructo del CEQ


BD


EL


MOC


EVA


CTA


1. El profesor de este curso me motiva a hacer mi mejor trabajo.

.717

.069

.232

.147

.051
2. El profesor trabaja duro para hacer interesante la materia. .756 .157 .152 .145 .098
3. El profesor es muy bueno explicando la materia. .699 .135 .222 .119 .198
4. El profesor normalmente me da retroalimentación útil sobre como lo
estoy haciendo.
.686 .182 .227 .138 -.010
5. El profesor emplea mucho tiempo para comentar mi trabajo. .587 .067 .057 .003 -.243
6. El profesor hace un esfuerzo real para tratar de entender las
dificultades que pudiera estar teniendo con mi trabajo.
.739 .143 .124 .149 .097
7. Mis experiencias en línea (aquellas provistas por la universidad a
través de la plataforma en línea, biblioteca, sitios web de curso, etc.)
me ayudaron a involucrarme activamente con mi aprendizaje.
.125 .826 .040 .022 .029
8. Las experiencias de aprendizaje en línea del curso (a través de la
plataforma en línea, biblioteca, sitios web de curso, etc.) estuvieron
bien integradas con mi aprendizaje presencial.
.125 .849 .055 .070 .049
9. Los recursos de la página web de mi universidad (plataforma en línea,
biblioteca, sitios web de curso, etc.) apoyaron mi aprendizaje.
.061 .850 .030 .009 0.24
10. La comunicación en línea con estudiantes y el profesor ayudó a mi
aprendizaje.
.343 .558 .044 .005 .025
11. Donde fueron usadas, las TICs me ayudaron a aprender. .072 .533 .224 .011 -.025
12. Siempre es fácil conocer las exigencias del trabajo esperado en este
curso.
.231 .076 .679 -.102 .141
40

13. Desde el inicio del curso el profesor dejó en claro qué se esperaba de
los estudiantes.
.402 .116 .601 .117 -.035
14. En este curso. usualmente he tenido una idea clara hacia dónde vamos
y que se espera de mí.
.405 .207 .686 .111 .024
15. A menudo ha sido difícil descubrir que se espera de mí en este curso. .073 .057 .735 .269 .124
16. El profesor solo me hace preguntas literales de la materia. .138 .004 .064 .809 .031
17. Para hacerlo bien en este curso todo lo que necesitas es tener buena
memoria.
.083 .041 .089 .767 .090
18. El profesor parece más interesado en evaluar lo que he memorizado
que lo que he comprendido.
.311 .043 .097 .734 .178
19. Hay una gran presión sobre mí como estudiante en este curso. -.048 .017 .004 .016 .736
20. La carga de trabajo es muy pesada. -.030 -.070 -.014 .031 .825
21. Generalmente. me dan el tiempo suficiente para comprender las cosas
que tengo que aprender.
.302 .116 .219 .046 .505
22. El gran volumen de trabajo contemplado en este curso significa que no
todo puede ser comprendido en detalle.

.042 .057 .128 .234 .543
n=1687. Análisis de componentes principales, con rotación Varimax. Valores sobre .3 son destacados en negritas. Cursivas
indican ítems con carga cruzada sobre .3.
BD: “Buena Docencia”, EL: “E-learning”, MOC: “Metas y Objetivos Claros”, EVA: “Evaluación Apropiada”, CTA: “Carga de
Trabajo Apropiada”.

Los resultados del análisis de componentes principales, presentados en la tabla 5, muestran que
los factores corresponden a las escalas hipotetizadas del cuestionario CEQ, aunque los ítems 10,
13, 14 y 18 presentaron cargas cruzadas sobre .3. El porcentaje de la varianza explicada por estos
factores es importante (58.2%). La varianza acumulada fue 27.4% para el primer factor (valor
eigen = 6.03), 10.7% para el segundo (valor eigen = 2.36), 8,57% para el tercero (valor eigen =
1.87), 6.49% para el cuarto (valor eigen = 1.43) y 5.04% para el quinto (valor eigen = 1.11).

4.3 Análisis de confiabilidad y validez del Approaches to Teaching Inventory
(ATI)
En esta subsección se presentan los resultados de la validación del cuestionario ATI. En primer
lugar, se presenta el análisis de confiabilidad de cada una de sus escalas. En segundo lugar, se
presenta el análisis de validez de constructo, a través de un análisis de componentes principales.

41

4.3.1 Análisis de confiabilidad 
La tabla 6 presenta los resultados del análisis de confiabilidad, realizado a través del α de
Cronbach incluyendo los 248 casos disponibles, para las escalas “Docencia centrada en el
Cambio Conceptual y el Estudiante” y “Docencia centrada en la Transmisión de Información y
el Profesor”.

Tabla 6: Coeficiente de confiabilidad para cada una de las subescalas del ATI

Escalas

N° de reactivos

α de Cronbach


“Docencia centrada en el Cambio Conceptual y el Estudiante”

11

.781
“Docencia centrada en la Transmisión de Información y el Profesor”

10* .813
n=248
*Se dejó fuera del análisis un ítem de esta escala ya que, cuando se realizó el análisis de componentes principales, no obtuvo una
carga sobre .3 en ninguna de las escalas. Esto se explica en la siguiente sub-sección.

Los resultados del α de Cronbach muestran que la escala “Docencia centrada en el Cambio
Conceptual y el Estudiante” presentó un resultado aceptable cercano a muy bueno, mientras que
la escala “Docencia centrada en la Transmisión de Información y el Profesor” presentó un valor
muy bueno.

4.3.2 Análisis de componentes principales 
Para estimar la validez de constructo del ATI se realizó un análisis de componentes principales.
Se ejecutó la prueba de KMO para ver si los datos se adecuaban a un modelo factorial. Esta
entregó los resultados muy buenos (KMO = .788). Por otro lado, la prueba de Barlett fue
estadísticamente significativa (
X
2
= 1306.032; p= .000). Al ejecutar el análisis, el porcentaje de la
varianza explicada por los factores que emergieron fue bajo (34.2%). La varianza acumulada fue
19.1% para el primer factor (valor eigen = 6.03) y 15.1% para el segundo (valor eigen = 3.33).
Los resultados presentados en la tabla 7, muestran que, mayoritariamente, los factores
corresponden a las escalas hipotetizadas del cuestionario ATI. Sin embargo, estableciendo .3
como el punto de corte, el ítem 12 no cargó en ninguna de las escalas.
42







Tabla 7: Análisis de validez de constructo del ATI


CCSF

ITTF


1. Estimulo a los estudiantes reestructurar sus conocimientos previos en términos de una nueva
forma de pensar sobre el contenido que estamos viendo

.687

-.002
2. Veo la enseñanza como una ayuda a los estudiantes para desarrollar nuevas formas de pensar
sobre los contenidos del curso
.660 -.057
3. La docencia en este curso debe ayudar a los estudiantes a cuestionar su propio entendimiento del
contenido tratado
.639 -.097
4. Provoco deliberadamente debate y discusiones en las clases de este curso .632 -.185
5. En este curso dedico algún tiempo de la enseñanza para que los estudiantes puedan discutir,
entre ellos mismos, conceptos claves e ideas
.630 -.138
6. En este curso los estudiantes tienen oportunidades para discutir cómo va cambiando su
comprensión sobre los contenidos que estamos viendo
.593 .016
7. La docencia en esta asignatura debe incluir ayuda a los estudiantes para encontrar sus propios
recursos de aprendizaje
.552 -.029
8. Una buena parte del tiempo de este curso debe ser utilizada en cuestionar las ideas de los
estudiantes
.550 .063
9. En la enseñanza de esta asignatura es importante para mí monitorear cambios en la comprensión
de los tópicos que estamos viendo
.535 .025
10. En este curso, cuando interactúo con los estudiantes, trato de desarrollar un diálogo con ellos
acerca de los tópicos que estamos estudiando
.532 .091
11. En este curso es mejor para los estudiantes que generen sus propios apuntes en vez de copiar los
míos
.420 -.222
12. Presento material para que los estudiantes construyan una base de información sobre los
contenidos del curso
.269 .219
13. Es importante presentar a los estudiantes muchos datos e información para que ellos sepan qué
es lo que deben aprender en este curso
.031 .681
14. En este curso, mi enseñanza se enfoca en hacer buenas presentaciones del contenido que estamos -.005 .666
43

viendo a los estudiantes
15. En este curso me concentro en entregar contenidos que podrían estar disponibles en libros y
textos claves
-.055 .648
16. Estructuro mi enseñanza en este curso para ayudar a los estudiantes a pasar las pruebas y/o
exámenes
.083 .622
17. Creo que una razón importante para hacer clases es que los estudiantes desarrollen buenos
apuntes
.007 .611
18. En este curso mi docencia se enfoca a entregar a los estudiantes mi comprensión del contenido -.046 .590
19. Debo saber la respuesta de cualquier pregunta que los estudiantes me hagan durante este curso -.175 .558
20. En este curso los estudiantes deben enfocarse a estudiar lo que yo les enseño -.098 .524
21. Es importante que los contenidos de este curso sean descritos en su totalidad en función de
objetivos específicos asociados a las evaluaciones formales
-.005 .500
22. En este curso entrego a los estudiantes el contenido necesario para pasar pruebas y/o exámenes -.026 .378

n=248. Cursivas indican ítem con carga cruzada sobre .3. Análisis de componentes principales, con rotación Varimax. Valores
sobre .3 son destacados en negritas.
CCSF, Docencia centrada en el Cambio Conceptual y el Estudiante; ITTF, Docencia centrada en la Transmisión de Información y
el Profesor.

Un nuevo análisis de componentes principales se realizó sin incluir el ítem 12. En este caso, la
prueba de KMO entregó los resultados muy buenos (KMO = .790). La prueba de Barlett fue
estadísticamente significativa (
X
2
= 1220.499; p= .000).

Tabla 8: Análisis de validez de constructo del ATI


CCSF

ITTF


1. Estimulo a los estudiantes reestructurar sus conocimientos previos en términos de una nueva
forma de pensar sobre el contenido que estamos viendo

.683

-.002
2. Veo la enseñanza como una ayuda a los estudiantes para desarrollar nuevas formas de pensar
sobre los contenidos del curso
.651 -.062
3. La docencia en este curso debe ayudar a los estudiantes a cuestionar su propio entendimiento del
contenido tratado
.642 -.092
4. Provoco deliberadamente debate y discusiones en las clases de este curso .637 -.174
5. En este curso dedico algún tiempo de la enseñanza para que los estudiantes puedan discutir,
entre ellos mismos, conceptos claves e ideas
.632 -.115
6. En este curso los estudiantes tienen oportunidades para discutir cómo va cambiando su .600 .027
44

comprensión sobre los contenidos que estamos viendo
7. Una buena parte del tiempo de este curso debe ser utilizada en cuestionar las ideas de los
estudiantes
.562 .079
8. La docencia en esta asignatura debe incluir ayuda a los estudiantes para encontrar sus propios
recursos de aprendizaje
.547 -.032
9. En la enseñanza de esta asignatura es importante para mí monitorear cambios en la comprensión
de los tópicos que estamos viendo
.528 .021
10. En este curso, cuando interactúo con los estudiantes, trato de desarrollar un diálogo con ellos
acerca de los tópicos que estamos estudiando
.526 .089
11. En este curso es mejor para los estudiantes que generen sus propios apuntes en vez de copiar los
míos
.424 -.217
12. Es importante presentar a los estudiantes muchos datos e información para que ellos sepan qué
es lo que deben aprender en este curso
.041 .696
13. En este curso, mi enseñanza se enfoca en hacer buenas presentaciones del contenido que estamos
viendo a los estudiantes
-.009 .666
14. En este curso me concentro en entregar contenidos que podrían estar disponibles en libros y
textos claves
-.055 .653
15. Estructuro mi enseñanza en este curso para ayudar a los estudiantes a pasar las pruebas y/o
exámenes
.082 .627
16. Creo que una razón importante para hacer clases es que los estudiantes desarrollen buenos
apuntes
.003 .611
17. En este curso mi docencia se enfoca a entregar a los estudiantes mi comprensión del contenido -.055 .582
18. Debo saber la respuesta de cualquier pregunta que los estudiantes me hagan durante este curso -.192 .542
19. En este curso los estudiantes deben enfocarse a estudiar lo que yo les enseño -.092 .531
20. Es importante que los contenidos de este curso sean descritos en su totalidad en función de
objetivos específicos asociados a las evaluaciones formales
-.005 .504
21. En este curso entrego a los estudiantes el contenido necesario para pasar pruebas y/o exámenes -.033 .372

n=248. Cursivas indican ítem con carga cruzada sobre .3. Análisis de componentes principales, con rotación
Varimax. Valores sobre .3 son destacados en negritas.
CCSF, Docencia centrada en el Cambio Conceptual y el Estudiante; ITTF, Docencia centrada en la Transmisión de
Información y el Profesor.

Los resultados del análisis de componentes principales presentado en la tabla 8 muestran que los
factores que emergen corresponden con las escalas hipotetizadas del cuestionario ATI. El
porcentaje de la varianza explicada por estos factores es relativamente bajo (35.4%). La varianza
45

acumulada fue 19.90% para el primer factor (valor eigen = 4.18) y 15.46% para el segundo
(valor eigen = 3.24).

4.4 Análisis  de  confiabilidad  y  validez  del  Perception  of  the  Teaching  Environment 
Inventory (PTE) 
En esta sub-sección se presentan los resultados de la validación del cuestionario PTE. En primer
lugar, se presenta el análisis de confiabilidad de cada una de sus escalas. En segundo lugar, se
presenta el análisis de validez de constructo, a través de un análisis de componentes principales.

4.4.1 Análisis de confiabilidad 
La tabla 9 presenta los resultados del análisis de confiabilidad, realizado a través del α de
Cronbach, para las escalas “Características de los Estudiantes”, “Control sobre la Docencia”,
“Presiones de Tiempo” y “Visión de la Unidad Académica sobre la Docencia”.

Tabla 9: Coeficiente de confiabilidad para cada una de las subescalas del PTE*

Escalas

N° de reactivos

α de Cronbach


Escala “Características de los Estudiantes”

5
.
.754
Escala “Control sobre la Docencia” 4 .708
Escala “Presiones de Tiempo” 3 .643
Escala “Visión de la Unidad Académica sobre la Docencia”

3 .690
n= 122
*El análisis de confiabilidad se realizó con los ítems que finalmente se mantuvieron en el cuestionario.

Los resultados del α de Cronbach muestran que las escalas “Características de los Estudiantes”,
“Control sobre la Docencia”, y “Visión de la Unidad Académica sobre la Docencia” presentan
valores aceptables; mientras que la escala “Presiones de Tiempo” presenta un valor
moderadamente aceptable.

46

4.4.2 Análisis de componentes principales 
Una serie de análisis de componentes principales se realizaron para obtener factores que
correspondieran a las escalas hipotetizadas del cuestionario PTE. Se llegó a una solución de 15
ítems agrupados en 4 escalas. Se realizó la prueba de KMO y el resultado indicó que los datos
eran adecuados al modelo factorial (KMO = .671). Además, la prueba de Barlett fue
estadísticamente significativa (
X
2
= 521.775; p= .000).

Los resultados del análisis de componentes principales, presentados en la tabla 10, muestran que
los factores corresponden a las escalas hipotetizadas del cuestionario PTE, aunque con un número
de ítems menor al cuestionario original. El ítem 3, asociado a la escala “Características de los
Estudiantes” presentó una carga cruzada mayor a .3 en la escala “Control sobre la Docencia”. El
porcentaje de la varianza explicada por los factores que emergieron fue importante (58.2%). La
varianza acumulada fue 25.0% para el primer factor (valor eigen = 3.75), 14.0% para el segundo
(valor eigen = 2.11), 9.94% para el tercero (valor eigen = 1.50) y 9.15% para el cuarto (valor
eigen = 1.37).

Tabla 10: Análisis de validez de constructo del PTE


SC

TC

DV

TP

1. Los estudiantes actúan como si pensaran que soy un profesor de enseñanza
media, más que alguien que los está acompañando en su proceso adulto de
aprendizaje

.715

.296

.096

-.007
2. Los estudiantes tienen habilidades tan variadas que me es difícil predecir qué
saben y qué no
.709 .286 .201 .026
3. Tener estudiantes con capacidades diversas en clase hace difícil realizar mi
enseñanza apropiadamente
.705 .325 -.029 -.114
4. Los estudiantes de este curso a menudo son intolerantes a cualquier contenido
fuera del programa
.686 -.068 -.086 .062
5. En este curso, he tenido que repensar cómo enseño debido al número creciente
de estudiantes con bajos estándares
.581 .050 .001 .259
6. Siento falta de control sobre qué enseño en este curso .209 .771 .069 -.134
7. Tengo poca injerencia sobre cómo se realiza este curso .079 .753 -.055 .093
8. Siento que tengo poco control sobre la forma en que enseño en este curso .226 .737 .137 .086
47

9. En este curso, la docencia sería más gratificante si tuviese mayor opinión sobre
los contenidos que se enseñan
.078 .658 -.010 .107
10. Mi unidad académica me incentiva a utilizar la retroalimentación de mis
estudiantes para mejorar mi enseñanza
.058 -.031 .814 .007
11. Mi unidad académica entrega un buen ambiente para la discusión de la docencia
con los colegas
-.006 .146 .790 .027
12. La dedicación que mi unidad académica me entrega para mejorar la enseñanza
hace que sea más fácil para mí diseñar y ejecutar este curso
.022 -.025 .738 .261
13. Es difícil entregar suficiente tiempo a la docencia debido a la presión creciente
de las funciones administrativas
.104 .133 .086 .789
14. Mi unidad académica me sobrecarga con docencia -.137 -.003 .050 .727
15. La creciente presión por investigar dificulta dedicar tiempo suficiente a la
docencia
.251 .029 .126 .669
n= 122. Cursivas indican ítem con carga cruzada sobre .3. Análisis de componentes principales, con rotación Varimax. Se
mantuvieron los valores sobre .3.
DV: “Visión de la Unidad Académica sobre la Docencia”, SC: “Características de los Estudiantes”, TC: “Control sobre la
nc Doce ia”, TP: “Presiones de Tiempo”.

4.5 Resumen y conclusión 
En esta sección se presentaron los resultados de los análisis de confiabilidad y validez de los
instrumentos SPQ, CEQ, ATI y PTE. En términos generales, los cuatro instrumentos presentaron
resultados mayoritariamente adecuados. Sin embargo, aquellos para estudiantes presentaron
mejores valores de confiabilidad y menores problemas de validez que los instrumentos para
profesores. Tanto el SPQ como el CEQ presentaron valores de confiabilidad en los rangos entre
“aceptables” y “muy buenos”. Solo las escalas “Evaluación Apropiada” y “Carga de Trabajo
Apropiada” presentaron valores “moderadamente aceptables”. Los cuestionarios ATI y PTE
presentaron valores de confiabilidad en un rango entre “aceptables” a “muy bueno”. Solo la
escala “Presiones de Tiempo” presentó un valor “moderadamente aceptable”. Por otro lado, el
análisis de validez de constructo del ATI mostró que el ítem “Presento material para que los
estudiantes construyan una base de información sobre los contenidos del curso” no tuvo una
carga mayor a .3 en ninguna de las escalas y fue dejado fuera. Al correr el análisis sin este ítem,
todos los ítems cargaron en las escalas como se había hipotetizado. El cuestionario PTE fue el
más complejo en términos de validez de constructo. El número de ítems se bajó a quince para que
las escalas fueran coherentes con la estructura factorial hipotetizada. Este resultado no es
48

inesperado. En efecto, como se describió en la sub-sección 3.2.4, el PTE es el único de los
cuestionarios empleados sobre el cual no existen artículos académicos publicados que reporten
sus niveles de confiabilidad y estructura de factores. Con todo, el análisis realizado para este
instrumento entrega niveles de confiabilidad y estructura de factores razonables. En conclusión,
los resultados de los análisis de confiabilidad y validez muestran que los instrumentos se adecuan
razonablemente con estudiantes y profesores chilenos; y que, por lo tanto, es apropiado realizar
mayores análisis con ellos. La próxima sección analiza las asociaciones entre las percepciones y
formas de abordar el aprendizaje y la docencia; y cómo se asocian las experiencias de aprendizaje
de los estudiantes con las experiencias de docencia de los profesores.

5 La experiencia de aprendizaje y docencia de estudiantes y profesores
universitarios, y las asociaciones entre ambas

En esta sección se presentan los resultados de los análisis realizados sobre la experiencia de
aprendizaje de los estudiantes y la experiencia de docencia de los profesores, y las asociaciones
entre ambas. La primera parte está asociada al objetivo específico “Determinar el tipo de relación
existente entre las percepciones que tienen los profesores y los estudiantes sobre el contexto
educativo y su relación con los enfoques de enseñanza y los enfoques de aprendizaje que
adoptan”. En esta parte se indaga, en primer lugar, en la experiencia de aprendizaje de los
estudiantes. Se presentan los resultados de los análisis de correlación y conglomerados,
realizados sobre las escalas de los cuestionarios SPQ y CEQ. Luego, se presentan los análisis
realizados sobre la experiencia de aprendizaje de los profesores. En esta sub-sección también se
presentan análisis de correlación y de conglomerados, llevados a cabo sobre las escalas de los
cuestionarios ATI y PTE. En la segunda parte, asociada al objetivo específico “Explorar si existe
relación entre los enfoques de enseñanza de los profesores y enfoques de aprendizaje de los
estudiantes y las percepciones que estos actores tienen sobre el contexto educativo”, se realiza un
análisis de conglomerados a nivel de cursos para establecer el tipo de relación entre la
experiencia de docencia de los profesores y la experiencia de aprendizaje de los estudiantes. La
sección termina con un breve resumen y conclusión de los resultados presentados.

49

5.1 La experiencia de aprendizaje de los estudiantes universitarios 
En esta subsección se presentan los resultados de los análisis de correlación y de conglomerados
realizados para indagar las asociaciones entre formas de abordar el aprendizaje y las percepciones
sobre la situación en que este se lleva a cabo.

5.1.1 Análisis de correlación 
La tabla 11 presenta los resultados del análisis de correlación entre las escalas del cuestionario
SPQ y el cuestionario CEQ. La inspección de la matriz de correlaciones muestra varios
resultados que destacar. En primer lugar, existe una correlación negativa y significativa entre las
escalas “Aprendizaje Superficial” y “Aprendizaje Profundo” (r = -.408). En segundo lugar, existe
una asociación negativa y significativa entre la escala “Aprendizaje Superficial” y las todas las
escalas del CEQ (“Buena Docencia”, r = -.247; “Metas y Objetivos Claros”, r = -.256;
“Evaluación Apropiada”, r = -.464, “Carga de Trabajo Apropiada”, r = -.190 e “E-learning”, r = -
.118); y una asociación positiva y significativa entre la escala “Aprendizaje Profundo” y “Buena
Docencia”, r = .323; “Metas y Objetivos Claros”, r = .288; “Evaluación Apropiada”, r = .124; e
“E-learning”, r = .205. No existe una correlación significativa entre la escala “Aprendizaje
Profundo” y “Carga de Trabajo Apropiada”. En tercer lugar, existen asociaciones positivas y
significativas entre todas las escalas del CEQ, lo que da cuenta de la consistencia interna de sus
escalas. Entre estas asociaciones destacan aquellas entre “Buena Docencia” y “Metas y Objetivos
Claros”, r = .592; “Buena Docencia” y “Evaluación Apropiada”, r = .392, y “Buena Docencia” e
“E-learning”, r = .371.

Tabla 11: Asociaciones entre las formas de abordar el aprendizaje y la experiencia del curso

Escalas

AS

AP

BD

MOC

EA

CTA

EL


Formas de abordar el aprendizaje

1. “Aprendizaje Superficial” (AP) 1 -.408** -.247** -.256
**
-.464
**
-.190
**
-.118
**

2. “Aprendizaje Profundo” (AS) 1 .323
**
.288
**
.124
**
-.037 .205
**

50


Experiencia del curso

3. “Buena docencia” (BD) 1 .592
**
.392
**
.178
**
.371
**

4. “Metas y Objetivos Claros” (MOC) 1 .311
**
.251
**
.299
**

5. “Evaluación Apropiada” (EA) 1 .271
**
.114
**

6. “Carga de Trabajo Apropiada”
(CTA)
1 .089
**

7. “E-learning” (EL)

1
n=1686. *p<0.05 (bilateral); **p<0.01 (bilateral)

5.1.2 Análisis de conglomerados 
La tabla 12 presenta los resultados del análisis de conglomerados realizado para indagar si
existen experiencias cualitativamente distintas, entre los estudiantes que participaron en el
estudio, en relación a cómo abordan el aprendizaje y las percepciones del contexto en que este se
lleva a cabo. En la tabla se presentan los promedios estandarizados y la desviación estándar para
las escalas en cada grupo. Además, se presenta el resultado de los t-tests realizados para
establecer si existen diferencias estadísticamente significativas entre los grupos que emergen del
análisis.

La solución de dos conglomerados emergió como la más parsimoniosa y teóricamente coherente.
En esta solución, el grupo 1 puede ser caracterizado como un grupo de estudiantes que presenta
un promedio relativamente bajo en la escala “Aprendizaje Superficial” y relativamente alto en las
escalas “Aprendizaje Profundo”, “Buena Docencia”, “Metas y Objetivos Claros”, “Evaluación
Apropiada”, “Carga de Trabajo Apropiada” e “E-learning”. Por el contrario, los estudiantes en el
grupo 2 presentan un promedio relativamente alto en la escala “Aprendizaje Superficial” y
relativamente bajo en las escalas “Aprendizaje Profundo”, Buena Docencia, “Metas y Objetivos
Claros”, “Evaluación Apropiada”, “Carga de Trabajo Apropiada” e “E-learning”. Los resultados
del t-test indican diferencias significativas entre los conglomerados en todas las escalas al nivel
de p<0.01.

51

Tabla 12: Resumen de estadísticos del análisis de conglomerados

Grupo 1 (n=891)


Grupo 2 (n=792)


Escalas

M

DS


M

DS

t-test

Formas de abordar el aprendizaje

1. “Aprendizaje Superficial” -.52 .80 .59 .86 -27.190**
2. “Aprendizaje Profundo” .43 .81 -48 .97 20.752**

Experiencia del curso


3. “Buena docencia” .46 .75 -.52 .99 22.673**
4. “Metas y Objetivos Claros” .48 .76 -.54 .97 23.814**
5. “Evaluación Apropiada” .49 .67 -.55 1.02 24.609**
6. “Carga de Trabajo Apropiada” .21 .94 -.24 1.01 9.221**
7. “E-learning”

.23 .93 -.25 1.02 10.069**
n=1683. *p<0.05; **p<0.01

Para perfilar los grupos que emergieron del análisis se generaron tablas de contingencia y se
realizaron análisis de χ², tomando en cuenta variables incluidas como información adicional en
los cuestionarios para estudiantes. Los resultados, presentados en la tabla 13, muestran
diferencias significativas en las variables “Sexo”, “Área disciplinaria” y “Primera vez que realiza
el curso”. Por otro lado, no existen diferencias significativas en las variables “Estuvo antes en
otra carrera” y “Primero de su familia en asistir a la universidad”.






52

Tabla 13: Perfilamiento de los conglomerados




Grupo 1 (n=891)

Grupo 2 (n=792)

χ²

Sexo (válidos 1683)
Masculino 44.0% 56.0% 38.790**
Femenino 59.4% 40.6%

Área disciplinaria (válidos 1661)
Ciencias Sociales y Humanidades 60.3% 39.7% 35.098**
Ciencias y Tecnología 45.8% 55.2%

Primera vez que realiza el curso (válidos 1674)
Si 53.6% 46.4% 5.183*
No 41.7% 58.3%

Estuvo antes en otra carrera (válidos 1683)
Si 55.6% 44.4% 1.376
No 52.1% 47.9%

Primero de su familia en asistir a la universidad (válidos 1683)
Si 53.2% 46.8% 0.002
No 53.1% 46.9%


*p<0.05; **p<0.01

Estos resultados sugieren que aquellos estudiantes que abordan su aprendizaje de manera
profunda son aquellos que simultáneamente perciben que los elementos de la experiencia del
curso son apropiados (grupo 1). Además, es más probable que se trate de estudiantes mujeres
que se encuentran realizando por primera vez cursos del área de Ciencias Sociales. Por otro lado,
aquellos estudiantes que abordan su aprendizaje de manera superficial son aquellos que
simultáneamente perciben que los elementos de la experiencia del curso no son apropiados
(grupo 2). Al mismo tiempo, hay una mayor probabilidad que se trate de estudiantes hombres en
cursos del área de Ciencia y Tecnología.

53

5.2 La experiencia de docencia de los profesores universitarios 
En esta sub-sección se presentan los resultados de los análisis de correlación y de conglomerados
realizados para indagar asociaciones entre las formas de abordar la docencia y las percepciones
sobre la situación en que la docencia se lleva a cabo. Se presentan, para cada análisis, dos tablas:
una con los resultados del análisis que incluyó todos los cuestionarios disponibles (proyecto
CNED + otros) y una solo con los cuestionarios de profesores levantados en este proyecto.

5.2.1 Análisis de correlación 
La tabla 14 muestra los resultados del análisis de correlaciones entre las escalas de los
cuestionarios ATI y PTE tomando como base todos los cuestionarios disponibles.

Tabla 14: Asociaciones entre las escalas de ATI y el PTE

Escalas

ITTF

CCSF

SC

TC

TP


DV


Formas de abordar la docencia


1. “Docencia centrada en la Transmisión de
Información y el Profesor” (ITTF)
1 -.055 -.314** -.226** .093 .085
2. “Docencia centrada en el Cambio
Conceptual y el Estudiante” (CCSF)
1 .238** .263** .056 .128

Percepción sobre el contexto de la docencia


3. “Características de los Estudiantes” (SC) 1 .440** .167** .112
4. “Control sobre la Docencia” (TC) 1 .110 .103
5. “Presiones de Tiempo” (TP) 1 .205*
6. “Visión de la Unidad Académica sobre la
Docencia” (DV)

1
n=248 (ATI), 138 (ATI + PTE). *p<0.05 (bilateral); **p<0.01 (bilateral)

54

Aspectos a destacar de la tabla 14 son los siguientes. Primero, existen asociaciones negativas y
significativas entre las escalas “Docencia Centrada en la Transmisión de Información y el
Profesor” y “Características de los Estudiantes”, r = -.314; y “Control sobre la Docencia”, r = -
.226. Segundo, existen asociaciones positivas y significativas entre las escalas “Docencia
centrada en el Cambio Conceptual y el Estudiante” y las escalas “Características de los
Estudiantes”, r = .238 y “Control sobre la Docencia”, r = .263. Tercero, existen asociaciones
positivas y significativas entre las escalas “Características de los Estudiantes” y “Control sobre la
Docencia”, r = .440 y “Presiones de Tiempo”, r = .167. Finalmente, existe una asociación
positiva y significativa entre la escala “Presiones de Tiempo” y “Visión de la Unidad Académica
sobre la Docencia”, r = .205.

La tabla 15 presenta un análisis de correlación similar al presentado en la tabla anterior, pero en
este caso empleando solo la información levantada para el proyecto CNED.
Tabla 15: Asociaciones entre las escalas de ATI y el PTE

Escalas

ITTF

CCSF

SC

TC

TP

DV


Formas de abordar la docencia


1. “Docencia centrada en la Transmisión de
Información y el Profesor” (ITTF)
1 -.115 -.423** -.216 -.011 .083
2. “Docencia centrada en el Cambio
Conceptual y el Estudiante” (CCSF)
1 .143 .246 .063 .053

Percepción sobre el contexto de la docencia


3. “Características de los Estudiantes” (SC) 1 .505**

.232 .158
4. “Control sobre la Docencia” (TC) 1 .240 .135
5. “Presiones de Tiempo” (TP) 1 .256
6. “Visión de la Unidad Académica sobre la
Docencia” (DV)

1
55

n=59. *p<0.05 (bilateral); **p<0.01 (bilateral)

La tabla 15 presenta los siguientes aspectos a destacar. Existen asociaciones negativas y
significativas entre las escalas “Docencia Centrada en la Transmisión de Información y el
Profesor” y “Características de los Estudiantes”, r = -.423; y positivas y significativas entre la
escala “Características de los Estudiantes” y “Control sobre la Docencia”, r = .505.

5.2.2 Análisis de conglomerados 
En la tabla 16 se presenta un resumen de los resultados del análisis de conglomerados que se
llevó a cabo para identificar experiencias de docencia cualitativamente diferentes. Este análisis se
realizó con 138 casos, obtenidos del proceso de levantamiento del estudio CNED y otros. La
tabla presenta los promedios estandarizados y desviación estándar de cada grupo en las escalas
incorporadas al análisis. También se presentan los resultados de los t-tests realizados para
establecer si existen diferencias estadísticamente significativas entre los grupos identificados.

Los resultados muestran dos grupos de profesores. El primero (n=57) puede ser descrito como
uno que presenta un promedio relativamente alto en la escala “Docencia Centrada en la
Transmisión de Información y el Profesor” y relativamente bajo en la escala “Docencia Centrada
en el Cambio Conceptual y el Alumno”; y que, además, presenta promedios relativamente bajos
en las escalas “Características de los Estudiantes”, “Control sobre la docencia”, “Presiones de
Tiempo” y “Visión de la Unidad Académica sobre la Docencia”. En contraste, el segundo grupo
(n=81) presenta un promedio relativamente bajo en escala “Docencia Centrada en la Transmisión
de Información y el Profesor” y relativamente alto en la escala “Docencia Centrada en el Cambio
Conceptual y el Alumno”. Además, este grupo presenta promedios relativamente altos en todas
las escalas “Características de los Estudiantes”, “Control sobre la docencia”, “Presiones de
Tiempo” y “Visión de la Unidad Académica sobre la Docencia”. Los t-tests muestran diferencias
significativas entre ambos grupos en todas las escalas al nivel de p<0.01.



56

Tabla 16: Resumen de estadísticos del análisis de conglomerados

Grupo 1 (n=57)


Grupo 2 (n=81)


Escalas

M

DS


M

DS

t-test


Formas de abordar la docencia


1. “Docencia centrada en la Transmisión de
Información y el Profesor”
.12 .80 -.47 .89 4.057**
2. “Docencia centrada en el Cambio
Conceptual y el Estudiante”
-.40 .78 .27 .78 -4.946**

Percepción sobre el contexto de la docencia


3. “Características de los Estudiantes” -.69 .97 .48 .70 -7.840**
4. “Control sobre la Docencia” -.79 .97 .56 .54 -10.435**
5. “Presiones de Tiempo” -34 .96 .24 .96 -3.473**
6. “Visión de la Unidad Académica sobre la
Docencia”

-.21 .81 .15 1.10 -2.232**
n=138. *p<0.05; **p<0.01

Con el objetivo de perfilar los conglomerados presentados en la tabla 16 se generaron tablas de
contingencia y se realizaron análisis de χ². Para esto se emplearon variables incluidas como
información adicional en los cuestionarios para profesores. Los resultados, presentados en la
tabla 17, muestran que no se verificaron diferencias significativas en estas variables.

Los resultados presentados en las tablas 16 y 17 sugieren que los profesores que abordan la
docencia centrándose en transmitir información y lo que ellos hacen son los que simultáneamente
presentan una percepción negativa de las dimensiones asociadas a su contexto de docencia. Por el
contrario, aquellos que la abordan centrándose en lo que alumno hace y en apoyarlos en realizar
procesos de cambio conceptual son los que simultáneamente perciben que su contexto de
57

docencia es apropiado. Además, no se presentaron diferencias significativas en ninguna de las
variables adicionales preguntadas en los cuestionarios; aunque es importante destacar que “Área
disciplinaria” presentó un valor significativo cuando este se establece al 90%.

Tabla 17: Perfilamiento de los conglomerados




Grupo 1 (n=57)

Grupo 2 (n=81)

χ²

Sexo (válidos 138)
Masculino 40.8% 59.2% 0.018
Femenino 41.9% 58.1%

Jerarquía académica (válidos 116)
Instructor 31.6% 68.4% 2.459
Asistente/auxiliar 39.6% 60.4%
Asociado/adjunto 51.4% 48.6%
Titular 35.7% 64.3%

Grado académico (válidos 138)
Licenciado 37.5% 62.5% 1.773
Magister 47,5% 52.5%
Doctor 35.8% 64.2%

Años de experiencia docente (válidos 138)
Entre 1 y 5 50.0% 50.0% 6.625
Entre 6 y 10 25.8% 74.2%
Entre 11 y 15 26.7% 73.3%
16 hacia arriba 48.1% 51.9%

Capacitación en docencia (válidos 123)
Si 46.5% 53.5% 0.453
No 40.4% 59.6%

Área disciplinaria (válidos 138)
Ciencias Sociales y Humanidades 34.7% 65.3% 2.644
Ciencias y Tecnología 48.4% 51.6%

58

*p<0.05; **p<0.01

En la tabla 18 se presentan los resultados del análisis de conglomerados realizado solamente con
los profesores que participaron en el proyecto CNED. Al igual que en la tabla 16, se presentan los
promedios estandarizados y la desviación estándar de cada grupo en las escalas incorporadas al
análisis. También se presenta el resultado de los t-tests realizados para establecer si existen
diferencias estadísticamente significativas entre los grupos identificados. Los resultados muestran
dos grupos de profesores. El primero (n=25) presenta un promedio relativamente alto en la escala
“Docencia Centrada en la Transmisión de Información y el Profesor” y relativamente bajo en la
escala “Docencia Centrada en el Cambio Conceptual y el Estudiante”. Además, este grupo
presenta promedios relativamente bajos en todas las escalas del cuestionario PTE
(“Características de los Estudiantes”, “Control sobre la docencia”, “Presiones de Tiempo” y
“Visión de la Unidad Académica sobre la Docencia”). Por el contrario, el segundo grupo (n=34)
presenta un promedio relativamente bajo en escala “Docencia Centrada en la Transmisión de
Información y el Profesor” y relativamente alto en la escala “Docencia Centrada en el Cambio
Conceptual y el Alumno”. Al mismo tiempo, es posible observar promedios relativamente altos
en las escalas “Características de los Estudiantes”, “Control sobre la docencia”, “Presiones de
Tiempo” y “Visión de la Unidad Académica sobre la Docencia”. Los t-tests muestran diferencias
significativas entre ambos grupos en todas las escalas del cuestionario PTE, salvo en la escala
“Visión de la Unidad Académica sobre la Docencia”. Cabe destacar, sin embargo, que esta escala
se haya muy próxima al nivel de significancia usado habitualmente. Por lo tanto, estos resultados
son similares a los presentados en la tabla 15.











59


Tabla 18: Resumen de estadísticos del análisis de conglomerados

Grupo 1 (n=25)


Grupo 2 (n=34)



Escalas

M

DS


M

DS

t-test


Formas de abordar la docencia


1. “Docencia centrada en la Transmisión de
Información y el Profesor”
.02 .80 -.49 .98 2.145*
2. “Docencia centrada en el cambio
conceptual y el alumno”
-.39 .81 .15 .76 -2.600*

Percepción sobre el contexto de la docencia


3. “Características de los Estudiantes” -.35 .99 .66 .56 -4.623**
4. “Control sobre la Docencia” -.91 .99 .47 .61 -6.152**
5. “Presiones de Tiempo” -.56 .83 .26 1.05 -.3.207**
6. “Visión de la Unidad Académica sobre la
Docencia”

-.20 .94 .26 1.07 -1.736
n=59. *p<0.05; **p<0.01

Para perfilar los conglomerados presentados en la tabla 18 se generaron tablas de contingencia y
se realizaron análisis de χ². Se emplearon las variables incluidas como información adicional en
los cuestionarios para profesores. Los resultados, presentados en la tabla 19, muestran que no hay
diferencias significativas en estas variables.

Los resultados presentados en las tablas 18 y 19 sugieren que, para los profesores encuestados en
el contexto del proyecto CNED, se mantienen los resultados de los análisis presentados en las
tablas 16 y 17 (realizados con todos los casos disponibles). Es decir, que aquellos profesores que
abordan la docencia centrándose en lo que ellos hacen y en transmitir información son los que
60

simultáneamente presentan una percepción negativa de las dimensiones asociadas a su contexto
de docencia; y que, por otro lado, aquellos que la abordan centrándose en lo que alumno hace y
en apoyarlos en realizar procesos de cambio conceptual simultáneamente perciben que su
contexto de docencia es apropiado. Además, tampoco para el grupo de profesores del proyecto
CNED se verificaron diferencias significativas en las variables usadas para perfilar los
conglomerados.

Tabla 19: Perfilamiento de conglomerados




Grupo 1 (n=25)

Grupo 2 (n=34)

χ²

Sexo (válidos 59)
Masculino 50.0% 50.0% 1.666
Femenino 33.3% 66.7%

Jerarquía académica (válidos 51)
Instructor 25.0% 75.0% 3.804
Asistente/auxiliar 54.2% 45.8&
Asociado/adjunto 54.5% 45.5%
Titular 25.0% 75.0%

Grado académico (válidos 59)
Licenciado 33.3% 66.7% 1.284
Magister 50.0% 50.0%
Doctor 36.0% 44.0%

Años de experiencia docente (válidos 59)
Entre 1 y 5 58.8% 41.2% 2.859
Entre 6 y 10 37.5% 62.5%
Entre 11 y 15 25.0% 75.0%
16 hacia arriba 36.4% 63.6%

Capacitación en docencia (válidos 54)
Si 47.4% 52.6% 0.444
No 37.5% 62.5%

61

Área disciplinaria (válidos 59)
Ciencias Sociales y Humanidades 37.5% 62.5% 0.680
Ciencias y Tecnología 48.1% 59.9%

*p<0.05; **p<0.01

5.3 Asociaciones  entre  la  experiencia de  aprendizaje  de  los  estudiantes  y  la  experiencia 
de aprendizaje de los profesores  

En esta sección se presentan los resultados del análisis de conglomerados realizado para indagar
si existen asociaciones entre la experiencia de aprendizaje de los estudiantes y la experiencia de
docencia de los profesores. Se avanza desde analizar estas experiencias en estudiantes o
profesores por separado a analizarlas en conjunto al nivel de cursos específicos. La tabla 20
muestra estos resultados. En ella se presentan los promedios estandarizados y la desviación
estándar de cada grupo en las escalas de los cuestionarios para profesores y estudiantes
incorporadas al análisis. También se presentan los resultados de los t-tests realizados para indagar
si existen diferencias estadísticamente significativas entre los grupos identificados. En el caso de
los estudiantes se trabajó con el promedio del curso para cada escala. En el caso de los profesores
se trabajo con los puntajes individuales o con los promedios en aquellos casos en que había más
de un profesor (4 cursos).

Tabla 20: Resumen de estadísticos del análisis de conglomerados

Grupo 1 (n=33)


Grupo 2 (n=22)


Escalas

M

DS


M

DS

t-test

ESTUDIANTES

Formas de abordar el aprendizaje
1. “Aprendizaje Superficial” -.66 .52 .99 .67 -10.243**
2. “Aprendizaje Profundo” .52 .64 -.78 .95 5.622**

62

Experiencia del curso
3. “Buena Docencia” .54 .67 -.82 .85 6.599**
4. “Metas y Objetivos Claros” .48 .84 -.72 77 5.341**
5. “Evaluación Apropiada” .46 .56 -.68 1.13 4.381**
6. “Carga de Trabajo Apropiada” .31 .93 -.46 .93 2.967**
7. “E-learning” .13 1.02 -.19 .95 1.192

PROFESORES

Formas de abordar la docencia
8. “Docencia centrada en la Transmisión de
Información y el Profesor”
-.13 1.04 .19 .92 -1.181
9. “Docencia centrada en el Cambio
Conceptual y el Estudiante”
.26 1.00 -.39 .88 2.489*

Percepción sobre el contexto de la docencia

10. “Características de los Estudiantes” .05 .91 -.07 1.15 .407
11. “Control sobre la Docencia” .08 .87 -.12 1.18 .720
12. “Presiones de Tiempo” .15 1.08 -.23 .83 1.463
13. “Visión de la Unidad Académica sobre la
Docencia”

.23 1.03 -.34 .87 2.155*
n=55 cursos. *p<0.05; **p<0.01

Los resultados presentados en la tabla 20 muestran 2 grupos de cursos. En el primero (n=33) los
estudiantes presentan un puntaje promedio por curso relativamente bajo en la escala “Aprendizaje
Superficial” y relativamente alto en la escala “Aprendizaje Profundo”. También presentan
puntajes relativamente altos en las escalas “Buena Docencia”, “Metas y Objetivos Claros”,
“Evaluación Apropiada”, “Carga de Trabajo Apropiada”, e “E-learning”. En el mismo grupo de
cursos, los profesores presentan un puntaje relativamente bajo en la escala “Docencia Centrada
en la Transmisión de Información y el Profesor” y relativamente alto en la escala “Docencia
Centrada en el Cambio Conceptual y el Alumno”. Además, presentan puntajes relativamente
altos en las escalas “Características de los Estudiantes”, “Control sobre la docencia”, “Presiones
de Tiempo” y “Visión de la Unidad Académica sobre la Docencia”. Por el contrario, en el
segundo grupo (n=22) los estudiantes presentan promedios por curso relativamente altos en la
63

escala “Aprendizaje Superficial” y relativamente bajos en la escala “Aprendizaje Profundo”. Al
mismo tiempo, presentan puntajes promedio relativamente bajos en las escalas “Buena
Docencia”, “Metas y Objetivos Claros”, “Evaluación Apropiada”, “Carga de Trabajo
Apropiada”, e “E-learning”. Los profesores en este grupo presentan un puntaje relativamente alto
en la escala “Docencia Centrada en la Transmisión de Información y el Profesor” y relativamente
bajo en la escala “Docencia Centrada en el Cambio Conceptual y el Estudiante”. Además,
presentan puntajes relativamente bajos en las escalas “Características de los Estudiantes”,
“Control sobre la docencia”, “Presiones de Tiempo” y “Visión de la Unidad Académica sobre la
Docencia”. Los t-tests muestran diferencias estadísticamente significativas entre los grupos en las
escalas “Aprendizaje Superficial”, “Aprendizaje Profundo”, “Buena Docencia”, “Metas y
Objetivos Claros” y “Evaluación Apropiada”. Estas diferencias están al nivel de p<0.01.
Además, existen diferencias significativas al nivel p<0.05 en las escalas “Docencia Centrada en
el Cambio Conceptual y el Alumno” y “Visión de la Unidad Académica sobre la Docencia”. No
existen diferencias estadísticamente significativas en las escalas “E-learning”, “Docencia
Centrada en la Transmisión de Información y el Profesor”, “Características de los Estudiantes”,
“Control sobre la Docencia” y “Presiones de Tiempo”; aunque en estas cinco escalas los puntajes
están en la misma dirección que aquellas que si presentaron diferencias estadísticamente
significativas. Además, la escala “Presiones de Tiempo” se encuentra muy cercana al nivel de
significancia de p<0.05.

Con el objetivo de perfilar los grupos que emergieron del análisis de conglomerados se generaron
tablas de contingencia y se realizaron análisis de χ². Esto se realizó para verificar diferencias
estadísticamente significativas entre los grupos en base a variables incluidas como información
adicional en los cuestionarios para profesores y el área disciplinaria de los cursos. Los resultados
muestran que no existen diferencias significativas en las variables “Sexo”, “Jerarquía
Académica”, “Grado Académico” y “Años de Experiencia Docente”. Al mismo tiempo, se
verificaron diferencias significativas entre los grupos en las variables “Capacitación en
Docencia” y “Área Disciplinaria”.

64

Los resultados presentados en las tablas 20 y 21 sugieren que los cursos en los cuales los alumnos
en promedio tienen una mayor probabilidad de abordar su aprendizaje de manera profunda y
presentar percepciones positivas sobre el contexto en que se realiza son aquellos en los cuales los
profesores abordan la docencia centrándose en el cambio conceptual y el estudiante, y que
presentan percepciones positivas sobre el contexto en que se desarrolla la enseñanza. Además,
hay una mayor probabilidad que estos cursos se desarrollen en el área de las Ciencias Sociales y
Humanidades, y que los profesores que están a cargo hayan pasado por algún tipo de capacitación
en docencia. Por el contrario, los cursos en los cuales los alumnos presentan en promedio una
mayor probabilidad de abordar su aprendizaje de manera superficial son aquellos en los que se
presentan en promedio mayores percepciones negativas sobre el contexto en que el aprendizaje se
desarrolla, y en los cuales los profesores tienden abordar la docencia centrándose en la
transmisión de información. A su vez, es más probable que estos profesores presenten
percepciones negativas sobre su contexto de docencia. En este grupo de cursos hay una mayor
probabilidad de que los profesores no hayan asistido a actividades de capacitación en docencia y
que se realicen dentro del área de Ciencia y Tecnología.

Tabla 21: Perfilamiento de conglomerados




Grupo 1 (n=33)

Grupo 2 (n=22)

χ²

Sexo (válidos 54)
Masculino 52.0% 48.0% 3.138
Femenino 69.0% 31.0%

Jerarquía académica (válidos 48)
Instructor 75.0% 25.0% 2.554
Asistente/auxiliar 61.9% 38.1%
Asociado/adjunto 63.6% 36.4%
Titular 37.5% 62.5%

Grado académico (válidos 54)
Licenciado 50.0% 50.0% 2.460
Magister 69.6% 30.4%
65

Doctor 52.0% 48.0%

Años de experiencia docente (válidos 51)
Entre 1 y 5 46.2% 53.8% 2.482
Entre 6 y 10 73.3% 26.7%
Entre 11 y 15 50.0% 50.0%
16 hacia arriba 52.6% 47.4%

Capacitación en docencia (válidos 49)
Si 64.7% 35.3% 8.758*
No 33.3% 65.7%

Área disciplinaria (válidos 55)
Ciencias Sociales y Humanidades 79.3% 20.7% 9.531**
Ciencias y Tecnología 38.5% 61.5%

*p<0 **p<0.01

5.4 Resumen y conclusión 
.05;
En esta sección se presentaron análisis para indagar las asociaciones entre las percepciones del
contexto de aprendizaje o docencia; y las formas de abordar el aprendizaje y la docencia. Primero
se indagó la experiencia de los estudiantes y luego de los profesores. Los resultados mostraron
que tanto en las experiencias de los estudiantes como de los profesores emergen grupos bastante
claros. Para el caso de los estudiantes, se verificó que los estudiantes que abordan su aprendizaje
de manera profunda son aquellos que simultáneamente perciben que los elementos del contexto
de aprendizaje son apropiados. Además, es más probable que se trate de estudiantes mujeres
que se encuentran realizando por primera vez cursos del área de Ciencias Sociales. Por otro lado,
aquellos estudiantes que abordan su aprendizaje de manera superficial son aquellos que
simultáneamente perciben que los del contexto de aprendizaje no son apropiados. Estos
estudiantes eran, mayoritariamente, hombres en cursos del área de Ciencia y Tecnología. Para el
caso de los profesores los resultados mostraron que aquellos que abordan la docencia centrándose
en sus propias actividades y en la transmisión de información son los que simultáneamente
presentan una percepción negativa de las dimensiones asociadas a su contexto de docencia. Por
otro lado, aquellos que la abordan centrándose en el estudiante simultáneamente perciben que su
66

contexto de docencia es apropiado. Estas asociaciones se emergieron tanto con los resultados
obtenidos de la muestra CNED como del grupo CNED + otros. Las variables usadas para perfilar
los grupos que emergieron del análisis de conglomerados no arrojaron diferencias significativas.
En tercer lugar, se realizó un análisis para indagar las asociaciones entre las experiencias de los
estudiantes y los profesores. Este se llevo a cabo a nivel de cursos. Los resultados indicaron que
los cursos en que los estudiantes tienden a abordar su aprendizaje de manera profunda y presentar
percepciones positivas sobre el contexto en que se realiza son aquellos en los cuales los
profesores abordan la docencia centrándose en el cambio conceptual y el estudiante. Estos
profesores presentan percepciones positivas sobre el contexto de la docencia. Además, hay una
es probable que estos cursos se desarrollen en el área de las Ciencias Sociales y Humanidades, y
que los profesores hayan pasado por algún tipo de capacitación en docencia. Por el contrario, los
cursos en los cuales los estudiantes tienden a abordar su aprendizaje de manera superficial son
aquellos en los que se presentan mayoritariamente percepciones negativas sobre el contexto, y en
los cuales los profesores tienden abordar la docencia enfocados en la transmisión de información.
A su vez, es más probable que estos profesores presenten percepciones negativas sobre su
contexto de docencia. En este grupo de cursos es probable que los profesores no hayan asistido a
actividades de capacitación en docencia y que se realicen dentro del área de Ciencia y
Tecnología. En conclusión, estos resultados son importantes. Muestran claras asociaciones en las
experiencias de estudiantes y profesores, y en cómo estas están asociadas. Los resultados
presentados en esta sección están en línea con la línea de investigación que sigue este proyecto, e
indican que el modelo propuesto es adecuado cuando se utiliza con estudiantes y profesores
chilenos.

6 Relaciones entre las escalas del “Course Experience Questionnaire” (CEQ) y el
“Study Process Questionnaire” (SPQ)

En esta sección, asociada al objetivo específico “Determinar el tipo de relación existente entre las
percepciones que tienen los profesores y los estudiantes sobre el contexto educativo y su relación
con los enfoques de enseñanza y los enfoques de aprendizaje que adoptan” se presentan los
resultados del path analysis realizado para mostrar el efecto de las percepciones del contexto de
67

aprendizaje, operacionalizadas a través de las escalas del CEQ, sobre el desarrollo de estrategias
de aprendizaje profundo o superficial (SPQ). Para ello, asumimos un modelo general donde las 5
escalas asociadas a las percepciones de los estudiantes poseen una incidencia por separado en las
estrategias de aprendizaje profundo y superficial. Este modelo lo aplicaremos a la muestra total
(subsección 6.1); a las sub-muestras asociadas al área disciplinaria donde se realiza el curso (sub-
sección 6.2); y a aquellos grupos encontrados a través del análisis de conglomerados presentado
en la subsección 5.1 (subsección 6.3).

6.1 Modelo general para la muestra total 
La figura 2 muestra los parámetros estimados del modelo general para la muestra total. En ella,
los valores normalizados para cada dependencia están representados entre paréntesis y aquellos
valores estadísticamente significativos están indicados por un asterisco (*).

Figura 2: Estimación de los parámetros del modelo general propuesto para CEQ y SPQ aplicado a la muestra
total



Los valores entre paréntesis corresponden a la solución normalizada y aquellos parámetros con un asterisco (*)
poseen significancia estadística (|t|>1.96).

El análisis de la figura 2 muestra que “Buena Docencia”, “Metas y Objetivos Claros” e “E-
learning” presentan una relación positiva con la escala “Aprendizaje Profundo”. Esto es,
promueven un aprendizaje de esta naturaleza. Mientras que “Carga de Trabajo Apropiada”
68

presenta una relación negativa con “Aprendizaje Profundo”. Es decir, desincentiva el desarrollo
de estrategias de aprendizaje profundo. Por otro lado, “Metas y Objetivos Claros”, “Evaluación
Apropiada” y “Carga de Trabajo Apropiada” están negativamente asociadas con la escala
“Aprendizaje Superficial”. Es decir, desincentivan el uso de estrategias de aprendizaje
superficial. “Evaluación Apropiada” es la escala con un efecto mayor inhibiendo el desarrollo de
estrategias de aprendizaje superficial, mientras que “Buena Docencia” es la que presenta una
incidencia mayor en el desarrollo de estrategias de aprendizaje profundo. Es interesante observar
que “Buena Docencia” no posee algún efecto estadísticamente significativo en el desarrollo de
estrategias de aprendizaje superficial y que “Evaluación Apropiada” posee un efecto muy leve,
no estadísticamente significativo, en las estrategias de aprendizaje profundo. De las cinco escalas
utilizadas en el CEQ, sólo dos producen un impacto en ambas estrategias (“Metas y Objetivos
Claros” y “Carga de Trabajo Apropiada”) y sólo una de ellas genera el impacto deseado en
ambas estrategias (“Metas y Objetivos Claros”). Estos resultados sugieren que una percepción
positiva de “Buena Docencia”, “Metas y Objetivos Claros”, y “Evaluaciones Apropiadas” puede
apoyar que los estudiantes adopten estrategias de aprendizaje profundo y desincentivar el uso de
estrategias de aprendizaje superficial. La tabla 22 presenta un resumen de las características y los
índices de ajuste para el modelo general aplicado a la muestra total.

Tabla 22: Valores para el tamaño de la muestra N, Normal Theory Weighted Least Squares Chi-Square χ
2
, grados de
libertad df, valores p, error cuadrado medio de la aproximación RMSEA, índice de ajuste normalizado NFI, índice
comparado de ajuste CFI y el índice para la calidad del ajuste GFI (muestra total)


Muestra Total

N

1683
χ
2
258.96
df 1
p 0.000
RMSEA 0.39
NFI 0.91
CFI 0.91
GFI 0.96

69

6.2 Modelo general por área disciplinaria 

La figura 3 muestra los resultados obtenidos para los parámetros del modelo aplicados por área
disciplinaria. Al igual que en la figura anterior, los valores entre paréntesis corresponden a la
solución normalizada y los valores estadísticamente significativos están indicados por un
asterisco (*).

Figura 3: Estimación de los parámetros del modelo general para CEQ y SPQ por área disciplinaria



Los valores entre paréntesis corresponden a la solución normalizada y aquellos parámetros con un asterisco (*)
poseen significancia estadística (|t|>1.96).

El análisis de la figura 3 permite observar lo siguiente. En primer lugar, considerando los
estudiantes de Ciencia y Tecnología, “Buena Docencia”, “Metas y Objetivos Claros” e “E-
learning” presentan un impacto positivo en las estrategias de aprendizaje profundo; mientras que
“Carga de Trabajo Apropiada” presenta un impacto negativo. Por otro lado, una percepción
positiva de las “Metas y Objetivos Claros” y “Evaluación Apropiada” desincentiva abordar el
aprendizaje de manera superficial. Las otras relaciones no son estadísticamente significativas. En
segundo lugar, considerando los estudiantes de Ciencias Sociales y Humanidades, “Evaluación
Apropiada” tiene un impacto negativo en adoptar estrategias de aprendizaje superficial, mientras
que “Buena Docencia” e “E-learning” presentan un impacto positivo en las estrategias de
aprendizaje profundo. “Carga de Trabajo Apropiada” presenta un impacto negativo sobre este
70

tipo de aprendizaje. En tercer lugar, existen aspectos comunes a ambos grupos. Estos son la
relación positiva de “Buena Docencia” e “E-learning” en “Aprendizaje Profundo”, y el impacto
negativo de “Carga de Trabajo Apropiada” en este tipo de aprendizaje. Además, es común el
impacto negativo de “Evaluación Apropiada” en que los estudiantes aborden el aprendizaje de
manera superficial (incluso los parámetros estimados en estas relaciones comunes son bastante
parecidos en algunos de ellos). En cuarto lugar, surgen diferencias al considerar las percepciones
sobre “Metas y Objetivos Claros”. Para los estudiantes de Ciencia y Tecnología promueve el
aprendizaje profundo y desincentiva el aprendizaje superficial. Para los estudiantes de Ciencias
Sociales y Humanidades, en cambio, no presenta ningún efecto significativo. Además, para los
estudiantes de Ciencia y Tecnología, “Metas y Objetivos Claros” presenta un efecto mayor que
“Buena Docencia” sobre la adopción de una forma profunda de aprendizaje. Para los estudiantes
del área de Ciencias Sociales y Humanidades, en cambio, “Buena Docencia” la que predomina en
promover un aprendizaje profundo. En resumen, para los estudiantes de Ciencias y Tecnología
predominan las “Metas y Objetivos Claros” sobre la “Buena Docencia” para incentivar el
aprendizaje profundo, mientras que para los estudiantes de “Ciencias Sociales y Humanidades”
predomina solamente la percepción positiva de una “Buena Docencia”. En ambos grupos, una
percepción positiva sobre “Evaluación Apropiada” inhibe el desarrollo de estrategias de
aprendizaje superficial. Además, en el caso de los estudiantes de Ciencia y Tecnología, una
percepción positiva de “Metas y Objetivos Claros” inhibe abordar el aprendizaje de manera
superficial. Notablemente, para ambos grupos “Carga de Trabajo Adecuada” desincentiva el
aprendizaje profundo; y la percepción positiva sobre el “E-Learning” lo incentiva. La tabla 23
presenta un resumen de las características y los índices de ajuste para el modelo general aplicado
a la muestra por áreas disciplinarias.






71

Tabla 23: Valores para el tamaño de la muestra N, Normal Theory Weighted Least Squares Chi-Square χ
2
,
grados de libertad df, valores p, error cuadrado medio de la aproximación RMSEA, índice de ajuste
normalizado NFI, índice comparado de ajuste CFI y el índice para la calidad del ajuste GFI (áreas
disciplinarias)


Ciencia y Tecnología

Ciencias Sociales y Humanidades

N

848

813
χ
2
126.38 113.66
df 1 1
p 0.000 0.000
RMSEA 0.39 0.37
NFI 0.89 0.90
CFI 0.89 0.90
GFI 0.96 0.95


6.3 Modelo general para los grupos identificados a través de análisis de conglomerados 

La figura 4 presenta los resultados obtenidos para la estimación de los parámetros del modelo
general aplicado a los grupos que emergen del análisis de conglomerados presentado en la sub-
sección 5.1. Al igual que en la figura anterior, los valores entre paréntesis corresponden a la
solución normalizada y los valores estadísticamente significativos están indicados por un
asterisco (*). La observación de la figura 4 permite afirmar lo siguiente. Primero, las relaciones
presentes en el grupo 1 tienden a promover las estrategias de aprendizaje profundo. Se observan
relaciones positivas entre “Buena Docencia” y “Metas y Objetivos Claros” con la escala
“Aprendizaje Profundo”; mientras que “Metas y Objetivos Claros”, “Evaluación Apropiada”,
“Carga de Trabajo Apropiada” e “E-learning” están negativamente asociadas con “Aprendizaje
Superficial”. La única excepción es la relación entre “Evaluación Apropiada” y “Aprendizaje
Profundo”; la cual, al ser negativa, revela que las percepciones sobre la evaluación tenderían,
simultáneamente, a desincentivar el desarrollo de estrategias de aprendizaje profundo. Segundo,
el grupo 2 tiende a presentar asociaciones que promueven el aprendizaje superficial. “Evaluación
Apropiada” y “Carga de Trabajo Apropiada” se relacionan negativamente con “Aprendizaje
Profundo”. Además, “Metas y Objetivos Claros” está relacionada positivamente con
72

“Aprendizaje Superficial”. Solo dos relaciones promueven, en este grupo, el aprendizaje
profundo: la relación positiva entre “E-learning” y “Aprendizaje Profundo” y la relación negativa
entre “Evaluación Apropiada” y “Aprendizaje Superficial”. Notablemente, para ambos grupos
percepciones positivas sobre “Evaluaciones Apropiada” tienden a desincentivar el aprendizaje
profundo.

Figura 4: Estimación de los parámetros del modelo general para CEQ y SPQ por grupos que emergen del
análisis de conglomerados



Los valores entre paréntesis corresponden a la solución normalizada y aquellos parámetros con un asterisco (*)
poseen significancia estadística (|t|>1.96).

La tabla 24 presenta un resumen de las características y los índices de ajuste para el modelo
general aplicado a la muestra de grupos identificados a través de análisis de conglomerados.

Tabla 24: Valores para el tamaño de la muestra N, Normal Theory Weighted Least Squares Chi-Square χ
2
,
grados de libertad df, valores p, error cuadrado medio de la aproximación RMSEA, índice de ajuste
normalizado NFI, índice comparado de ajuste CFI y el índice para la calidad del ajuste GFI (muestra por
grupos identificados a través de análisis de conglomerados)


Grupo 1

Grupo 2


N

891

792
χ
2
58.97 58.86
73

df 1 1
p 0.000 0.000
RMSEA 0.26 0.27
NFI 0.89 0.91
CFI 0.88 0.91
GFI 0.98 0.98
 
6.4 Resumen y conclusión 
En esta sección se realizó un path analysis tomando en consideración las escalas de los
instrumentos CEQ y SPQ. Los resultados mostraron lo siguiente. En primer lugar, a nivel de la
muestra total las percepciones positivas sobre “Evaluación Apropiada”, “Buena Docencia” y
“Metas y Objetivos Claros”, en ese orden, son las que más promueven el aprendizaje profundo.
En segundo lugar, al analizar la muestra dividiéndola entre estudiantes en Ciencia y Tecnología y
estudiantes en Ciencias Sociales y Humanidades, el impacto de las percepciones sobre estrategias
varía, predominado “Metas y Objetivos Claros” sobre “Buena Docencia”, en el grupo de Ciencia
y Tecnología, para promover el aprendizaje profundo; mientras que para los estudiantes de
Ciencias Sociales y Humanidades solo son relevantes las percepciones positivas de “Buena
Docencia”. En ambos grupos, percepción positiva sobre “Evaluación Apropiada” inhibe la
adopción de estrategias aprendizaje superficial. En tercer lugar, al dividir la muestra tomando los
grupos identificados a través de análisis de conglomerados se encontró que el grupo 1 presentaba
mayoritariamente percepciones positivas sobre los elementos de la experiencia del curso y que
estas promovían el aprendizaje profundo; mientras que en el grupo 2, sus percepciones sobre el
contexto del curso no promueven el aprendizaje profundo, sino que tienden a promover el
aprendizaje superficial. Finalmente, una percepción positiva del “E-Learning” en general
promovió a un nivel razonable la adopción del aprendizaje profundo y desincentivo el
aprendizaje superficial.



74

7. Variables demográficas y de contexto, y sus asociaciones con los procesos de
aprendizaje y docencia

Esta sección está asociada al objetivo específico “Establecer si los enfoques de aprendizaje y
enseñanza varían según el área disciplinar donde se desarrollan”. Se incorporan, a petición de la
contraparte revisora, otras variables. También se consideraron las escalas de los cuestionarios
sobre percepciones del contexto. Se indaga si existen diferencias significativas en los puntajes de
las escalas de cada uno de estos instrumentos en relación a variables demográficas y de contexto.
En primer lugar, se analiza si existen diferencias estadísticamente significativas en los puntajes
de las escalas de los cuestionarios SPQ y CEQ, para el caso de los estudiantes, al considerar las
variables “Sexo”, “Área Disciplinaria”, “Primera vez que realiza el Curso”, “Ha cursado otra
Carrera” y “Primero de su familia en asistir a la Universidad”. En segundo lugar, el mismo
análisis se realiza para el caso de los profesores, con las escalas de los cuestionarios ATI y PTE,
considerando las variables “Sexo”, “Área Disciplinaria”, “Grado Académico” y “Capacitación
en Docencia”. Estos análisis se realizaron usando t-tests o ANOVA.

7.1 Variables demográficas y de contexto, y sus asociaciones con el proceso de aprendizaje de
los estudiantes

En esta subsección se presentan los resultados de los análisis llevados a cabo para indagar si
existen diferencias significativas en los puntajes de las escalas de los cuestionarios SPQ y CEQ
cuando se consideran las variables “Sexo”, “Área Disciplinaria”, “Primera vez que realiza el
Curso”, “Ha cursado otra Carrera” y “Primero de su familia en asistir a la Universidad”. Cada
tabla presenta los puntajes promedio de las escalas para las variables mencionadas y el valor del
t-test realizado.

7.1.1 Variable “Sexo” 
La tabla 25 presenta el puntaje promedio obtenido en cada una de las escalas del SPQ y el CEQ
por parte de hombres y mujeres participantes en el estudio. Además, muestra los resultados de
los t-tests realizados para establecer si existen diferencias estadísticamente significativas entre
ellos.
75


Los resultados muestran lo siguiente. En primer lugar, se observan diferencias estadísticamente
significativas entre hombres y mujeres en ambas escalas del cuestionario SPQ (“Aprendizaje
Superficial”, t(1443.685)=7.83, p= .000; y “Aprendizaje Profundo”, t(1401.168)=-2.51, p= .012).
Lo que sugiere que, en promedio, las mujeres tenderían a abordar el aprendizaje de manera más
profunda que los hombres. En segundo lugar, se observan diferencias estadísticamente
significativas entre hombres y mujeres en las escalas “Buena Docencia”, t(1683)=-4.46, p=.000;
“Metas y Objetivos Claros”, t(1682)=-5.12, p=.000; e “E-learning”, t(1459,676)= -3.66, p=.000.
Además, es importante destacar que, para la escala “Evaluación Apropiada”, si bien no se
verifican diferencias estadísticamente significativa, el valor del t-test es cercano a los valores
habitualmente considerados significativos, t(1681)=-1.84, p=.066. Esto sugiere que las mujeres
tienden a tener una percepción más positiva respecto de la docencia, las metas y objetivos y el e-
learning.

Tabla 25: Valores promedio y t-tests para la variable “Sexo”

Hombres

Mujeres

(n=703) (n=982)
Escalas M

M t-test

Cuestionario SPQ
1. “Aprendizaje Superficial” 2.79 2.54 7.83 (.000)**
2. “Aprendizaje Profundo” 3.41 3.48 -2.51 (.012)*

Cuestionario CEQ
3. “Buena Docencia” 3.33 3.51 -4.46 (.000)**
4. “Metas y Objetivos Claros” 3.48 3.68 -5.12 (.000)**
5. “Evaluación Apropiada” 3.65 3.74 -1.84 (.066)
6. “Carga de Trabajo Apropiada” 2.79 2.78 .31 (.762)
7. “E-learning”

3.09 3.25 -3.66 (.000)**
*p<0.05; **p<0.01

76

7.1.2 Variable “Área Disciplinaria” 
La tabla 26 presenta el puntaje promedio obtenido en cada una de las escalas del SPQ y el CEQ
tomando en cuenta el área disciplinaria. Además, muestra los resultados de los t-tests realizados
para establecer si existen diferencias estadísticamente significativas en cada escala considerando
si los participantes estaban en un curso del área “Ciencia y Tecnología” o “Ciencias Sociales y
Humanidades”.

Tabla 26: Valores promedio y t-tests para la variable “Área Disciplinaria”

Ciencia y Tecnología

Ciencias Sociales y
Humanidades

(n=868) (n=817)
Escalas M

M t-test

Cuestionario SPQ
1. “Aprendizaje Superficial” 2.75 2.54 6.84 (.000)**
2. “Aprendizaje Profundo” 3.40 3.51 -4.48 (.000)**

Cuestionario CEQ
3. “Buena Docencia” 3.33 3.54 -5.30 (.000)**
4. “Metas y Objetivos Claros” 3.51 3.69 -4.65 (.000)**
5. “Evaluación Apropiada” 3.60 3.82 -4.42 (.000)**
6. “Carga de Trabajo Apropiada” 2.67 2.91 -6.61 (.000)**
7. “E-learning”

3.15 3.22 -1.44 (.149)
*p<0.05; **p<0.01

Los resultados de la tabla 26 muestran que los estudiantes del área “Ciencia y Tecnología”
tienden a abordar, en promedio, su aprendizaje de manera más superficial que los del área de
“Ciencias Sociales y Humanidades”, t(1681.080)= 6.84, p=.000. Por otro lado, los estudiantes del
área de las “Ciencias Sociales y Humanidades” abordan el aprendizaje de manera más superficial
que los del área las “Ciencias y Tecnología”, t(1683)= -4.48, p=.000. Además, al considerar las
escalas del cuestionario CEQ, se observan diferencias significativas en todas las escalas con la
excepción de “E-learning”. Los estudiantes de cursos del área de “Ciencias Sociales y
77

Humanidades” presentan puntajes más altos y estadísticamente significativos en las escalas
“Buena Docencia”, t(1641.899)= -5.30, p= .000; “Metas y Objetivos Claros”, t(1625.109)= -4.65,
p= .000; “Evaluación Apropiada” t(1681)= -4.42, p= .000; y “Carga de Trabajo Apropiada”,
t(1682)= -6.61, p= .000.

Estos resultados indican que es más probable que los estudiantes de cursos del área de “Ciencias
Sociales y Humanidades” aborden su aprendizaje de manera profunda y presenten una percepción
positiva de su contexto de aprendizaje; mientras que los estudiantes de cursos del área de
“Ciencia y Tecnología” tienen una mayor probabilidad de abordar su aprendizaje de manera
superficial y presentar una percepción negativa de su contexto de aprendizaje.

7.1.3 Variable “Primera vez que realiza el curso” 
La tabla 27 presenta el puntaje promedio obtenido en cada una de las escalas del SPQ y el CEQ
tomando en consideración si es la primera vez que el estudiante realiza el curso. Además, muestra
los resultados de los t-tests realizados para establecer si existen diferencias estadísticamente
significativas en cada escala.

Tabla 27: Valores promedio y t-tests para la variable “Primera vez que realiza el curso”

Si

No

(n=1581) (n=96)
Escalas M

M t-test

Cuestionario SPQ
1. “Aprendizaje Superficial” 2.63 2.84 -3.08 (.002)*
2. “Aprendizaje Profundo” 3.45 3.44 .21 (.837)

Cuestionario CEQ
3. “Buena Docencia” 3.35 3.14 2.97 (.004)*
4. “Metas y Objetivos Claros” 3.61 3.46 2.35 (.019)*
5. “Evaluación Apropiada” 3.71 3.52 1.54 (.128)
6. “Carga de Trabajo Apropiada” 2.81 2.41 5.03 (.000)**
78

7. “E-learning”

3.19 3.11 .86 (.393)
*p<0.05; **p<0.01

Aspectos a destacar de la tabla 27 son los siguientes Primero, los estudiantes que realizaban el
curso no por primera vez tenderían a abordar su aprendizaje de manera más superficial, t(1675)=
-3.08, p= .002. Segundo, se observan diferencias significativas en las escalas “Buena Docencia”,
t(102.411)= 2.97, p= .004; “Metas y Objetivos Claros”, t(1674)= 2.35, p= .019; y “Carga de
Trabajo Apropiada”, t(1674)= 5.03, p= .000, lo que indica que aquellos estudiantes que participan
en el curso por primera vez tienden a percibir más positivamente aspectos centrales de la
situación de aprendizaje.

7.1.4 Variable “Ha cursado otra carrera” 
La tabla 28 presenta el puntaje promedio obtenido en cada una de las escalas del SPQ y el CEQ
considerando si los estudiantes cursaron o no una carrera antes. Además, muestra los resultados
de los t-tests realizados para establecer si existen diferencias estadísticamente significativas en
cada escala.

Tabla 28: Valores promedio y t-tests para la variable “Ha cursado otra carrera”

Si

No

(n=370) (n=1309)
Escalas M

M t-test

Cuestionario SPQ
1. “Aprendizaje Superficial” 2.58 2.66 -1.97 (.049)**
2. “Aprendizaje Profundo” 3.48 3.44 1.05 (.295)

Cuestionario CEQ
3. “Buena Docencia” 3.46 3.42 .66 (.507)
4. “Metas y Objetivos Claros” 3.61 3.59 .36 (.721)
5. “Evaluación Apropiada” 3.74 3.69 .80 (.424)
6. “Carga de Trabajo Apropiada” 2.83 2.77 1.31 (.192)
79

7. “E-learning”

3.20 3.18 .44 (.659)
*p<0.05; **p<0.01

La tabla 28 muestra diferencias estadísticamente significativas en el puntaje de la escala
“Aprendizaje Superficial” si se comparan los resultados entre estudiantes que han cursados otras
carreras y aquellos que no, t(1677)= -1.97, p= .049. Este resultado sugiere que los alumnos que
han cursado otra carrera antes tienden a abordar el aprendizaje más superficialmente que
aquellos que solo han cursado una. No hubo diferencias estadísticamente significativas en
ninguna de las otras escalas.

7.1.5 Variable “Primero de su familia en asistir a la universidad” 
La tabla 29 presenta el puntaje promedio obtenido en cada una de las escalas del SPQ y el CEQ
considerando si el estudiante es el primero de su familia en acceder a la Universidad. También
muestra los resultados de los t-tests realizados para establecer si existen diferencias
estadísticamente significativas en cada escala.

Resultados a destacar son los siguientes. Los estudiantes que son primera generación en la
Universidad presentan puntajes promedio superiores, en la escala “Aprendizaje Profundo”, a
aquellos que son segunda generación o más. Estas diferencias son estadísticamente significativas,
t(1061.838)= 3.18, p= .001). Además, existen diferencias estadísticamente significativas en las
escalas “Carga de Trabajo Apropiada”, t(1671)=-3.26, p=.001; e “E-learning”, t(1670)= -2.31,
p=.021. Es decir, los estudiantes que no son de primera generación en la Universidad perciben de
manera positiva el uso de e-learning y una carga de trabajo más apropiada en comparación a
aquellos estudiantes que si son lo son.






80

Tabla 29: Valores promedio y t-tests para la variable “Primero de su familia en asistir a la universidad”

Si

No

(n=513) (n=1161)
Escalas M

M t-test

Cuestionario SPQ
1. “Aprendizaje Superficial” 2.65 2.64 .40 (.691)
2. “Aprendizaje Profundo” 3.51 3.43 3.18 (.001)*

Cuestionario CEQ
3. “Buena Docencia” 3.41 3.45 -.89 (.372)
4. “Metas y Objetivos Claros” 3.59 3.60 -.26 (.795)
5. “Evaluación Apropiada” 3.67 3.72 -.95 (.344)
6. “Carga de Trabajo Apropiada” 2.70 2.83 -3.26 (.001)*
7. “E-learning”

3.11 3.22 -2.31 (.021)*
*p<0.05; **p<0.01

7.2 Variables demográficas y de contexto, y sus asociaciones con el proceso de docencia de
los profesores

En esta subsección se presentan los resultados de los análisis llevados a cabo para indagar si
existen diferencias significativas en los puntajes de las escalas de los cuestionarios ATI y PTE,
cuando se consideran las variables “Sexo”, “Área Disciplinaria”, “Grado Académico” y
“Capacitación en Docencia”. Cada tabla presenta los puntajes promedio de las escalas para las
variables mencionadas y el valor del t-test o ANOVA realizado. En el caso de los profesores, el
número de encuestados en el contexto del estudio CNED fue bajo. Por esta razón, se emplearon
cuestionarios aplicados como parte de otros estudios. Por lo tanto, la presentación de los
resultados considera tanto la muestra CNED, de manera independiente, como la esta muestra más
los casos provenientes de otros estudios.


81

7.2.1 Variable “Sexo”
La tablas 30 y 31 presentan el puntaje promedio obtenido en cada una de las escalas del ATI y el
PTE respectivamente, considerando el sexo de los profesores. También muestra los resultados de
los t-tests realizados para establecer si existen diferencias estadísticamente significativas en cada
escala.

Los resultados presentados en la tabla 30 muestran diferencias estadísticamente significativas
solo en la escala “Docencia centrada en la Transmisión de Información y el Profesor”, cuando se
considera el grupo CNED + otros, t(243)= 2.37, p= .019. En este caso, el puntaje promedio es
mayor para los hombres.

Tabla 30: Valores promedio y t-tests para la variable “Sexo” (cuestionario ATI)

CNED



CNED + otros


Hombres Mujeres Hombres Mujeres
(n=27) (n=32) (n=130) (n=115)
Escala

M M t-test M M t-test

Cuestionario ATI
1. “Docencia centrada en la Transmisión
de Información y el Profesor”
2.78 2.84 -.31 (.752) 3.10 2.90 2.37 (.019)*
2. “Docencia centrada en el Cambio
Conceptual y el Estudiante”
3.94 4.01


-.50 (.621) 3.99 4.05 -.85 (.395)
*p<0.05; **p<0.01


Los resultados presentados en la tabla 31 muestran que no hay diferencias estadísticamente
significativas en los puntajes finales del PTE en la variable “Sexo”. Esto se verifica tanto con el
grupo CNED como CNED + otros. Sin embargo, es importante destacar que, para la muestra
CNED + otros, se observa una diferencia cercana al nivel de significancia en la escala “Presiones
de Tiempo”, t(136)= 1.93, p= .056).
82


Tabla 31: Valores promedio y t-tests para la variable “Sexo” (cuestionario PTE)

CNED



CNED + otros


Hombres Mujeres Hombres Mujeres
(n=27) (n=32) (n=76) (n=62)
Escala

M M t-test M M t-test

Cuestionario PTE

1. “Características de los Estudiantes” 3.99 3.76 1.11 (.210) 3.64 3.74 -.67 (.502)
2. “Control sobre la Docencia” 4.25 4.20 .23 (.823) 4.34 4.25 .71 (.475)
3. “Presiones de Tiempo” 3.57 3.40 .68 (.498) 3.69 3.39 1.93 (.056)
4. “Visión de la Unidad Académica sobre
la Docencia”
3.19 3.35 -.70 (484) 3.18 3.27 -.59 (.558)

*p<0.05; **p<0.01

7.2.2 Variable “Área Disciplinaria”
Las tablas 32 y 33 presentan el puntaje promedio obtenido en cada una de las escalas del ATI y el
PTE respectivamente, al tomar en consideración el área disciplinaria de los profesores. También
muestra los resultados de los t-tests realizados para establecer si existen diferencias
estadísticamente significativas en cada escala.

La Tabla 32 muestra que los profesores del área de “Ciencia y Tecnología” presentan puntajes
más altos en la escala “Docencia centrada en la Transmisión de Información y el Profesor”, y los
del área de “Ciencias Sociales y Humanidades” más altos en la escala “Docencia centrada en el
Cambio Conceptual y el Estudiante”. Esta diferencia es estadísticamente significativa en la
escala “Docencia centrada en el Cambio Conceptual y el Estudiante” para la muestra CNED +
otros, t(243)= -2.53, p= .012. En la muestra solo de los profesores CNED no se verifican
diferencias significativas en el nivel habitualmente considerado. Sin embargo, si lo es cuando el
nivel de significancia se rebaja al 90%, t(57)= -1.75, p= .086. Estos resultados sugieren que los
83

profesores del área “Ciencias Sociales y Humanidades” tienden a abordar su docencia más
centrados en el estudiante y su desarrollo que aquellos del área de “Ciencia y Tecnología”.

Tabla 32: Valores promedio y t-tests para la variable “Área Disciplinaria” (cuestionario ATI)

CNED



CNED + otros


C y T CS y H C y T CS y H
(n=27) (n=32) (n=104) (n=141)
Escala

M M t-test M M t-test

Cuestionario ATI
1. “Docencia centrada en la Transmisión
de Información y el Profesor”
2.87 2.77 .59 (.561) 2.96 3.03 -.78 (.435)
2. “Docencia centrada en el Cambio
Conceptual y el Estudiante”

3.86 4.08 -1.75 (.086) 3.91 4.10 -2.53 (.012)*
*p<0.05; **p<0.01

Los resultados presentados en la tabla 33 muestran diferencias estadísticamente significativas en
la escala “Presiones de Tiempo”. Sin embargo, en la muestra CNED son los profesores del área
“Ciencia y Tecnología” perciben una mayor presión, t(57)= -2.61, p= .012; mientras que en la
muestra CNED + otros, los que perciben mayor presión son los de las “Ciencias Sociales y
Humanidades”, t(135)= -2.65, p= .009). Los profesores del área “Ciencia y Tecnología” perciben
una mayor presión. No se observan diferencias significativas en ninguna de las otras escalas.









84

Tabla 33: Valores promedio y t-tests para la variable “Área Disciplinaria” (cuestionario PTE)




CNED



CNED + otros


C y T CS y H C y T CS y H
(n=27) (n=32) (n=62) (n=75)
Escala

M M t-test M M t-test

Cuestionario PTE

1. “Características de los Estudiantes” 4.00 3.78 1.24 (.222) 3.73 3.67 .46 (.549)
2. “Control sobre la Docencia” 4.25 4.20 .08 (938) 4.31 4.30 .06 (.951)
3. “Presiones de Tiempo” 3.57 3.40 -2.61 (.012)* 3.32 3.73 -2.65 (.009)**
4. “Visión de la Unidad Académica sobre
la Docencia”
3.19 3.35 -.49 (677) 3.20 3.24 -.30 (.763)

*p<0.05; **p<0.01

7.2.3 Variable “Grado Académico” 
La tablas 34 y 35 presentan el puntaje promedio obtenido en cada una de las escalas del ATI y el
PTE respectivamente, respecto del grado académico más alto obtenido por los profesores.
También muestra los resultados del ANOVA realizado para establecer si existen diferencias
estadísticamente significativas en cada escala.

Tabla 34: Valores promedio y ANOVA para la variable “Grado Académico” (cuestionario ATI)

CNED
______________________________

CNED + otros
_________________________________

Lic.

Mag.

Doc.



Lic.

Mag.

Doc.

Escala (n=6) (n=28) (n=25) (n=24) (n=61) (n=53)
M M M F (p) M M M F (p)



Cuestionario ATI
85

1. “Docencia centrada en la Transmisión
de Información y el Profesor”
2.97 2.90 2.85 .10(.909) 2.93 2.95 2.91 .05(.946)
2. “Docencia centrada en el Cambio
Conceptual y el Estudiante”

3.92 4.08 3.98 .46(.633) 3.85 4.06 4.05 1.78(.173)

*p<0.05; **p<0.01

La tabla 34 presenta los puntajes promedio en las escalas del ATI considerando el grado
académico de los profesores. En ambos grupos se observa que los profesores obtienen resultados
similares. No se verificaron diferencias estadísticamente significativas entre estos grupos.

La tabla 35 presenta los puntajes promedio en las escalas del PTE. Si bien se aprecian diferencias
en los puntajes, estos no son estadísticamente significativos en ninguna de las escalas.

Tabla 35: Valores promedio y ANOVA para la variable “Grado Académico” (cuestionario PTE)

CNED
_________________________________

CNED + otros
________________________________

Lic.

Mag.

Doc.



Lic.

Mag.

Doc.

Escala (n=6) (n=28) (n=25) (n=24) (n=61) (n=53)
M M M F (p) M M M F (p)



Cuestionario PTE
1. “Características de los Estudiantes” 4.03 3.81 3.95 .35 (.709) 3.67 3.71 3.65 .08 (.920)
2. “Control sobre la Docencia” 4.18 3.80 4.02 1.95(.151) 3.90 3.85 3.93 .68 (.509)
3. “Presiones de Tiempo” 3.68 3.51 3.51 .12 (.882) 3.61 3.57 3.58 .04 (.964)
4. “Visión de la Unidad Académica
sobre la Docencia”

3.50 3.76 3.55 .88 (.422) 3.47 3.63 3.49 .92 (402)

*p<0.05; **p<0.01

86

7.2.4 Variable “Capacitación en Docencia”
  La  tablas  36  y  37  presentan  el  puntaje  promedio  obtenido  en  cada  una  de  las  escalas  del 
ATI  y  el  PTE  respectivamente,  respecto  del  grado  académico  más  alto  obtenido  por  los 
profesores.  También  muestra  los  resultados  de  los  t‐tests  realizados  para  establecer  si 
existen diferencias estadísticamente significativas en cada escala.  

Tabla 36: Valores promedio y t-tests para la variable “Capacitación en Docencia” (cuestionario ATI)

CNED



CNED + otros


Si No Si No
(n=38) (n=16) (n=71) (n=52)
Escala

M M t-test M M t-test

Cuestionario ATI
1. “Docencia centrada en la Transmisión
de Información y el Profesor”
2.81 2.86 -.27 (789) 2.72 2.95 -2.06 (.041)*
2. “Docencia centrada en el Cambio
Conceptual y el Estudiante”

4.03 3.81 1.52 (.137) 4.06 3.89 1.96 (.053)
*p<0.05; **p<0.01

La tabla 36 presenta los siguientes aspectos a destacar. En primer lugar, en la escala “Docencia
centrada en la Transmisión de Información y el Profesor” los puntajes son menores para los
profesores que asistieron a una capacitación. Además, existen diferencias significativas en el
grupo CNED + otros, t(121)= -2.06, p= .041. En segundo lugar, los puntajes en la escala
“Docencia centrada en el Cambio Conceptual y el Estudiante” son mayores para quienes
asistieron a una capacitación en docencia. En el grupo CNED + otros estos valores serían
estadísticamente significativos si el nivel de significancia se estableciera al 90%, t(120.72)= 1.96,
p= .053.


87

Tabla 37: Valores promedio y t-tests para la variable “Capacitación en Docencia” (cuestionario PTE)




CNED



CNED + otros


Si No Si No
(n=38) (n=16) (n=71) (n=52)
Escala

M M t-test M M t-test

Cuestionario PTE

1. “Características de los Estudiantes” 3.83 4.11 -1.30 (.199) 3.69 3.66 .212 (.832)
2. “Control sobre la Docencia” 4.11 4.55 -2.22 (.032)* 4.22 4.38 -1.18 (.239)
3. “Presiones de Tiempo” 3.43 3.33 .34 (.736) 3.28 3.75 -2.91 (.004)**
4. “Visión de la Unidad Académica sobre
la Docencia”
3.39 2.90 1.86 (.068) 3.29 3.10 -1.22 (.226)

*p<0.05; **p<0.01

La Tabla 37 presenta los siguientes aspectos a destacar. Primero, existen diferencias
estadísticamente significativas, en la muestra CNED, las escalas “Control sobre la Docencia”,
t(43.50)= -2.22, p= .032; y son cercanos al nivel de significancia del 95% en la escala “Visión de
la Unidad Académica sobre la Docencia”, t(43.50)= -2.22, p= .032 Segundo, existen diferencias
estadísticamente significativas, en la muestra CNED + otros, en la escala “Presiones de Tiempo”,
t(121)=-2.91, p= .004.

7.2.5 Resumen y conclusión  
En esta sección se indagó si existían diferencias significativas en las escalas de los cuestionarios
cuando se consideraban variables demográficas y de contexto. Para el caso de los estudiantes se
consideraron las siguiente variables: “Sexo”, “Área Disciplinaria”, “Primera vez que realiza el
Curso”, “Ha cursado otra carrera” y “Primero de su familia en asistir a la universidad”. Para cada
una de ellas se testeó si existían diferencias significativas en relación a las escalas de los
cuestionarios SPQ y CEQ. Los resultados mostraron que “Sexo” y “Área Disciplinaria” son las
variables en las que más diferencias significativas se verificaron. Para el caso de “Sexo”, se
88

observó que las mujeres tienden a abordar su aprendizaje de manera más profunda que los
hombres y a tener percepciones más positivas del contexto de aprendizaje. En relación a “Área
Disciplinaria” se observaron diferencias estadísticamente significativas en todas las escalas de los
cuestionarios. La tendencia indico que aquellos estudiantes del área Ciencias Sociales y
Humanidades tienden a abordar el aprendizaje de manera más profunda que aquellos del área
Ciencia y Tecnología, y a tener percepciones más positivas sobre el contexto de aprendizaje. En
relación a los profesores, se verificaron diferencias significativas para la muestra ampliada
(CNED + otros) en las relación a “Sexo” (los hombres presentado un puntaje mayor en la escala
“Docencia centrada en la Transmisión de Información y el Profesor”), “Área disciplinaria”
(Ciencias Sociales y Humanidades con un puntaje mayor en la escala “Docencia centrada en el
Cambio Conceptual y el Estudiante”) y “Capacitación en Docencia” (quienes no habían asistido
presentado una puntaje mayor en la escala “Docencia centrada en la Transmisión de Información
y el Profesor”).

7 Discusión, recomendaciones y conclusión
En esta sección se presenta la discusión, recomendaciones y conclusión que emergen de los
resultados del estudio. En primer lugar, la discusión analiza sección por sección los principales
resultados a la luz de la literatura internacional en el área y la novedad de lo que se ha
encontrado. En segundo lugar, se generan recomendaciones. Ellas se organizaron a través de dos
aspectos: recomendaciones para políticas públicas y desarrollo docente, y recomendaciones para
futuras investigaciones. Finalmente, la sección (y el reporte) termina con una conclusión sobre
los principales hallazgos este proyecto.

7.1 Discusión de los resultados del estudio
En primer lugar, respecto de los procesos de validación de los instrumentos, es posible afirmar
que mayoritariamente presentaron resultados adecuados y alineados con resultados de estudios
realizados en otros contextos. En general, los instrumentos de estudiantes funcionaron mejor que
los de profesores. En este sentido, el SPQ presentó una estructura de factores acorde a la
reportada en estudios previos (Biggs, 2001, Rodriguez & Cano, 2006; Zeegers, 2002) y valores
de confiabilidad similares a otras investigaciones reportadas. Además, en este estudio también se
89

verificó la tendencia a que la escala “Aprendizaje Profundo” tenga un valor α de Cronbach mayor
que la escala “Aprendizaje Superficial” (por ejemplo Ellis, R. A., Goodyear, O'Hara, & Prosser,
2007; Ellis, R. A., Taylor, et al., 2007). Por su parte, el CEQ también presentó resultados
bastante buenos. El análisis de validez de constructo mostró que las escalas emergían como se
había hipotetizado y que la escala “E-learning” también se comportaba de manera adecuada
cuando se la incorporaba al instrumento. Sin embargo, varios ítems presentaron cargas cruzadas
mayores al puntaje de corte (.3). Estos fueron los siguientes: 1) Dos de los ítems de la escala
“Metas y Objetivos Claros”: “desde el inicio del curso el profesor dejó en claro qué se esperaba
de los estudiantes” y “en este curso, usualmente he tenido una idea clara hacia dónde vamos y
qué se espera de mí”. Ambos presentaron una carga cruzada con la escala “Buena Docencia”,
aunque con puntajes menores a los de la escala “Metas y Objetivos Claros”. Es importante
destacar que esta situación también se presentó en el estudio de Webster et al (2009); en el cual,
además, un tercer ítem de la escala “Metas y Objetivos Claros” (“siempre es fácil conocer las
exigencias del trabajo esperado en este curso”) presentó una carga cruzada con la escala “Buena
Docencia”; 2) Uno de los ítems de la escala “Carga de Trabajo Apropiada” (“generalmente, me
dan el tiempo suficiente para comprender las cosas que tengo que aprender”) presentó una carga
cruzada mayor a .3 con la escala “Buena Docencia”, aunque menor al puntaje de la escala que le
correspondía. En el estudio de Webster también este ítem presentó una carga cruzada con la
escala “Buena Docencia”; 3) Uno de los ítems de la escala “E-learning” (“la comunicación en
línea con estudiantes y profesores ayudó a mi aprendizaje”) presentó una carga cruzada mayor a
.3 con las escala “Buena Docencia”, aunque menor al puntaje de la escala que le correspondía.
Por lo tanto, la escala “Buena Docencia” es la única que presentó cargas cruzadas provenientes
de otras escalas. Además, es importante mencionar que, a partir de los resultados del presente
estudio, no se verificaron cargas cruzadas o estructuras diferentes como las reportadas en otros
artículos académicos. Por ejemplo, ítems de la escala “Buena Docencia” cargando en la escala
“Evaluación Apropiada” (Wilson, et al., 1997), o el estudio de Kreber (2003a) en el que la escala
“Buena Docencia” se separó en dos factores. Los valores del α de Cronbach para las escalas
“Buena Docencia” y “Metas y Objetivos Claros” fueron muy buenos y están en línea con los
valores reportados en otros estudios. Además, las escalas “Evaluación Apropiada” y “Carga de
Trabajo Apropiada” presentaron valores “moderadamente aceptables”, los que también están en
90

línea con investigaciones previamente reportadas, aunque con puntajes relativamente menores en
este estudio (véase por ejemplo, Ginns, P. et al., 2007; Webster, et al., 2009) En relación a la
escala “E-learning”, presentó un valor casi idéntico al reportado por Ginns & Ellis (2009). En
relación a los cuestionarios utilizados con los profesores, el ATI presentó una estructura de
factores mayoritariamente similar a la presentada en estudios previos. La excepción fue el ítem
“presento material para que los estudiantes construyan una base de información sobre los
contenidos del curso”, que no obtuvo un puntaje superior al corte (.3) en ninguna de las escalas.
El análisis de componentes principales se ejecutó nuevamente sin este ítem y entonces funcionó
adecuadamente. Esto llevó a que la escala “docencia centrada en la transmisión de información y
el profesor” quedara con 10 ítems en este estudio. Los valores del α de Cronbach fueron
superiores a los reportados en estudios previos (por ejemplo Prosser & Trigwell, 2006; Trigwell,
et al., 1999). El cuestionario PTE fue el más complejo en términos de validez de constructo pues
varios ítems presentaban cargas cruzadas con valores superiores en escalas distintas a las que
supuestamente deberían adscribir, y otros cargaban con valores sobre .3 en escalas distintas a
aquellas a las que pertenecían. Esto no es sorprendente ya que, de los cuatro instrumentos
utilizados en este estudio, el PTE es el que ha recibido menos trabajo en términos de validación.
De hecho no existen estudios publicados sobre su validez de constructo. Lo que se ha presentado
es un análisis factorial a nivel de las escalas (Prosser & Trigwell, 1997) y estudios donde ha sido
utilizado (por ejemplo, Prosser, et al., 2003). Luego de un proceso iterativo de ejecutar el análisis
de componentes principales y revisar los valores de α, se llegó a un instrumento razonable con
quince ítems agrupados en las cuatro escalas originales. Los valores del α de Cronbach tendieron
a ser un poco menores que los reportados previamente (Prosser & Trigwell, 1997) en las escalas
“Control sobre la Docencia”, “Presiones de Tiempo” y “Visión de la Unidad Académica sobre la
Docencia” y superiores en la escala “Características de los Estudiantes”.

En segundo lugar, respecto de las experiencias de estudiantes y profesores, y las relaciones entre
ambas, es posible afirmar que los resultados son importantes. Muestran que el modelo generado
por la línea de investigación Student Learning Research es útil para analizar cómo aprenden los
estudiantes y cómo enseñan los profesores chilenos. Primero, el análisis de la experiencia de los
estudiantes identificó que aquellos que abordan su aprendizaje de manera profunda son aquellos
91

que simultáneamente perciben que los elementos del contexto de aprendizaje son apropiados. Por
el contrario, aquellos que abordan su aprendizaje de manera superficial son aquellos que
simultáneamente perciben que los elementos del contexto no son apropiados. Esta relación entre
formas de abordar el aprendizaje y percepciones sobre el contexto ha sido ampliamente
documentada en la literatura internacional, de la misma manera en que se verificó en el presente
estudio (véase por ejemplo, Diseth, 2007; Diseth, et al., 2010; Ellis, R. & Goodyear, 2010; Ellis,
R., Goodyear, Calvo, et al., 2008; P. Ginns, et al., 2007; Leung, et al., 2008; Richardson, 2010).
Además, los resultados muestran que los estudiantes de cursos del área de Ciencias Sociales y
Humanidades tienden a ubicarse más en el grupo que aborda su aprendizaje de manera profunda
y percibe positivamente el contexto que aquellos del área de Ciencia y Tecnología. En la
literatura internacional no ha habido resultados conclusivos respecto de la variable área
disciplinaria. Por ejemplo, en un estudio clásico realizado por Entwistle & Ramsden (1982) se
encontraron diferencias similares a las reportadas en este estudio. Del mismo modo, Lawless &
Richardson (2002) reportaron resultados similares, aunque para cursos realizados a distancia. En
ambos casos, sin embargo, se trataba de muestra pequeñas. Por lo tanto, este sería el único
estudio del que tenemos noticia donde esta diferencia aparece marcadamente en una muestra
grande de estudiantes. Segundo, al analizar el caso de los profesores universitarios se encontró
que aquellos que abordan la docencia centrándose en sus propias actividades y en la transmisión
de información son los que simultáneamente presentan una percepción negativa de las
dimensiones asociadas a su contexto de docencia. Además, aquellos que la abordan centrándose
en el estudiante, simultáneamente perciben que su contexto de docencia es apropiado. Este
resultado es coherente con investigaciones previas que plantean exactamente lo mismo (por
ejemplo Lindblom-Ylänne, et al., 2006; Prosser & Trigwell, 1997; Stes, et al., 2008). Tercero,
probablemente uno de los resultados más importantes del estudio, es que, al analizar las
asociaciones entre las experiencias de los estudiantes y los profesores, se encontró que los cursos
en que los estudiantes tienden a abordar su aprendizaje de manera profunda y presentar
percepciones positivas sobre el contexto son aquellos en los cuales los profesores trabajan
centrándose en el cambio conceptual y el estudiante; y que, además, presentan percepciones
positivas sobre el contexto de la docencia. Por el contrario, los cursos donde los estudiantes
tienden a abordar su aprendizaje de manera superficial son aquellos en los que se presentan
92

mayoritariamente percepciones negativas sobre el contexto, y en los cuales los profesores tienden
abordar la docencia enfocados en la transmisión de información, y a presentar percepciones
negativas sobre su contexto. El primer grupo se encontró más en cursos del área de Ciencias
Sociales y Humanidades, y donde los profesores habían tenido oportunidades de capacitación en
docencia; mientras que el segundo grupo se encontró más en cursos del área Ciencia y
Tecnología, en los que los profesores no habían tenido oportunidades de capacitación. Este
resultado es clave: presenta evidencia empírica sobre el hecho que adoptando ciertas prácticas
pedagógicas, aquellas que ponen el aprendizaje y el cambio conceptual de los estudiantes en el
foco de atención, es más probable que los estudiantes aborden su aprendizaje de la manera
deseada –y que mejora sus resultados académicos–. También, indica que diseñando las
experiencias de aprendizaje con atención a las dimensiones evaluadas a través del cuestionario
CEQ se aumenta la probabilidad de obtener el tipo de aprendizaje deseado. Además, una
organización y liderazgo que apoye a los profesores, de manera que estos perciban positivamente
su contexto de docencia, también incrementa la probabilidad de que el sistema de aprendizaje
promueva que los estudiantes aborden sus estudios de manera profunda. Por último, en términos
de contribución a la línea de investigación Student Learning Research, corrobora y extiende el
trabajo de Trigwell, et al (1999). Lo corrobora al encontrar el mismo tipo de asociaciones entre
aprendizaje y docencia. Lo extiende pues incorpora las percepciones del contexto como variables
indagadas y reporta resultados similares en una muestra multidisciplinaria.

En tercer lugar, respecto de la estructura de las relaciones entre las escalas del CEQ y SPQ es
posible afirmar que los resultados reafirman y profundizan los reportados en la sub-sección 5.1.
A nivel general, una percepción positiva de la evaluación, la docencia y tener claridad sobre las
metas y objetivos de un curso aparecen como los elementos más importantes para incentivar el
aprendizaje profundo. Por otro lado, al dividir la muestra tomando como base los grupos
identificados a través de análisis de conglomerados (sección 5.1) se encontró que el grupo 1
presentaba mayoritariamente percepciones positivas sobre los elementos de la experiencia del
curso y que estas promovían el aprendizaje profundo; mientras que en el grupo 2, sus
percepciones sobre el contexto del curso no promueven el aprendizaje profundo, sino que tienden
a promover el aprendizaje superficial, lo que es coherente con el análisis de conglomerados
93

reportado en la subsección 5.1. Finalmente, una percepción positiva del “E-Learning” en general
promovió a un nivel razonable la adopción del aprendizaje profundo y desincentivó el
aprendizaje superficial. Este es un punto relevante. Existe una percepción poco favorable a
considerar el e-learning como un elemento que sustenta el aprendizaje de manera apropiada. La
literatura sobre la carencia de “diferencias significativas” (non significant difference
phenomenon) entre aprender con o sin tecnologías de aprendizaje ha, posiblemente, influenciado
esta percepción (Cuban, 2001; Reeves, 2006). A nuestro juicio, esta literatura, al estar enfocada a
estudios guiados por métodos experimentales, no considera la complejidad de factores que
influencian simultáneamente cualquier situación de aprendizaje. Si solo se compara el impacto de
cambios en pequeñas partes del sistema es improbable que se revele mucho efecto, de ahí que la
carencia de diferencias significativas sea el resultado habitual. Más que comparar situaciones con
o sin TICs, como se hace habitualmente en estudios experimentales, se ha generado consenso
respecto de que la incorporación de las TICs debe ser parte de un sistema complejo, en el que
coexisten con otros elementos: personas, espacio físico, otros recursos de aprendizaje. No debe
ser la tecnología por sí sola el foco de atención, sino cómo ella se incorpora en una ‘ecología del
aprendizaje’ que promueve la calidad ( Ellis, R. & Goodyear, 2010). Al indagar su influencia, en
el contexto de otros factores, de la manera como se realizó en este estudio, nuestra evidencia
muestra que si tiene un efecto positivo para apoyar procesos de aprendizaje profundo.

Un aspecto importante a destacar es cómo se comparan nuestros resultados con los obtenidos,
realizando análisis similares, por el estudio de Webster et al (2009).









94

Figura 5: Resultados obtenidos por Webster et al (2009)

Tomado de Webster et al (2009, p. 382) El diagrama de la izquierda representa a los resultados obtenidos para
alumnos de tercer año en el área de Ciencias Sociales y Humanidades (H3) y el de la derecha representa los
resultados de alumnos en tercer año en el área de Ciencia y Tecnología (S3).

En la figura 5, el diagrama de la izquierda representa a alumnos en el área de Ciencias Sociales y
Humanidades (H3) y el diagrama de la izquierda representa a alumnos en el área de Ciencia y
Tecnología (S3). Nuestros resultados reproducen parcialmente las relaciones obtenidas por
Webster et al. Ninguna de las dos relaciones significativas que encuentra para estudiantes de
Ciencias Sociales y Humanidades en tercer año (“Buena Docencia”→“Aprendizaje Superficial”
y “Carga de Trabajo Apropiada”→“Aprendizaje Superficial”) es significativa para nuestra
muestra, aunque el signo de todas las relaciones representadas concuerda con el obtenido por
nosotros. Por otro lado, para el grupo de estudiantes de tercer año en Ciencia y Tecnología, de las
seis relaciones significativas identificadas por Webster et al (“Buena Docencia”→“Aprendizaje
Profundo”, “Buena Docencia”→“Aprendizaje Superficial”, “Metas y Objetivos
Claros”→“Aprendizaje Profundo”, “Evaluación Apropiada”→“Aprendizaje Superficial”, “Carga
de Trabajo Apropiada”→“Aprendizaje Profundo”, y “Carga de Trabajo
Apropiada”→“Aprendizaje Superficial”), cuatro son significativas en nuestra muestra (“Buena
Docencia”→“Aprendizaje Profundo”, “Metas y Objetivos Claros”→“Aprendizaje Profundo”,
“Carga de Trabajo Apropiada”→“Aprendizaje Profundo” y “Evaluación
Apropiada”→“Aprendizaje Superficial”); incluyendo algunas con valores similares. Es
interesante observar que Webster et al encuentran una relación significativa con un efecto
negativo de “Carga de Trabajo Apropiada” en relación a “Aprendizaje Profundo”, que también se
encontró en el presente estudio. Este efecto es opuesto al que propondría el modelo teórico del
95

estudio, donde una carga adecuada incentivaría el aprendizaje profundo. El hecho que este
resultado esté presente también en la muestra de Webster et al indica que no es un efecto espurio
de nuestra muestra, sino una percepción propia de los alumnos de Ciencia y Tecnología, que
también se manifiesta para estudiantes de Ciencias Sociales y Humanidades en este estudio. En
general, estos resultados permiten concluir, de manera coherente con los resultados obtenidos a
través de análisis de conglomerados y correlación, que una percepción positiva sobre el contexto
en que se lleva a cabo el aprendizaje promueve estrategias de estudio profundas.

En cuarto lugar, en relación a variables demográficas y de contexto, y su relación con la
experiencia de aprendizaje y de enseñanza los resultados del presente estudio mostraron que
algunas eran más relevantes que otras, tanto para estudiantes como para profesores. En el caso de
los estudiantes, las variables “Sexo”, “Área Disciplinaria”, y “Primero de su Familia en asistir a
la Universidad” fueron las que presentaron resultados con diferencias significativas relevantes.
Primero, en relación a la variable “Sexo” las mujeres presentaron puntajes más altos en la escala
de “Aprendizaje Profundo”. Estos resultados son coherentes con otros reportados en estudios
previos, tales como el de Rodriguez & Cano (2005). Segundo, en el presente trabajo se
encontraron diferencias estadísticamente significativas en las formas de abordar el aprendizaje
según el área disciplinaria a la que pertenecían los estudiantes. Se encontró que los estudiantes de
Ciencia y Tecnología tienden a adoptar una aprendizaje superficial, mientras que los de Ciencias
Sociales y Humanidades aprendizaje profundo. Como se explicó en el punto dos de esta
discusión, no hay evidencia concluyente, proveniente de estudios previos, que indique una
tendencia sobre las formas de abordar el aprendizaje en relación al área disciplinaria. Sin
embargo, a través de distintos análisis esta diferencia aparece con claridad en este estudio. Esto
sugiere que la existencia de una relación entre área disciplinaria y cómo los estudiantes abordan
su aprendizaje. Tercero, al analizar la variable “Primero de su familia en asistir a la universidad”,
se encontraron diferencias estadísticamente significativas entre la escala “Aprendizaje Profundo”,
que obtuvo un valor mayor entre quienes eran primera generación de universitarios. Estos
hallazgos se podrían sustentar en investigaciones previas que sugieren que las tasas de éxito no
son necesariamente más bajas para estudiantes que provienen de sectores que acceden por
primera vez a la universidad (Thomas & Quinn, 2007). El problema es de acceso y no de éxito
96

académico, como sugieren los mismos autores. Además, investigaciones que han relacionado el
concepto de capital cultural y participación en educación superior encontraron que una vez que
los logros de los estudiantes se incluyen en el análisis de los niveles de participación, los efectos
sociales de la clase desaparecen (Noble & Davies, 2009). Finalmente, reafirmando estos puntos,
estudios señalan que a medida que los estudiantes avanzan en su carrera van cambiando las
formas de abordar el aprendizaje, (Zeegers, 2001), por lo tanto, el efecto de los antecedentes
previos al ingreso universitario podrían ir perdiendo influencia, como parecen indicar los
hallazgos reportados en la presente investigación. En el caso de los profesores, “Sexo”, “Área
Disciplinaria” y “Capacitación en Docencia” son las que presentaron las diferencias estadísticas
más importantes. Primero, respecto a la variable “Sexo” se encontraron diferencias significativas
entre profesores y profesoras en relación a cómo abordan la docencia. Los hombres tienden a
realizar su docencia más focalizados en el contenido en comparación a las profesoras. Este
hallazgo es coherente con investigaciones previamente reportadas (por ejemplo, Lacey & Saleh,
1998; Nevgi, Postareff, & Lindblom-Ylänne, 2004). Segundo, respecto de la variable “Área
Disciplinaria”, los resultados del presente estudio mostraron que aquellos del área de Ciencia y
Tecnología tienden abordar su docencia centrándose en el contenido y transmisión de
información en comparación a profesores pertenecientes al área de Ciencias Sociales y
Humanidades, quienes tienden a abordar la docencia centrándose en el estudiante y su
aprendizaje. Este resultado es consonante con estudios previos realizados en otros contextos
universitarios (Lindblom-Ylanne, Nevgi, & Trigwell; Lindblom-Ylänne, et al., 2006; Lueddeke,
2003). Tercero, en este estudio se encontró que los profesores que habían asistido a algún tipo de
capacitación docente se observa obtuvieron un mayor puntaje en la escala de enfoque de
enseñanza centrado en el estudiante que aquellos que no asistieron. Este resultado es coherente
con los obtenidos en otras investigaciones (por ejemplo, Gibbs & Coffey, 2004; Postareff, et al.,
2007; Postareff, Lindblom-Ylänne, & Nevgi, 2008).

7.2 Recomendaciones 
Estos importantes resultados tienen implicaciones para alinear el sistema universitario con la
formación de calidad, que permita a los egresados participar productivamente en la sociedad del
97

conocimiento. Se presentan recomendaciones a nivel de políticas públicas y desarrollo
académico; y para el desarrollo de futuras investigaciones.

7.2.1 Recomendaciones para las políticas públicas y el desarrollo académico de la docencia
En la propuesta presentada al inicio de esta investigación se discutieron los resultados del
informe de la OECD (2009), que indicaba que en el sistema de educación superior chileno los
métodos de docencia continuaban siendo tradicionales (enfocados en el profesor y la transmisión
de los contenidos, siguiendo nuestra nomenclatura) y que había poca capacidad de innovación
para mejorar el proceso de aprendizaje. Además, se argumentó que esta forma de experiencia
universitaria implicaría que los graduados de universidades chilenas no estarían recibiendo una
educación adecuada para enfrentar el mundo complejo e incierto en el que participarán como
profesionales, pues el tipo de experiencias de aprendizaje a las que han sido expuestos no es
apropiado para generar las habilidades que necesitarán, como por ejemplo: capacidad crítica y
reflexiva, de indagación y resolución de problemas y habilidades de colaboración y liderazgo,
entre otros (Barnett, 2000, 2005). Los importantes resultados presentados en este estudio pueden
ayudar a superar esta situación.

En primer lugar, tienen mucho que aportar en cómo al interior de las universidades se organiza el
desarrollo y la práctica de la docencia. Nuestra evidencia muestra que para que los alumnos
aborden su aprendizaje de la forma que les reportará mejores resultados académicos, deben haber
elementos del contexto de aprendizaje alineados (buena docencia, metas y objetivos claros, carga
de trabajo adecuada, evaluación apropiada, uso adecuado de e-learning) y profesores que aborden
su docencia centrándose en el aprendizaje y en promover el cambio conceptual. También se
presentó evidencia que para los profesores aborden su docencia de manera que sea más probable
los estudiantes aprendan de la manera más provechosa, son necesarios que algunos elementos del
contexto se encuentren alineados (control sobre la docencia, características de los estudiantes,
apoyo de la unidad académica y presiones de tiempo). A través de instancias de desarrollo
docente apropiadas se puede avanzar hacia estos objetivos. Experiencias en que los profesores
puedan reflexionar y hacer sentido de su práctica empleando el modelo presentado en esta
investigación han mostrado ser efectivas en hacer más sofisticada su forma de ver y actuar en
98

procesos de docencia (Ramsden, P. 2003). Estas deberían cuestionar y/o profundizar el
entendimiento de los profesores sobre qué es buena docencia y cómo se puede implementar, a
través del estudio de resultados de investigación como los presentados en este estudio:
enfatizando la relación entre formas de abordar la docencia con cómo los estudiantes perciben el
contexto en que se lleva a cabo; de manera tal que los académicos puedan diseñar y organizar sus
cursos atendiendo a estos aspectos. Este tipo de experiencias podría ayudarnos a avanzar desde el
modelo que la evidencia anecdótica muestra que hoy impera en las universidades chilenas:
talleres aislados sobre prácticas específicas (cómo usar mejor un PPT, cómo trabajar con grupos
grandes, cómo usar herramientas digitales específicas, etc.); a uno donde se trabaja con un
modelo teórico que permite ver desde una perspectiva de indagación académica el proceso de
aprendizaje de los estudiantes. Por otro lado, es importante contar con un liderazgo y
organización que promuevan una cultura académica para abordar la docencia, estimulando la
colaboración y el intercambio de experiencias y que, al mismo tiempo, entregue los incentivos
correctos, organice la docencia apropiadamente y sea un apoyo a los profesores. De esta manera
se estaría en condiciones de avanzar a una forma de desarrollo académico acorde a los postulados
del scholarship of teaching (Ginns, P. et al., 2008; González, 2010a; Healey, 2000; Trigwell,
Martin, Benjamin, & Prosser, 2000; Trigwell & Shale, 2004), que propone que para que la
docencia realmente sea efectiva los profesores universitarios tendrían que estar informados sobre
las perspectivas teóricas de la literatura sobre aprendizaje, deberían poder conducir estudios
sobre cómo mejorar la docencia, reflexionar sobre su práctica a través de su investigación
sistemática, presentar sus resultados a sus pares, y, de esta manera, generar un avance en el
conocimiento sobre cómo lograr un aprendizaje profundo. Este es el modelo aplicado en una
buena parte de los países de la OECD y hacia el cual las universidades chilenas deberían avanzar
sistemáticamente. Al mismo tiempo que se promueven estas ideas, es importante destacar que
investigaciones previas han mostrado que, para que los cambios mencionados se sostengan en el
tiempo es necesario desarrollar un pensamiento “ecológico” sobre el aprendizaje, que considere
todos los elementos del modelo 3P (Biggs & Tang, 2007). Es decir, que, como se describió en el
marco teórico-conceptual de este informe, el resultado final del proceso de aprendizaje es el
resultado de una serie de elementos de interactúan simultáneamente en cualquier situación de
aprendizaje (Ellis, R. & Goodyear, 2010). Además, se debe mencionar que se trata de procesos
99

que requieren de un tiempo mediano para instalarse y perdurar (Postareff, et al., 2007; Postareff,
Lindblom-Ylänne, et al., 2008). En la práctica, implementar estas ideas al interior de una
universidad implicaría:

1. Contar con un centro para el mejoramiento de la docencia que abordara académicamente
este tema y no como una unidad de “servicios”. Esto conlleva que sea integrado por
investigadores activos que tengan el aprendizaje en educación superior como su foco de
investigación y que, desde esta posición, apoyen el cambio de las prácticas de los
profesores universitarios.
2. Realizar cursos, liderados por el centro que se menciona en el punto 1, tanto para
profesores que se incorporan a la planta de la universidad como para aquellos que son
parte de ella, enfocados diferenciadamente según el área disciplinaria y que abordaran
los siguientes tópicos: práctica reflexiva, alineamiento constructivo, formas de abordar
el aprendizaje, evaluación para el aprendizaje y scholarship of teaching. Además,
deberían haber oportunidades de investigación conjunta y los miembros de las
Facultades en temas de aprendizaje y docencia.
3. Establecer sistemas de monitoreo, a través de instrumentos como el CEQ, que sirvan de
base para que los profesores exploren y mejoren su docencia.
4. Generar instancias de reconocimiento alineadas con la visión de la docencia y
aprendizaje presentados en este informe.

En segundo lugar, los resultados de este estudio pueden aportar a la discusión e implementación
de políticas públicas. Como se indicó en la propuesta de este estudio, el Sistema Nacional de
Acreditación, si bien ha sido exitoso en instalar el concepto de calidad y fomentar que las
instituciones de Educación Superior realicen procesos de reflexión sobre su actuar; ha sido
criticado pues ha tendido a homologar la calidad de la educación superior con los procesos de
acreditación de las instituciones y programas, sin considerar qué se entiende por calidad en un
contexto universitario (Dirección de Asuntos Publicos PUC, 2009). Además, los procesos de
acreditación se han centrado en verificar el cumplimiento de estándares mínimos de operación,
alejándose de lo que debería ser el foco central de la educación superior: el valor agregado que se
100

genera en la formación de personas y la actividad de investigación y de creación (p. 12). A través
de este estudio se ha demostrado que el modelo Student Learning Research funciona bien con
estudiantes y profesores chilenos. Por lo tanto, podría emplearse como evidencia de mejoras en
los procesos de aprendizaje al interior de universidades o facultades específicas cuando estas
enfrenten procesos de acreditación. Esto permitiría avanzar desde la sola verificación de
estándares mínimos hacia la una acreditación basada en evidencia que permita verificar la calidad
de los procesos de aprendizaje. Esto permitiría alinear la acreditación con tendencias
internacionales. Investigaciones sobre procesos de acreditación sugieren que la preocupación por
calidad de los procesos de aprendizaje constituye un área de trabajo en expansión que debe ser
considerada al re-pensar esta actividad (Harvey & Williams, 2010). Por otro lado, también es
importante considerar, a la luz de los resultados del presente estudio, un tema sensible para las
universidades: el financiamiento estatal. En países desarrollados una parte está asociada a los
resultados que obtienen en sus dos áreas de actividad más relevantes: docencia e investigación.
Por ejemplo, en el Reino Unido el “Research Assessment Excercise” (véase:
http://www.rae.ac.uk/) pondera a las universidades según sus outputs de investigación. Del
mismo modo, en Australia “The Excellence in Research for Australia Initiative” (véase:
http://www.arc.gov.au/era/default.htm) cumple una función similar. A través del éxito que las
universidades hayan tenido en investigación en un periodo determinado se les asignan recursos
estatales. En docencia, en Australia existe el “Learning and Teaching Performance Fund”
(véase:
http://www.deewr.gov.au/HigherEducation/Programs/Quality/QualityAssurance/Pages/TheAusG
ov.aspx ), a través del cual las universidades que logran demostrar excelencia en aprendizaje y
docencia reciben financiamiento del estado. Finalmente en este punto, es importante retomar lo
discutido en las recomendaciones para el desarrollo docente al interior de las universidades. El
programa MECESUP se ha constituido en la principal forma de inversión estatal en el sistema
universitario. Una nueva versión de este programa podría considerar el financiamiento del
desarrollo de la calidad de las experiencias de aprendizaje al interior de las universidades como se
discutió anteriormente. De este modo, sería posible que las universidades se embarcaran en
proceso de mediano plazo para implementar estas iniciativas, como la literatura internacional ha
mostrado que es necesario (Postareff, et al., 2007; Postareff, Lindblom-Ylänne, et al., 2008).
101


7.2.2 Recomendaciones para futuras investigaciones
El estudio realizado no está exento de limitaciones. En primer lugar, nuestro interés era probar el
modelo. Por lo tanto, se trabajo con una muestra que, aunque representa porcentajes importantes
de los estudiantes matriculados en tercer año de las universidades participantes, no es
representativa del total de estudiantes chilenos matriculados en instituciones universitarias.
Además, el número de profesores encuestados es menor. En este sentido, si bien consideramos
que los resultados del testeo del modelo son bastante robustos, creemos que los instrumentos se
deberían aplicar a una muestra con mejores niveles de representatividad antes de usarse, por
ejemplo, a nivel país para levantar información sobre la calidad de las experiencias que ofrecen
las universidades chilenas. Por otro lado, consideramos que la calidad de los resultados obtenidos
permite que los instrumentos puedan seguir empleándose con fines de investigación al interior de
las universidades (a nivel global, departamental o de cursos específicos). En segundo lugar, como
parte del diseño del estudio se decidió trabajar con estudiantes de tercer año. Esto es una
limitación pues sus experiencias, ya habituados a la vida universitaria, son distintas a aquellas de
los estudiantes que recién ingresan o aquellos que están a punto egresar. En tercer lugar, la
muestra levantada no permitió realizar análisis a nivel de carreras específicas sino de grandes
áreas disciplinarias. Esto también es una limitación pues al interior de las áreas en que agrupamos
las carreras hay culturas bastante diferentes, que podrían haberse “enmascarado” debido a la
estrategia de selección y agrupación. Finalmente, en este punto, la naturaleza de los instrumentos
utilizados no permite levantar información sobre formas de docencia y aprendizaje más
específicas asociadas a la naturaleza de las disciplinas o de formatos de docencia concretos (por
ejemplo, aprendizaje basado en problemas). Los instrumentos utilizados son de carácter genérico,
precisamente para poder obtener información comparable en un rango de disciplinas.

Estas limitaciones, además de los resultados presentados en las secciones anteriores, abren varias
posibilidades para investigaciones futuras. Primero, si los instrumentos se emplean para
evaluaciones a nivel del sistema universitario chileno, sería necesario un estudio con un mejor
nivel de representatividad. Al mismo tiempo, en este estudio usamos la perspectiva de los
estudiantes que actualmente se encuentran matriculados, mientras que en los estudios evaluativos
102

tradicionales se aplican cuando egresan (Wilson, et al., 1997). Esto implica cambiar al pasado los
verbos y referirse, en general, a los profesores y cursos del grado académico completo. Esta
instancia, además, podría ser aprovechada para incorporar otras escalas que, a través del diálogo
con actores del sistema de educación superior, se consideraran importantes. Por ejemplo, escalas
similares a aquellas utilizadas en el estudio de McInnis (2001). Segundo, el estudio solo levantó
información de estudiantes de tercer año. Futuras investigaciones podrían indagar experiencias
relativamente diferentes, como las de los estudiantes de primero o último año (como por ejemplo
en Minasian-Batmanian, L.; Lingard, & Prosser, 2005). Tercero, de manera similar, los resultados
se agruparon en dos grandes áreas disciplinarias. Se mostró, además, que algunos elementos de la
experiencia del curso eran más importantes en algunas áreas disciplinarias que otras. Por ejemplo,
buena docencia era más relevante para Ciencias Sociales y Humanidades; y metas y objetivos
claros para el área de Ciencia y Tecnología. Esto lleva a la necesidad de realizar estudios en
carreras específicas que pongan de relevancia la importancia de las disciplinas en como
experimentan los estudiantes su aprendizaje; y que avancen en realizar comparaciones. Estudios
de este tipo han sido realizados, por ejemplo, por Parpala, Lindblom-Ylänne, & Rytkönen (en
prensa). Cuarto, un elemento que emergió como clave para los profesores que tendían a abordar
su docencia centrándose en el aprendizaje y el estudiante fue su participación en instancias de
capacitación en docencia. Sin embargo, en el estudio no se preguntó en qué habían consistido.
Por lo tanto, estudios que indaguen el tipo de capacitación en desarrollo docente que promueve la
forma de docencia que promueve aprendizajes de calidad también aparece como un área para
realizar estudios en el futuro. Trabajos similares han sido realizados por Postareff, Lindblom-
Ylänne & Nevgi (2008). Quinto, se mencionó que una limitación de los instrumentos utilizados
era que se trataba de instrumentos genéricos que no dan cuenta de disciplinas o formas de
docencia específicas. Mientras que esto es cierto, es importante mencionar que investigadores
han realizado adaptaciones a los contextos en que han levantado información. Por ejemplo, se
han adaptado para usarse en investigaciones sobre cómo aprenden los estudiantes a través de
discusiones (Bliuc, et al., 2010; Ellis, R.; Goodyear, Calvo, et al., 2008); o escritura académica
(Ellis, R. A.; Taylor, et al., 2007). Futuras investigaciones podrían evaluar el uso de estos
instrumentos adaptados a distintos contextos de docencia. Finalmente, es importante mencionar
que se abren posibilidades diversas de investigación y que no todas pueden ser previstas en esta
103

selección. Los instrumentos tienen una versatilidad suficiente para poder ser aplicados a nivel de
facultades o cursos específicos, realizar comparaciones entre distintos niveles o áreas
disciplinarias, etc.

7.3 Conclusión
Los resultados presentados en las secciones previas de este informe son importantes. Al analizar
las experiencias de aprendizaje de los estudiantes se verificó que aquellos que abordan su
aprendizaje de manera profunda son aquellos que simultáneamente perciben que los elementos
del contexto de aprendizaje son apropiados. Por otro lado, aquellos estudiantes que abordan su
aprendizaje de manera superficial son aquellos que simultáneamente perciben que los del
contexto de aprendizaje no son apropiados. Cuando se consideró el caso de los profesores, los
resultados mostraron que aquellos que abordan la docencia centrándose en sus propias
actividades y en la transmisión de información son los que simultáneamente presentan una
percepción negativa de las dimensiones asociadas a su contexto de docencia. Por otro lado,
aquellos que la abordan centrándose en el estudiante simultáneamente perciben que su contexto
de docencia es apropiado. Al indagar como se asociaban las experiencias de profesores y
estudiantes, los resultados indicaron que los cursos en que los estudiantes tienden a abordar su
aprendizaje de manera profunda y presentar percepciones positivas sobre el contexto en que se
realiza son aquellos en los cuales los profesores abordan la docencia centrándose en el cambio
conceptual y el estudiante. Estos profesores, además, presentan percepciones positivas sobre el
contexto de la docencia. Es probable que estos cursos se desarrollen en el área de las Ciencias
Sociales y Humanidades, y que los profesores hayan pasado por algún tipo de capacitación en
docencia. Al profundizar en las experiencias de los estudiantes, a través de un path analysis se
encontró que, a nivel de la muestra total, las percepciones positivas sobre “Evaluación
Apropiada”, “Buena Docencia” y “Metas y Objetivos Claros”, en ese orden, son las que más
promueven el aprendizaje profundo. Finalmente se indagó, si existían diferencias significativas
en las escalas de los cuestionarios cuando se consideraban variables demográficas y de contexto.
Para el caso de los estudiantes se observó que, al considerar la variable “Sexo”, las mujeres
tienden a abordar su aprendizaje de manera más profunda que los hombres y a tener percepciones
más positivas del contexto de aprendizaje. En relación a “Área Disciplinaria” se observaron
104

diferencias estadísticamente significativas en todas las escalas de los cuestionarios. La tendencia
indicó que aquellos estudiantes del área Ciencias Sociales y Humanidades tienden a abordar el
aprendizaje de manera más profunda que aquellos del área Ciencia y Tecnología, y a tener
percepciones más positivas sobre el contexto de aprendizaje.

Estos resultados están alineados, y extienden, estudios internacionales realizados en este ámbito
de investigación. Por esta razón, es posible afirmar que el modelo testeado a través del estudio
presentado en este informe hace sentido con estudiantes y profesores chilenos. Este hallazgo es
importante pues permitiría, a través de un uso contextualizado de los conceptos y métodos
desarrollados por Student Learning Research, informar la práctica instituciones que tienen como
parte de su misión orientar el mejoramiento de las prácticas docentes y la calidad del aprendizaje
(por ejemplo, los centros de desarrollo docente, el programa MECESUP, entidades encargadas de
la acreditación, entre otros). En esta dirección, se propuso orientar el mejoramiento de la
docencia universitaria con los resultados del estudio, promoviendo una visión ecológica del
proceso de aprendizaje y docencia y alineada con los postulados del scholarship of teaching.
Esta perspectiva debería promoverse tanto desde las universidades como de las entidades
estatales asociadas al sistema universitario.

Finalmente, es importante destacar que, utilizando el modelo presentado, es posible continuar
indagando, a través de investigaciones que ocupen los marcos conceptuales y metodológicos
empleados, la realidad de los procesos de aprendizaje en la educación superior chilena, de manera
de superar el diagnóstico de la OECD (2009) y entregar a los estudiantes las capacidades y
habilidades que les permitan actuar productivamente en la sociedad del conocimiento.



105

Referencias bibliográficas

Åkerlind, G. S. (2003). Growing and developing as a university teacher - Variation in meaning.
Studies in Higher Education, 28(4), 375-390.
Åkerlind, G. S. (2004). A new dimension to understanding university teaching. Teaching in
Higher Education, 9(3), 363-375.
Allendes, J. P. (2005). Programa remedial de matemáticas. La experiencia del instituto
profesional Duoc-UC. Revista Calidad en la Educación, 23(2), 85-101.
Ashwin, P. (2006). Variation in academics' accounts of tutorials. Studies in Higher Education,
31(6), 651 - 665.
Barnett, R. (2000). Realizing the university in an age of supercomplexity. Philadelphia, PA:
Society for Research into Higher Education & Open University Press.
Barnett, R. (2005). Reshaping the university : new relationships between research, scholarship
and teaching. Maidenhead: Society for Research into Higher Education & Open
University Press.
Becher, T., & Trowler, P. (2001). Academic tribes and territories : intellectual enquiry and the
culture of disciplines (2nd ed.). Philadelphia, PA: Open University Press.
Benson, R., & Brack, C. (2009). Developing the scholarship of teaching: what is the role of e-
teaching and learning? Teaching in Higher Education, 14(1), 71-80.
Biggs, J. (1987). Study Process Questionnaire Manual. Melbourne: Australian Council for
Educational Research
Biggs, J., Kember, D., & Leung, D. Y. P. (2001). The revised two-factor Study Process
Questionnaire: R-SPQ-2F. British Journal of Educational Psychology, 71, 133-149.
Biggs, J., & Tang, C. (2007). Teaching for quality learning at university : what the student does
(3nd ed.). Phildelphia, Pa.: Society for Research into Higher Education : Open University
Press.
Bliuc, A. M., Ellis, R., Goodyear, P., & Piggott, L. (2010). Learning through face-to-face and
online discussions: Associations between students' conceptions, approaches and academic
performance in political science. British Journal of Educational Technology, 41(3), 512-
524.
106

Bowden, J., & Marton, F. (2004). The university of learning. London: Routledge.
Brew, A., & Ginns, P. (2008). The relationship between engagement in the scholarship of
teaching and learning and students' course experiences. Assessment & Evaluation in
Higher Education, 33(5), 535-545.
Bryant, J. L. (2006). Assessing expectations and perceptions of the campus experience: The
Noel-Levitz Student Satisfaction Inventory. New Directions for Community Colleges,
2006(134), 25-35.
Canales, A., & de los Ríos, D. (2007). Factores explicativos de la deserción universitaria. Revista
Calidad en la Educación, 26(julio), 171-201.
Canales, A., & de los Ríos, D. (2009). Retención de estudiantes vulnerables en la educación
universitaria chilena. Revista Calidad en la Educación, 30(julio), 49-83.
Cañada, M. D. (En prensa). Enfoque docente de la enseñanza y el aprendizaje de los profesores
universitarios y usos educativos de las TIC. Revista de Educación, Consultado el 15 de
Febrero del 2011 desde http://www.revistaeducacion.mec.es/doi/2359_2099.pdf.
Casanova, D., Fernández, E., & Marín, R. (2005). Contraste entre el perfil del postulante y los
alumnos de primer año en 2005. Revista Calidad en la Educación, 23(2), 63-83.
Case, J., & Marshall, D. (2004). Between deep and surface: procedural approaches to learning in
engineering education contexts. Studies in Higher Education, 29(5), 605 - 615.
Contreras, D., Gallegos, S., & Meneses, F. (2009). Determinantes de desempeño universitario:
¿Importa la habilidad relativa? Revista Calidad en la Educación, 30(julio), 17-48.
Cuban, L. (2001). Oversold and Underused: Computers in the Classroom. Cambridge, MA:
Harvard University Press.
Dirección de Asuntos Publicos PUC. (2009). Políticas de educación superior: reflexiones y
desafíos para una reforma del sistema. Temas de la Agenda Pública, Año 4(Julio).
Diseth, A. (2007). Approaches to learning, course experience and examination grade among
undergraduate psychology students: testing of mediator effects and construct validity.
Studies in Higher Education, 32(3), 373 - 388.
Diseth, A., Pallesen, S., Brunborg, G. S., & Larsen, S. (2010). Academic achievement among
first semester undergraduate psychology students: the role of course experience, effort,
motives and learning strategies. Higher Education, 59(3), 335-352.
107

Donoso, S., & Cancino, V. (2007). Caracterización socioeconómica de los estudiantes de
Educación Superior. Revista Calidad en la Educación, 26(julio), 203-244.
Ellis, R., & Goodyear, P. (2010). Students' experiences of e-learning in higher education. The
ecology of sustainable innovation. New York & London: Routledge.
Ellis, R., Goodyear, P., Brillant, M., & Prosser, M. (2008). Student experiences of problem-based
learning in pharmacy: conceptions of learning, approaches to learning and the integration
of face-to-face and on-line activities. Advances in Health Sciences Education, 13(5), 675-
692.
Ellis, R., Goodyear, P., Calvo, R. A., & Prosser, M. (2008). Engineering students' conceptions of
and approaches to learning through discussions in face-to-face and online contexts.
Learning and Instruction, 18(3), 267-282.
Ellis, R. A., Goodyear, P., O'Hara, A., & Prosser, M. (2007). The university student experience of
face-to-face and online discussions: coherence, reflection and meaning. ALT-J, 15(1), 83 -
97.
Ellis, R. A., Taylor, C. E., & Drury, H. (2007). Learning science through writing: associations
with prior conceptions of writing and perceptions of a writing program. Higher Education
Research and Development, 26(3), 297 - 311.
Entwistle, N. (2007). Research into student learning and university teaching. BJEP Monograph
Series II, Number 4 - Student Learning and University Teaching, 1, 1-18.
Entwistle, N., & Ramsden, P. (1982). Understanding student learning. London & New York: C.
Helm ; Nichols Pub. Co.
Gibbs, G., & Coffey, M. (2004). The impact of training of university teachers on their teaching
skills, their approach to teaching and the approach to learning of their students. Active
Learning in Higher Education, 5, 87-100.
Gijbels, D., Coertjens, L., Vanthournout, G., Struyf, E., & Van Petegem, P. (2009). Changing
students' approaches to learning: a two-year study within a university teacher training
course. Educational Studies, 35(5), 503-513.
Ginns, P., & Ellis, R. A. (2009). Evaluating the quality of e-learning at the degree level in the
student experience of blended learning. British Journal of Educational Technology, 40(4),
652-663.
108

Ginns, P., Kitay, J., & Prosser, M. (2008). Developing conceptions of teaching and the
scholarship of teaching through a Graduate Certificate in Higher Education. The
International Journal for Academic Development, 13, 175-185.
Ginns, P., Prosser, M., & Barrie, S. (2007). Students' perceptions of teaching quality in higher
education: the perspective of currently enrolled students. Studies in Higher Education,
32(5), 603-615.
González, C. (2009). Conceptions of, and approaches to, teaching online: a study of lecturers
teaching postgraduate distance courses. Higher Education, 57(3), 299-314.
González, C. (2010a). El aprendizaje y el conocimiento académico sobre la enseñanza como
claves para mejorar la docencia.Calidad en la Educación, 33(2do semestre ), 126 - 143.
González, C. (2010b). What do university teachers think eLearning is good for in their teaching?
Studies in Higher Education, 35(1), 61 - 78.
González, C. (2011). Extending research on ‘conceptions of teaching’: commonalities and
differences in recent investigations. Teaching in Higher Education, 16(1), 65 - 80.
Goodyear, P., & Ellis, R. A. (2008). University students' approaches to learning: rethinking the
place of technology. Distance Education, 29(2), 141-152.
Hair, J. F. (1998). Multivariate data analysis (5th ed.). Upper Saddle River, N.J.: Prentice Hall.
Harris, K.-L., & James, R. (2010). The Course Experience Questionnaire, Graduate Destination
Survey, and Learning and Teaching Performance Fund in Australia. In D. D. Dill & M.
Beerkens (Eds.), Public Policy for Academic Quality (Vol. 30, pp. 99-119): Springer
Netherlands.
Harvey, L., & Williams, J. (2010). Fifteen Years of Quality in Higher Education (Part Two).
Quality in Higher Education, 16(2), 81 - 113.
Healey, M. (2000). Developing the Scholarship of Teaching in Higher Education: a discipline-
based approach. Higher Education Research &amp; Development, 19(2), 169 - 189.
Howell, D. C. (2008). Fundamental statistics for the behavioral sciences (6th ed.). Belmont, CA:
Thomson/Wadsworth.
Kember, D. (1997). A reconceptualisation of the research into university academics' conceptions
of teaching. Learning and Instruction, 7(3), 255-275.
109

Kember, D., & Leung, D. Y. P. (1998). The dimensionality of approaches to learning: An
investigation with confirmatory factor analysis of the structure of the SPQ and LPQ.
British Journal of Educational Psychology, 68(395-407).
Kreber, C. (2003a). The relationship between students' course perception and their approaches to
studying in undergraduate science courses: A Canadian experience. Higher Education
Research and Development, 22(1), 57 - 75.
Kreber, C. (2003b). The scholarship of teaching: A comparison of conceptions held by experts
and regular academic staff. Higher Education, 46(1), 93-121.
Lacey, C., & Saleh, A. (1998). Teaching nine to five: A study of the teaching styles of male and
female professors. Paper presented at the Women in Educational Leadership Annual
Conference, October 11-12, Lincoln, Nebraska.
Law, E. H. F., Joughin, G., Kennedy, K. J., Tse, H., & Yu, W. M. (2007). Teacher educators'
pedagogical principles and practices: Hong Kong perspectives. Teaching in Higher
Education, 12(2), 247-261.
Lawless, C. J., & Richardson, J. T. E. (2002). Approaches to studying and perceptions of
academic quality in distance education. Higher Education, 44(2), 257-282.
Leung, D. Y. P., Ginns, P., & Kember, D. (2008). Examining the cultural specificity of
approaches to learning in universities in Hong Kong and Sydney. Journal of Cross-
Cultural Psychology, 39(3), 251-266.
Lindblom-Ylanne, S., Nevgi, A., & Trigwell, K. Regulation of university teaching. Learning and
Instruction, In Press, Corrected Proof.
Lindblom-Ylänne, S., Trigwell, K., Nevgi, A., & Ashwin, P. (2006). How approaches to teaching
are affected by discipline and teaching context. Studies in Higher Education, 31(3), 285-
298.
Lingard, J., Minasian-Batmanian, L., Vella, G., Cathers, I., & Gonzalez, C. (2009). Do students
with well-aligned perceptions of question difficulty perform better? Assessment &
Evaluation in Higher Education, 34(603-619).
Lueddeke, G. R. (2003). Professionalising Teaching Practice in Higher Education: a study of
disciplinary variation and &apos;teaching-scholarship&apos. Studies in Higher
Education, 28(2), 213 - 228.
110

Martin, E., Trigwell, K., Prosser, M., & Ramsden, P. (2003). Variation in the experience of
leadership of teaching in higher education. Studies in Higher Education, 28(3), 247-259.
Marton, F., Dall' Alba, G., & Beaty, E. (1993). Conceptions of learning. International Journal of
Educational Research, 19(3), 277 - 300.
Marton, F., & Saljo, R. (2005). Approaches to learning In F. Marton, D. Hounsell & N. J.
Entwistle (Eds.), The experience of learning: implications for teaching and studying in
higher education. 3rd (Internet) edition. Edinburgh: University of Edinburgh, Centre for
Teaching, Learning and Assesment.
McInnis, C., Griffin, P., James, R., & Coates, H. (2001). Development of the Course Experience
Questionnaire (CEQ). Canberra: Department of Education, Training and Youth Affairs
Minasian-Batmanian, L., Lingard, J., & Prosser, M. (2005). Differences in students' perceptions
of learning compulsory foundation biochemistry in the health sciences professions.
Advances in Health Sciences Education, 10(4), 279-290.
Minasian-Batmanian, L. C., Lingard, J., & Prosser, M. (2006). Variation in student reflections on
their conceptions of and approaches to learning biochemistry in a first-year health
sciences' service subject. International Journal of Science Education, 28(15), 1887-1904.
Minbashian, A., Huon, G. F., & Bird, K. D. (2004). Approaches to studying and academic
performance in short-essay exams. Higher Education, 47(2), 161-176.
Mueller, R. (1996). Basic principles of structural equation modeling : an introduction to LISREL
and EQS. New York: Springer.
Neuman, W. L. (2006). Social research methods : qualitative and quantitative approaches (6th
ed.). Boston: Pearson/Allyn and Bacon.
Nevgi, A., Postareff, L., & Lindblom-Ylänne, S. (2004). The effect of discipline on motivational
and self-efficacy beliefs and on approaches to teaching of Finnish and English university
teachers. Paper presented at the EARLI SIG Higher Education Conference, June 18–21,
2004.
Noble, J., & Davies, P. (2009). Cultural capital as an explanation of variation in participation in
higher education. British Journal of Sociology of Education, 30(5), 591-605.
OECD. (2009). Tertiary Education in Chile. Paris: OECD and World Bank.
111

Parpala, A., & Lindblom-Ylänne, S. (2007). University teachers' conceptions of good teaching in
the units of high-quality education. Studies In Educational Evaluation, 33(3-4), 355-370.
Parpala, A., Lindblom-Ylänne, S., & Rytkönen, H. Students’ conceptions of good teaching in
three different disciplines. Assessment & Evaluation in Higher Education, In press,
corrected proof.
Postareff, L., Katajavuori, N., Lindblom-Ylänne, S., & Trigwell, K. (2008). Consonance and
dissonance in descriptions of teaching of university teachers. Studies in Higher Education,
33(1), 49-61.
Postareff, L., & Lindblom-Ylänne, S. (2008). Variation in teachers' descriptions of teaching:
Broadening the understanding of teaching in higher education. Learning and Instruction,
18(2), 109-120.
Postareff, L., Lindblom-Ylänne, S., & Nevgi, A. (2007). The effect of pedagogical training on
teaching in higher education. Teaching and Teacher Education, 23(5), 557-571.
Postareff, L., Lindblom-Ylänne, S., & Nevgi, A. (2008). A follow-up study of the effect of
pedagogical training on teaching in higher education. Higher Education, 56(1), 29-43.
Prosser, M., Ramsden, P., Trigwell, K., & Martin, E. (2003). Dissonance in experience of
teaching and its relation to the quality of student learning. Studies in Higher Education,
28(1), 37-48.
Prosser, M., & Trigwell, K. (1997). Relations between perceptions of the teaching environment
and approaches to teaching. British Journal of Educational Psychology, 67, 25-35.
Prosser, M., & Trigwell, K. (1999a). Understanding learning and teaching : the experience in
higher education. Buckingham [England] ; Philadelphia, PA: Society for Research into
Higher Education & Open University Press.
Prosser, M., & Trigwell, K. (1999b). Understanding learning and teaching: the experience in
higher education. Buckingham [England]; Philadelphia, PA: Society for Research into
Higher Education & Open University Press.
Prosser, M., & Trigwell, K. (2006). Confirmatory factor analysis of the approaches to teaching
inventory. British Journal of Educational Psychology, 76, 405-419.
Ramsden, P. (1991). A performance indicator of teaching quality in higher education: the 'Course
Experience Questionnaire'. Studies in Higher Education, 16, 129-150.
112

Ramsden, P. (1998). Learning to lead in higher education. London ; New York: Routledge.
Ramsden, P. (2003). Learning to teach in higher education (2nd ed.). London ; New York:
RoutledgeFalmer.
Ramsden, P., Prosser, M., Trigwell, K., & Martin, E. (2007). University teachers' experiences of
academic leadership and their approaches to teaching. Learning and Instruction, 17(2),
140-155.
Reeves, T. (2006). Design research from a technology perspective. In I. Van den Akker, K.
Gravemeijer, S. McKenney & N. Nieveen (Eds.), Educational Design Research (pp. 52-
66). New York: Routledge.
Richardson, J. T. E. (2005a). Instruments for obtaining student feedback: a review of the
literature. Assessment & Evaluation in Higher Education, 30(4), 387 - 415.
Richardson, J. T. E. (2005b). Students' Approaches to Learning and Teachers´ Approaches to
Teaching in Higher Education. Educational Psychology, 25(6), 673 - 680.
Richardson, J. T. E. (2005c). Students' perceptions of academic quality and approaches to
studying in distance education. British Educational Research Journal, 31(1), 7-27.
Richardson, J. T. E. (2009). What can students´ perceptions of academic quality tell us? research
using the course experience questionnaire. In M. Tight, K. H. Mok, J. Huisman & C.
Morphew (Eds.), The Routledge International Handbook of Higher Education (pp. 199-
209). London ; New York: Routledge.
Richardson, J. T. E. (2010). Perceived Academic Quality and Approaches to Studying in Higher
Education: Evidence from Danish Students of Occupational Therapy. Scandinavian
Journal of Educational Research, 54(2), 189-203.
Richardson, J. T. E., & Price, L. (2003). Approaches to studying and perceptions of academic
quality in electronically delivered courses. British Journal of Educational Technology,
34(1), 45-56.
Rodriguez, L. (2005). Análisis de las creencias epistemológicas, concepciones y enfoques de
aprendizaje de los futuros profesores., Universidad de Granada, Granada.
Rodriguez, L., & Cano, F. (2006). The epistemological beliefs, learning approaches and study
orchestrations of university students. Studies in Higher Education, 31(5), 617 - 636.
113

Rojas, G., Salas, R., & Jiménez, C. (2006). Estilos de aprendizaje y estilos de pensamiento entre
estudiantes universitarios. Estudios Pedagógicos (Valdivia), XXXII(1), 49-75.
Rollnick, M., Davidowitz, B., Keane, M., Bapoo, A., & Magadla, L. (2008). Students' learning-
approach profiles in relation to their university experience and success. Teaching in
Higher Education, 13(1), 29 - 42.
Ruiz, F. A., & Schumacher, C. (2008). Evaluación del aprendizaje universitario. Educación y
Educadores, 11, 91-105.
Salas, R. (1998). Enfoques de aprendizaje entre estudiantes universitarios. Estudios Pedagógicos,
24, 59-78.
Solar, M. I., & Díaz, C. (2009a). El profesor universitario: construcción de su saber pedagógico e
identidad profesional a partir de sus cogniciones y creencias. Revista Calidad en la
Educación, 30(julio), 207-232.
Solar, M. I., & Díaz, C. (2009b). Los procesos de enseñanza-aprendizaje en el aula universitaria:
una mirada desde las creencias de académicos de Trabajo Social y Periodismo. Estudios
Pedagógicos, XXXV(1), 181-197.
Stes, A., De Maeyer, S., & Van Petegem, P. (2010). Approaches to teaching in higher education:
Validation of a Dutch version of the approaches to teaching inventory. Learning
Environments Research, 13, 59-73.
Stes, A., Gijbels, D., & Van Petegem, P. (2008). Student-focused approaches to teaching in
relation to context and teacher characteristics. Higher Education, 55(3), 255-267.
Susperreguy, M. I., Flores, A., Micin, S., & Zuzulich, M. S. (2007). Apoyo académico en la
Educación Superior: descripción de la experiencia y perfil de los alumnos que participan
en el CARA UC. Revista Calidad en la Educación, 26(julio), 307-333.
Thomas, L., & Quinn, J. (2007). First Generation Entry into Higher Education (ui ed.).
Maidenhead: Open University Press.
Thompson, B. (2004). Exploratory and confirmatory factor analysis : understanding concepts
and applications (1st ed.). Washington, DC: American Psychological Association.
Trigwell, K., & Ashwin, P. (2006). An exploratory study of situated conceptions of learning and
learning environments. Higher Education, 51(2), 243-258.
114

115

Trigwell, K., Martin, E., Benjamin, J., & Prosser, M. (2000). Scholarship of Teaching: A Model.
Higher Education Research and Development, 19(2), 155-168.
Trigwell, K., & Prosser, M. (1991). Improving the quality of student learning - the influence of
learning context and student approaches to learning on learning outcomes. Higher
Education, 22(3), 251-266.
Trigwell, K., & Prosser, M. (1996). Congruence between intention and strategy in university
science teachers' approaches to teaching. Higher Education, 32(1), 77-87.
Trigwell, K., & Prosser, M. (2004). Development and Use of the Approaches to Teaching
Inventory. Educational Psychology Review, 16(4), 409-424.
Trigwell, K., Prosser, M., & Ginns, P. (2005). Phenomenographic Pedagogy and a Revised
"Approaches to Teaching Inventory". Higher Education Research and Development,
24(4), 349-360.
Trigwell, K., Prosser, M., & Taylor, P. (1994). Qualitative Differences in Approaches to
Teaching 1st Year University Science. Higher Education, 27(1), 75-84.
Trigwell, K., Prosser, M., & Waterhouse, F. (1999). Relations between teachers' approaches to
teaching and students' approaches to learning. Higher Education, 37(1), 57-70.
Trigwell, K., & Shale, S. (2004). Student learning and the scholarship of university teaching.
Studies in Higher Education, 29(4), 523-536.
Webster, B. J., Chan, W. S. C., Prosser, M. T., & Watkins, D. A. (2009). Undergraduates'
learning experience and learning process: quantitative evidence from the East. Higher
Education, 58(3), 375-386.
Wilson, K. L., Lizzio, A., & Ramsden, P. (1997). The development, validation and application of
the course experience questionnaire. Studies in Higher Education, 22(1), 33-53.
Zeegers, P. (2001). Approaches to learning in science: a longitudinal study. The British journal of
educational psychology, 71(Pt 1), 115-132.
Zeegers, P. (2002). A Revision of the Biggs' Study Process Questionnaire (R-SPQ). Higher
Education Research and Development, 21(1), 73 - 92.
Zhang, L. (2009). Occupational stress and teaching approaches among Chinese academics.
Educational Psychology, 29, 203–219.



ANEXOS

Anexo 1: Estadísticos descriptivos para los ítems de las escalas de los
cuestionarios SPQ, CEQ, ATI y PTE

1. Análisis descriptivo de los ítems del cuestionario SPQ
El análisis descriptivo presenta el promedio, la desviación estándar y distribución porcentual
de las respuestas de los estudiantes para cada ítem de las escalas del SPQ.

1.1 Escala “Aprendizaje Superficial”
La tabla 1 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los estudiantes para los ítems de la escala “Aprendizaje Superficial”.

Tabla 1: Estadísticos descriptivos de la escala “Aprendizaje Superficial”

Respuestas a escala Likert (%)


Ítem
Promedio

Desviación
Estándar

De acuerdo

Neutral

En
Desacuerdo

1. Mi objetivo es aprobar el curso haciendo
el menor trabajo posible.

2.76

1.364

32.1

18.2

44.6
2. Solo estudio en serio lo que se ve en la
clase o lo que está en el programa del
curso.
3.46 1.050 55.4 24.1 20.5
3. Me parece que la mejor forma de aprobar
un examen es tratar de memorizar
respuestas a preguntas que
probablemente entren en él.
2.20 1.150 14.8 19.5 65.8
4. Generalmente me limito a estudiar sólo
lo que se establece, porque creo que es
innecesario hacer cosas extra.
2.63 1.090 22.3 28.5 49.2
5. Aprendo algunas cosas mecánicamente
repasándolas una y otra vez hasta que las
sé de memoria, aunque no las
comprenda.
2.48 1.160 22.2 20.9 56.9
6. Creo que no es útil estudiar los temas en
profundidad. Eso sólo confunde y hace
perder el tiempo, cuando lo único que se
necesita es familiarizarse con los temas
para aprobarlos.
2.01 1.028 10.4 15.4 74.2
7. No tiene sentido estudiar el material que
probablemente no va a entrar en el
examen.
2.66 1.109 22.8 28.7 48.5
8. Me parece que los profesores no deben
esperar que los alumnos pasen mucho
tiempo estudiando materiales que se sabe
que no van a entrar en el examen.
3.04 1.110 35.3 32.1 32.6
9. Si no encuentro este curso interesante,
me esfuerzo lo mínimo.
2.84 1.209 32.3 25.5 42.2
10. Puedo aprobar la mayoría de las
evaluaciones formales memorizando
partes clave de los temas, y no intentando
comprenderlos. Creo que es innecesario
hacer cosas extra.

2.33 1.137 16.6 21.5 61.9
n=1687

En los resultados observados en la tabla 1 se aprecia que el promedio de los distintos ítems de
la escala “Aprendizaje Superficial” fluctúan entre 2.01 y 3.46. Adicionalmente, se observa
que en la mayoría de los ítems, salvo en 2 y 8, los porcentajes tienden a concentrarse en el
atributo en desacuerdo. Por otra parte, se observa que los menores promedios están en los
ítems 6, 3 y 10; y que los promedios más altos se sitúan en los ítems 2 y 8. En los ítems 6, 3 y
10 se observan concentraciones en la alternativa en desacuerdo, que representan sobre el
60%; mientras que se observa una concentración de las respuestas en el atributo de acuerdo
en los ítems 2 y 8. Finalmente, se observa poca dispersión de las respuestas entregadas por los
estudiantes, ya que la desviación estándar más alta es 1.364.

1.2 Escala “Aprendizaje Profundo”
En la tabla 2 se presenta el promedio, la desviación estándar y distribución porcentual de las
respuestas a cada uno de los ítems de la escala “Aprendizaje Profundo”.

Tabla 2: Estadísticos descriptivos de la escala “Aprendizaje Profundo”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar


De acuerdo

Neutral

En
Desacuerdo


1. Me autoevalúo en temas importantes hasta
que los entiendo por completo.

3.58

0.880

57.3

32.2

10.5
2. Trabajo duro en mis estudios cuando creo
que el material es interesante.
4.31 0.779 88.0 9.3 2.7
3. Dedico gran parte de mi tiempo libre a
recopilar más información sobre temas
interesantes ya tratados.
2.68 1.006 19.5 38.3 42.2
4. Asisto a la mayoría de las clases con
preguntas en mente de las cuales busco
respuesta.
2.90 1.075 28.5 35.1 36.4
5. Para mí sí tiene sentido revisar la mayoría
de las lecturas recomendadas para cada
clase.
3.56 0.985 58.7 26.4 15.0
6. Me parece que estudiar temas académicos
puede ser en ocasiones tan emocionante
como una buena novela o película.
3.47 1.135 55.4 23.6 20.9
7. La mayoría de los temas nuevos me
parecen interesantes y frecuentemente paso
tiempo extra tratando de obtener más
información acerca de ellos.
2.99 0.926 28.5 41.5 30.0
8. En ocasiones el estudio me proporciona un
sentimiento de profunda satisfacción
personal
3.91 0.956 74.3 16.6 9.1
9. Tengo que trabajar bastante en un tema
para poder formarme mis propias
conclusiones; sólo así me siento satisfecho.
3.72 0.908 64.1 26.5 9.4
10. Siento que realmente cualquier tema puede
ser interesante una vez que me pongo a
trabajar en él.

3.45 1.066 53.1 27.0 19.9
n=1687

En la tabla 2 se pueden observar promedios entre 2.68 y 4.31 en los ítems de la escala
“Aprendizaje Profundo”, siendo éstos mayores a los observados en la escala anterior. En
contraste con lo observado en la escala “Aprendizaje Superficial”, en la escala “Aprendizaje
Profundo” las respuestas tienden a concentrarse mayoritariamente en la categoría de acuerdo.
Al analizar con mayor detalle la distribución de los porcentajes, se observa que los ítems 2, 8
y 9 presentan una mayor concentración de las respuestas en la categoría de acuerdo, y además
poseen los promedios más altos dentro de la escala. Además, se aprecia que los ítems 3, 4 y 7
presentan porcentajes que se concentran preferentemente en la categoría en desacuerdo y
poseen los menores promedios dentro de la escala. En cuanto a la desviación estándar, se
observa una menor dispersión de las respuestas en comparación a la escala anterior,
fluctuando ésta entre 1.135 y 0.779.
2. Análisis descriptivo de los ítems del cuestionario CEQ
El análisis descriptivo presenta el promedio, la desviación estándar y distribución porcentual
de las respuestas de los estudiantes para cada ítem de las escalas del CEQ. En los siguientes
apartados se presentan estos análisis para cada escala del cuestionario.

2.1 Escala “Buena Docencia”
La tabla 3 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los estudiantes para los ítems de la escala “Buena Docencia”.

Tabla 3: Estadísticos descriptivos de la escala “Buena Docencia”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De acuerdo

Neutral

En
Desacuerdo


1. El profesor de este curso me motiva a hacer mi
mejor trabajo.
3.81 1.044 67.0 21.0 12.0
2. El profesor trabaja duro para hacer interesante la
materia.
3.57 1.125 57.3 25.4 17.3
3. El profesor es muy bueno explicando la materia. 3.75 1.068 64.2 23.1 12.7
4. El profesor normalmente me da
retroalimentación útil sobre como lo estoy
haciendo.
3.32 1.117 46.0 29.8 24.2
5. El profesor emplea mucho tiempo para comentar
mi trabajo.
2.72 0.917 17.1 44.1 38.8
6. El profesor hace un esfuerzo real para tratar de
entender las dificultades que pudiera estar
teniendo con mi trabajo.

3.42 1.101 51.0 28.8 20.2
n=1687

Los ítems de la escala “Buena Docencia” presentan promedios que se ubican entre 2.72 y
3.81. Además, se observan desviaciones estándar entre 0.917 y 1.125 lo que implica poca
dispersión de las respuestas. Al observar la distribución porcentual de las respuestas a cada
ítem, se puede observar una cierta concentración de las respuestas en la categoría de acuerdo,
por sobre el 50% en la mayor parte de los ítems. Esto sugiere que los estudiantes tendrían, en
general, una percepción más bien positiva sobre la docencia. Sin embargo, se observa que los
ítems 4 y 5 presentan porcentajes bajo el 50% y, además, presentan los promedios más bajos
dentro de la escala. Ambos ítems están relacionados con la retroalimentación, lo cual podría
indicar que esta es una actividad que los profesores no han desarrollada de manera apropiada.

2.2 Escala “Carga de Trabajo Apropiada”
La tabla 4 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los estudiantes para los ítems de la escala “Carga de Trabajo Apropiada”.

Tabla 4: Estadísticos descriptivos de la escala “Carga de Trabajo Apropiada”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De acuerdo

Neutral

En
Desacuerdo


1. Hay una gran presión sobre mí como
estudiante en este curso.

3.35

1.140

47.5

29.1

23.4
2. La carga de trabajo es muy pesada. 3.45 1.029 48.9 32.9 18.2
3. Generalmente, me dan el tiempo
suficiente para comprender las cosas que
tengo que aprender.
3.23 1.092 46.8 26.9 26.3
4. El gran volumen de trabajo contemplado
en este curso significa que no todo puede
ser comprendido en detalle.

3.30 1.105 46.9 26.6 26.5
n=1687

Los promedios presentados por los ítems de la escala “Carga de Trabajo Apropiada” fluctúan
entre 3.23 y 3.45, lo que sugiere que, en general (considerando los ítems 1, 2 y 4), los
estudiantes se tenderían a sentir sobrecargados de trabajo. En cuanto a la desviación estándar,
se registran valores que van desde 1.092 a 1.140; lo cual refleja que existe poca dispersión en
las respuestas de los estudiantes. En relación a la distribución porcentual de las respuestas, es
posible observar que en todos los casos existe una concentración en torno a la alternativa de
acuerdo. Los porcentajes de se ubican en el rango entre 45 y 50%. Al analizar con mayor
detalle las distribuciones porcentuales, pareciera que una alta proporción de los estudiantes
considera tener una carga de trabajo pesada, lo que es coherente con los promedios de las
respuestas a los ítems 1, 2 y 4. Pese a lo anterior, se inclinan a responder que poseen el tiempo
suficiente para comprender los contenidos (46.8%); aunque este tiempo no permitiría lograr
una mayor profundización (46.9%).

2.3 Escala “Metas y Objetivos Claros”

La tabla 5 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los estudiantes para los ítems de la escala “Metas y Objetivos Claros”.






Tabla 5: Estadísticos descriptivos de la escala “Metas y Objetivos Claros”

Respuestas a escala Likert (%)


Ítem

Promedio

Desviación
Estándar

De acuerdo

Neutral

En
Desacuerdo


1. Siempre es fácil conocer las exigencias del
trabajo esperado en este curso.
3.40 1.052 49.9 29.7 20.4
2. Desde el inicio del curso el profesor dejó en
claro qué se esperaba de los estudiantes.
3.91 1.028 72.3 16.7 11.0
3. En este curso, usualmente he tenido una idea
clara hacia dónde vamos y que se espera de mí.
3.66 1.008 62.5 23.4 14.1
4. A menudo ha sido difícil descubrir que se
espera de mí en este curso.

2.59 1.040 19.5 32.2 48.3
n=1687

Los estadísticos descriptivos presentados en tabla 7 muestran que los ítems 1, 2, y 3 presentan
promedios que fluctúan entre 3.40 y 3.91; mientras que el ítem 4 presenta un promedio menor
al resto de los ítems (2.59) debido a que está redactado en negativo. Por otro lado, se observan
desviaciones estándar menores a 1.052 en todos los ítems, lo que indica una baja dispersión
en las respuestas. En cuanto a la distribución porcentual, los tres primeros ítems se concentran
en el atributo de acuerdo, mientras que en el último ítem existe un mayor porcentaje de
respuestas asociadas al atributo en desacuerdo. Estos resultados sugieren que, en general, los
estudiantes considerarían que las metas y objetivos del curso son claros. Además, perciben
que conocen qué se espera de ellos.

2.4 Escala “Evaluación Apropiada”
En la tabla 6 se muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los ítems de la escala “Evaluación Apropiada”.

Tabla 6: Estadísticos descriptivos de la escala “Evaluación Apropiada”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De acuerdo

Neutral

En
Desacuerdo


1. Para hacerlo bien en este curso todo lo que
necesitas es tener buena memoria.
2.21 1.171 15.0 17.5 67.5
2. El profesor solo me hace preguntas literales
de la materia.
2.35 1.367 15.6 23.7 60.7
3. El profesor parece más interesado en evaluar
lo que he memorizado que lo que he
comprendido.
2.39 1.249 20.6 19.1 60.3
n=1687.

Los valores promedios de los ítems de la escala “Evaluación Apropiada” aparecen bastante
concentrados: entre 2.21 y 2.39. Por otro lado, las desviaciones estándar están entre 1.171 y
1.249, lo que sugiere una baja dispersión en las respuestas. Además, la distribución porcentual
de las respuestas muestra una concentración hacia la alternativa en desacuerdo. Este resultado
sugiere que una alta proporción de los estudiantes percibe que las evaluaciones no solo se
enfocarían a la reproducción de contenidos.

2.5 Escala “E-learning”

La tabla 7 presenta el promedio, desviación estándar y distribución porcentual de las
respuestas de los ítems de la escala “E-learning”.

Tabla 7: Estadísticos descriptivos para la escala “E-learning”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De acuerdo

Neutral

En
Desacuerdo


1. Donde fueron usadas, las TICs me ayudaron a
aprender.

3.53

1.041

53.8

32.4

13.8
2. Mis experiencias en línea (aquellas provistas por la
universidad a través de la plataforma en línea,
biblioteca, sitios web de curso, etc.) me ayudaron a
involucrarme activamente con mi aprendizaje.
3.18 1.195 43.9 28.3 27.8
3. Las experiencias de aprendizaje en línea del curso
(a través de la plataforma en línea, biblioteca, sitios
web de curso, etc.) estuvieron bien integradas con
mi aprendizaje presencial.
3.13 1.138 41.3 31.9 26.8
4. Los recursos de la página web de mi universidad
(plataforma en línea, biblioteca, sitios web de
curso, etc.) apoyaron mi aprendizaje
3.18 1.226 47.6 22.5 29.9
5. La comunicación en línea con estudiantes y el
profesor ayudó a mi aprendizaje.

2.93 1.212 35.0 29.7 35.3
n=1687

Los resultados a destacar de la tabla 9 son los siguientes. En primer lugar, los promedios de
los varían entre 2.93 a 3.53. En segundo lugar, las desviaciones estándar se ubican entre 1.041
y 1.226. En tercer lugar, la distribución porcentual de las respuestas muestra que tienden a
concentrarse en la categoría de acuerdo, con excepción al ítem 5 en donde se observa el
mismo porcentaje para la categoría de acuerdo y la categoría en desacuerdo (35%). Esta
distribución de porcentajes sugiere una percepción positiva del uso de TICs como
herramientas de apoyo al aprendizaje. Sin embargo, esta es menos positiva cuando se
consideran herramientas e-learning para fomentar la comunicación en línea con el profesor y
otros estudiantes.

3. Análisis descriptivo de los ítems del cuestionario ATI
El análisis descriptivo presenta el promedio, la desviación estándar y distribución porcentual
de las respuestas de los profesores para cada ítem de las escalas del ATI. En los siguientes
apartados se presentan estos análisis para cada escala del cuestionario, tanto con 248 casos
como con los 59 del proyecto CNED.

2.1 Escala “Docencia centrada en el Cambio Conceptual y el Estudiante”
La tabla 8 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los estudiantes para los ítems de la escala “Docencia centrada en el Cambio
Conceptual y el Estudiante” (248 casos).

Tabla 8: Estadísticos descriptivos de la escala “Docencia centrada en el Cambio Conceptual y el Estudiante”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De acuerdo

Neutral

En
Desacuerdo


1. En este curso los estudiantes tienen
oportunidades para discutir cómo va
cambiando su comprensión sobre los
contenidos que estamos viendo
4.06 1.024 77.8 13.3 8.9
2. En la enseñanza de esta asignatura es
importante para mí monitorear cambios en la
comprensión de los tópicos que estamos
viendo
4.28 0.881 84.6 11.3 4.1
3. Estimulo a los estudiantes reestructurar sus
conocimientos previos en términos de una
nueva forma de pensar sobre el contenido
que estamos viendo
4.33 0.797 87.5 9.7 2.8
4. Una buena parte del tiempo de este curso
debe ser utilizada en cuestionar las ideas de
los estudiantes
3.14 1.234 39.9 27.4 32.7
5. En este curso, cuando interactúo con los
estudiantes, trato de desarrollar un diálogo
con ellos acerca de los tópicos que estamos
estudiando
4.59 0.597 96.0 3.2 0.8
6. En este curso dedico algún tiempo de la
enseñanza para que los estudiantes puedan
discutir, entre ellos mismos, conceptos claves
e ideas
3.92 1.062 73.0 13.3 13.7
7. Veo la enseñanza como una ayuda a los
estudiantes para desarrollar nuevas formas de
pensar sobre los contenidos del curso
4.34 0.853 89.1 6.9 4.0
8. La docencia en esta asignatura debe incluir
ayuda a los estudiantes para encontrar sus
propios recursos de aprendizaje
4.10 0.889 78.6 15.4 6.0
9. Provoco deliberadamente debate y
discusiones en las clases de este curso
3.92 1.066 69.3 20.2 10.5
10. En este curso es mejor para los estudiantes
que generen sus propios apuntes en vez de
copiar los míos
3.83 1.052 62.9 27.8 9.3
11. La docencia en este curso debe ayudar a los
estudiantes a cuestionar su propio
entendimiento del contenido tratado.

4.33 0.729 89.1 9.3 1.6
n=248

El análisis de la tabla indica que todos los ítems poseen promedios por sobre 3,
distribuyéndose entre un rango de 3.14 y 4.59. El alto puntaje promedio emerge de la
concentración de las respuestas asociadas a la opción de acuerdo. En cinco ítems aparecen
valores por sobre el 80% (2, 3, 5, 7, 11). Por otro lado, los ítems 3, 5, 7 y 11 son los que
tienen mayores promedios (y poseen los mayores porcentajes en el atributo de acuerdo). Los
ítems 4, 6, 9 y 10 son los que registran los promedios más bajos (además de la menor
agrupación de respuestas bajo la alternativa de acuerdo). En cuanto a las desviaciones
estándar de los ítems se observa que seis de los ítems tienen valores bajo 1, siendo la menor
igual 0.597. Además, el ítem 4 presenta la mayor dispersión con una desviación estándar igual
a 1.34. Finalmente, los ítems que poseen menores promedios presentan mayores valores de
desviación estándar.

La tabla 9 presenta el promedio, desviación estándar y distribución porcentual de las
respuestas de los ítems de la escala “Docencia centrada en el Cambio Conceptual y el
Estudiante”, para el grupo de los 59 profesores encuestados para el estudio CNED.

Tabla 9: Estadísticos descriptivos de la escala “Docencia centrada en el Cambio Conceptual y el Estudiante”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De acuerdo

Neutral

En
Desacuerdo

1. En este curso los estudiantes tienen
oportunidades para discutir cómo va
cambiando su comprensión sobre los
contenidos que estamos viendo
4.07 0.868 78.0 18.6 3.4
2. En la enseñanza de esta asignatura es
importante para mí monitorear cambios en
la comprensión de los tópicos que estamos
viendo
4.16 1.105 82.8 6.9 10.3
3. Estimulo a los estudiantes reestructurar sus
conocimientos previos en términos de una
nueva forma de pensar sobre el contenido
que estamos viendo
4.37 0.692 91.5 6.8 1.7
4. Una buena parte del tiempo de este curso
debe ser utilizada en cuestionar las ideas de
los estudiantes
2.86 1.137 28.8 32.2 39.0
5. En este curso, cuando interactúo con los
estudiantes, trato de desarrollar un diálogo
con ellos acerca de los tópicos que estamos
estudiando
4.43 0.596 94.9 5.1 0.0
6. En este curso dedico algún tiempo de la
enseñanza para que los estudiantes puedan
discutir, entre ellos mismos, conceptos
claves e ideas
3.88 1.068 78.0 6.7 15.3
7. Veo la enseñanza como una ayuda a los
estudiantes para desarrollar nuevas formas
de pensar sobre los contenidos del curso
4.53 0.537 98.3 1.7 0.0
8. La docencia en esta asignatura debe incluir
ayuda a los estudiantes para encontrar sus
propios recursos de aprendizaje
4.12 0.745 84.7 11.9 3.4
9. Provoco deliberadamente debate y
discusiones en las clases de este curso
3.95 0.926 69.0 24.1 6.9
10. En este curso es mejor para los estudiantes
que generen sus propios apuntes en vez de
copiar los míos
3.63 1.049 50.8 39.0 10.2
11. La docencia en este curso debe ayudar a los
estudiantes a cuestionar su propio
entendimiento del contenido tratado.

4.42 0.563 96.6 3.4 0.0
n=59

Al comparar los resultados de la tabla 9 con los de la anterior no se aprecian mayores
diferencias. Los ítems 4, 6, 9 y 10 siguen siendo los que poseen menores promedios y
menores concentraciones en el atributo de acuerdo; mientras que los ítems 3,5, 7 y 11
registran los mayores valores en ambos estadísticos. Una situación particular es que, en este
grupo, no se registraron respuestas para la alternativa en desacuerdo en los ítems 5, 7 y 11.
Finalmente, se observan desviaciones estándar levemente inferiores a las observadas en la
tabla 8, lo cual refleja una menor dispersión en las respuestas entregadas por este grupo de
profesores.

4.3.2.1 Escala “Docencia centrada en la transmisión de información y el profesor”
La tabla 10 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los profesores para los ítems de la escala “Docencia centrada en la Transmisión
de Información y el Profesor”, para 248 casos.

Tabla 10: Estadísticos descriptivos de la escala “Docencia centrada en la transmisión de información y el profesor”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De acuerdo

Neutral

En
Desacuerdo


1. En este curso entrego a los estudiantes el
contenido necesario para pasar pruebas y/o
exámenes
3.31 1.424 50.0 20.2 29.8
2. Presento material para que los estudiantes
obtengan la información básica sobre los
contenidos del curso
4.02 1.022 78.5 9.8 11.7
3. Es importante presentar a los estudiantes
muchos datos e información para que ellos
sepan qué es lo que deben aprender en este
curso
3.07 1.227 40.7 21.0 38.3
4. Creo que una razón importante para hacer
clases es que los estudiantes desarrollen buenos
apuntes
2.57 1.301 26.7 22.3 51.0
5. En este curso mi docencia se enfoca a entregar
a los estudiantes mi comprensión del contenido
2.97 1.239 35.7 25.5 38.8
6. En este curso me concentro en entregar
contenidos que podrían estar disponibles en
libros y textos claves
2.94 1.262 35.6 25.5 38.9
7. En este curso los estudiantes deben enfocarse a
estudiar lo que yo les enseño
3.00 1.132 37.3 28.3 34.4
8. Es importante que los contenidos de este curso
sean descritos en su totalidad en función de
objetivos específicos asociados a las
evaluaciones formales
3.72 1.090 61.5 22.7 15.8
9. Debo saber la respuesta de cualquier pregunta
que los estudiantes me hagan durante este
curso
2.91 1.263 40.3 16.6 43.1
10. En este curso, mi enseñanza se enfoca en hacer
buenas presentaciones del contenido que
estamos viendo con los estudiantes
3.11 1.163 41.7 23.5 34.8
11. Estructuro mi enseñanza en este curso para
ayudar a los estudiantes a pasar las pruebas y/o
exámenes
2.54 1.285 25.0 19.8 55.2
n=248

Los resultados presentados en la tabla 10 muestran que los ítems 2 y 8 tienen los mayores
porcentajes de respuesta de acuerdo, la mayoría se encuentre en un rango entre 30 y 50%; y
que los ítems 4 y 11 presentan los porcentajes menores de respuesta en la mencionada
categoría. Por otro lado, los promedios observados en los ítems presentan valores en un rango
desde 2.54 a 4.02. En relación a las desviaciones estándar, estas presentan valores sobre 1
(entre entre 1.022 y 1.424), observándose la mayor dispersión de los datos en los ítems
relacionados con la necesidad de cubrir completamente los contenidos del curso. Al observar
los ítems con los promedios más altos y, por lo tanto, con mayor concentración de las
respuestas en la alternativa de acuerdo, pareciera que los profesores tienden a estar de
acuerdo ante afirmaciones relacionadas con la necesidad de cubrir completamente los
contenidos del programa. Sin embargo, al analizar los ítems que concentran sus respuestas en
la alternativa en desacuerdo (y que a la vez cuentan con menores promedios), podría sugerirse
que los profesores no ven como una actividad central ayudar a los estudiantes a desarrollar
apuntes o pasar las pruebas.

La tabla 11 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los profesores para los ítems de la escala “Docencia centrada en la transmisión
de información y el profesor” , considerando los 59 profesores encuestados como parte del
estudio CNED.

Tabla 11: Estadísticos descriptivos de la escala “Docencia centrada en la transmisión de información y el
profesor”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De
acuerdo

Neutral

En
Desacuerdo


1. En este curso entrego a los estudiantes el contenido
necesario para pasar pruebas y/o exámenes
3.71 1.498 67.8 6.8 25.4
2. Presento material para que los estudiantes obtengan
la información básica sobre los contenidos del curso
3.91 1.081 75.9 10.3 13.8
3. Es importante presentar a los estudiantes muchos
datos e información para que ellos sepan qué es lo
que deben aprender en este curso
2.83 1.234 32.2 23.7 44.1
4. Creo que una razón importante para hacer clases es
que los estudiantes desarrollen buenos apuntes
2.53 1.344 25.5 22.0 52.5
5. En este curso mi docencia se enfoca a entregar a los
estudiantes mi comprensión del contenido
2.63 1.188 27.1 18.7 54.2
6. En este curso me concentro en entregar contenidos
que podrían estar disponibles en libros y textos
claves
2.59 1.214 27.6 20.7 51.7
7. En este curso los estudiantes deben enfocarse a
estudiar lo que yo les enseño
2.66 0.940 20.3 37.3 42.4
8. Es importante que los contenidos de este curso sean
descritos en su totalidad en función de objetivos
específicos asociados a las evaluaciones formales
3.38 0.970 53.4 24.2 22.4
9. Debo saber la respuesta de cualquier pregunta que
los estudiantes me hagan durante este curso
2.64 1.186 25.4 20.4 54.2
10. En este curso, mi enseñanza se enfoca en hacer
buenas presentaciones del contenido que estamos
viendo con los estudiantes
2.95 1.186 32.7 25.9 41.4
11. Estructuro mi enseñanza en este curso para ayudar a
los estudiantes a pasar las pruebas y/o exámenes
2.22 1.077 15.5 19.0 65.5
n=59

Al comparar esta tabla con la anterior se aprecian promedios más bajos en la mayoría de los
ítems. Adicionalmente, se observa una tendencia más clara en la distribución porcentual de
los datos, que tienden a ubicarse en la alternativa en desacuerdo.

4. Análisis descriptivo de los ítems del cuestionario PTE
El análisis descriptivo presenta el promedio, la desviación estándar y distribución porcentual
de las respuestas de los profesores para cada ítem de las escalas del PTE. En los siguientes
apartados se presentan estos análisis para cada escala del cuestionario, tanto con los 122 casos
totales, como con los 59 del proyecto CNED.

4.1 Escala “Características de los Estudiantes”
La tabla 12 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los ítems de la escala “Características de los Estudiantes” para la muestra de 122
casos.

Tabla 12: Estadísticos descriptivos para la escala “Características de los Estudiantes”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De
acuerdo

Neutral

En
Desacuerdo


1. Tener estudiantes con capacidades diversas en clase
hace difícil realizar mi enseñanza apropiadamente.

2,45

1,176

24,0

19,8

56,2
2. En este curso, he tenido que repensar cómo enseño
debido al número creciente de estudiantes con bajos
estándares.
2,62 1,288 32,8 14,8 52,4
3. Los estudiantes tienen habilidades tan variadas que me
es difícil predecir qué saben y qué no.
2,41 1,134 19,7 16,4 63,9
4. Los estudiantes de este curso a menudo son
intolerantes a cualquier contenido fuera del programa.
1,77 0,911 5,0 12,4 82,6
5. Los estudiantes actúan como si pensaran que soy un
profesor de enseñanza media, más que alguien que los
está acompañando en su proceso adulto de aprendizaje.

2,42 1,239 23,0 19,7 57,3
n=122.

En la tabla 12 se puede observar que los promedios de los ítems de la escala “Características
de los Estudiantes” se sitúan bajo 3, siendo el más bajo 1.77 y el más alto 2.62. Por otro lado,
se puede observar que en todos los ítems las respuestas de los estudiantes se concentran, por
sobre el 50%, en la categoría en desacuerdo. En relación a la desviación estándar de los datos,
se observa una baja dispersión de éstos, situándose ésta en un rango de 0.911 a 1.288.

La tabla 13 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los profesores considerado los 59 casos de la muestra del estudio CNED.





Tabla 13: Estadísticos descriptivos para la escala “Características de los Estudiantes”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De
acuerdo

Neutral

En
Desacuerdo


1. Tener estudiantes con capacidades diversas en clase
hace difícil realizar mi enseñanza apropiadamente.

2.19

1.137

15.3

18.6

66.1
2. En este curso, he tenido que repensar cómo enseño
debido al número creciente de estudiantes con bajos
estándares.
2.63 1.285 30.6 20.3 49.1
3. Los estudiantes tienen habilidades tan variadas que me
es difícil predecir qué saben y qué no.
2.14 1.090 11.9 15.2 72.9
4. Los estudiantes de este curso a menudo son
intolerantes a cualquier contenido fuera del programa.
1.54 0.837 5.1 6.8 88.1
5. Los estudiantes actúan como si pensaran que soy un
profesor de enseñanza media, más que alguien que los
está acompañando en su proceso adulto de aprendizaje.

2.10 1.094 10.2 23.7 66.1
n=59.

En términos generales, los resultados presentados en la tabla 13 son similares a los
presentados para los 122 casos. Los promedios se sitúan bajo los 3 puntos y las distribuciones
porcentuales se concentran preferentemente en el ítem en desacuerdo. Finalmente, al
comparar las desviaciones estándar de los datos, se observa que éstas son levemente más
bajas para esta muestra que la anteriormente vista.

4.2 Escala “Control sobre la Docencia”
La tabla 14 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los profesores para los ítems de la escala “Control sobre la Docencia”. Los
resultados muestran que en todos los ítems existe un porcentaje por sobre el 45% en las
respuestas relacionadas con que los profesores perciben un cierto nivel de control sobre su
docencia. Los porcentajes más bajos se ubican en ítems que dicen relación con el poder de
decisión en cuanto a los contenidos cubiertos en la asignatura, ítems que a la vez poseen la
mayor variación de las respuestas entregadas.




















Tabla 14: Estadísticos descriptivos para la escala “Control sobre la Docencia”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De
acuerdo

Neutral

En
Desacuerdo


1. Tengo poca injerencia sobre cómo se realiza este
curso.

1.40

0.830

5.7

0.0

94.3
2. En este curso, el programa debe concentrarse en cubrir
lo básico de la materia.
2.74 1.112 31.1 22.1 46.8
3. Me siento cada vez más presionado por parte de los
estudiantes para mantenerme apegado a los contenidos
del programa del curso.
2.00 0.927 4.9 23.0 72.1
4. En este curso, la docencia sería más gratificante si
tuviese mayor opinión sobre los contenidos que se
enseñan.
2.22 1.242 18.2 18.2 63.6
5. Siento que tengo poco control sobre la forma en que
enseño en este curso.
1.63 0.893 4.1 8.2 87.7
6. Los estudiantes, en este curso, sólo están motivados
por pasar las pruebas.
2.76 1.127 28.2 22.2 49.6
7. La docencia en este curso es difícil porque la mayoría
de los contenidos del programa están fuera de mi área
de experticia.
1.30 0.559 0.0 4.9 75.1
8. Mi unidad académica me permite un nivel importante
de flexibilidad sobre cómo realizo este curso.
4.19 1.011 81.8 8.3 9.9
9. Siento falta de control sobre qué enseño en este curso. 1.48 0.815 3.3 5.7 91.0

n=122.


La tabla 15 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los profesores considerado los 59 casos de la muestra del estudio CNED. En
términos generales es posible observar estadísticos descriptivos similares cuando se considera
el CNED solamente, aunque se observan concentraciones porcentuales mayores al 50% en
relación a la percepción de control sobre la docencia que realizan los profesores.


















Tabla 15: Estadísticos descriptivos para la escala “Control sobre la Docencia”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De
acuerdo

Neutral

En
Desacuerdo


1. Tengo poca injerencia sobre cómo se realiza este
curso.

1.37

0.763

5.1

1.7

93.2
2. En este curso, el programa debe concentrarse en cubrir
lo básico de la materia.
2.56 1.103 22.0 27.2 50.8
3. Me siento cada vez más presionado por parte de los
estudiantes para mantenerme apegado a los contenidos
del programa del curso.
1.95 1.057 8.5 11.8 79.7
4. En este curso, la docencia sería más gratificante si
tuviese mayor opinión sobre los contenidos que se
enseñan.
2.33 1.286 19.3 19.3 61.4
5. Siento que tengo poco control sobre la forma en que
enseño en este curso.

1.63 0.849 1.7 13.6 84.7


(Tabla 15. Continuación)

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De
acuerdo

Neutral

En
Desacuerdo


6. Los estudiantes, en este curso, sólo están motivados
por pasar las pruebas.
2.72 1.089 19.0 27.6 53.4
7. La docencia en este curso es difícil porque la mayoría
de los contenidos del programa están fuera de mi área
de experticia.
1.22 0.457 0.0 1.7 98.3
8. Mi unidad académica me permite un nivel importante
de flexibilidad sobre cómo realizo este curso.
4.19 0.861 81.4 13.5 5.1
9. Siento falta de control sobre qué enseño en este curso. 1.56 0.896 5.1 6.8 88.1

n=59.


4.3 Escala “Presiones de Tiempo”
La tabla 16 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los estudiantes para los ítems de la escala “Presiones de Tiempo”.









Tabla 16: Estadísticos descriptivos para la escala “Presiones de Tiempo”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De
acuerdo

Neutral

En
Desacuerdo


1. Encuentro difícil cubrir el programa del curso en el
tiempo que se le asigna.

2.46

1.306

29.5

9.8

60.7
2. Mi unidad académica me sobrecarga con docencia. 2.09 1.133 11.6 16.5 71.9
3. Es difícil ayudar realmente a los estudiantes en este
curso en el tiempo que tenemos asignado.
2.43 1.150 22.1 13.1 64.8
4. Una carga de trabajo creciente me dificulta mantener
mi entusiasmo para enseñar en este curso.
2.14 1.117 12.5 17.5 70.0
5. Es difícil entregar suficiente tiempo a la docencia
debido a la presión creciente de las funciones
administrativas.
2.48 1.219 27.3 14.9 57.8
6. La creciente presión por investigar dificulta dedicar
tiempo suficiente a la docencia.

2.86 1.234 36.4 24.0 39.7
n=122.

Los resultados presentados en la tabla 16 indican que los promedios de los ítems de esta
escala están en un rango entre 2.09 a 2.86. Adicionalmente, las respuestas se concentran
mayoritariamente en la alternativa en desacuerdo, siendo los porcentajes mayores al 50% en
todos los casos, salvo para el ítem 6, que presenta un 39.7% de respuestas en esta categoría.
Finalmente, las desviaciones estándar están en un rango entre 1.306 y 1.117.


A continuación se presentan los resultados del grupo de 59 profesores (estudio CNED).

Tabla 17: Estadísticos descriptivos para la escala “Presiones de Tiempo”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De
acuerdo

Neutral

En
Desacuerdo


1. Encuentro difícil cubrir el programa del curso en el
tiempo que se le asigna.
2.60 1.388 36.2 8.6 55.2
2. Mi unidad académica me sobrecarga con docencia. 2.22 1.260 13.6 20.3 66.1
3. Es difícil ayudar realmente a los estudiantes en este
curso en el tiempo que tenemos asignado.
2.37 1.097 22.0 13.6 64.4
4. Una carga de trabajo creciente me dificulta mantener
mi entusiasmo para enseñar en este curso.
2.15 1.157 15.3 13.6 71.1
5. Es difícil entregar suficiente tiempo a la docencia
debido a la presión creciente de las funciones
administrativas.
2.56 1.368 28.8 18.7 52.5
6. La creciente presión por investigar dificulta dedicar
tiempo suficiente a la docencia.

2.90 1.296 35.6 25.4 39.0
n=59.

En general no se observan diferencias importantes entre ambos grupos. Sin embargo, el grupo
CNED presenta promedios superiores al anterior en a mayoría de los ítems.

4.4 Escala “Visión de la Unidad Académica sobre la Docencia”
La tabla 18 muestra el promedio, desviación estándar y distribución porcentual de las
respuestas de los profesores para los ítems de la escala “Visión de la Unidad Académica sobre
la Docencia”.

Al observar la tabla 18 se aprecia que los promedios varían en un rango entre 1.93 y 3.55. La
concentración de respuestas “en desacuerdo” se encuentra en los ítems 1, 4 y 7, mientras que
la mayor concentración de respuestas “de acuerdo” está en los ítems 3 y 6. Finalmente, las
desviaciones estándar se ubican en un rango de 0.98 y 1.227. El ítem que tiene una mayor
dispersión de las respuestas es aquel que hace referencia a la importancia que tiene la
investigación por sobre la docencia dentro de la unidad académica; mientras que el ítem que
posee la menor dispersión refiere a la importancia de pedir consejos a colegas sobre cómo
enseñar.



Tabla 18: Estadísticos descriptivos de la escala “Visión de la Unidad Académica sobre la Docencia”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De acuerdo

Neutral

En
Desacuerdo


1. La docencia tiene una baja prioridad en esta unidad
académica.

1.93

0.994

7.4

18.9

72.7
2. La dedicación que mi unidad académica me
entrega para mejorar la enseñanza hace que sea
más fácil para mí diseñar y ejecutar este curso.
3.01 1.068 35.5 31.4 33.1
3. Mi unidad académica entrega un buen ambiente
para la discusión de la docencia con los colegas.
3.33 1.202 48.4 24.6 27.0
4. La perspectiva que tiene mi unidad académica
sobre la docencia hace menos gratificante enfocar
demasiada atención en la enseñanza.
1.93 1.066 9.1 15.7 75.2
5. Mi unidad académica me incentiva a utilizar la
retroalimentación de mis estudiantes para mejorar
mi enseñanza.
3.33 1.128 47.9 27.3 24.8
6. Es importante buscar consejo de mis colegas sobre
cómo enseñar en este curso.
3.55 0.980 57.4 28.7 13.9
7. Pienso que la enseñanza es menos importante que
la investigación en esta unidad académica.
2.38 1.174 18.9 20.5 60.6
8. Aquí la investigación tiene una prioridad mayor
que la docencia.

2.82 1.227 27.9 28.7 43.5
n=122.






La tabla 19 muestra los resultados para la muestra de 59 casos.

Tabla 19: Estadísticos descriptivos de la escala “Visión de la Unidad Académica sobre la Docencia”

Respuestas a escala Likert (%)

Ítem
Promedio

Desviación
Estándar

De acuerdo

Neutral

En
Desacuerdo


1. La docencia tiene una baja prioridad en esta unidad
académica.
1.73 1.014 8.5 5.1 86.4
2. La dedicación que mi unidad académica me
entrega para mejorar la enseñanza hace que sea
más fácil para mí diseñar y ejecutar este curso.
2.98 1.106 35.6 30.5 33.9
3. Mi unidad académica entrega un buen ambiente
para la discusión de la docencia con los colegas
3.49 1.165 55.9 23.7 20.4
4. La perspectiva que tiene mi unidad académica
sobre la docencia hace menos gratificante enfocar
demasiada atención en la enseñanza.
1.90 1.045 6.8 18.6 74.6
5. Mi unidad académica me incentiva a utilizar la
retroalimentación de mis estudiantes para mejorar
mi enseñanza.
3.32 1.136 47.5 28.8 23.7
6. Es importante buscar consejo de mis colegas sobre
cómo enseñar en este curso.
3.66 0.822 61.0 30.5 8.5
7. Pienso que la enseñanza es menos importante que
la investigación en esta unidad académica.
2.17 1.101 8.5 23.7 67.8
8. Aquí la investigación tiene una prioridad mayor
que la docencia.*

2.56 1.317 18.7 27.1 54.2
n=59

Al comparar las tablas, se pueden observar resultados bastante similares entre ambos grupos,
observándose pequeñas diferencias en los promedios y las desviaciones estándar.

Anexo 2: Proceso de aplicación de cuestionarios


1. Proceso de aplicación de cuestionarios
El proceso de aplicación de los cuestionarios presentó elementos que lo facilitaron y
elementos que lo obstaculizaron. Con el objetivo de apoyar procesos de levantamiento de
información en futuros trabajos, a continuación se presentan brevemente estos elementos.

Facilitadores

- En primer lugar, hubo un buen nivel de compromiso a nivel del grupo directivo
superior en las universidades participantes. Esto implicó que tuvimos acceso a todas
ellas y apoyo para llegar a aplicar los instrumentos a nivel de cursos específicos. El
compromiso de los directivos ayudó debido a que contactaron a las personas a nivel de
Facultades socializando el estudio y convenciéndolos de que participaran; de manera
que, cuando el equipo de investigación abordó el nivel intermedio, había una actitud
positiva hacia el estudio. Por otro lado, también apoyaron con levantar ellos mismos
esta información cuando así lo decidieron.
- En segundo lugar, también hubo un buen nivel de compromiso a nivel de las
Facultades en las que, a través de Decanos o Encargados de Docencia o Pregrado,
logramos identificar cursos que fueran claves para la formación profesional de los
estudiantes involucrados. Al mismo tiempo, en este nivel fue que, en la mayoría de los
casos, se levantó la información sobre el profesor a cargo, sala y día y hora de
realización del curso. En general, se contó con el apoyo de las personas en este nivel,
aunque en algunas situaciones perdimos las carreras seleccionadas debido a las
descoordinaciones ocurridas.
- En tercer lugar, a nivel de los profesores del curso, también se observó un nivel
adecuado de compromiso con la participación en el estudio. Aceptar participar implicó
destinar entre veinte y treinta minutos a la aplicación del cuestionario. Tiempo que fue
amablemente, en la mayor parte de los cursos, cedido por los profesores.
- En cuarto lugar, el proyecto ha contado con equipos de terreno responsables. Estos
fueron conformados por estudiantes de pregrado en todas las universidades salvo la
universidad 5, en la que se contó con un profesional. Estos equipos operaron de
manera adecuada, asistiendo a los días y horas indicadas para levantar información.
Además, reportaron apropiadamente los problemas que encontraron y ayudaron, en
algunos casos, a contactar a profesores que era difícil encontrar.
- Finalmente, en este punto, es importante mencionar que el equipo investigador estuvo
comprometido y claramente organizado. El equipo tenía interés académico en los
resultados del estudio y esto está asociado a un buen nivel de compromiso. Además, se
organizó claramente, con un miembro del equipo a cargo de cada universidad, de
manera que cada uno sabe cuáles son sus responsabilidades.



Obstaculizadores

- Por una parte, se ha detectado un nivel de inasistencia a clases inesperado. Esto
podría estar asociado a que los instrumentos se han aplicado hacia el final del
semestre. Habitualmente esta es una época en que los estudiantes dejan de asistir a
clases para preparar sus exámenes y trabajos finales. Sin embargo, no deja de ser un
hecho que llama la atención, sobretodo en la universidad 3, que es la que ha mostrado
mayores niveles de inasistencia. En esta universidad una primera vuelta de aplicación
de los instrumentos entregó un número de encuestas demasiado bajo en relación al
tamaño de la institución. Por esta razón, se tuvo que ampliar la muestra de carreras.
- Por otro lado, si bien en general la aplicación de los instrumentos fue bien recibida, es
importante mencionar que la mayoría de las situaciones en que no fue posible hacerlo,
o que se debió cambiar el curso debido a que el profesor prefirió no participar o no se
coordinó adecuadamente para permitir el acceso a su sala de clases, están asociadas a
carreras de disciplinas “duras” y “duras aplicadas”. Esto podría indicar la existencia
de disciplinas más reacias a participar en este tipo de estudios. Consideramos
importante tener esto en cuenta en la planificación de futuras actividades de
levantamiento de información. Es probable que, para este tipo de disciplinas, sea
necesario realizar un trabajo más preciso de convencimiento sobre la importancia de
participar en investigaciones como esta, la que podría estar siendo sub-valorada por la
cultura de las áreas disciplinarias en cuestión.
- También es importante destacar la presencia activa de Comités de Ética,
particularmente en carreras relacionadas con Ciencias Sociales y Salud. En varias
carreras, antes de tener la posibilidad de aplicar los instrumentos, debimos presentar
los instrumentos y formularios de consentimiento a estos Comités para que ellos
velaran por la correcta aplicación de las normas éticas que deben regir la investigación
social. Como equipo valoramos estas instancias. Es importante asegurar el
cumplimiento de estas normas. Sin embargo, también reconocemos que tener que
presentar el proyecto a los Comités de Ética de cada Facultad que lo solicito, retrasó la
aplicación de los instrumentos. Consideramos importante la existencia de estos
Comités pero, al mismo tiempo, creemos que es importante asegurar la viabilidad
temporal de las investigaciones. Por lo tanto, este es un tema que requiere discusión
para lograr alternativas que aseguren el cumplimiento de estándares éticos y, al mismo
tiempo, no retrasen las investigaciones.


Casos
A continuación se presentan las universidades participantes en el estudio como casos, en los
que se describe el proceso de ingreso a la institución, toma de contacto con las carreras
definidas en la muestra y el proceso de aplicación de los cuestionarios

Universidad 1
Ingreso a la institución
En esta universidad el primer paso fue contactar al vicerrector académico, con el fin de
obtener su autorización para acceder a las carreras seleccionadas. El vicerrector apoyó el
proyecto. Sin embargo, sugirió que la invitación a participar no proviniera de la Vicerrectoria,
ya que, según se nos informó, esta pide permanentemente información a las facultades, por lo
que la solicitud de aplicar la encuesta podría ser considerada como “una petición más”,
entorpeciendo el proceso. El vicerrector indicó que la mejor persona para solicitar el apoyo de
los decanos era el decano de la Facultad de Educación, donde las personas que participamos
en este proyecto somos académicos o estudiantes de doctorado. En paralelo, el proyecto
recibió el apoyo de la subdirectora del Centro de Desarrollo Docente, quien lo consideró una
oportunidad para levantar información útil sobre las experiencias de aprendizaje y enseñanza
de los estudiantes. Por lo tanto, la carta que finalmente se envío a los decanos, vino del
decano de Educación e incluyó una frase en la que se indicaba el apoyo del Centro de
Desarrollo Docente.

Toma de contacto con las carreras definidas de la muestra
El decano de la Facultad de Educación emitió una carta a los decanos de las Facultades
seleccionadas, invitándolos a participar en el estudio. Dentro de este proceso, Las facultades
de Física y de Medicina fueron los nudos críticos. En el caso de Física, esto se debió a que la
decana no había recibido la carta. Cuando se le reenvió, aprobó inmediatamente la
participación de su facultad. La tardanza de Medicina, en cambio, fue debido a que el decano
de dicha facultad se encontraba de viaje fuera del país. Se decidió acudir al vicedecano de
Pregrado quien aprobó la participación de Medicina. Esto implica que, finalmente, la totalidad
de los decanos respondió positivamente.

Una vez recibida la aprobación por parte de los decanos, se procedió a identificar un curso
clave para la formación de los alumnos de tercer año. Dependiendo de la carrera fueron los
directores de Docencia, secretarios académicos o directores de Pregrado quienes nos
entregaron esta información. Una vez seleccionado el curso, estas personas nos entregaron los
datos necesarios para avanzar al nivel micro: el nombre del profesor o profesores encargados
del curso, datos de contacto, número de alumnos, sala, y día y hora en que se realiza el curso.
Esta etapa se desarrolló, en gran parte de los casos, de un modo bastante expedito. Sin
embargo, en algunas carreras hubo situaciones que implicaron un retraso para llegar al nivel
del profesor del curso seleccionado. Estas fueron:

- En Psicología nos indicaron que debían enviar los datos del proyecto al Consejo de
Ética de la escuela para que aprobara la aplicación de los instrumentos. La aprobación
por parte del consejo tardó 15 días.
- En Trabajo Social, Biología y Matemáticas la persona contactada originalmente
delegó la tarea a otra persona dentro de la escuela o facultad, lo que significó un
retraso en la identificación del curso.
- En el caso de Ingeniería, la persona contactada nos pidió que nos comunicáramos con
la persona a cargo del Centro para la Excelencia de la Enseñanza y Aprendizaje en
Ingeniería. Dado que en tercer año los estudiantes comienzan a realizar las
especialidades, y con el fin de poder contar con la participación de la mayoría de los
estudiantes de este nivel, se seleccionaron dos cursos de dicha carrera.
- En Medicina hasta la fecha de cierre de este informe no se había dado respuesta a la
solicitud.

Una vez identificado el curso, parte del equipo de investigación gestionó directamente con el
profesor a cargo la aplicación de los instrumentos. En algunos casos, la misma persona que
ayudó a identificar el curso se contactó con el profesor del ramo y gestionó la fecha de
aplicación del cuestionario. Una vez que el profesor aceptaba la aplicación de los
instrumentos en el cuso seleccionado, se agendaba una fecha para la aplicación. Los puntos
críticos dentro de esta fase fueron:

- En las carreras de Física y Astronomía el profesor del ramo seleccionado (que era
común a ambas carreras) prefirió no participar dentro del estudio, por lo que el
cuestionario se aplicó a en otro curso (también común a ambas carreras) identificado
por el director de Pregrado.
- En Biología el profesor del curso seleccionado tardó en responder a la solicitud de
aplicación de los instrumentos. Una vez que respondió, derivó la solicitud a la
profesora que estaba a cargo de la segunda parte del curso. Ella mostró bastante
disposición a colaborar con la investigación, pero dada la cantidad de actividades
extracurriculares que tenía el curso, y considerando que no había instancias para
aplicar los instrumentos, se decidió intentar con un segundo curso. Tampoco fue
posible aplicarlos en este curso, pues había terminado con sus actividades académicas
regulares. Por lo tanto, se recurrió a un tercer curso. En este, finalmente se aplicaron
los instrumentos.

Proceso de aplicación de cuestionarios
La aplicación de los instrumentos se desarrolló, en la mayoría de los cursos, en el horario de
clases. El profesor a cargo cedió los primeros o últimos veinte minutos. Las encargadas de la
aplicación de los instrumentos en la sala de clases fueron estudiantes de pregrado de la
Facultad de Educación. Ellas fueron previamente capacitadas por el investigador responsable
del estudio y supervisadas por la asistente de investigación. Los casos donde experimentamos
problemas, dentro de esta etapa, fueron los siguientes:

- En Educación de Párvulos, a pesar que la aplicación de los instrumentos había sido
agendada con bastante anticipación, el curso se encontraba en una sala distinta a la
informada, por lo que no se pudo aplicar el cuestionario en dicha ocasión. Dado que
no se realizarían más actividades dentro del curso, se decidió aplicar el cuestionario a
estudiantes mediante una plataforma on-line.
- En Ingeniería la aplicación de los instrumentos dentro se realizó en una ayudantía del
curso, por lo que el porcentaje de asistencia ese día fue bajo.
- En Biología, debido a los inconvenientes ocurridos en la identificación del curso, se
tuvo que aplicar el instrumento después del examen final. Se le pidió a los alumnos
que una vez terminada la evaluación volvieran a la sala. Sin embargo, el porcentaje de
estudiantes que regresó fue bajo.
- En Enfermería, dada la tardanza en la aprobación por parte del decanato de la Facultad
de Medicina, se debió aplicar el instrumento al término del examen final. Se logró que
el 100% de los estudiantes del curso respondieran los instrumentos.

Pese a estos inconvenientes, el proceso de levantamiento de información se desarrolló con
bastante normalidad. Los profesores encargados de los cursos seleccionados mostraron buena
disposición con el estudio y el equipo de encuestadoras trabajo con un nivel compromiso y
responsabilidad apropiados.


Universidad 2
Ingreso a la institución
La universidad 2 se incorporó al estudio mediante el contacto personal con una de las asesoras
de mayor trayectoria de la Dirección de Docencia. Esta Dirección es parte de la Vicerrectoria
Académica y contempla entre sus funciones la de llevar a cabo estudios y análisis en torno a
la docencia universitaria y el proceso de aprendizaje de los estudiantes. En este contexto, la
invitación a participar en el proyecto tuvo una acogida positiva. En esta etapa, se dieron a
conocer los objetivos de la investigación y se acordaron mecanismos de trabajo conjunto. No
obstante, esta etapa se extendió algo más de lo deseable. Probablemente por la dificultad de
coordinación a distancia y por las responsabilidades propias del cargo de director. En esta
etapa, además, se solicitó información con el objeto de construir adecuadamente la muestra.
Se concordaron algunos criterios y se revisaron casos particulares como el de carreras
recientes o que se encontraban en procesos internos complejos (por ejemplo, acreditación),
por lo que no era conveniente incorporarlas en la investigación.

Toma de contacto con las carreras definidas de la muestra
Una vez definida la muestra de las carreras en las que se aplicarían los instrumentos, se
procedió, en conjunto con la Dirección de Docencia, a definir un mecanismo de toma de
contacto con las carreras. Este proceso presentó demoras, particularmente en la etapa de
concordar un proceso como en la toma de contacto propiamente tal. En la perspectiva de
respetar la cultura interna de la institución, fue la Dirección de Docencia la que tomó el
contacto inicial con cada carrera, a través de una carta oficial que sintetizaba los contenidos y
modos de operación de la investigación. El contacto se realizó directamente con los J efes de
Carrera y fue la Dirección de Docencia la que sistematizó la respuesta de las unidades y la
información solicitada. En este sentido, tal información incorporó la referencia a un curso
clave de tercer año, así como los datos específicos de número de alumnos y profesor, entre
otros. Esta etapa fue una de las que tomó más tiempo, ya que no todas las carreras contestaron
con igual rapidez. Finalmente, a través de este mecanismo se accedió, a mediados de
Noviembre, a la nómina de carreras que aceptaron participar del proceso y a los datos que nos
permitirían tomar contacto y llevar a cabo el trabajo de aplicación de cuestionarios.

Con los datos mencionados, nos dirigirnos a los profesores de cada curso propuesto por las
distintas carreras, de modo de coordinar la fecha y hora de la aplicación del cuestionario. En
esta etapa la fluidez de la comunicación ha sido relativa, ya que el trabajo se ha llevado a cabo
principalmente a distancia.

Proceso de aplicación de cuestionarios
El proceso de aplicación de los cuestionarios presenta tres hitos fundamentales: constitución
de un equipo de encuestadores, capacitación de dicho equipo y aplicación.

Mediante la colaboración de la Dirección de Docencia, se pudo constituir un equipo de
encuestadores formado por tres estudiantes de los últimos años de la carrera de Ingeniería
Estadística. Con el fin de que fuese un equipo de confianza, comprometido y responsable, se
solicitó explícitamente a la Dirección de Docencia que recomendara encuestadores de quienes
ya tenían conocimiento, tanto en lo personal como en sus capacidades profesionales. En
paralelo a la conformación de este equipo se programó una capacitación de los encuestadores
por parte del Investigador Responsable del proyecto. La aplicación se realizó sin problemas y
finalizo a mediados de Diciembre.

Universidad 3
Ingreso a la institución
En la universidad 3, el primer paso fue contactar a la Vicerrectoria Académica, con el fin de
obtener su autorización para acceder a las carreras seleccionadas. La vicerrectora estaba al
tanto de la investigación pues había recibido la carta enviada directamente desde el CNED. Se
realizó una reunión con ella para explicar los alcances del proyecto y los requerimientos a las
carreras. Ella mostró su interés y respaldo el proyecto, solicitando la colaboración de los
decanos de las facultades de las cuales se habían seleccionado carreras.

Toma de contacto con las carreras definidas de la muestra
Posteriormente, el director de un cetro de investigación en educación superior de esta
universidad envío un mail a todos los directores de las carreras seleccionadas, invitándolos a
participar e informándoles de los alcances de la investigación. La respuesta tuvo una amplia
acogida, ninguna carrera se excluyó expresamente. Aunque en algunas ha sido más difícil el
contacto. En aquellas carreras que no respondieron el correo, la encargada del proyecto en
esta universidad se contactó directamente con el jefe de carrera, con el objetivo de explicarles
más en detalle los alcances del estudio e invitarlos a participar directamente.

Proceso de aplicación de cuestionarios
Los cuestionarios se aplicaron por un grupo de ayudantes, estudiantes de pregrado de
Ingeniería, a quienes se les capacitó para la tarea, y los cuales se organizaron en torno a un
coordinador. Este último se contactó directamente con los profesores y encargados de
docencia de las carreras para acordar la fecha de aplicación. En esta universidad la baja
asistencia en los cursos seleccionados ha incidido negativamente en el número de
cuestionarios finalmente aplicados. Por esta razón, se amplió la muestra de cursos
originalmente seleccionados.

Universidad 4
Ingreso a la Institución
Para ingresar a la Universidad 4 se partió coordinando una reunión con la directora del Centro
de Desarrollo Docente. En esta reunión se explicaron las características generales de la
investigación y se informó de las carreras seleccionadas para aplicar los cuestionarios. En
virtud de la relevancia del estudio, de mutuo acuerdo se acordó enviar una carta formal al
director de la División Académica y a la directora de Pregrado solicitando la autorización y el
apoyo institucional a esta actividad. Se recibió una respuesta positiva de parte de la directora
de Pregrado, informando su interés en el proyecto y entregando autorización, apoyo y
colaboración al proyecto. Una vez obtenida la autorización formal, se procedió a contactar a
las carreras seleccionadas.

Toma de contacto con las carreras definidas de la muestra
La estrategia para tomar contacto con los directores de las Carreras se realizó por medio de
dos modalidades: a través de una invitación vía correo electrónico o la coordinación de una
reunión con algún directivo, ya sea el director de la carrera o decano de la facultad en el caso
de que no respondieran el correo. Con relación a la primera modalidad, se envió un correo
electrónico al director de la carrera informando las características generales del estudio, el
apoyo institucional que tenía y que la participación implicaba la aplicación de un cuestionario
a estudiantes y profesor a cargo de una asignatura de tercer año que estuviese orientada a la
formación profesional de la carrera. Las doce carreras que estaban seleccionadas para
participar fueron contactadas bajo este sistema. De estas, cinco respondieron señalando su
interés por participar. Estas fueron: Psicología, Trabajo Social, Enfermería, Ingeniería Civil
en Informática, e Ingeniería Civil Industrial. A partir de esto, se les pidió que completaran una
ficha para registrar la asignatura seleccionada más apropiada de acuerdo a las características y
avance curricular de la carrera y los datos correspondientes al número de alumnos, nombre y
correo de contacto del profesor, horario, entre otros. Con respecto de la segunda estrategia de
contacto, esta consistió en una reunión con un directivo de la Facultad seleccionada con el fin
de invitarlos a participar. Esta estrategia se utilizó con las carreras que no respondieron al
correo mencionado anteriormente. Estas fueron: Licenciatura en Biología y Química,
Licenciatura en Física, Pedagogía en Matemáticas, Pedagogía en Historia, Educación
Parvularia, Sociología; y Medicina.

Las carreras de Licenciatura en Biología y Química, Licenciatura en Física y Pedagogía en
Matemáticas pertenecen a la Facultad de Ciencias de la Universidad. Por esta razón, se
concertó una reunión con el decano de dicha Facultad pidiendo su apoyo y colaboración en
este proceso. El decano consultó a los directores de carrera y e informó que las carreras de la
Facultad de Ciencias estaban participando en un Proyecto Mecesup orientado a fortalecer las
competencias de ingreso de los estudiantes y que estaba en su etapa de diagnóstico inicial de
los estudiantes. Por esto, los directores argumentaron que la participación de dichas carreras
en este estudio podría implicar una sobre demanda tanto hacia los profesores como los
alumnos. Producto de ello, solicitaron no participar por esta vez en esta actividad. Por otro
lado, se coordinó una reunión informativa con los directores de las carreras de Pedagogía en
Historia, Educación Parvularia, Sociología, y Medicina. Luego de conocer las características
del proyecto, las cuatro carreras aceptaron participar, frente a lo cual se les solicitó
información sobre los cursos que, en cada una, cumplían con los criterios de selección
empleados en este proyecto.

Proceso de aplicación de cuestionarios
La recolección de los datos en esta institución se realizó de manera coordinada por medio del
apoyo de dos alumnos ayudantes que forman parte del equipo del Centro de Desarrollo
Docente. Ellos son estudiantes de cuarto año de Trabajo Social. Con estos estudiantes se
realizó una capacitación. En ella se les informó de los objetivos y metodología de esta
investigación, además de las características generales de los instrumentos a aplicar.
Posteriormente, se les capacitó respecto de las instrucciones generales que se les debían dar a
los participantes y la importancia de entregar la copia del consentimiento de participación a
estudiantes y profesores. Finalmente, se les pidió puntualidad, rigurosidad y compromiso en
este trabajo para efectos de poder cumplir con la tarea encomendada. En términos generales,
ellos trabajaron adecuadamente, siendo bastante proactivos y eficientes. No obstante, por un
tema de compromisos previos (participación en un Congreso de Estudiantes de Trabajo
Social), en las carreras de Educación Parvularia y Sociología no podían asistir a las fechas
acordadas por las unidades académicas, por lo que la responsable de esta universidad aplicó
los cuestionarios.

Finalmente, es importante consignar que en el transcurso de la aplicación de los cuestionarios
fue imposible aplicar en dos carreras: Ingeniería Civil Industrial y Medicina. Con relación a la
primera, si bien hubo interés de participar por parte de la Dirección de la Carrera, se
presentaron dificultades a la hora de contactar al profesor de la asignatura escogida. Si bien se
le mandó un correo y se solicitó ayuda al director de la Carrera, no hubo algún tipo de
respuesta por lo que se decidió no insistir más. Con respecto a Medicina, el director de la
carrera sugirió establecer contacto con el coordinador de la Oficina Médica, instancia
encargada de los procesos de autoevaluación de la carrera. El encargado solicitó que se le
enviarán los cuestionarios. A pesar de que se le enviaron inmediatamente y se le recordó en
reiteradas ocasiones que enviara los datos requeridos, no hubo respuesta. Por esta razón, se
decidió no incluir esta carrera en la muestra final de esta institución.

Universidad 5
Ingreso a la Institución
El ingreso a la universidad 5 se realizó a través del contacto personal con una académica
quien, al conocer el proyecto, se lo comunicó al rector. A su vez, la máxima autoridad
manifestó su interés en participar en el estudio y ofreció amplias facilidades para realizar el
trabajo de terreno. El investigador responsable fue invitado por esta universidad para dar
conocer el proyecto. De este modo, se presentaron los objetivos de la investigación al nivel
directivo de la universidad y se acordaron mecanismos de trabajo conjunto. Para lograr esto,
hubo dos instancias. La primera fue una reunión con el rector de la universidad, quien
reafirmó su apoyo a la realización del estudio, considerando que se trataba de una excelente
oportunidad para levantar información sobre cómo aprenden los estudiantes. La segunda, fue
una presentación a alrededor de 40 personas en la que el investigador responsable presentó el
proyecto en detalle, comunicando el marco conceptual y metodológico de la investigación;
además del potencial que podrían tener los resultados para mejorar la docencia universitaria.

Toma de contacto con las carreras definidas de la muestra
Dentro de la misma visita, el investigador responsable fue contactado con los decanos de las
facultades de las que dependían las carreras seleccionadas. Si bien ellos habían asistido en su
mayoría a la presentación mencionada en el párrafo anterior, el objetivo de esta reunión fue
indicar específicamente qué se necesitaba de ellos y acordar una estrategia de trabajo para el
proceso de levantamiento de información. Como resultado de esta reunión se logró acordar
que los decanos enviarían, en el plazo de una semana, el listado de los profesores, sala, y día y
hora de realización de los cursos seleccionados dentro de cada carrera. El decano de la
Facultad de Ciencias Sociales, sin embargo, no asistió a esta instancia. Por esta razón, no fue
posible coordinar, en la visita a esta universidad, la participación de las carreras seleccionadas
de esta facultad.

En general, los decanos respondieron entregando la información solicitada en un plazo de dos
semanas. La Facultad de Ciencias Sociales fue aquella con la que tuvimos más problemas ya
que, como no se había realizado el contacto con anterioridad, el decano demoró más de lo
esperado en responder el requerimiento de información necesaria para avanzar con el proceso
de levantamiento de información. A pesar de este problema, la totalidad de los decanos
colaboró en esta etapa.

Proceso de aplicación de cuestionarios
La recolección de los datos en esta institución se realizó con el apoyo de un profesional del
Gabinete de Rectoría. Este profesional se encontraba realizando un estudio sobre la
infraestructura de la universidad y contaba, por lo tanto, con experiencia en procesos de
levantamiento de información. Como parte de la visita, se realizó una reunión de capacitación
con el profesional mencionado. En ella se le informó sobre los objetivos y metodología de
esta investigación, y las características generales de los instrumentos a aplicar.
Posteriormente, se le capacitó respecto de las instrucciones generales que se les debían dar a
los participantes y la importancia de entregar la copia del consentimiento de participación a
estudiantes y profesores. Finalmente, se les pidió puntualidad, rigurosidad y compromiso en
este trabajo para efectos de poder cumplir con la tarea encomendada. El profesional respondió
de manera muy positiva. Se encargó de la aplicación de los cuestionarios y, al mismo tiempo,
nos apoyó insistiendo en terreno con los decanos y/o profesores que demoraron en contestar,
y obteniendo los datos de la Facultad de Ciencias Sociales.