Professional Documents
Culture Documents
evaluación escrita
Evaluación de los Aprendizajes
1
DISEÑANDO INSTRUMENTOS DE EVALUACIÓN ESCRITA
Contextualización:
Parece ser que los mecanismos más tradicionales y de mayor uso en el repertorio de procedimientos
evaluativos de los profesores en la educación superior (y en general en todos los niveles del sistema
educativo) son las pruebas escritas. Se utilizan para medir distintos aprendizajes, porque pareciera ser
que se ajustan a la evaluación de aprendizajes conceptuales, procedimentales y también actitudinales y
en los distintos momentos del proceso.
A medida que reflexionamos en torno a las cuestiones antes planteadas se va despejando la cortina de
dudas que enfrentamos al momento de planificar una evaluación. En algunas ocasiones, lo pertinente
será la prueba escrita elaborada por el profesor, incluso con la posibilidad de revisar textos o materiales
de estudio, si es que la prueba invita a la reflexión y aplicación y no mide sólo conocimiento de carácter
reproductivo; también es interesante abrirse a la posibilidad de enfrentar a los estudiantes al desafío de -
a partir de los aprendizajes esperados en la unidad o programa en general – que sean ellos mismos quienes
elaboren un instrumento escrito, con preguntas que inviten a la reflexión, análisis crítico y aplicación de
los contenidos y puedan intercambiarla y resolverla entre pares, proceso que por cierto, debe ser
monitoreado y orientado por el docente.
¿Por qué revisar las características y exigencias de diseño de una evaluación escrita, si parece ser el
Porque indudablemente todo docente siempre debe recordar y estar preocupado de la medición justa de
los aprendizajes de sus estudiantes, lo que implica revisar la calidad de los instrumentos utilizados, de
modo que estos le aporten información válida y confiable sobre los aprendizajes y de esta manera orientar
entre otras las acciones remediales para reorientar tanto la enseñanza como las estrategias de aprendizaje
de los alumnos.
En este contexto no debemos olvidar que no obstante lo que se mide son los aprendizajes de los alumnos,
en este proceso existe una cuota – grande o pequeña – de responsabilidad del docente, si el instrumento
no está técnicamente bien diseñado para la medición.
2
¿Cuáles son las propiedades fundamentales de toda evaluación escrita?
Validez: El instrumento debe medir efectivamente aquello que pretende medir. Es el grado en el cual
un conjunto de evidencias soportan o fundamentan la pertinencia de la interpretación y uso de los
resultados de una prueba (Haladyna, 2004).
En el caso de las pruebas escritas que tradicionalmente diseña el profesor, hay dos tipos de validez que se
deben tener presente:
Validez de contenido: la relación que existe entre los distintos itemes1 de la prueba y los objetivos o
aprendizajes que se intentan medir con el instrumento en cuestión. En este sentido, las preguntas deben
corresponder a una muestra representativa de los objetivos/contenidos/habilidades del programa y deben
ser consecuentes con los efectivamente trabajados en clases.
Validez de constructo: la relación que debe existir entre el instrumento y el constructo (rasgo, cualidad o
variable) que se pretende medir. En el caso de la prueba en que lo que se pretende medir es un aprendizaje
en torno a un objetivo, sería erróneo que las preguntas en realidad midan por ejemplo personalidad,
actitud, motivación, etc.
Existen otros tipos de validez, las que se asocian más al diseño de instrumentos estandarizados que se
aplican a grandes poblaciones o colectivos de estudiantes, como por ejemplo la PSU, SIMCE, PISA, etc.
Confiabilidad: Entrega información acerca de la estabilidad o consistencia de los resultados obtenidos con
el instrumento de medida administrado. En este sentido importa que el instrumento reporte información
consistente en distintas aplicaciones del mismo. Por ejemplo sería deseable que los resultados de una
prueba en distintas aplicaciones arrojen resultados similares, en caso contrario no tendríamos la certeza
de cuáles son los resultados correctos en término de la congruencia con los aprendizajes u objetivos
medidos. Cabe señalar que la situación descrita adquiere valor cuando se miden aprendizajes en
Diseñando instrumentos de evaluación escrita
condiciones contextuales similares en términos de tiempo, espacios y características de los alumnos. Por
tanto no nos estamos refiriendo al proceso de evaluación ex ante y ex post que se realiza para determinar
los progresos de los estudiantes posterior a un proceso de enseñanza – aprendizaje, en el que sí debemos
espera discrepancias positivas entre los resultados de ambas mediciones.
Objetividad: Tiene que ver con aquella condición que hace a los resultados de una prueba independiente
de quien la corrige. Esta cualidad que debe presentar todo instrumento, en las preguntas de respuesta
abierta es compleja de alcanzar si no se elaboran matrices o pautas de corrección en que se incluyan los
criterios e indicadores para su revisión y con ello evitar la subjetividad del profesor.
3 1 Los términos ítem – pregunta – reactivo poseen el mismo significado y pueden utilizarse indistintamente.
¿Cuáles son los pasos o etapas para planificar una prueba escrita?
Al planificar se debe tener presente los propósitos de la prueba: diagnóstico, formativo o sumativo En tal
sentido ¿será para efectuar un diagnóstico? ¿seleccionar? ¿mejorar el desarrollo o medir el impacto de un
programa?. Esto nos dará luces sobre algunos aspectos como: tipo de prueba, naturaleza de los itemes,
extensión, etc.
Del mismo modo se debe disponer de todo el material didáctico y auxiliar que se ha utilizado en el proceso
de enseñanza – aprendizaje, respecto a los objetivos y contenidos que se pretende evaluar: programa de
curso, planificación clase a clase, guías de aprendizaje, talleres, textos de estudio, entre otros.
4
4. Ensamble de la prueba. En esta etapa se organiza la estructura de la prueba. Si la prueba
contempla diferentes tipos de preguntas conviene agrupar según su tipología; si utiliza un sólo
tipo conviene ensamblar según el orden con que se han tratado las unidades/contenidos que
miden y según su nivel de dificultad. En general, en ambos casos es importante considerar como
criterio general que la prueba siempre debe estructurarse desde lo más fácil a lo más complejo,
como un modo de motivar al estudiante a responder la prueba. No sería apropiado comenzar
entonces con las preguntas más difíciles.
5. Elaboración de las instrucciones. Las instrucciones detallan pasos y condiciones que el alumno
debe seguir o considerar para responder el instrumento. Las instrucciones generales llaman la
atención del alumno sobre aspectos que debe tener presente antes, durante y después de la
prueba, tales como: leer cuidadosamente la prueba antes de responder, tiempo para responder,
tipo de lápiz, uso de elementos de apoyo, posibilidad o no de realizar correcciones, etc. También
debe incluirse información sobre el puntaje general de la prueba y nivel de exigencia (si estuviera
establecido de antemano) para la asignación de calificaciones.
Es importante incluir también instrucciones específicas para responder los diferentes tipos de
itemes: por ej.: “Escriba una equis (X) dentro del paréntesis que posee la respuesta correcta. Cada
respuesta tiene el valor de un punto”; “En el espacio que se ofrece a la derecha, escriba la palabra
que completa el texto”; “Una con una línea el concepto que aparece en la columna A con la
definición que le corresponde en la columna B”; “Marque sus respuestas en el tarjetón rellenando
completamente el círculo de la alternativa que usted considere correcta”, entre otros.
Existen muchos formatos para elaborar una tabla de especificaciones. Su uso depende de la cantidad de
Diseñando instrumentos de evaluación escrita
información que el diseñador desee dejar explícita en ella para proceder a la elaboración de la prueba. En
nuestro caso proponemos el siguiente formato cuya sencillez no excluye la información básica, necesaria
para un adecuado diseño del instrumento.
Ejemplo 1:
Objetivo de Criterio evaluativo % Ponderación Cantidad de item Tipo de item N° del ítem en la
aprendizaje prueba
5
Ejemplo 2
Paso 2
HABILIDADES CONOCIMIENTO COMPRENSIÓN APLICACIÓN SUMA
(40%) (30%) (30%)
CONTENIDOS
Paso 1
UNIDAD I (20%) 3 2 3 8
UNIDAD II (20%) 3 2 3 8
UNIDAD III(30%) 5 4 3 12
UNIDAD IV (30%) 5 4 3 12
TOTAL 16 12 12 40
Paso 3
Paso 4
En segundo lugar se determina los niveles taxonómicos que se incluirá y su ponderación, conforme al
énfasis con que hemos trabajado estas habilidades en clases respecto a los diferentes contenidos.
En tercer lugar se determina el número total de preguntas que tendrá la prueba. Esta decisión tiene
que ver con tipo de preguntas y tiempo para responder la prueba. En las pruebas de respuesta
estructurada conviene tener presente que el número de preguntas afecta el nivel de confiabilidad del
instrumento, medido estadísticamente. A mayor número de preguntas aumenta el nivel de
confiabilidad.
Luego se completa la tabla con los datos faltantes, realizando las aproximaciones que corresponda. En
tal sentido cabe señalar que la distribución de los ítemes al interior de la tabla no responde a un cálculo
matemático exacto dado que es posible hacer ajustes importando sólo que los totales sean coincidentes.
6
Finalmente cabe señalar que en el caso del ejemplo se ha trabajado con 3 de los 6 niveles taxonómicos
propuestos por Bloom. Esta selección de niveles es una decisión del profesor y responde a las habilidades
trabajadas según el programa de asignatura y lo realizado en clases, de otro modo se altera la validez del
instrumento. En suma, es posible incluir todos los niveles o sólo algunos en esta tabla, como así mismo
la factibilidad de utilizar modelos taxonómicos propuestos por otros autores.
De los tipos de itemes empleados en las pruebas escritas nos vamos a referir a aquellos que más se utilizan:
preguntas útiles para medir gran cantidad de contenido o materia; son de relativa facilitad para su diseño
y presentan como ventajas la rapidez para su corrección y objetividad para su valoración. Es importante
tener presente que este tipo de itemes son útiles sólo para medir contenidos conceptuales de carácter
memorístico o reproductivo. Bajo el prisma de las categorizaciones postuladas por Bloom: conocimiento
referido a datos y hechos específicos. Por tanto su limitación es que no resultan apropiadas para medir
aprendizajes de mayor complejidad. Por otro lado también debe tenerse presente la posibilidad de
respuesta al azar.
En algunos casos, para aumentar su dificultad suele solicitarse al estudiante que en caso de señalar la
pregunta o enunciado como falso se corrija o justifique la respuesta. Esta opción puede dar lugar a
diversos tipos de respuestas de parte del estudiante, todas las cuales pueden estar correctas, pero no
corresponder a lo que se pretende medir.
7
Por ejemplo:
El enunciado es falso, pero podría darse dos tipos de justificación: a) señalar que es falso porque
Henderson es una clara representante del modelo de suplencia o ayuda o b) señalar que es falso porque
Florence Nightingale es la representante del modelo naturalista.
De este modo es preferible utilizar el modelo Verdadero o Falso con corrección lo que implica destacar
una o dos palabras claves en cada enunciado, las que en caso de ser falso, el estudiante debe cambiar para
dejarlo correcto.
Completación: esta tipología de itemes permite medir aprendizaje de carácter memorístico y son
relativamente fáciles de construir. Consisten en elaborar una proposición verdadera en la cual se elimina
alguna palabra clave que el estudiante debe completar. Debe tenerse presente que en este tipo de ítem
debe dirigirse la atención a un ámbito importante del conocimiento y por tanto como señala Tenbrink
Los puntos clave para esta tipología, continuando con la propuesta del autor son:
8
El alumno podría completar la frase con el año, lugar u otro. Como puede observarse la proposición debe
plantearse sin lugar a ambigüedades, con una palabra posible para completar la frase.
PREMISAS RESPUESTAS
CAUSAS EFECTOS
INVENTOR INVENCIÓN
AUTORES OBRAS (TEORÍAS)
PROBLEMAS SOLUCIONES
OBJETO FUNCIÓN
SINTOMAS ENFERMEDADES
EJEMPLOS CATEGORÍAS
Selección Múltiple: constan de un enunciado o base, el cual puede estar planteado en forma de
pregunta o como un enunciado incompleto; se acompaña de un conjunto de alternativas de respuesta en
el cual existe una correcta o bien una mejor respuesta de un grupo en el cual todas son correctas, en
cualquiera de los dos casos, las alternativas restantes se denominan distractores.
Diseñando instrumentos de evaluación escrita
Este tipo de preguntas puede plantearse en todas los niveles taxonómicos. Demanda mayor cantidad de
tiempo su construcción sugiriéndose que su elaboración parta de preguntas de respuesta abierta
planteadas en clase (como evaluaciones formativas) en cuyo caso los distractores corresponden a las
respuestas con elementos erróneos que con mayor frecuencia han sido planteados por los alumnos.
Enunciado o
Base
Alternativas. Puede ser
1. ¿Cuál de las siguientes condiciones recesivas están ligadas al cromosoma X? planteado como:
Sólo una -Pregunta
correcta a la que 1. Hemofilia A (Hemofilia clásica) - Afirmación
se denomina 2. Fibrosis quística - Frase
incompleta
“clave”, las 3. Distrofia muscular de Duchenne
demás son 4. Enfermedad de Tay-Sachs
distractores 5. Ninguna de las anteriores
9
Para construir buenos ítemes de múltiple opción, se recomienda que:
1. La base o enunciado contenga una sola idea, expresada en lenguaje claro y sencillo.
2. Cada item debe tener solamente una respuesta correcta o definitivamente mejor respuesta, en el caso
de aquellas en que todas son correctas. Es preciso enfatizar esta situación si se diseña un item de la
última característica señalada.
3. Cada una de las opciones o alternativas de respuesta, debe ser suficientemente atractiva para aquellos
alumnos que no tienen un dominio exacto de lo que está midiendo el ítem,
4. No aparezcan palabras repetidas en todas las opciones de respuesta; en tal caso, debe trasladarse
dichos términos al enunciado del ítem.
5. La longitud de las opciones debe ser semejante (homogénea), fin de no dar pistas a los alumnos,
6. En aquellas situaciones que exigen un enunciado negativo, se deben subrayar el término NO o EXEPTO.
No obstante cabe señalar que este tipo, en general debe evitarse, ya que tiende a confundir a los
estudiantes.
7. Debe existir relación gramatical entre las diferentes opciones y la base o enunciado del ítem.
8. Evitar enunciados extensos, que aportan información innecesaria.
9. Conviene tener presente que ningún item debería revelar la respuesta correcta de otro item de la
prueba.
10. Se debe ubicar la respuesta correcta en forma aleatoria, dentro del grupo de alternativas del item.
11. Evite copiar oraciones textuales de un libro.
12. El número de opciones de respuesta debe ser igual en todos los itemes. 4 ó 5 alternativas es un
número adecuado.
13. El uso de alternativas como “ninguna de las anteriores” o “todas las anteriores” debe ser utilizado
solamente cuando es necesario. Es incorrecto que todos los itemes de una prueba los incluyan.
14. En caso de que el material utilizado en las alternativas sea homogéneo (ej. Solo cantidades o palabras)
debe ordenarse bajo algún criterio como por ej. de menor a mayor, orden alfabético, etc.
Preguntas de respuesta abierta: Son aquellas en que el estudiante debe elaborar su respuesta
para desarrollar un tema, resolver un problema o analizar un caso, entre otras. Se utilizan para medir
aprendizajes de mayor complejidad (niveles taxonómicos superiores).
Estas preguntas NO utilizan ¿Qué? ¿Cuándo? ¿Dónde?. Mencione… (las que miden conocimiento)….
10
En su planteamiento SÍ se utilizan términos como: Explique, Justifique, Compare…. ¿Por qué? ¿Cómo?
¿Para qué?
Sugerencia: Evite preguntas como: “Su opinión acerca de….” (si lo utiliza, se debe evaluar la
argumentación y no la postura del estudiante frente al tema)
• La pregunta debe ser clara, nítida y precisa en cuanto a lo que se pide al estudiante. En este contexto
sería incorrecto plantear una pregunta como “Explique las causas que incidieron en la emancipación
iberoamericana” porque en esta no se define ¿Cuántas? ¿Con qué profundidad? ¿Desde qué enfoque
o perspectiva?, entre otros.
• Si la pregunta está referida a la resolución de un problema, el enunciado debe contener todos los
datos necesarios para su solución.
• En el análisis de caso, el planteamiento puede incluir un texto, imagen, gráfico, esquema u otro, que
el docente estime pertinente.
• Dado que las PREGUNTAS DE RESPUESTA ABIERTA miden aprendizajes de mayor complejidad y que
requieren de mayor tiempo para responderlas, generalmente su asociación es 1 a 1, es decir:
objetivo/unidad – pregunta.
Para limitar la subjetividad en la corrección del item de respuesta abierta, se debe preparar una PAUTA en
la cual se determinan los aspectos que serán valorados y su ponderación.
DESCRIPTORES PUNTUACIÓN
Demuestra una comprensión total del tema. Se incluyen todos los requisitos de la tarea en la respuesta. 10
Demuestra una considerable comprensión del tema. Se incluye la mayoría de los requisitos de la tarea en la 7
respuesta.
Demuestra una comprensión parcial del tema. Se incluyen algunos de los requisitos de la tarea. 5
Demuestra poca comprensión del tema. Faltan muchos de los requisitos de la tarea. 2
Diseñando instrumentos de evaluación escrita
11
Ejemplo:
La asignación del puntaje es un elemento que debe decidir el profesor, en ambos modelos de matriz de
valoración.
Sea cual fuere el instrumento que diseñemos, lo importante es que se aproveche la información que nos
reporta para la toma de decisiones; esta es una diferencia fundamental entre el concepto de medir y
evaluar. El segundo es un concepto de carácter integral, en el cual está implícito el objetivo de ampliar el
conocimiento riguroso de los procesos y resultados educativos, existiendo un claro compromiso en la
mejora permanente de los mismos (Castillo, 2002).
Es importante considerar parámetros tanto en los itemes como en la prueba en general: nivel de dificultad,
poder de discriminación, calidad de los distractores, entre otros.
Todos estos elementos permitirán la toma de decisiones oportunas para el mejoramiento del aprendizaje
y de la calidad de los instrumentos evaluativos. Esto último porque la inversión de tiempo y esfuerzo para
preparar una buena prueba debe permitirnos poder utilizar – con las modificaciones que sean necesarias
– utilizar las preguntas y combinarlas con otras nuevas, en el diseño de otros instrumentos.
12
Anexo
Significado de las palabras claves utilizadas en la formulación de preguntas de examen. (Castillo, 2003)
Enumerar Hacer una lista, dando los puntos o afirmaciones uno por uno
Resumir Redactar los puntos o ideas más importantes omitiendo los detalles
Esquematizar Expresar las ideas mediante una estructura gráfica en las que se diferencien las
ideas principales de las secundarias, disponiéndolas en orden lógico
Demostrar, probar Realizar el razonamiento lógico necesario para demostrar algún principio
Ilustrar Crear un dibujo, figura, gráfico o ejemplo para aclarar la explicación de algo
Justificar Probar o dar razones evidentes para llegar a una afirmación o conclusión
13
Criticar, opinar Se trata de expresar el juicio personal en torno a algo indicando los méritos,
valores, ventajas, desventajas. Conlleva a un análisis y reflexión previa y
establecer una valoración personal
Aplicar Incluye las actividades cognitivas necesarias para aplicar a situaciones o casos
concretos los conceptos y principios trabajados. Para realizar esta actividad es
preciso que el alumno haya memorizado los conceptos, los comprenda y sea
capaz de transferirlos a nuevas situaciones
Elaborar Resolver una cuestión relacionada con los contenidos poniendo como marco
una situación creada por el estudiante. Para llevarla a cabo será preciso que
el sujeto emplee su creatividad e imaginación para inventar y producir nuevos
contextos
Referencias bibliográficas
Ahumada, P. (2003). La evaluación en una concepción de aprendizaje significativo. Valparaíso: Universidad Católica
de Valparaíso.
Doménech, F. (2011) Evaluar e investigar en la situación educativa universitaria. 2011. Universidad de Jaume.
Haladyna, T. (2004). Developing and Validating Multiple-choice Test Items. New Jersey: Lawrence Erlbaum Asocciates,
Publishers.
Santos Guerra, M. (2003). Dime cómo evalúas y te diré que tipo de profesional y de persona eres. Revista Enfoques
Educacionales, 69-80.
14