You are on page 1of 3

Bogotá D.C.

, 5 de mayo de 2016
Señores
LA SILLA VACIA
Ciudad
Asunto: Respuesta al artículo “Las inconsistencias en la aplicación de SABER”
Cordial saludo:
No tengo palabras para agradecerles su artículo en la Silla Vacía, pues me brinda la
oportunidad de hacer algunas precisiones en cuanto a las supuestas inconsistencias en
las Pruebas Saber 3° 5° y 9° que usted plantea en su artículo. Para hacer la comparación
voy a comentar las supuestas inconsistencias en el mismo orden en que usted plantea
su texto.
Para contextualizar a los lectores sobre este asunto, quiero explicar brevemente cómo
es el diseño de las pruebas Saber 3º, 5º y 9º. En primer lugar, estas pruebas evalúan el
logro de las competencias en lenguaje y matemáticas de los tres grados, y de ciencias
naturales y competencias ciudadanas en 5º y 9º. Las pruebas no evalúan a los
estudiantes del grado sino el ciclo, es decir, de 1º a 3º, de 4º a 5º y de 6º a 9º. Por ley, la
prueba debe aplicarse cada tres años, pero desde 2012 el sector educativo ha venido
aplicándola anualmente, al considerarla como una herramienta importante de
medición. Cada una de las áreas en cada grado tiene cerca de 280 afirmaciones
(definidas como grandes temas inducidos por los estándares básicos de competencias
que el Ministerio de Educación Nacional publicó en el año 2006). Cada una de estas
afirmaciones da lugar a varias preguntas que son finalmente distribuidas en
cuadernillos entre los estudiantes de un grado. Por ejemplo, en 3º, la mitad de los
estudiantes toman la prueba de matemáticas y la otra mitad lenguaje. Al ser tantas
afirmaciones, los estudiantes de este grado en una escuela particular no responden el
mismo cuadernillo. Sin embargo, el diseño de la prueba propende porque al final todos
los niños que han presentado la prueba agreguen todas las afirmaciones objeto de esta
medición. Al final, entregamos resultados a nivel de sede, institución educativa,
municipio, entidad territorial certificada, departamento y país.
En Colombia conviven al menos dos (porque hay más) calendarios académicos, A y B.
El Calendario A va desde finales de enero hasta noviembre y el Calendario B va de
agosto a junio. El 85% de la matrícula en Colombia se concentra en Calendario A, donde
están incluidos todos los colegios oficiales del país. La aplicación de las pruebas Saber
3º, 5º y 9º la hacemos al final de año escolar de Calendario A, donde tenemos la mayor
parte de nuestros estudiantes.
Con esto en mente, ahora lo invito a leer nuestra argumentación técnica acerca de las
supuestas inconsistencias que se mencionan en su escrito.

Las pruebas Saber 3º, 5º y 9º evalúan competencias, no temas exhaustivamente atados
a un currículo, en principio, porque Colombia no tiene un currículo único, sino
estándares definidos por ciclo. Luego, no es válido afirmar que el 100% del currículo se
cumple en un calendario u otro, dada la autonomía institucional en la formulación de
los planes educativos de cada institución (PEI).
Como no es una evaluación del grado sino del ciclo, si tomamos como ejemplo el caso
de 3º, podemos afirmar que sus cálculos no son precisos puesto que un año académico
(en teoría) dura entre ocho y nueve meses (voy a hacer el cálculo con ocho meses).
Saber 3º evalúa 24 meses. Si la prueba es en octubre (como ha venido siendo
regularmente) los niños de colegios oficiales (Calendario A) llevan el 96% de
cumplimiento del ciclo mientras los niños de Calendario B llevan 75%. Ahora, este año
proponemos hacer las pruebas en septiembre con lo que nos daría que los colegios de
Calendario A tendrían un cumplimiento del 92% y los colegios de Calendario B (que
proponemos que la tomen niños de 4º) un 100% del cumplimiento del ciclo, lo cual es
muy diferente a las cifras que usted plantea. Si los niños de 3˚ de Calendario B tomaran
la prueba, estarían cumpliendo con el 70% del ciclo. Esta si es una diferencia que no
queremos tener en nuestras pruebas. El Icfes como institución técnica no va a ir en
detrimento de ningún subgrupo poblacional porque les vaya mejor o peor. Por lo tanto,
creemos que el escenario que estamos planteando para la aplicación de este año es más
equilibrado.
¿A quiénes evaluamos? Las pruebas Saber 3º, 5º y 9º, a diferencia de las pruebas PISA
administradas por la OCDE, evalúan a los estudiantes por ciclo y no por edad. Usted
asume que todos los estudiantes de Calendario A tienen en promedio un año menos de
edad, lo cual es impreciso porque eso sucede con mayor frecuencia en colegios oficiales.
Por otro lado, asume que apenas los estudiantes de Calendario B entran a 4º ya tienen
10 años, lo cual también es impreciso. Coincido con que puede haber diferencias, pero
no tan dramáticas y el exagerarlo hace que su punto pierda validez.
El cambio que queremos implementar lo estamos haciendo por solicitud de la
comunidad educativa de los colegios pertenecientes a Calendario B. No es algo que se
nos ocurrió a unos pocos en el Instituto, ni tampoco debe verse como una decisión
caprichosa. El Icfes en sus procesos de divulgación ha efectuado varias reuniones en
diferentes regiones del país donde asisten rectores de colegios de Calendario B los
cuales nos hicieron ver las diferencias en el grado de avance en cada grado para cuando
aplicamos las pruebas.
Por otro lado, anualmente el Icfes libera los cuadernillos de las pruebas y estos son
usados por la mayoría de los colegios como material de familiarización con las pruebas,
a veces desde segundo de primaria. Regularmente, el Icfes hace entrega de un material
adicional a los colegios de Colombia y este a su vez es utilizado por los profesores para
familiarizar a los estudiantes con la prueba. Más aún, en el Sistema Nacional de
Evaluación Estandarizada, definido por la junta directiva del Icfes, un estudiante se
enfrentará a las pruebas del Icfes cada 2 años: en 3˚, 5˚, 7˚ (que después de 18 años fue

medido y piloteado el año pasado), 9˚, 11˚, Saber TyT y finalmente Saber PRO. Además,
como pudo evidenciar en la introducción de esta comunicación, no todos los niños de
un colegio particular presentan la el mismo examen (por la cantidad de afirmaciones).
Así que desde el diseño de la prueba, el Icfes ha garantizado que, a pesar de que en esta
medición la prueba sea administrada otra vez a algunos niños, la probabilidad de un
niño presente un cuadernillo con las mismas competencias es despreciable. Más aún, el
Icfes tiene la obligación de renovar anualmente los bloques de preguntas que
conforman la prueba, por lo tanto es seguro que un estudiante no volverá a enfrentarse
a las mismas preguntas. Por lo anteriormente mencionado, no es correcto afirmar que
existe cierta clase de sesgo en esta medición.
Por otro lado, los componentes de progreso y desempeño del Índice Sintético de Calidad
Educativa - ISCE son calculados a partir de los resultados de las pruebas Saber. Por
supuesto que estaremos pendientes de verificar por medios de análisis psicométricos,
estadísticos e incluso econométricos de que no existen diferencias significativas debido
a los puntos que usted menciona en el artículo. Pero más allá de estar preparados para
esta eventual (pero improbable) contingencia, debe tener la seguridad de que las
pruebas son robustas desde su diseño y que en nuestra misión de tener un sistema
estandarizado y masivo, la realidad de tener dos calendarios pero sólo una aplicación
anual hace que esta sea la decisión correcta precisamente en favor de la
estandarización.
Tanto el ISCE como los resultados de las pruebas Saber son información pública, y el
Ministerio de Educación Nacional está en libertad de tomar decisiones informadas de
política pública con esa información. El Icfes mantiene su postura en contra de los
rankings pues el propósito de la evaluación es que sea utilizada por la comunidad
educativa para analizar los resultados, generar discusión y proponer acciones de
mejoramiento. En ese sentido, el ISCE incorpora el componente de Progreso que
reconoce el trabajo que hacen los colegios dados sus contextos por mejorar año tras
año y no pretende reconocer solo mejores puntajes en las pruebas Saber.
Por último, lo invitamos respetuosamente a que se informe bien antes de escribir esta
clase de artículos en columnas de opinión, puesto que fácilmente se generan malas
interpretaciones acerca del juicioso ejercicio técnico que el Icfes ha realizado desde
hace varias décadas. Las puertas de nuestro Instituto están siempre abiertas para que
los ciudadanos se enteren de la robustez de nuestros procesos técnicos.
Atentamente,
Ximena Dueñas.
Directora General
Instituto Colombiano para la Evaluación de la Educación - Icfes