Professional Documents
Culture Documents
Nerio Neirotti
1
CONTENIDOS
1. Introduccin
2. Qu es evaluacin?
Definicin de evaluacin
Requisitos de una buena evaluacin
Relacin de la evaluacin con otras actividades emparentadas
Aspectos polticos y tcnicos de la evaluacin
Niveles de aplicacin de la evaluacin
3. Tipos y criterios de evaluacin
Segn el momento, el objeto y el alcance de la evaluacin
Segn quin evala
Segn la perspectiva de los involucrados
Criterios de evaluacin
4. Perspectivas y metodolgicas de la evaluacin
El debate metodolgico
Modelos de comparacin
5. Pasos para llevar a cabo una evaluacin
5.1. Planteamiento de la evaluacin y toma de decisiones
5.2. Diseo de la evaluacin
Objetivos y preguntas clave
Marco terico e hiptesis
Dimensiones, variables, indicadores y unidades de anlisis
Fuentes, tcnicas e instrumentos
Matriz de evaluacin
5.3. Recoleccin de informacin y procesamiento
Programacin de actividades
Seleccin y entrenamiento del equipo
Recoleccin de informacin y manejo de instrumentos
Procesamiento de la informacin
5.4. Anlisis de la informacin
5.5. Comunicacin y diseminacin
6. Conclusiones
2
1. INTRODUCCI N
3
currculos bajo un principio de adaptacin continua y escribir nuevos textos; se
debe aprovechar el potencial de las nuevas tecnologas y dar espacio a la
experimentacin; las innovaciones exitosas tienen que ser identificadas. En fin,
pasar del eje de la modernizacin al eje de las innovaciones como principio de la
reforma conlleva girar al sistema en 180 grados, ponindolo a funcionar como
un organismo adaptativo cuando hasta aqu ha operado esencialmente como un
mecanismo de conservacin. ( ) Lejos por tanto de cualquier determinismo
tecnolgico, la reforma de las innovaciones necesitar apoyarse en los profesores
y alumnos en primer lugar; en la organizacin de la escuela y las capacidades de
su personal directivo, enseguida y, en tercer lugar, en las redes de agentes que
pueden contribuir a la innovacin, como los padres, miembros activos de la
comunidad local, personal de investigacin y desarrollo que trabaja en
innovaciones educacionales, agencias de transferencias y difusin de tecnologas
innovadoras, empresarios comprometidos con la renovacin educacional,
facultades de pedagoga y universidades1.
Las innovaciones educativas son procesos complejos que podran ser concebidos
como configuraciones novedosas de recursos, prcticas y representaciones en las
propuestas educativas de un sistema, subsistema y/ o institucin educativa,
orientados a producir mejoras2.
Adems de los recursos y las prcticas, una tercer dimensin es necesaria para
definir las innovaciones educativas: las representaciones, creencias y valores que
subyacen en los puntos anteriores, es decir, los supuestos que existen por detrs
de las prcticas y los recursos empleados, el grado de internalizacin que existe y
el nivel de compromiso.
4
que la innovacin ha sido implementada, y a la vez los ms complejos de
promover.
5
concepcin de la misma como actividad sistemtica de reflexin, entendimiento
entre actores diversos y recomendacin de nuevos caminos de accin.
2. QU ES EVALUACI N?
5Citado por Stufflebeam, Daniel L. y Anthony J. Shinkfield, Evaluacin sistemtica. Gua terica
y prctica, Barcelona, Paidos / M.E.C., 1995, p. 19.
6
un proceso permanente de indagacin y valoracin de la gestin del programa
para generar conocimiento y aprendizaje que alimente la toma de decisiones6.
Definicin de evaluacin
Los aportes anteriores nos sugieren los aspectos centrales del concepto de
evaluacin, que podran sintetizarse en las siguientes notas:
7
- Proceso: No se trata de una actividad esttica, que se realiza de una vez
para siempre, sino que est en continuo desenvolvimiento.
- Indagacin sistemtica: Se busca generar conocimiento, y para ello se
utilizan los recursos y mtodos propios de la investigacin.
- Valoracin: Evaluar significa valorar, asignar valor, y esta actividad se
desarrolla en funcin de preferencias y prioridades sociales, que definen
los involucrados en el procesos evaluativo.
- Aprendizaje: En contraposicin a una visin arcaica sobre la evaluacin,
que considera que su funcin es el control o la fiscalizacin, se hace
hincapi en el aprendizaje, como instrumento para mejorar la gestin y las
polticas.
- Toma de decisin: El conocimiento producido por la evaluacin no tiene
fines acadmicos sino que est al servicio de la accin, y por lo tanto, de
la toma de decisiones.
- Transparencia: El conocimiento que resulta de la evaluacin tiene que ser
un instrumento de utilidad para todos aqullos a los que les concierne la
accin evaluada.
A la vez permite:
8
involucrados.
Un gran nmero de condiciones han sido sealadas como necesarias para que la
evaluacin resulte adecuada. En algunos casos se han llegado a elaborar check
lists que deberan ser seguidas como instrumentos de verificacin. Como ejemplo,
se incluyen los Estndares Para la Evaluacin de Proyectos del Joint Committee
on Standards for Educational Evaluation que presenta en su libro Roco
Fernndez-Ballesteros8. Estos estndares fueron diseados con el objetivo de
asegurar la concrecin de evaluaciones tiles, factibles, ticas y adecuadas y
contienen 30 normas:
9
Estndar
Criterio
1. Identificacin de implicados (de tal forma que sus
necesidades pueden ser tenidas en cuenta)
competentes)
10
6. Declaracin de resultados (las partes contratantes de la
evaluacin deben asegurar que el conjunto de los resultados sean
accesibles a las personas afectadas)
11
En este documento se ofrecen los requisitos mnimos indispensables para
garantizar una buena evaluacin o para analizar una evaluacin9 que ya ha sido
realizada:
La auditora es una funcin que tiene por objeto garantizar el buen uso de los
recursos del Estado y de la empresa en cuanto a la adquisicin de insumos,
buscando evitar acciones negligentes o delictivas. El control de gestin va ms
all, en el sentido que atiende a los procesos de conversin de los insumos en
12
productos, es decir, a las actividades y los resultados esperados de la misma, en
cantidad y calidad. Por su parte, la supervisin se orienta a observar que los
procesos se desarrollen segn lo previsto, incorporando actividades de apoyo o
asesoramiento. Como se podr observar, si bien todas estas funciones se apoyan
en el propsito de garantizar las mejores condiciones de la gestin, no brindan
insumos sistemticos de conocimiento que permitan arrojar luz para llevar a
cabo procesos transformadores.
Pero hay otras actividades que brindan estos insumos y que tambin se
diferencian de la evaluacin. Las experiencias que llevan a cabo las
organizaciones de la sociedad civil requieren, por su carcter singular e
innovador, llevar a cabo procesos de sistematizacin. Del mismo modo, sus
exploraciones suelen ser objeto de atencin de los investigadores. En tal sentido,
resulta conveniente distinguir y delimitar los procesos de sistematizacin,
investigacin y evaluacin.
13
de correlaciones y/o relaciones causales entre los fenmenos que se observan, ya
sea interpretndolos a la luz de la teora deductivamente o creando teora
inductivamente a partir de dichos fenmenos. En investigacin es ms acotado el
margen de fenmenos o aspectos que se eligen para analizar, mientras que la
sistematizacin se hace con un abordaje ms comprehensivo de todo el proceso
de intervencin. Adems, la investigacin es ms rigurosa desde el punto de vista
metodolgico y sus conclusiones son de ms peso. Tambin difieren en cuanto al
propsito de cada una.
14
Aspectos polticos y tcnicos de la evaluacin
15
Niveles de aplicacin de la evaluacin.
Los programas adquieren un nivel de mayor especificidad que los planes (no
necesariamente tienen que depender de un plan). Estn a su vez conformados
por componentes (puede ser tambin por proyectos), que constituyen partes
relacionadas entre s funcionalmente, es decir, los componentes o proyectos
cumplen funciones que coadyuvan al alcance de los objetivos del programa y
tienen entre s una relacin de tipo sistmico. Los programas suelen ser
continuados o tener perodos de duracin no claramente delimitados puesto que
finalizan cuando dejan de subsistir los problemas que les dieron origen.
A su vez, los proyectos tienen un nivel de especificidad mayor que los programas
y pueden ser parte de estos (al igual que la relacin entre programa y plan, la
relacin entre proyecto y programa es de inclusin y parte). Cabe la misma
aclaracin que se hizo en referencia a los programas: los proyectos no
necesariamente deben estar incluidos en un programa, puesto que es muy
comn encontrar proyectos que existen de modo independiente. Los proyectos
16
tienen un perodo y un fin claramente delimitados y sus productos son obras, o
bienes y servicios que generan un efecto multiplicador.
Las actividades de evaluacin son diferentes segn el nivel de gestin del que se
trate. Los proyectos son ms sencillos de reconstruir y resultan en principio ms
inteligibles, puesto que incluyen objetivos, productos y procesos de intervencin
acotados. En muchos casos contienen unas pocas lneas de accin y los
involucrados, adems de no ser muy numerosos, se renen con expectativas
claras y funciones bastante delimitadas.
17
responsable que conduce o coordina; en esta organizacin no existe sino que los
diferentes programas o proyectos slo coexisten o, en todo caso, tienen una
articulacin de tipo horizontal o en red. En este sentido, la evaluacin es an
ms compleja y cobran mayor peso los asuntos que tienen que ver con las
relaciones entre las partes.
18
3. TIPOS Y CRITERIOS DE EVALUACION
Existe correlacin entre los primeros tres criterios, dado que segn el tiempo,
corresponden distintos objetos o aspectos a evaluar y el alcance tambin es
correlativo, tal como se explica a continuacin.
19
Segn el momento, el objeto y el alcance de la evaluacin
Como se podr observar, todos estos tipos de evaluacin estn relacionados con
la toma de decisin previa a la iniciacin de un programa que responde a la
siguiente pregunta: Existen las condiciones para ponerlo en marcha? Segn
cul sea la respuesta se har la opcin. Por esta razn, con base en el criterio
del alcance se ubica la evaluacin ex-ante como evaluacin de decisin.
20
Evaluacin de proceso. Esta evaluacin se lleva a cabo cuando el programa est
en marcha, es decir, durante su fase de implementacin, y tiene por objeto
analizar el desempeo del mismo. Segn la extensin e intensidad del anlisis,
los tipos de evaluacin son el monitoreo y la evaluacin de gestin.
Se podra decir que el monitoreo ofrece una visin del movimiento del programa,
aunque superficial. Mientras que la evaluacin de gestin se detiene a analizar
diferentes funciones de la misma en profundidad. El monitoreo se asocia a una
pelcula y la evaluacin de gestin a una fotografa con detalles ms rigurosos.
Las funciones que pueden ser abordadas en una evaluacin de gestin son
variadas y se eligen segn la necesidad: a) organizacin del programa,
incluyendo la divisin del trabajo, responsabilidades y jerarquas; b) secuencia de
actividades, relacin entre las mismas y ubicacin en el tiempo; c) asignaciones
presupuestarias y cronograma de erogaciones; d) organizacin de recursos; e)
direccin y coordinacin; f) comunicacin interna y externa; g) reclutamiento,
organizacin, capacitacin e incentivos de recursos humanos; h) el clima de
trabajo; i) los productos y los efectos inmediatos; j) aspectos institucionales; k) la
planificacin y el monitoreo mismos.
21
Dado que la evaluacin es un aprendizaje, se puede afirmar que el alcance de la
evaluacin de proceso es formativo.
Por evaluacin de efectos se entiende aqulla que indaga sobre los cambios en la
realidad producidos por el programa, es decir, nuevos estados o condiciones en
las personas, en las cosas o en las instituciones que son producto de la
intervencin del programa, ya sea que respondan o no a los objetivos planteados.
Algunos programas tienen objetivos o propsitos que se limitan a la construccin
de infraestructura o equipamiento, y en este caso slo se evalan sus productos,
pero en general, los efectos son consecuencia de los bienes o servicios prestados
por el programa.
22
intereses comprometidos con los resultados de la evaluacin. Por ltimo, la
evaluacin externa suele estar a cargo de especialistas, los cuales tienen un
conocimiento metodolgico asentado a travs de la experiencia.
Con la evaluacin mixta se busca reunir las ventajas de ambos tipos, a travs de
la conformacin de equipos que renen agentes internos y externos. Existen
diferentes grados de asociacin (mayor proporcin de agentes externos o internos)
dependiendo de la medida en que cada parte coopera en el proceso de evaluacin.
En algunos casos se opta por reunir evaluadores externos e internos en nmero
similar, en otros se opta por un equipo externo que cuenta con apoyos internos, y
en otros se prefiere organizar equipos internos con la inclusin de especialistas
externos. Desde esta ltima perspectiva, el evaluador externo aparece en la
bibliografa especializada bajo la figura del agente provocador o amigo crtico,
trminos que dejan claramente planteada la idea de una interlocucin crtica y
reflexiva que puede potenciar an ms las ventajas de la auto evaluacin,
otorgando al agente externo independencia pero posibilidad de estar inmerso en
el proyecto.
23
Segn la perspectiva de los involucrados
Por ltimo, queda por sealar que existen distintos tipos de evaluacin segn la
perspectivas de los involucrados, sean stos los beneficiarios, los financiadores, el
poder poltico y las autoridades, el equipo de gestin, otros o combinaciones de
los mencionados.
Criterios de evaluacin
24
respuestas que se buscan y genera los cambios que se requieren. Tambin
interesa estimar si esta teora podra ser aplicable a otros campos o poblacin
beneficiaria. Con el anlisis de efectividad se indaga sobre la capacidad de un
programa a partir de su concepcin y diseo, incluyendo la pertinencia
(capacidad de respuesta a los problemas que le dieron origen), la consistencia y la
adecuada visualizacin del medio en el que se desarrolla.
25
de intensos debates que permanecen hasta hoy. Una primera clasificacin que se
puede hacer proviene de distinguir la evaluacin tradicional de los enfoques
alternativos que le sucedieron, dando diversas respuestas en oposicin a aqulla.
A continuacin se exponen brevemente los autores y fundamentos de cada una:
26
- Evaluacin naturalista evaluacin mediacin (E. G. Guba y Y.S.
Lincoln): considera a la evaluacin como una investigacin aplicada que
puede no proporcionar conclusiones objetivas e imparciales sobre el
programa a evaluar, sino que aporta herramientas para re definir los
medios para alcanzar los objetivos propuestos. Propone consensuar los
resultados del anlisis con los participantes de la evaluacin, para
incorporar sus percepciones y opiniones al informe final.
El debate metodolgico
27
generalmente aplicado en evaluaciones de programas de gran alcance o en
indagaciones de gran alcance sobre programas masivos.
28
vinculados con la comprobacin, la valoracin del impacto y la bsqueda de
explicaciones sobre los aspectos evaluados.
Por ltimo, dado que no hay mtodo que no presente problemas, dificultades o
inconvenientes, la tercera ventaja que ofrece la articulacin de ambos enfoques es
la de posibilitar la triangulacin de mtodos que permitan disminuir los sesgos
propios a cada uno de ellos. La triangulacin puede darse entre distintas
perspectivas tericas , entre distintas perspectivas metodolgicas, entre tcnicas
cuantitativas y cualitativas, entre tipos de informacin disponible
(documentacin, informantes de todo tipo, observacin) y entre distintos tipos de
informantes
11 Cohen, Ernesto y Franco, Rolando Evaluacin de proyectos sociales Buenos Aires, 1988 p. 134
29
constituyndose en el grupo experimental; mientras que la otra no es sometida a
ese tratamiento y conforma el grupo de control o grupo testigo. El eje central es
poder variar un factor a la vez, manteniendo el resto constantes. La dificultad es
encontrar dos poblaciones idnticas al menos en los factores pertinentes al
estudio.
30
a) Modelos antes- despus: trabaja sobre un solo grupo y compara las
mediciones realizadas antes de la puesta en prctica del proyecto, con los
valores obtenidos con los resultados de las mediciones realizadas despus.
El modelo no permite eliminar los factores exgenos, y determinar en qu
medida los cambios son imputables al proyecto. Para ello puede:
Se cuente o no con un sistema de evaluacin, cada vez que hay que crear esta
obra de arte que es la evaluacin es menester seguir los siguientes pasos:
- Diseo de la evaluacin
- Anlisis de la informacin.
31
5.1 Planteamiento de la evaluacin y toma de decisiones.
- Quines son los actores involucrados? En este caso hay que distinguir los
actores directos (tienen injerencia en el proceso de conversin de
insumos en productos, ya sea como responsables, agentes intervienientes
en el programa, como proveedores o como beneficiarios) de los actores
indirectos (aqullos que son concernidos por el programa pero que no
participan en su proceso de conversin). Cules son sus intereses, sus
fortalezas, sus debilidades, sus recursos?
32
Luego de contestar estas preguntas se estar en condiciones de esbozar la
evaluacin y de tomar decisiones sobre su puesta en marcha.
El siguiente cuadro refleja los principales puntos a tener en cuenta para analizar
los actores sociales involucrados. En primer lugar es conveniente establecer un
patrn de clasificacin y agruparlos (pblicos, privados, sociedad civil / tcnicos,
polticos, administradores/ por regiones / por tipo de institucin/ etc.) En la
primera columna enunciamos los grupos que intervienen, luego cules son los
intereses de cada uno de ellos, sus fortalezas y debilidades, los recursos que
aportan y, por ltimo, cuales son los potenciales conflictos que pueden ocasionar.
33
diferentes. Es necesario distinguir entre quienes simplemente proveen
informacin, quienes dan opinin, quienes son invitados a participar
espordicamente de una decisin y quienes se sientan en la mesa permanente de
decisiones. Existen diferentes esquemas, tales como la conformacin de equipos
permanentes, las instancias de consulta eventual o esquemas radiales de
consulta puntual por parte del equipo operativo de la evaluacin. Lo que resulta
claro es que no se puede evaluar haciendo asamblea permanente, puesto que hay
que seguir un rigor tcnico y ordenado en la produccin de conocimiento. Esto
requiere la existencia de un equipo operativo que hace sus aportes tcnicos, se
retira a organizar el proceso en todas sus instancia, se asla para preparar los
canales de participacin y anlisis de la informacin y luego vuelve al conjunto de
los involucrados.
Por otra parte es necesario considerar la limitacin que tiene que ver con los
recursos: dinero, tiempo, si se cuenta con el marco institucional y el marco
poltico adecuado. En otras palabras, no existe la evaluacin ideal, toda
evaluacin es diseada a medida y en funcin de circunstancias y de un
escenario en la que juegan todos estos factores tcnicos y polticos.
34
acuerdo sobre ello, sino que es menester avanzar sobre el tipo de evaluacin que
se desea hacer. Llegar a esta definicin implica tomar decisiones acerca de los
aspectos hacia los que apuntar la evaluacin y por lo tanto hacer un recorte de
las aspiraciones.
35
y de las hiptesis de evaluacin. El equipo operativo deber hacerse sus propias
preguntas e invitar a los actores involucrados a formular las suyas.
Posteriormente debern ser ordenadas en funcin de los siguientes criterios:
d) organizarlas segn las relaciones causales que existan entre las mismas.
Este encuadre terico o conceptual no es inmvil, sino que cambia conforme van
emergiendo evidencias a partir de la intervencin. Estas obligan a modificar las
perspectivas desde las que se observa e interpreta la realidad. Por esta razn, se
habla de la necesidad de poner al da el marco terico, haciendo un anlisis
crtico de las suposiciones que dieron sustento a la accin en el pasado.
36
Supongamos que debemos evaluar la gestin de un programa, en cuyo caso se
podra trabajar con la siguiente hiptesis: El programa presenta dificultades en
sus resultados porque a) el estilo de direccin es poco participativo, b) se ha
brindado escasa atencin a las opiniones de los beneficiarios, c) no hay una clara
asignacin de funciones a los agentes que tienen a cargo su implementacin.
Dado que todo programa supone una hiptesis de intervencin (si se llevan a
cabo tales actividades, de las que surgen tales prestaciones, se lograrn tales
objetivos), en gran parte de las evaluaciones, con la hiptesis de evaluacin se
propone corroborar el grado en que se cumpli la hiptesis de intervencin.
Luego, al preguntarse por qu, pueden aparecer varias razones (causas) o
correlaciones (hechos relacionados sin que se pueda considerar que uno da
origen al otro). Hay hiptesis que tienen relacin con la totalidad de las
dimensiones y otras slo interpretan lo que ocurre en relacin a una sola
dimensin.
37
escolar, la eficiencia interna de los centros educativos, los logros en el
aprendizaje, etc.
Indicadores: Signos que permiten percibir los movimientos de las variables. Una
variable es captada o descripta por medio de uno o ms indicadores. Siguiendo
los ejemplos anteriores de variables propias de la dimensin educativa, podemos
seleccionar la variable eficiencia interna de los centros educativos, para la cual
los indicadores podran ser tasa de permanencia (o su opuesta: desercin), tasa
de promocin (o su opuesta: repeticin) y tasa de asistencia (o su opuesta:
inasistencia).
- su pertinencia;
12Sauvageot, Claude Indicators for educational planning: a practical guide, IIPE- UNESCO,
1997.
38
- su carcter coordinado y estructurado, que permite ponerlo en relacin con otros
indicadores para efectuar un anlisis global del sistema;
- su precisin y comparabilidad;
- su fiabilidad.
39
Distintos tipos de documentos pueden ser reunidos:
- Informacin periodstica.
40
Sin pretender hacer un listado exhaustivo, se mencionan a continuacin algunas
tcnicas:
41
indaga, etc. Puede ser estructurada o abierta, o de tipo combinado como la
entrevista semiestructurada.
6) Economa de preguntas.
8) Diseo de la muestra.
- Grupo focal: Tambin llamado grupo de discusin, tiene por objeto encontrar el
sentido de la accin del grupo, las diferencias o matices de opinin, percepcin,
valoracin e intereses entre sus integrantes como as tambin las relaciones entre
ellos y sus posiciones relativas.
42
actividad de indagacin en s misma, para lo cual se brinda a sus participantes
elementos de metodologa que son usados en un anlisis concreto.
43
- Probar con anticipacin los instrumentos que se van a utilizar y, a partir
de ellos realizar los reajustes pertinentes. Esta prueba supone controlar
tanto la redaccin de las consignas (en el caso de instrumentos cerrados) o
la constatacin sobre la pertinencia de las categoras que organizan una
gua (por ejemplo, para la observacin o para una entrevista
semiestructurada) como los tiempos previstos en cada caso para el
relevamiento de la informacin.
Matriz de evaluacin
Qu ocurre?
Preguntas
Dimensiones Variables Indicadores
orientadoras
Con qu?
Unidades de anlisis
44
De esta manera la matriz debera poder contemplar la siguiente informacin:
45
Es decir, debern identificarse todas las veces que se ha hecho mencin al mismo
tipo de instrumento para recolectar informacin de diferentes tipos de unidades
de anlisis e indicadores, para construir y aplicar una misma herramienta que
permita obtener todos los datos buscados. Toda vez que se haga referencia a
encuesta, por ejemplo, deber tabularse, de modo que cuando esa encuesta sea
elaborada recoja todos los indicadores a los cules se hizo referencia y recoja
informacin de todas las unidades de anlisis a las cules remite.
A travs de un
Instrumento
46
A su vez, procesar informacin significa ordenar y volcar la informacin
obtenida en cada una de las variables que se han construido para la evaluacin.
De este modo, se construirn carpetas, tanto virtuales como de material
impreso, en un nmero equivalente a la cantidad de variables construidas, para
volcar la informacin recogida de distintas fuentes y a travs de distintas
tcnicas.
Programacin de actividades
47
Seleccin y entrenamiento del equipo
48
Recoleccin de informacin y manejo de instrumentos
Por otra parte, es importante que cuando el equipo de campo est realizando sus
tareas de recoleccin, pueda contactarse con miembros del equipo evaluador en
caso que le surgiera alguna duda o inconveniente.
Tambin es importante que si el trabajo de campo fue diseado con una amplia
duracin en el tiempo, existan entregas intermedias del material recogido. De esta
manera, a travs de la edicin de ese material, se puede sugerir al equipo de
campo que realice ciertas modificaciones en las prximas salidas a campo, que
enfatice ciertos aspectos, o que continen en la lnea en que vena
desarrollndose. Estas entregas intermedias, adems, aceleran los tiempos de
procesamiento, puesto que pueden realizarse cargas parciales an no habiendo
finalizado todo el trabajo de campo.
Adems es necesario que cada uno de los instrumentos aplicados pueda ser
identificado con la persona que lo aplic. De esta manera, cuando, durante las
etapas de edicin y codificacin, surgieran dudas, pueda contactarse fcilmente a
la persona y evacuar las dudas.
49
Procesamiento de la informacin
Fuente tcnica 1
Variable 1
Fuente tcnica 2
Fuente tcnica 3
Fuente tcnica 1
Variable 2
Fuente tcnica 3
Fuente tcnica 5
Variable
Fuente tcnica 2
El camino inverso es el que va de las fuentes / tcnicas a las variables,
indicadores y unidades de anlisis. Las variables son las unidades ms
pertinentes en este anlisis. Es as que en esta etapa se organiza la informacin
que se obtiene de las fuentes tcnicas segn las variables, agrupando toda
referencia a la variable en un mismo lugar fsico y electrnico. Tambin existe
informacin proveniente de las fuentes que no corresponde a ninguna variable.
Esta informacin debe ser agrupada por separado, ya que es informacin extra
o residual pero puede llegar a ser muy relevante a la evaluacin.
50
Indicador, variable, unidad de anlisis
Fuente tcnica 1
Indicador, variable, unidad de anlisis
51
de todo el programa, siguiendo (corroborando o refuntando y, por lo tanto,
rehaciendo) las hiptesis generales de la evaluacin.
En general el anlisis de los datos obtenidos tras una evaluacin culminan con
algn tipo de recomendacin o sugerencia, de modo de reafirmar el carcter de
aprendizaje que la evaluacin implica. Estas recomendaciones pueden versar en
trono a la modificacin de algn aspecto, a la permanencia, a la posibilidad de
replicabilidad o a las particularidades del proyecto.
52
5.5. Comunicacin y diseminacin
En cuanto a la diseminacin, es una condicin para que otros que estn llevando
a cabo experiencias parecidas o estn interesados en seguir caminos similares
puedan apropiarse del conocimiento producido. No se trata de replicar
experiencias mecnicamente, sino de transferir capacidades para la
transformacin, especialmente la de aprender a innovar. De all la importancia
de acercar los resultados de las evaluaciones a congresos, seminarios, mbitos
acadmicos, medios de comunicacin, mbitos de decisin poltica, agencias de
cooperacin, sindicatos, fundaciones empresariales, organizaciones no
gubernamentales, redes, etc.
Entre las recomendaciones de las evaluaciones figuran aqullas que tienen que
ver con el programa mismo (continuar, suspender, modificar, ampliar el respaldo,
generar mayor participacin de los involucrados, etc.), con decisiones de poltica,
con necesidades de llevar a cabo nuevas experiencias o de profundizar el
conocimiento a travs de ciertas lneas de investigacin.
53
- Se debe prestar atencin a las distintas audiencias: el proceso de
transferencia supone una preparacin del informe y una adaptacin en
funcin de cada una de ellas.
54
o Comenzar con la informacin ms importante
o Resaltar los puntos ms importantes
o Informe legible
6. CONCLUSIONES
55
conciencia.
Por ltimo, la evaluacin es una actividad que requiere pasin. En primer lugar
por las actividades que los programas desarrollan, por los beneficios que se
proponen brindar a la poblacin, y en segundo lugar por la verdad, por el
esclarecimiento de situaciones que requieren ser iluminadas.
56
BIBLIOGRAFIA SUGERIDA PARA SU LECTURA
57
- The Brazilian Evaluation Network
- French Evaluation Society (Societ Franaise de lvaluation)
- German Evaluation Society
- International Development Evaluation Association (IDEAS)
- UN Evaluation Forum
- UNESCO Bureau of Programming and Evaluation
- UNICEF
- International Association for the Evaluation of Educational Achievement
- United Nations Inter Agency Working Group on Evaluation
- IADB Inter-American Development Bank Office of Evaluation and
Oversight
- World Bank Group's Evaluation Monitoring and Quality Enhancement
- IDRC International Development Research Centre
- INTEVAL International Evaluation Research Group
- MEASURE Evaluation
- Resources for Methods in Evaluation and Social Research
58