Le contexte des évaluations humanitaires au Canada

François Audet Observatoire canadien sur les crises et l’aide humanitaire OCCAH Université de Montréal
13 décembre 2011

Objectifs

Qu’entend-on par « l’évaluation des interventions humanitaires » au Canada? Quelle est la teneur de l’« expertise canadienne » que nous possédons, dont nous avons besoin et à laquelle nous nous attendons? Quels sont les défis liés à l’évaluation de l’impact des programmes humanitaires?

Méthodologie

Recherche et revue de la littérature scientifique et institutionnelle
Entrevues auprès de 15 spécialistes et organismes humanitaires canadiens

Qu’en dit la littérature scientifique et institutionnelle?

Pas de définitions communes (OCDE, DARA, BCAH, Harvey, Beck, etc.) Définition de l’évaluation de l’action humanitaire (EAH) par ALNAP :
• L’examen systématique et impartial de l’action humanitaire dans le but de tirer des leçons pour améliorer les politiques, les pratiques et la redevabilité

Qu’en dit la littérature scientifique et institutionnelle?
• Postulats de base concernant l’évaluation des interventions humanitaires :
 

Doit être planifiée le plus tôt possible au cours du processus Devrait faire appel aux huit critères d’évaluation recommandés : • Pertinence, efficience, efficacité, impact, durabilité, interdépendance, cohérence et couverture

Présence de différents types d’évaluation, fonction des objectifs du processus :
• suivi et évaluation; évaluation en temps réel; leçons apprises; interne et externe; etc.

Qu’en dit la littérature scientifique et institutionnelle?

Présence de conflits d’intérêts entre l’évaluateur, l’évalué et le donateur (House, 2004) Principales constatations et préoccupations :
• 1) Les évaluations ciblent rarement les projets qui présentent réellement des problèmes ou les problèmes concrets au sein d’un projet. • 2) Elles sont souvent un exercice technocratique, plutôt qu’un examen objectif et en profondeur. • 3 ) Elles ne sont pas systématiques et font rarement l’objet d’un processus d’apprentissage (Pérouse de Montclos, 2011).

Principales constatations tirées des interviews

Qu’entend-on par « évaluation des interventions humanitaires » au Canada?

« Manque de cohérence » : interne et/ou externe; objectifs et méthodologies variées « Problème d’objectivité » : évaluations internes plus fréquentes que les évaluations externes « Axées sur les donateurs » plutôt que sur l’apprentissage ou le renforcement des capacités Axées sur les résultats plutôt que sur le processus

« Expertise interne limitée. Souvent fait par le truchement d’autres sections/fédérations. » • « Il semble préférable de faire les évaluations nous-mêmes; nous avons l’impression que l’expertise ‘externe’ est encore moindre. » • « Capacité très limitée au Canada; les ressources consacrées sont insuffisantes. » • Consensus : « culture institutionnelle pratiquement inexistante » • Écart entre la « rhétorique marketing » et la « réalité terrain »

Quelle est la teneur de l’« expertise canadienne » que nous possédons, dont nous avons besoin et à laquelle nous nous attendons?

Principaux défis et conclusions liés à l’évaluation de l’impact des programmes humanitaires

La littérature et la rhétorique tendent à abonder dans le même sens; Un roulement de personnel élevé en action humanitaire porte atteinte à la « mémoire organisationnelle » et réduit la nécessité d’une approche plus systémique;

Mise en œuvre rapide de l’action humanitaire qui impact la planification et l’établissement de mesures du rendement; Peu de fonds disponibles

Principaux défis et conclusions liés à l’évaluation de l’impact des programmes humanitaires

« Manque d’objectivité » : La plupart des évaluations sont faits par des gens ‘internes’. Il y aurait lieu de tendre vers une approche impartiale. Les organismes humanitaires canadiens devraient favoriser un changement de culture :
• Formations et partage des leçons apprises • Diffusion et discussion des résultats • Collaboration avec les universitaires pour favoriser les débats et l’objectivité, élaborer des méthodologies, etc.

Bibliographie
M.A. Pérouse de Montclos. 2011. « L'aide humanitaire dans les pays en développement : qui évalue qui ? » Mondes en développement, 2011/1 n°153, p. 111-120. DOI : 10.3917/med.153.0111
P.Harvey, A. Stoddard A.Harmer et G. Taylor. 2009. « L’état du système humanitaire : Évaluer les performances et les progrès. Étude pilote. Londres. ALNAP.

Beck, T. (2006). Evaluating humanitarian action using the OECD-DAC criteria: An ALNAP guide for humanitarian agencies. Londres, R.-U. : Overseas Development Institute.
E. House. (2004) The role of the evaluator in a political world, Canadian Journal of Program Evaluation 19, 2, 1-16.

OCDE (1999), Guidance for Evaluating Humanitarian Assistance in Complex Emergencies. Paris.
Hallam, A. (1998), Evaluating Humanitarian Assistance Programmes in Complex Emergencies. Londres, R.-U. : ODI. Good Practice Review 7.

Harvey, P. (1997), PRA and Participatory Approaches in Emergency Situations: A Review of the Literature and ACTIONAID’s Experience. Londres : ACTIONAID.
Dabelstein, N. (1996), Evaluating the International Humanitarian System in Disasters Vol. 20, No. 4. ODI, Londres.

Merci

Observatoire canadien sur les crises et l’aide humanitaire Université de Montréal www.occah.org