Évaluation CM2 : un gâchis

Fin janvier se sont déroulées dans toutes les classes de CM2 des évaluations nationales en trois séquences d’environ trois quarts d’heure chacune. A travers 19 exercices, les 37 items mathématiques abordent tous les domaines du programme (nombre, calcul, géométrie, grandeurs et mesures, organisation et gestion des données).

L’évaluation CM2 de janvier 2009 restera-t-elle dans les annales comme un de ces loupés notables provoqués par le fonctionnement aveugle d’une administration sûre d’elle et inapte à traiter les enseignants comme des professionnels responsables ? Ce qui marque cette évaluation est en effet le mépris dans lequel sont tenus les enseignants, mais aussi les cadres intermédiaires, mais aussi leurs organisations représentatives (telle que l’APMEP) et syndicales. Cela sans parler du mépris manifesté pour tout ce qui touche, de près ou de loin, aux recherches sur les didactiques des disciplines et sur l’enseignement en général.

Non que cette évaluation soit vraiment mal conçue. Les cahiers et les différents documents d’accompagnement dénotent même une organisation sérieuse et compétente et des moyens considérables ont été mis en œuvre pour en assurer le succès. D’où vient alors le malaise ?

Il vient en premier lieu du manque d’implication des enseignants à la préparation du plan d’évaluation et à la préparation des cahiers d’évaluation. Cela marque une régression importante par rapport aux pratiques inaugurées par l’évaluation de 1989 et plus ou moins poursuivies ensuite. Oui, il faut évaluer les acquis des élèves ; oui, il est souhaible que le système cherche à évaluer les effets des politiques éducatives ; oui il est légitime de chercher à évaluer la qualité de l’action des personnels. Ce n’est donc pas contre l’évaluation que nous voulons réagir, c’est contre le simplisme et le volontarisme stérile qui caractérise cette évaluation et qui risque de contrecarrer sérieusement le développement, par ailleurs souhaité, d’une culture de l’évaluation dans notre pays.

S’ils ne sont pas impliqués, les enseignants sont au moins tenus pour responsables des insuffisances qui seront enregistrées. En témoigne cette phrase du guide de l’évaluation : « Les élèves dont le taux de réussite est supérieur à 66% sont des élèves performants pour lesquels les stratégies didactiques et pédagogiques quotidiennes mises en œuvre apparaissent satisfaisantes ». Gageons que, si l’évaluation est menée de façon totalement honnête à tous les niveaux de la pyramide, rares seront les enseignants qui seront repérés comme ayant mis en oeuvre des stratégies didactiques et pédagogiques satisfaisantes !

De toutes façon une évaluation sérieuse ne peut être que croisée, multicritères, contradictoire. il faudrait arrêter de vouloir utiliser une échelle unidimensionnelle. L’évaluation doit nécessairement être multidimensionnelle (ce qui, on le sait, rend impossible les classements, mais permet les jugements, les choix et les projets d’amélioration).

Le malaise vient ensuite de la réitération de l’erreur commise après 1989 qui avait vu l‘évaluation diagnostique de début d’année, au CE1 et en Sixième, gravement pervertie par l’utilisation faite des résultats pour construire des indicateurs nationaux et internationaux de la qualité de notre système éducatif.

Il vient encore de la confusion entretenue entre l’évaluation diagnostique et l’évaluation bilan. Certes le mot diagnostique n’est pas utilisé, mais la façon dont il est demandé aux enseignants d’utiliser les résultats au cours du troisième trimestre, et la façon dont les indicateurs sont construits, la transforme de fait en une évaluation diagnostique. D’ailleurs, les questions sont en tout points semblables aux questions posées depuis 1989 dans les évaluations officiellement diagnostiques. Comment ce type de questionnement se serait-il mué d’un coup en évaluation bilan ? (« Disposer d’un nouvel indice de l’efficacité des enseignements à l’école »). Vouloir faire jouer tous les rôles à un outil d’évaluation unique (et bien pauvre !) est naïf et ne peut que générer des effets pervers.

Contrairement à l’évaluation de 1989, celle de 2009 assume d’emblée sa fonction d’évaluation de pilotage et cela à tous les niveaux : niveaux de la classe et de la gestion pédagogique de la classe et de chacun des élèves, puis, successivement, niveaux de l’école, du département de l’académie, du ministère…

Depuis plus de 40 ans, pourtant, des études sérieuses, partout dans le Monde, mettent en évidence les risques, non de l’évaluation, mais du « testing ». Dans tous les cas, on voit comment l’enseignement s’adapte aux tests et délaisse en contre partie une bonne partie de ses objectifs. Qui ne voit, par exemple que l’évaluation CM2 ne fait aucune place à la résolution de problèmes (concrets ou non), ni à l’exercice de la fonction critiques (dimensions beaucoup mieux pris en compte dans la plupart des systèmes des pays développés, et par… PISA.

Un peu partout des voix se font entendre pour que l’on passe d’une évaluation DE l’enseignement à une évaluation POUR l’enseignement. Sous cet aspect, l’évaluation du ministère est totalement « ringarde », reproduisant ce qui se faisait en Angleterre il y a 20 ans, sans tenir aucun compte de l’expérience accumulée depuis.

La pression exercée par l’OCDE et par l’Europe, amène les états à monter en catastrophe des dispositifs qui ne tiennent que très peu compte des spécificités de l’acte éducatif, des sensibilité des enseignants, des risques de conduire à enseigner pour les tests et non d’évaluer pour faciliter les apprentissages. La confusion entre l’évaluation formative et l’évaluation bilan est partout manifeste et risque de faire bien des dégâts.

Pour être honnête, je dois dire que l’évaluation CM2 échappe (pour l’instant !) aux défauts les plus inquiétants qui se font jour dans certains pays, tel le fichage systématique des enseignants et des élèves, de leurs données personnelles et de la mise ne relation des divers fichiers. Le risque existe cependant et il nous faut rester vigilants.

Les enseignants ont réagi de façon diverse à cette évaluation, mais les nouvelles qui nous reviennent du terrain permettent de penser que le biais engendré par leurs réaction sera important et risque fort d’en discréditer les résultats ? Bref, une occasion manquée et un vrai gâchis.

Notre pays s’honorerait en développant des démarches d’évaluation répondant au besoins d’évaluation reconnus, en impliquant les enseignants, leurs organisations professionnelles, les chercheurs et les représentants de la société civile.

Les Journées Nationales
L’APMEP

Publications
Ressources

Actualités et Informations
Base de ressources bibliographiques

 

Les Régionales de l’APMEP