La présidente du Haut Conseil de l'évaluation de la recherche et de l'enseignement supérieur (HCERES) a présenté les changements à venir dans son fonctionnement lors du CNESER du 9 décembre 2025.
La présidente du HCERES, Coralie Chevalier, est arrivée à la tête de l’instance d’évaluation en février 2025, dans un contexte de crise politique et de crise de confiance de la communauté. À son arrivée, elle a choisi de décaler la prochaine vague d’évaluations de plusieurs mois, pour prendre le temps d’une vaste consultation. Elle a présenté le résultat de ces consultations, d’abord dans un entretien à la presse, puis lors CNESER du 9 décembre.
Les propositions d’évolution de l’évaluation par le HCERES
Cette section est une retranscription aussi fidèle que possible de ce qui a été dit en CNESER, en se basant sur nos notes prises pendant la séance.
Globalement
- la périodicité de l’évaluation passe à une fois tous les six ans (au lieu de 5 actuellement) ;
- la durée de la période d’évaluation passe à un an (au lieu de deux actuellement) ;
- les évaluations se feront à nouveau en présentiel ;
- les avis du HCERES ne seront plus liés aux décisions d’accréditation des établissements ou de fermeture des laboratoires ;
- il n’y aura plus de données quantitatives à rassembler et transmettre (ça a été répété : « plus de tableaux Excel ») ;
- fin des référentiels (qui comptaient des dizaines de critères) pour passer à des guides organisés entre 3 et 6 thématiques, au choix des établissements ;
- objectif : avoir une vraie évaluation par les pairs, sortir d’une logique de contrôle de conformité, sortir de l’exhaustivité ;
- l’évaluation a 3 buts :
- créer un cadre propice à l’analyse réflexive,
- soutenir une démarche d’amélioration continue,
- nourrir le dialogue stratégique en interne et avec l’État.
Sur les unités de recherche
- dossier unique d’évaluation, commun entre le HCERES, les organismes nationaux de recherche et l’ensemble des tutelles ;
- les données de financement seront transmises directement par l’ANR ;
- le dossier d’évaluation comportera 4 thématiques :
- avancée des connaissances et rayonnement scientifique
- activités de recherche dans la société
- ressources humaines, culture de recherche
- vision stratégique, pertinence et faisabilité du projet
- pas de fichier Excel, fin de la course aux publications, travailler la qualité plutôt que la quantité : « Il n’est pas souhaitable que la liste des publications soit transmise »
- porter une attention renforcée à la culture de recherche de l’unité : le bien-être du collectif, les principes déontologiques : « Il n’y a pas de science de qualité sans un bien-être au travail »
- les recommandations doivent s’inscrire dans une logique d’amélioration continue : aider les unités de recherche à renforcer leur recherche, aider les unités de recherche dans leurs discussions avec les tutelles.
- contextualiser et personnaliser les évaluations.
Sur les établissements et la formation
- le dossier commence avec le positionnement de l’établissement, ses points forts et ses difficultés,
- 6 thématiques :
- politique partenariale
- organisation de gouvernance
- pilotage
- stratégie recherche, valorisation, etc
- stratégie formation
- stratégie vie étudiante
- entretiens en présentiel
- présentation du rapport final à l’oral (en visio) par le comité d’experts à l’établissement avant l’envoi du rapport
- « nous ne sommes pas dans une logique de classement des établissements ».
- le but : voir comment les établissements définissent une identité qui leur est propre, comment ils définissent une stratégie et des actions.
- il n’y a plus d’avis d’accréditation ou de fermeture de formation.
La position de la CFDT Éducation Formation Recherche Publiques
Pour la CFDT, l’évaluation des établissements est une composante essentielle du processus de Bologne. La question n’est donc pas de savoir s’il faut ou non une évaluation, sauf à bouleverser l’équilibre de l’espace européen de l’Enseignement Supérieur et de la Recherche, mais bien comment on la fait, et à quoi elle sert.
C’est dans cet objectif que la CFDT s’était opposée à la suppression du HCERES, tout en demandant que la manière dont les évaluations sont conduites soit profondément réformée. Cette réforme était indispensable, et devait prendre en compte le ressenti extrêmement négatif des agents quant au processus et, dans certains cas, quant aux évaluations produites.
Dans le projet que présente la présidente, on trouve de nombreux éléments qui vont dans le bon sens. Il en est un qui mérite d’être souligné : on se débarrasse de la vision qui avait été celle du précédent président du haut conseil, d’une sorte de tour de contrôle qui permettrait le pilotage du système français d’enseignement supérieur.
Le contresens était complet : alors même que l’on renforçait l’indépendance du HCERES, qui devenait autorité publique indépendante, la mission qu’on lui donnait mélangeait mission d’évaluation et mission de pilotage, qui s’agissant d’un service public fait partie des missions de l’État. En déconnectant l’évaluation (mission de l’API) de la contractualisation (mission de l’État), on sort de cette confusion malsaine et c’est une bonne chose.
Sur la manière de procéder, des avancées se dessinent ; mais les organisations syndicales devront être associées aux travaux ultérieurs qui rentreront dans les détails. Nous avons noté plusieurs points positifs : limiter les remontées statistiques massives, adapter les critères aux spécificités des établissements, en finir, s’agissant de la recherche, avec le double travail pour le HCERES d’une part et pour les instances d’évaluations des ONR d’autre part, en finir pour de bon avec la publimétrie … tout cela fait partie des attentes des agents ; mais le diable est souvent dans les détails. Nous serons très attentifs à la réalisation.
Les organisations syndicales ont été consultées pour construire ce projet ; elles devraient être également associées au pilotage du HCERES. C’est indispensable, et cela aurait pu éviter bien des malentendus.
En effet, il faut le répéter : l’évaluation est nécessaire, mais elle demande du travail, qu’il s’agisse de l’autoévaluation ou de la remontée d’indicateurs vers l’évaluateur extérieur. Une partie de notre problème avec l’évaluation menée par le HCERES n’était pas tant l’instance qui lit les rapports, mais le travail nécessaire pour les écrire. Il est proprement scandaleux que ce temps de travail ne soit jamais quantifié ni pris en charge dans la charge de travail des agents. Dans toute structure qui dispose d’une démarche d’évaluation ou d’assurance qualité, cette fonction est budgétée en termes de force de travail, sans quoi elle ne serait que virtuelle ; dans nos établissements, c’est toujours du travail en plus qui contribue donc à la surcharge et à la souffrance des agents. Si une périodicité de 6 ans est adoptée, avec une année spécifique dédiée aux deux phases du travail d’évaluation, il faudra absolument qu’établissements et tutelles proposent une organisation du travail permettant que ce travail soit accompli sans que cela soit une surcharge pour les agents.
Enfin, les standards européens sur l’évaluation (ESG) ont un critère de base pour l’enseignement supérieur : avoir un financement suffisant. Il est clair que ce critère posera de gros problèmes pour l’enseignement supérieur français.
Nous espérons que les évaluations futures du HCERES sauront pointer clairement les déficits de financements et leurs conséquences. Il n’est pas normal de reprocher aux agents de n’avoir pas pu faire leur travail si on ne leur a pas donné les moyens de faire ce travail !