Dans cette tribune libre*, Pierre Savignat, enseignant-chercheur et président d’honneur de la Société française de l’évaluation, alerte sur les dérives de l’évaluation des ESSMS "made HAS", dénonçant une standardisation qui appauvrit les pratiques. Une rupture s'impose, selon lui.
Dans un courrier envoyé en octobre 2025 à la Haute autorité de santé (HAS) et à la Direction générale de la cohésion sociale (DGCS), seize fédérations énoncent plusieurs griefs dont, notamment, des incohérences entre les résultats affichés par la HAS et ceux ressortant des rapports d’évaluation.
Elles s’inquiètent de modifications techniques et méthodologiques produites par la HAS pour resserrer le processus notamment pour en assurer l’homogénéité (égalité de traitement).
Une approche « standard »
La HAS et la DGCS ont répondu en acceptant quelques modifications à la marge tout en renvoyant l’essentiel des propositions à la seconde vague, c’est-à-dire après 2027.
Cette prise de position solennelle fait écho à de nombreux questionnements et insatisfactions ressenties par les professionnels au regard de l’exercice. Elle permet de revenir sur les questions de fond que soulève le dispositif construit par la HAS.
Le premier maillon a été la création d’un référentiel unique de quelque 150 critères, référentiel qui s’applique, à quelques petites nuances près, à toutes les situations, à tous les établissements et services.
Ce choix conduit à réduire les particularités de chaque structure, au profit de règles s’appliquant urbi et orbi. Dans cette logique tous les éléments de contexte, les particularités de toute nature, sont écartés. Premier pas d’une approche « standard ».
Dénaturation du rôle des RBPP
La notation chiffrée de 1 à 4 renforce cette dimension. Or, qui peut sérieusement croire que la notation est de nature à rendre compte de la réalité, de la diversité, de la complexité et de l’utilité sociale du travail réalisé au regard des missions, des valeurs, des besoins et attentes des personnes accompagnées en tenant compte du contexte propre à chaque structure.
Cette notation est basée sur une logique de preuves formelles. À cet effet, il y a particulièrement une dénaturation du rôle et de la portée des recommandations de bonnes pratiques professionnelles (RBBP).
En 2020, la HAS écrivait qu’elles « reflètent le consensus de l’état de l’art et des connaissances à un moment donné. Elles ne sauraient dispenser les professionnels d’exercer leur discernement dans l’établissement et le choix de l’accompagnement qu’ils estiment le plus approprié, en fonction de leurs propres constats et des attentes des personnes accompagnées ».
Très logiquement, la HAS précisait que les RBPP « doivent donc être distinguées des standards et des normes qui définissent des critères d’évaluation ».
C’est cette liberté d’adaptation, ces marges d’interprétation laissées à la discrétion des professionnels, qui est totalement arasée dans la logique mise en œuvre.
Déjà le décret de 2024 relatif au projet d’établissement ou de service, disposait que les établissements et services sociaux et médico-sociaux (ESSMS) déterminaient les objectifs de qualité « dans le respect des recommandations de bonnes pratiques professionnelles » produites par la HAS.
Paresse intellectuelle
Christian Saout, membre du collège de la HAS, confirme cette évolution du rôle des RBPP. Dans une tribune, il précise qu’elles « constituent des optimums de qualité attendus par les personnes accueillies » (Le Media Social, 23 juin 2025). Autrement dit, elles deviennent des normes opposables, des éléments de preuve.
L’idée que la conformité à des standards permet d’approcher l’utilité du travail réalisé au regard des missions est au mieux un leurre. Elle procède d’une paresse intellectuelle refusant, de fait, de chercher à comprendre la complexité, la diversité et l’utilité du travail d’action sociale.
Initialement, la publication d’une synthèse des rapports devait permettre une meilleure information des personnes accompagnées. Or, quiconque jette un œil sur l’application Qualiscope constate qu’ils ne montrent qu’une suite de notes dont l’on voit mal leur pertinence pour informer les personnes accompagnées.
L’hyper-concentration des organismes certifiés conforte la dimension de standardisation. Le rapport de la HAS dressant le bilan pour 2024 précise que « plus de la moitié [des] évaluations ont été réalisés par 15 organismes », sur un peu plus d’une centaine (p. 15). Cela interroge, mais la HAS n’en tire aucun élément.
En réalité, cette pseudo-évaluation n’est en fait qu’une certification. Il s’agit d’un contrôle de conformité, largement décontextualisé. D’ailleurs, le cahier des charges pour certifier les organismes « s’ajoute aux exigences d'accréditation fixées par la norme EN ISO/IEC 17020 – Évaluation de la conformité » (HAS, mai 2022). Les mots ont un sens. Le Cofrac désigne les « évaluateurs » par le terme d’inspecteurs.
De simples exécutants
Certes des règles, des procédures, sont nécessaires. Les contrôles par les autorités publiques sont légitimes. Il convient de regarder comment elles sont mobilisées, comment elles sont appropriées. Mais les normes doivent rester des outils au service de l’action et non des données intangibles applicables de la même façon quels que soient les contextes et les situations concrètes. En outre, toutes ces normes doivent aussi être périodiquement réinterrogées quant à leur efficacité et leur pertinence.
La standardisation arase le sens, la standardisation renvoie les pratiques professionnelles à la mise en œuvre de règles et de procédures prédéfinies. La standardisation, qui trouve ses racines dans l’industrie, tend à réduire les professionnels à de simples exécutants.
La certification « made HAS » porte sur la forme et non sur le fond. Exit le projet de l’établissement ou du service, point central qui fait le pont entre les missions confiées et leur mise en œuvre au travers d’objectifs opérationnels. Il devrait être le point de départ et la colonne vertébrale d’une réelle évaluation. Certes, il y a quelques éléments qui se retrouvent ici ou là dans les critères. Mais le projet est un tout, il ne s’évalue pas à la découpe !
Il n’est pas impossible que, dans un avenir pas si lointain, l’IA soit l’outil de construction des protocoles et autres procédures. Et pourquoi ne serait-elle pas mobilisée pour consolider et harmoniser les rapports d’évaluation !
Après, la HAS a fait ce qu’elle savait faire, avec sa méthode et son mode de fonctionnement vertical. Nul ne saurait lui reprocher.
Le lobby sanitaire a gagné
Le modèle choisi est un « copier-coller » de la certification des établissements de santé. Elle a coopté des professionnels, avec ses propres critères pour l’adapter a minima au champ social et médico-social. La HAS a estimé que ces professionnels étaient représentatifs (!) et a mis à distance de l’élaboration et du suivi du dispositif les fédérations et même la DGCS, simplement regroupées dans un comité Théodule, consultatif et sans impact.
Il faut rappeler qu’une majorité de fédérations a voulu, en son temps, conserver l’Anesm alors que le sort de cette dernière était plié. De ce fait, elles se sont exclues du choix posé par le cabinet de la ministre, entre HAS et CNSA (Caisse nationale de solidarité pour l'autonomie). Le lobby sanitaire a gagné !
Une rupture s'impose
Aujourd’hui, critiquer à la marge la seule application du dispositif, réclamer des aménagements, ne suffit pas. L’enjeu est de remettre en cause le système et ses logiques de standardisation qui n’ont rien à voir avec l’histoire, les valeurs et les pratiques d’action sociale. Une rupture s’impose.
La HAS semble vouloir ouvrir un débat à l’issue du premier cycle de cinq ans. Chiche ! Mais ce débat doit être totalement ouvert. Le fait de confier le processus évaluatif à la CNSA doit être remis sur la table. Son fonctionnement démocratique, la présence des acteurs, l’existence d’un conseil scientifique indépendant, une réelle expérience et expertise en matière d’évaluation militent en ce sens.
Consultée en son temps, la Société française de l'évaluation (SFE) avait plaidé pour cette solution. C’est l’occasion pour les acteurs de rejeter le modèle de certification, et non tel ou tel aspect à la marge pour limiter les dégâts.
Il est encore temps de reprendre l’initiative pour développer, comme le soulignent les fédérations dans leur communiqué, « une évaluation exigeante, transparente et porteuse de sens pour les professionnels comme pour les personnes accompagnées ».
À lire également :
- Évaluation des ESSMS : la HAS apporte des précisions au système de cotation
- Évaluation des services à domicile : quelles spécificités pour les SAD ?
- Évaluation des ESSMS : La HAS et la DGCS promettent des ajustements
- Évaluation des ESSMS : les professionnels dénoncent des incohérences sur Qualiscope
- Évaluation de la qualité : quelles conséquences pour les ESSMS notés C ? [chronique de Jean-Luc Gautherot]
- ESSMS : l’évaluation de la HAS sous le feu des critiques
- Management, évaluation, contrôle : à chacun son rôle ! [tribune libre, Christian Saout]
* Les tribunes libres sont rédigées sous la responsabilité de leurs auteurs et n'engagent pas la rédaction du Media Social.

