Depuis plus de deux ans, la nouvelle évaluation est entrée en vigueur pour les 40 800 établissements et services sociaux et médico-sociaux (ESSMS) [1]. Quels retours après ce démarrage ? Autant le dire d’emblée, ils indiquent une situation grotesque : cadre hyper détaillé imposé par la Haute Autorité de santé (HAS), contenus et méthodes avec novlangue éthico-managériale et standardisation ; rapports inutilisables, déni du travail
réel des professionnels. C’est le royaume d’Ubu : despotisme, stupidité, vacuité. À titre personnel, après quinze ans de pratique, je rends mon tablier. Je ne veux pas perdre mon âme… sauf à revoir le dispositif.
Une ambition initiale dévoyée
La volonté de la loi du 2 janvier 2002 était ambitieuse pour ces évaluations obligatoires : plus grande lisibilité de l’offre, développement de l’amélioration continue de la qualité, démarche partagée autour de l’efficience. La loi n’utilisait pas le terme « évaluation » par hasard, le situant dans le droit fil de celles des politiques publiques : « Rechercher si les moyens mis en œuvre permettent de produire les effets attendus et d’atteindre les objectifs assignés. » [2] Le législateur définissait ainsi deux domaines pour l’évaluation d’un ESSMS : ses activités et la qualité des prestations, plus l’utilisation de procédures, références et recommandations de bonnes pratiques professionnelles.
Jusqu’en 2020, les obligations d’un ESSMS pour les quinze ans de durée de son autorisation visaient des évaluations internes (tous les cinq ans) et externes (après sept ans, puis deux ans avant le renouvellement de l’autorisation). De 2007 à 2020, avec l’agence nationale Anesm, 35 000 évaluations externes ont été réalisées par environ 1 000 cabinets habilités. Une extrême hétérogénéité a régné dans leur qualité et leur respect du cadre, défini par décret [3]. Le coût sur dix ans des 35 000 évaluations réalisées ?218 millions d’euros à fin 2020 [4], pour des résultats faiblement exploitables [5]. À partir de 2020, la transformation du dispositif a abouti à l’obligation d’une seule évaluation quinquennale, la HAS prenant le relais de l’Anesm. Le coût prévisible : 288 millions d’euros sur cinq ans [6]. La transformation engagée ? Un référentiel unique avec 157 critères, une méthode (accompagné-traceur, traceur ciblé, audit système), un objectif majeur (notation de la conformité à un standard), sans mesure des impacts et effets, ni de l’atteinte des objectifs ni de l’efficience. Il s’agit donc ni plus ni moins d’un contrôle qualité, l’appréciation des activités et de l’efficience étant oubliée.
La perception des ESSMS passés par cette nouvelle moulinette ? Examen stressant, faibles jours de terrain des évaluateurs avec peu d’attention aux réalités, langage abscons, posture d’exécutant de la HAS… Ils se consolent avec les notations obtenues [7] mais se posent une question : quelle utilisation pour adapter les stratégies d’accompagnement avec les équipes ? Le résultat est sans appel : standards organisationnels valorisés, certes, mais aucun soutien en évolution de la qualité des accompagnements, l’ensemble est subi.
Un dispositif normatif et subi par tous
Il y a trois mois, un ouvrage au vitriol a été publié sur le thème [8]. Très médiatisé, son contenu est sévère : procédure dévoyée, méthodes floues au service d’une approche techniciste, examen de procédures standards fétichisées, savoirs professionnels et expérientiels négligés, voire oubliés, référentiel unique normatif et inadapté…
Auteur d’un livre sur le thème [9], autorisé pour réaliser des évaluations depuis 2010, je ne peux souscrire à tout. L’ouvrage est rédigé par des experts de l’économie sociale et solidaire, non du secteur social et médico-social. Ses références bibliographiques sont partielles et orientées. L’étude terrain (avec référence à un seul ouvrage antérieur à 2007) ne différencie pas les évaluations « ancienne mouture » (Anesm) et « nouvelle mouture » (HAS). Les dysfonctionnements relevés justifient leur position : ils connaissent, eux, les bonnes méthodes, ne se préoccupent pas de leur généralisation aux 40 800 ESSMS, ne reconnaissent aucune vertu aux démarches qualité. Malgré mes critiques, je reconnais l’intérêt du livre, dont les trois scénarios qu’il propose pour un changement : l’adaptation (jouer le jeu), l’aménagement (négocier, faire évoluer le cadre), la remise en cause (être en rupture).
Il est utile de dénoncer précisément le référentiel : 157 critères pour neuf thématiques et une répartition problématique. D’un côté, 6 ou 8 % de critères pour « Bientraitance et éthique », pour « Accompagnement à l’autonomie » ou pour « Continuité et fluidité des parcours » ; de l’autre, 23 % pour « Accompagnement à la santé ». Dans le détail, autant de critères pour la bientraitance ou pour le questionnement éthique que pour la gestion du risque médicamenteux, pour la prise en compte des manifestations de la douleur ou pour l’accompagnement en fin de vie ou du deuil. Aucune mention du projet d’établissement ou de service n’est relevée. Certes, des processus sont privilégiés, non des procédures. Mais ils sont souvent rédigés dans une déclinaison-type (définition d’une stratégie / communication de la stratégie / formation ou sensibilisation des professionnels). La recherche de conformité (avec traçabilité) se réalise au détriment du sens. L’ensemble est redondant, avec un langage éthico-managérial qui parle peu. La HAS y impose avec toute-puissance un idéal-type institutionnel éloigné du terrain, déniant la finalité et la diversité du travail social.
Les manques terribles du modèle HAS
Le recours à la notation est problématique : apparente rigueur mais bases floues. La méthode des accompagnés-traceurs est appliquée sans exigence : la HAS a laissé s’installer des échantillons ridiculement petits (trois personnes interrogées), choisis par l’ESSMS, sans constitution d’un panel significatif. L’entourage et les partenaires ne sont pas interrogés. Le recueil des éléments de preuve est caricatural : tronqué ou obsessionnel, les ESSMS étant traumatisés par la phrase favorite des évaluateurs « avez-vous des éléments de preuve ? ». Aucune méthode immersive n’est exigée. Enfin, les rapports sont illisibles. Certes chacun s’attachera aux graphes des résultats, lisibles eux. Mais le contenu en trois chapitres rend impossible une intelligibilité par thématique. Finalement, aucune pédagogie du document.
Dénonçons aussi les pratiques. L’action des évaluateurs est normée, imposant des questions évaluatives difficiles à comprendre, posées de manière littérale et exhaustive. Le caporalisme s’impose dans le lien avec l’organisme de contrôle (Cofrac) et la HAS. Il n’est pas attendu une intelligence et une compréhension dynamique, ce qui génère des postures dociles chez les évaluateurs, eux-mêmes reproduisant le caporalisme dans leur lien avec les ESSMS. Leur exigence en expérience du travail social est plus que minimale, les cabinets ne présentant pas de garantie sur ce sujet. Leur nombre (127 à ce jour) interroge également. Une production à la chaîne est ainsi programmée, ne prédisposant pas à la qualité de la rencontre avec chaque ESSMS. Ces cabinets, en rapport marchand, favorisent la réduction du nombre de jours sur site (75 % des évaluations ne comprenant que deux jours de terrain).
En résumé, la démarche est appliquée sans discernement : avec des thèmes privilégiés (survalorisation du domaine de la santé) ; un contrôle qualité sans la rigueur qu’il nécessiterait et qui sert à faire progresser un idéal-type qui interroge ; le rapport servira peu, uniquement à la marge, aux autorités (sa qualité est inférieure à celle des rapports d’inspections). La HAS dit vouloir renforcer la dynamique qualité ? La démarche servira cet objectif mais avec des limites. Elle dit vouloir permettre à la personne accompagnée d’être actrice de son parcours ? C’est le contraire sur le terrain. Elle dit vouloir promouvoir une démarche porteuse de sens pour les ESSMS et leurs professionnels ? Aucun sens porté… ni perçu. Tout cela est grotesque et coûte cher. Il faut en sortir !
Un aménagement souhaitable. Et possible ?
Comment ? Le scénario de l’adaptation renforcerait le caractère ubuesque de la situation, celui de la rupture (un autre système) est impossible. Seul le scénario de l’aménagement est envisageable. Il visera a minima une sérieuse révision des contenus (privilégier les vecteurs réels des accompagnements, mettre en avant des critères d’efficience) comme des méthodes (exiger en accompagné-traceur 10 % des personnes et un panel significatif, privilégier des descriptifs, être plus souple sur les éléments de preuves, exiger un temps immersif). Les rapports devront présenter le projet institutionnel et les activités, leurs singularités, présenter ensuite par thématique tous les éléments recueillis, en rejetant les notations, graphes et critères impératifs, eux aussi par thématique, à la fin du document.
Ce scénario devra mobiliser les ESSMS (qui aujourd’hui subissent), les fédérations (qui à ce jour se taisent), la Direction générale de la cohésion sociale (qui depuis deux ans ne suit plus le dispositif), la HAS (qui affirme certitudes et autorité). La HAS acceptera-t-elle d’entendre des voix constructives mais discordantes ? J’en doute… mais je reste disponible pour y participer.
[1] 3 000 évaluations en nouvelle mouture réalisées en 2023 (rapport d’activité de la HAS) En extrapolant : entre 6 000 et 10 000 évaluations nouvelle mouture fin 2024
[2] Décret n° 90-82 du 22 janvier 1990 relatif à l’évaluation des politiques publiques
[3] Décret n° 2007-975 du 15 mai 2007
[4] Selon le coût moyen d’une évaluation externe de 6 240 euros indiqué par l’Anesm (rapport d’activité 2016), multiplié par 35 000 ESSMS
[5] Rapport n° 2016-113R, Igas 2017
[6] Coût moyen d’une évaluation indiqué par la HAS de 7 070 euros (bilan annuel 2023 de la HAS), multiplié par 40 800 ESSMS
[7] La HAS, lors d’une journée avec les évaluateurs le 30 mai 2024, leur a signifié que les notations (en moyenne de 3,8 sur 4) étaient exagérément généreuses
[8] Enquête sur l’évaluation dans les établissements sociaux et médico-sociaux, L. Fraisse, M.-C. Henry, J.-L. Laville, A. Salmon, éd. Érès, janv. 2025
[9] Guide de l’évaluation sociale et médico-sociale, Dunod, 2010
Daniel Gacoin
Carte d’identité
Nom. Daniel Gacoin.
Formation. Éducateur spécialisé et DESS Économie sociale.
Parcours. Travailleur social, cadre puis dirigeant d’ESMS ou d’associations, consultant-formateur, administrateur provisoire.
Fonctions actuelles. Directeur du cabinet ProÉthique conseil, directeur général de transition.
Par Daniel Gacoin
Depuis plus de deux ans, la nouvelle évaluation est entrée en vigueur pour les 40 800 établissements et services sociaux et médico-sociaux (ESSMS) [1]. Quels retours après ce démarrage ? Autant le dire d’emblée, ils indiquent une situation grotesque : cadre hyper détaillé imposé par la Haute Autorité de santé (HAS), contenus et méthodes avec novlangue éthico-managériale et standardisation ; rapports inutilisables, déni du travail
réel des professionnels. C’est le royaume d’Ubu : despotisme, stupidité, vacuité. À titre personnel, après quinze ans de pratique, je rends mon tablier. Je ne veux pas perdre mon âme… sauf à revoir le dispositif.
Une ambition initiale dévoyée
La volonté de la loi du 2 janvier 2002 était ambitieuse pour ces évaluations obligatoires : plus grande lisibilité de l’offre, développement de l’amélioration continue de la qualité, démarche partagée autour de l’efficience. La loi n’utilisait pas le terme « évaluation » par hasard, le situant dans le droit fil de celles des politiques publiques : « Rechercher si les moyens mis en œuvre permettent de produire les effets attendus et d’atteindre les objectifs assignés. » [2] Le législateur définissait ainsi deux domaines pour l’évaluation d’un ESSMS : ses activités et la qualité des prestations, plus l’utilisation de procédures, références et recommandations de bonnes pratiques professionnelles.
Jusqu’en 2020, les obligations d’un ESSMS pour les quinze ans de durée de son autorisation visaient des évaluations internes (tous les cinq ans) et externes (après sept ans, puis deux ans avant le renouvellement de l’autorisation). De 2007 à 2020, avec l’agence nationale Anesm, 35 000 évaluations externes ont été réalisées par environ 1 000 cabinets habilités. Une extrême hétérogénéité a régné dans leur qualité et leur respect du cadre, défini par décret [3]. Le coût sur dix ans des 35 000 évaluations réalisées ? 218 millions d’euros à fin 2020 [4], pour des résultats faiblement exploitables [5]. À partir de 2020, la transformation du dispositif a abouti à l’obligation d’une seule évaluation quinquennale, la HAS prenant le relais de l’Anesm. Le coût prévisible : 288 millions d’euros sur cinq ans [6]. La transformation engagée ? Un référentiel unique avec 157 critères, une méthode (accompagné-traceur, traceur ciblé, audit système), un objectif majeur (notation de la conformité à un standard), sans mesure des impacts et effets, ni de l’atteinte des objectifs ni de l’efficience. Il s’agit donc ni plus ni moins d’un contrôle qualité, l’appréciation des activités et de l’efficience étant oubliée.
La perception des ESSMS passés par cette nouvelle moulinette ? Examen stressant, faibles jours de terrain des évaluateurs avec peu d’attention aux réalités, langage abscons, posture d’exécutant de la HAS… Ils se consolent avec les notations obtenues [7] mais se posent une question : quelle utilisation pour adapter les stratégies d’accompagnement avec les équipes ? Le résultat est sans appel : standards organisationnels valorisés, certes, mais aucun soutien en évolution de la qualité des accompagnements, l’ensemble est subi.
Un dispositif normatif et subi par tous
Il y a trois mois, un ouvrage au vitriol a été publié sur le thème [8]. Très médiatisé, son contenu est sévère : procédure dévoyée, méthodes floues au service d’une approche techniciste, examen de procédures standards fétichisées, savoirs professionnels et expérientiels négligés, voire oubliés, référentiel unique normatif et inadapté…
Auteur d’un livre sur le thème [9], autorisé pour réaliser des évaluations depuis 2010, je ne peux souscrire à tout. L’ouvrage est rédigé par des experts de l’économie sociale et solidaire, non du secteur social et médico-social. Ses références bibliographiques sont partielles et orientées. L’étude terrain (avec référence à un seul ouvrage antérieur à 2007) ne différencie pas les évaluations « ancienne mouture » (Anesm) et « nouvelle mouture » (HAS). Les dysfonctionnements relevés justifient leur position : ils connaissent, eux, les bonnes méthodes, ne se préoccupent pas de leur généralisation aux 40 800 ESSMS, ne reconnaissent aucune vertu aux démarches qualité. Malgré mes critiques, je reconnais l’intérêt du livre, dont les trois scénarios qu’il propose pour un changement : l’adaptation (jouer le jeu), l’aménagement (négocier, faire évoluer le cadre), la remise en cause (être en rupture).
Il est utile de dénoncer précisément le référentiel : 157 critères pour neuf thématiques et une répartition problématique. D’un côté, 6 ou 8 % de critères pour « Bientraitance et éthique », pour « Accompagnement à l’autonomie » ou pour « Continuité et fluidité des parcours » ; de l’autre, 23 % pour « Accompagnement à la santé ». Dans le détail, autant de critères pour la bientraitance ou pour le questionnement éthique que pour la gestion du risque médicamenteux, pour la prise en compte des manifestations de la douleur ou pour l’accompagnement en fin de vie ou du deuil. Aucune mention du projet d’établissement ou de service n’est relevée. Certes, des processus sont privilégiés, non des procédures. Mais ils sont souvent rédigés dans une déclinaison-type (définition d’une stratégie / communication de la stratégie / formation ou sensibilisation des professionnels). La recherche de conformité (avec traçabilité) se réalise au détriment du sens. L’ensemble est redondant, avec un langage éthico-managérial qui parle peu. La HAS y impose avec toute-puissance un idéal-type institutionnel éloigné du terrain, déniant la finalité et la diversité du travail social.
Les manques terribles du modèle HAS
Le recours à la notation est problématique : apparente rigueur mais bases floues. La méthode des accompagnés-traceurs est appliquée sans exigence : la HAS a laissé s’installer des échantillons ridiculement petits (trois personnes interrogées), choisis par l’ESSMS, sans constitution d’un panel significatif. L’entourage et les partenaires ne sont pas interrogés. Le recueil des éléments de preuve est caricatural : tronqué ou obsessionnel, les ESSMS étant traumatisés par la phrase favorite des évaluateurs « avez-vous des éléments de preuve ? ». Aucune méthode immersive n’est exigée. Enfin, les rapports sont illisibles. Certes chacun s’attachera aux graphes des résultats, lisibles eux. Mais le contenu en trois chapitres rend impossible une intelligibilité par thématique. Finalement, aucune pédagogie du document.
Dénonçons aussi les pratiques. L’action des évaluateurs est normée, imposant des questions évaluatives difficiles à comprendre, posées de manière littérale et exhaustive. Le caporalisme s’impose dans le lien avec l’organisme de contrôle (Cofrac) et la HAS. Il n’est pas attendu une intelligence et une compréhension dynamique, ce qui génère des postures dociles chez les évaluateurs, eux-mêmes reproduisant le caporalisme dans leur lien avec les ESSMS. Leur exigence en expérience du travail social est plus que minimale, les cabinets ne présentant pas de garantie sur ce sujet. Leur nombre (127 à ce jour) interroge également. Une production à la chaîne est
ainsi programmée, ne prédisposant pas à la qualité de
la rencontre avec chaque ESSMS. Ces cabinets, en rapport marchand, favorisent la réduction du nombre
de jours sur site (75 % des évaluations ne comprenant
que deux jours de terrain).
En résumé, la démarche est appliquée sans discernement : avec des thèmes privilégiés (survalorisation du domaine de la santé) ; un contrôle qualité sans la rigueur qu’il nécessiterait et qui sert à faire progresser un idéal-type qui interroge ; le rapport servira peu, uniquement à la marge, aux autorités (sa qualité est inférieure à celle des rapports d’inspections). La HAS dit vouloir renforcer la dynamique qualité ? La démarche servira cet objectif mais avec des limites. Elle dit vouloir permettre à la personne accompagnée d’être actrice de son parcours ? C’est le contraire sur le terrain. Elle dit vouloir promouvoir une démarche porteuse de sens pour les ESSMS et leurs professionnels ? Aucun sens porté… ni perçu. Tout cela est grotesque et coûte cher. Il faut en sortir !
Un aménagement souhaitable. Et possible ?
Comment ? Le scénario de l’adaptation renforcerait
le caractère ubuesque de la situation, celui de la rupture (un autre système) est impossible. Seul le scénario de l’aménagement est envisageable. Il visera a minima une sérieuse révision des contenus (privilégier les vecteurs réels des accompagnements, mettre en avant des critères d’efficience) comme des méthodes (exiger en accompagné-traceur 10 % des personnes et un panel significatif, privilégier des descriptifs, être plus souple sur les éléments de preuves, exiger un temps immersif). Les rapports devront présenter le projet institutionnel et les activités, leurs singularités, présenter ensuite par thématique tous les éléments recueillis, en rejetant les notations, graphes et critères impératifs, eux aussi par thématique, à la fin du document.
Ce scénario devra mobiliser les ESSMS (qui aujourd’hui subissent), les fédérations (qui à ce jour se taisent), la Direction générale de la cohésion sociale (qui depuis deux ans ne suit plus le dispositif), la HAS (qui affirme certitudes et autorité). La HAS acceptera-t-elle d’entendre des voix constructives mais discordantes ?
J’en doute… mais je reste disponible pour y participer.
[1] 3 000 évaluations en nouvelle mouture en 2023 (rapport d’activité de la HAS). En extrapolant : entre 6 000 et 10 000 évaluations nouvelle mouture fin 2024
[2] Décret n° 90-82 du 22 janvier 1990 relatif à l’évaluation
des politiques publiques.
[3] Décret n° 2007-975 du 15 mai 2007
[4] Selon le coût moyen d’une évaluation externe de 6 240 euros (rapp. d’activité 2016, Anesm), multiplié par 35 000 ESSMS
[5] Rapport n° 2016-113R, Igas 2017
[6] Coût moyen d’une évaluation de 7 070 euros (bilan annuel 2023 de la HAS), multiplié par 40 800 ESSMS
[7] La HAS, lors d’une journée avec les évaluateurs le 30 mai 2024, leur a signifié que les notations (en moyenne de 3,8 sur 4) étaient exagérément généreuses
[8] Enquête sur l’évaluation dans les établissements sociaux et médico-sociaux, L. Fraisse, M.-C. Henry, J.-L. Laville, A. Salmon,
éd. Érès, janv. 2025
[9] Guide de l’évaluation sociale et médico-sociale, Dunod, 2010
Publié dans le magazine Direction[s] N° 241 - mai 2025