Directions.fr : Le site des directeurs et cadres du secteur social et médico social

Tribune
« Et si on évaluait enfin les résultats ? »

03/01/2024

Répondant à une précédente tribune, Jean-René Loubat pointe la pauvreté conceptuelle et méthodologique d’une démarche d'évaluation qui a évolué à vue, pour s’engager in fine dans la voie d’un pur contrôle. Il déplore l'absence de réflexion sur les résultats attendus et à évaluer.

Le terme d’évaluation est l’un des plus usités depuis les années quatre-vingt dans le secteur médico-social. Il a d’abord concerné essentiellement les compétences des bénéficiaires, puis les pratiques professionnelles, pour se reporter progressivement sur l’activité même des établissements et services médico-sociaux (ESMS) sous la pression administrative. Plus récemment, l'évaluation se confond désormais avec un système normatif préempté par l’ex-Anesm puis la HAS. Étrangement, le secteur, qui brasse des sommes d’argent considérables, qui occupe des centaines de milliers de professionnels et concerne directement ou indirectement des millions de personnes, ne se trouve soumis à aucune exigence réelle de résultat. Ses bénéficiaires ne disposent pas du pouvoir de sanction de tout consommateur, puisqu’ils ne sont pas les payeurs mais les usagers d’un système quasi entièrement régi par une économie administrée par les pouvoirs publics. Suite au très lucide et argumenté article de Pierre Savignat, paru dans l'un des numéros de Direction[s] [1], j’apporte ma contribution à un débat qui m’apparaît aussi nécessaire que parfaitement « squeezé » sur cette question pourtant fondamentale qui s’impose aux opérateurs et à leurs dirigeants.

Des errances liées à une absence de doctrine claire

Le texte de Pierre Savignat dresse la liste des diverses errances, tant conceptuelles que méthodologiques, de ce processus qui n’en finit pas d’échouer depuis la parution de la loi n° 2002-2. L’absence cruelle de doctrine claire de la part des pouvoirs publics en la matière s’est avérée édifiante et proprement sidérante : nous avons tour à tour connu un amateurisme conceptuel (l’ancêtre de l’Anesm, le Cnesm, a produit trois notes en cinq ans) ; puis des recommandations perlées et logorrhéiques de l’agence (qu’aucun professionnel de terrain ne lisait) passant de manière insolite de la notion de qualité à celle de « bientraitance » ; la mise en place de visiteurs sans critères définis et payés par les opérateurs concernés ; une absence de référentiel partagé (ce qui empêchait toute possibilité de comparaison et de véritables conclusions globales) ; un décret n° 2007-975 du 15 mai 2007 qui était un bourbier juridique fait de copier-coller mal rédigés, redondants et flous ; enfin une impossibilité arithmétique de lire des tonnes de rapports d’évaluation externe, avant un nouveau départ raté avec la HAS…

Certes, le législateur a manqué de clarté car la loi n° 2002-2 évoque une procédure d’évaluation (interne et externe) de la qualité des prestations et des activités des ESMS, mais ne prononce jamais le terme de « démarche qualité » et ne fait allusion à aucune orientation méthodologique. Cette ambiguïté congénitale a été porteuse de confusion entre des démarches qualité ou de progrès (définies depuis longtemps) et des processus de contrôle appelés certification, accréditation ou habilitation qui conditionnent tous un renouvellement d’autorisation de fonctionnement.

Pourtant la distinction entre contrôle normatif et démarche qualité s’avère basique et avait été abordée dès 2004 par la Direction générale des affaires sociales (DGAS ; mais curieusement sans suite) : « La recherche de la qualité ne s’impose pas ; il ne peut y avoir d’injonction de qualité qui soit efficace. L’obligation législative impose une évaluation mais ne peut contraindre à la mise en œuvre d’une démarche d’amélioration continue de la qualité. […] Une démarche d’amélioration continue de la qualité fiable et durable exige la participation réelle des professionnels. » [2] L’absence de réel débat entre partenaires sur cette question, pointée par Pierre Savignat, explique la pauvreté conceptuelle et par conséquent méthodologique d’une démarche qui a évolué à vue, pour s’engager in fine dans la voie d’un pur contrôle qui ne dit pas son nom.

Le point aveugle d’une culture administrative

Pour comprendre cela, il faut réviser son histoire : le système français de l’action sociale et médico-sociale est l’héritier paternaliste de mouvements caritatifs mis progressivement et de facto sous tutelle administrative et financière. Il ne dépend donc pas d’un marché ouvert constitué par ses clients mais d’une économie administrée. Or, la notion de résultat ne fait pas véritablement partie de la culture de l’administration, habituée à ne pas rendre de comptes à ses usagers. De même, on n’attend pas au sens propre de la performance de la part d’un « agent de l’État » mais de la conformité, de la loyauté, de la fiabilité et pour finir… de la soumission. C’est pour cela qu’il ne perçoit pas un salaire, corrélé à une quelconque production, mais des émoluments, des indemnités, une solde, etc.

À l’heure ou s’impose officiellement, au sein de ces secteurs d’activité, la logique de parcours et où l’on s’intéresse (enfin) à l’autodétermination des bénéficiaires, quel résultat peut être attendu et comment peut-on l’évaluer ? La question se pose concrètement au niveau de la réalisation des plans d’accompagnement personnalisés lorsque l’on parle de co-évaluation. Elle se pose encore lorsque l’on propose de mettre en place des facilitateurs ou coordinateurs de parcours : quelle valeur ajoutée en est attendue ? Bien entendu, elle se pose encore plus massivement lorsque l’on évoque la désinstitutionalisation ou la mise en œuvre de nouveaux dispositifs alternatifs d’accompagnement : quel résultat en attend-on ?

Jusqu’alors, dans une tradition administrative, les procédés d’évaluation proposés (de fait imposés) aux opérateurs ne portaient que sur de « l’activité », de la conformité et de la normalisation, mais pas réellement sur du résultat ou une quelconque qualité. C’est comme si l’on se désintéressait de la réussite des opérations d’un chirurgien pour ne considérer que son respect des procédures et des « bonnes pratiques ». Ces dernières ne sont-elles pas d’abord celles qui, précisément, obtiennent des résultats ? La meilleure preuve de qualité d’un service n’est-elle pas d’être efficace et satisfaisant ? La mise en avant systématique de l’éthique (terme ô combien galvaudé) et de la bientraitance – si elles s’avèrent naturellement importantes – ne dissimulent-elles pas la question du résultat ? En effet, la bientraitance concerne la relation prestataire-bénéficiaire, pas l’objet de cette relation qui demeure le point aveugle.

Une question incontournable du fait du changement de doctrine

Quand on évoque la facilitation d’un parcours inclusif, comment l’appréhender et la mesurer ? En tant que promoteur des processus de projet d’accompagnement et de coordinateur de parcours [3], nous sommes préoccupés aujourd’hui de savoir si la situation des bénéficiaires s’en trouve améliorée. Nous constatons que l’évaluation demeure la partie faible, voire absente, de la conduite des projets ou des plans d’accompagnement personnalisés. 

L’évaluation demeure pourtant, du fait même de sa complexité dans les domaines qui nous intéressent, une question passionnante. Dans l’immense majorité des activités humaines, l’évaluation du résultat guide la poursuite, l’arrêt ou l’évolution de ces activités. Elle contribue en permanence à la notion de progrès, c’est-à-dire d’amélioration continue. Dans des domaines relationnels où les enjeux idéologiques, affectifs, existentiels et les prises de pouvoir sont omniprésents, comme la politique, la justice et l’action sociale et médico-sociale, la quête de résultat a tendance à s’évanouir comme si le résultat ne pouvait s’objectiver ou qu’il était dangereux de l’objectiver (quelle a été, par exemple, l’efficacité des milliards engloutis dans la politique de la ville ?). En quelque sorte, le processus prend le pas sur l’objectif, voire devient l’objectif lui-même. Nous pouvons constater que l’utilisation des ressources occulte bien souvent les services auxquels elles sont dévolues.

Reposons donc la question : pour une personne en situation de handicap, qu’est-ce qu’un parcours de vie amélioré par rapport à ce qu’il était dans les dispositifs précédents ? Peut-on déterminer un résultat satisfaisant en dehors de l’intéressé lui-même ? La question de la satisfaction du client se pose dans toute relation d’échange économique et constitue in fine le résultat absolu. Mais dans le cas de procédés financés par la communauté et donc relevant d’un devoir d’aide solidaire, comment peut-on objectiver le résultat ?

Si l’on définit l’inclusion comme nouvel objectif final dédié à l’action sociale et médico-sociale, alors il s’agit de caractériser ce champ et de concevoir un outil d’évaluation conséquent, sinon, comment savoir si les usagers sont davantage inclus socialement que s’ils n’avaient pas bénéficié de telles ou telles interventions ?  Comment savoir si tel opérateur est plus efficace en matière d’inclusion qu’un autre ? Comment savoir si tels ou tels procédés s’avèrent plus performants en la matière ? Comment savoir si les ressources communes sont bien utilisées ou gaspillées ? Si l’on en juge par la gabegie de l’évaluation externe de ces dernières années, si l’on en juge par les quantités importantes de ressources utilisées sans objectifs inclusifs déterminés, nous pouvons d’ores et déjà répondre en partie à cette dernière question…

Contrairement aux pays de culture anglo-saxonne, la France ne possède pas dans le domaine de l’action sociale et médico-sociale de tradition évaluative (pas davantage d’ailleurs de culture de la négociation…). Son héritage idéologique et caritatif a constitué un obstacle intellectuel majeur. Pourtant aujourd’hui, si l’on veut continuer de motiver des professionnels et de répondre aux attentes évolutives des bénéficiaires – et de répondre à l’expansion des besoins – il est impératif de s’intéresser au feedback du résultat et de disposer, par exemple, d’une échelle d’évaluation de l’inclusion.

[1]  « Évaluation : rendez-vous manqué de la HAS », Pierre Savignat, Direction[s] n° 222, p. 46, sept. 2023

[2] Note de l'ex-DGAS de février 2004 concernant l’évaluation et l’amélioration continue de la qualité

[3] Le think tank Parcours & Innovations amorce une enquête auprès d’un panel d’opérateurs sur les parcours, leur coordination et leur facilitation

Jean-René Loubat

Carte d'identité

NOM. Jean-René Loubat

Formation. Psychosociologue, docteur en sciences humaines

Fonctions. Auteur, consultant libéral et président d’honneur du think tank Parcours & Innovations.

Publié dans le magazine Direction[s] N° 226 - janvier 2024






Ajouter un commentaire
La possibilité de réagir à un article de Direction[s] est réservé aux abonnés  du magazine Direction[s]
Envoyer cette actualité par email :
Email de l'expéditeur (vous)*

Email du destinataire *

Sujet*

Commentaire :

* Champs obligatoires

Le Magazine

N° 229 - avril 2024
Restauration collective. Trouver l'équilibre
Voir le sommaire

Formation Direction[s]
Offres d'emploi
Les 5 dernières annonces publiées
Conseil Départemental de la Seine Saint Denis

DIRECTEUR·RICE GÉNÉRAL·E DU CDEF 93

Conseil Départemental de la Seine Saint Denis

MEDECIN REFERENT MALADIES INFECTIEUSES

UDAF DE LA MARNE

DIRECTEUR DE POLE (H/F)

Le Département de la Manche

Responsable du territoire de solidarité Coutançais (f/h)

Département du Val-de-Marne

GESTIONNAIRE COMPTABLE (H/F)


Voir toutes les offres
Trophée Direction[s] : l'essentiel

Logo Trophée 2

Participez au Trophée Direction[s] 2023 !

Sous le haut patronage de :

Aurore Bergé, ministre des solidarités et de la famille,

Madame Fadila Khattabi, ministre déléguée chargée des Personnes handicapées,

et

Charlotte Caubel, secrétaire d’État auprès de la Première ministre, chargée de l’Enfance.

 

En partenariat avec :

Logo Axiome

et