Les recherches sur l’intelligence artificielle (IA) datent de plus de soixante-dix ans. Comment expliquer que ce n’est que depuis récemment que son utilisation dans différents secteurs est évoquée ?
Yann Ferguson. L’objectif initial des travaux sur l’IA est de rendre les machines capables de réaliser des tâches cognitives de haut niveau. Pour cela, il existe deux méthodes. La première, dominante jusqu’aux années 2010, est l’IA symbolique qui consiste à intégrer dans une machine les plus grands raisonnements humains afin de la rendre capable de les mobiliser pertinemment face à des situations nouvelles. La seconde, est l’apprentissage à partir de données. On ne dit pas à la machine quel est le raisonnement mais on lui envoie des données qui caractérisent le problème à résoudre, charge à elle de créer ses propres règles d’or pour le faire, par corrélation entre les données. Condamnée à la fin des années soixante en raison de son manque de résultats, cette approche neuronale est réapparue il y a quinze ans avec les progrès de la recherche et l’explosion de l’Internet, qui a conduit au big data. Cette approche est beaucoup plus performante, ce qui explique le renouveau de l’IA et son application dans de nombreux secteurs.
Qu’en est-il de son utilisation dans le social et médico-social ?
Y. F. Jusqu’à maintenant, le travail social n’a pas constitué un appel d’air très fort pour l’IA. Dans les années 2010, il était communément admis que certaines compétences y échapperaient, comme les relations humaines, sa valeur ajoutée étant considérée comme très faible. Cependant, progressivement, est apparue l’idée que l’IA pourrait libérer du temps aux travailleurs sociaux pour leur permettre de mieux s’occuper des personnes accompagnées, en effectuant les tâches administratives et de reporting à leur place. Ce potentiel est déjà utilisé par certains professionnels qui y trouvent du sens.
C’est l’objet de votre travail dans le cadre de votre convention de recherche avec la Direction générale de la cohésion sociale (DGCS) ?
Y. F. En partie. Notre travail, qui va durer dix-huit mois, poursuit trois objectifs. Le premier est notamment de faire état des opportunités technologiques qui seraient utiles aux professionnels. Par exemple, l’affective computing consiste à rendre les machines capables de mieux entrer en relation avec nous, comprendre nos intentions et nos émotions, afin d’adapter leurs réponses. Des solutions sont également développées par des fournisseurs pour aider les travailleurs sociaux dans leur activité. Par ailleurs, nous allons effectuer une photographie des représentations de l’IA par les professionnels, ainsi que des pratiques existantes, comme les usages de l’IA générative (ChatGPT et ses équivalents). Par exemple, dans le sanitaire, un médecin de Montpellier a créé des prompts (ou instructions) afin que l’IA rédige ses courriers aux patients.
Quels sont les deux autres objectifs de votre travail ?
Y. F. Notre deuxième grand sujet est l’acculturation. Aujourd’hui, les travailleurs sociaux, comme la plupart des actifs français, ont une très faible connaissance de l’IA. On peut par ailleurs penser qu’ils l’appréhendent avec beaucoup d’inquiétudes au regard de leur cœur de métier qui est la relation humaine, l’IA contenant une peur de la déshumanisation. Nous souhaitons constituer un groupe représentatif, du travailleur social de terrain au dirigeant, pour les former à la fois au plan théorique et pratique afin – et c’est notre troisième objectif – qu’à partir de leurs connaissances ils puissent construire un document établissant les opportunités et le cadre éthique dans lequel l’IA pourrait se déployer.
Cette peur de la déshumanisation est-elle injustifiée ?
Y. F. Non, cela se comprend. Un employeur peut décider d’introduire l’IA dans le but de ne travailler qu’avec des collaborateurs qui suivent ce que l’IA leur dit. Par ailleurs, nous avons une propension de plus en plus importante à vouloir intégrer des machines dans des situations sociales. Envoyer un mail à un collègue au bout du couloir est désormais chose courante. Depuis l’arrivée de l’IA générative il y a deux ans, nous nous sommes notamment aperçus que ses usages spontanés se faisaient sur des tâches où les professionnels sollicitaient auparavant un collègue. C’est le cas du brainstorming, pourtant un temps collectif fondamental.
Quels sont les autres enjeux éthiques propres au secteur ?
Y. F. Il existe plusieurs points de vigilance. S’agissant, par exemple, des comptes rendus qui pourraient être rédigés à la place des professionnels, il y a des écrits « froids », très factuel, où l’IA serait intéressante, et des écrits « chauds », qui font état d’une relation humaine et pour lesquels l’utilisation d’une machine serait plus problématique. Par ailleurs, si l’IA peut faire gagner du temps aux travailleurs sociaux, dans quelle mesure l’équilibre professionnel/émotionnel ne sera pas altéré par le fait d’être davantage en contact avec les personnes et donc, incidemment, avec la souffrance ? Des études montrent que l’on se plaint parfois de certaines pratiques qui, une fois disparues, nous manquent. Enfin, il y a évidemment la question des données.
C’est-à-dire ?
Y. F. Notamment, que le consentement de la personne accompagnée ne soit pas libre et éclairé. Si celle-ci est, par exemple, en situation d’illectronisme, elle ne saura pas ce à quoi elle dit « oui » en acceptant l’utilisation de ses données. Et si elle le sait, il n’est pas garanti pour autant que son choix soit libre. Elle peut en effet craindre d’être mal accompagnée en cas de refus. Par ailleurs, si elle s’y oppose, il est important de s’assurer qu’elle ne subisse pas une perte de chance. Or, on sait que lorsqu’on investit dans une nouvelle technologie, l’objectif est de créer un standard et de faire en sorte que tout le monde suive le même protocole.
N’y a-t-il pas également un risque de biais dans les résultats de l’IA ?
Y. F. En effet, une machine reflète souvent dans un premier temps les opinions de ses concepteurs. Alors qu’il peut exister différentes acceptions de ce que c’est le travail social, le système d’IA développé risque de ne promouvoir que celle portée par son créateur. Par ailleurs, ce système a besoin de données d’entraînement pour fonctionner. Or, ces dernières ne sont pas forcément représentatives de toutes les situations et vont parfois automatiser un déséquilibre dans la prise de décision. Enfin, il peut y avoir des effets de bord : en présence d’un cas exceptionnel, l’IA va rapporter celui-ci à l’échantillon le plus proche et, ainsi, la singularité va lui échapper. Or, la grande richesse du travail social est précisément de traiter de l’unique. Rapporter la particularité de la souffrance humaine à un calcul statistique peut ainsi apparaître comme une déshumanisation. Mais l’humain n’est pas exempt de biais lui-même…
Est-il réellement envisageable de déployer l’IA dans le secteur ?
Y. F. Elle l’est déjà ! Mais ce qui est important c’est de pouvoir réintroduire ces pratiques dans le collectif. Il est indispensable notamment de mettre en place régulièrement des « conflits de qualité », soit une conversation de pair à pair sur les critères du « bon travail ». Dans le cadre de notre recherche-action, nous allons ainsi permettre aux professionnels de se pencher eux-mêmes sur la question de l’éthique du travail social avec l’IA. Afin qu’ils déterminent comment l’intégrité, les moteurs, les attendus et les missions de leur métier peuvent être a minima maintenus et, si possible, nourris par l’intégration de l’IA.
Propos recueillis par Élise Brissaud - Photo : Thomas Gogny
Carte d’identité
Nom. Yann Ferguson
Parcours. Master d’anthropologie des techniques, doctorat en sociologie, chercheur au Certop, enseignant-chercheur à l’Icam.
Fonction. Sociologue à l’Inria, directeur scientifique du LaborIA (programme commun Inria et ministère du Travail et de l’Emploi).
Publié dans le magazine Direction[s] N° 236 - décembre 2024