GT en train de se faire
L’AFMD a lancé en 2026 un groupe de travail intitulé « IA et vulnérabilités », dans une perspective Équité, Diversité et Inclusion (EDI).
Cette page a pour objectif de rendre visible le travail du groupe au fil de ses séances, en proposant des synthèses régulières des échanges et des réflexions, afin de donner à voir le GT « en train de se faire » et de partager progressivement ses analyses.
SÉANCE 1
La première séance du groupe de travail « IA et vulnérabilités » a permis d’établir u
n cadre commun (présentation par les participant.es de leurs fonctions, de leurs organisations et de leurs besoins/attentes quant à ce GT). Premier constat : les développements récents des intelligences artificielles font émerger des enjeux importants en matière d’inégalités, de biais et d’accessibilité, qui restent encore trop peu intégrés aux phases de conception et de déploiement des outils. Les échanges ont aussi mis en évidence le fait que les IA ne transforment pas seulement les tâches, mais le travail lui-même, en modifiant les compétences attendues, le sens au travail, ainsi que la relation aux outils numériques. Ces transformations peuvent fragiliser les individus, notamment en générant des formes de dépendance, en affectant la santé mentale ou en brouillant les repères professionnels.
Les travaux en sous-groupes ont permis de faire émerger plusieurs priorités, dont la cartographie des vulnérabilités et la prise en compte de la santé mentale. Les participant·es ont insisté sur la nécessité de penser la vulnérabilité comme une réalité dynamique, qui dépend avant tout des situations de travail et des contextes organisationnels, plutôt que comme une caractéristique propre aux individus. Dans cette perspective, les discussions ont mis en lumière des formes de fragilisation qui peuvent se traduire par de l’anxiété, un sentiment d’isolement ou une perte de confiance, mais aussi par des difficultés à identifier certains publics ou situations à risque. Plus largement, la séance a souligné l’importance de dépasser une approche centrée sur la technologie pour s’ancrer davantage sur le travail réel, en intégrant le collectif et en visant le développement d’une « IA soutenable », à la fois inclusive et adaptée aux réalités professionnelles.
SÉANCE 2
La deuxième séance du groupe de travail « IA et vulnérabilités » a permis de préciser le périmètre d’analyse en recentrant les échanges sur les usages professionnels de l’intelligence artificielle, tout en écartant les approches trop abstraites et éloignées des situations concrètes de travail. Cette clarification a renforcé l’adoption d’une approche située des vulnérabilités.
Dans cette perspective, l’IA apparaît comme un facteur de transformation de ces conditions. Elle peut contribuer à intensifier et fragmenter les activités, tout en modifiant le rapport au sens du travail et en favorisant une certaine standardisation des pratiques. Ces évolutions s’accompagnent de tensions, notamment autour de la confiance accordée aux outils, de leur explicabilité et du maintien du pouvoir d’agir des professionnel·les. Par ailleurs, les discussions ont mis en évidence que ces transformations affectent aussi la dimension collective du travail et l’identité professionnelle, en suscitant parfois un sentiment de fragilité face à des outils perçus comme concurrents ou difficiles à maîtriser.

Les échanges en sous-groupes ont permis d’ancrer ces constats dans des situations concrètes, en montrant que les effets de l’IA varient fortement selon les métiers et les usages. Si elle peut constituer un levier de productivité, notamment dans certaines fonctions support, elle soulève également des interrogations en matière de responsabilité, d’appropriation et d’inégalités entre les utilisateurs et utilisatrices. Face à ces enjeux, les participant·es ont souligné l’importance de mieux documenter les usages réels, notamment à travers des outils de cartographie, et de co-construire des cadres d’utilisation adaptés. L’objectif est de faire de l’IA un levier d’inclusion, plutôt qu’un facteur supplémentaire de vulnérabilité. Trois orientations structurantes se dégagent ainsi : mieux identifier les usages qui génèrent, amplifient et/ou révèlent des vulnérabilités au travail ; analyser plus finement les impacts sur le travail réel au regard du travail prescrit ; définir les conditions d’une IA à la fois soutenable et inclusive.
SÉANCE 3
La troisième séance du groupe de travail « IA et vulnérabilités » s’est ouverte par la présentation de PANORAMA, une intelligence artificielle développée par OVH Cloud conçue comme un outil de mutualisation des pratiques, en particulier dans le domaine de l’inclusion. Cet outil repose sur une architecture en plusieurs niveaux, allant de dispositifs d’auto-évaluation à des fiches pratiques, en passant par des retours d’expérience et une boîte à outils collaborative. L’ambition est de l’inscrire directement dans le quotidien professionnel afin de faciliter le management de la diversité et le partage de bonnes pratiques à grande échelle.

Le projet s’appuie sur une logique de co-construction, d’expérimentation continue et de mise en réseau entre organisations, tout en accordant une attention particulière à l’accessibilité et à la transparence. Le potentiel de l’IA comme support d’accompagnement et d’apprentissage a été largement souligné.
La séance a par ailleurs permis de faire évoluer la méthode de travail du groupe, en adoptant plus explicitement une posture d’enquête centrée sur le travail réel. L’objectif est désormais de documenter de manière fine les situations professionnelles à l’aide d’outils communs, tels que des grilles d’analyse, des journaux de bord ou des entretiens, afin de mieux comprendre les usages de l’IA et les vulnérabilités qui en découlent. Les discussions ont révélé une grande diversité de pratiques, allant du recours à des outils non officiels à des inégalités d’accès, en passant par des formes de dépendance ou de perte d’appropriation. Dans ce contexte, l’enjeu est de construire progressivement une cartographie des usages et de produire des données anonymisées, afin d’éclairer les effets de l’IA sur le travail et d’orienter le développement de pratiques plus inclusives et soutenables.