Motivés par le désir de gérer les personnes de manière plus efficace dans les entreprises, les responsables RH utilisent les capacités de programmation et d’analyse de l’IA pour remplir des fonctions clés – y compris la sélection et le recrutement du personnel, la détermination et la structure de la rémunération, l’évaluation et l’évaluation de la performance, ainsi que l’organisation du temps de travail.
Toutefois, « bien que des trésors de données et de développements dans le domaine de l’IA promettent de fournir aux professionnels des RH les données et analyses nécessaires, ces technologies n’ont pas encore apporté beaucoup de valeur aux entreprises et aux organisations », indique l’OIT dans son étude (« AI in Human Resource Management: The Limits of Empiricism »/L’IA dans la gestion des ressources humaines-Les limites de l’empirisme) publiée le 21 novembre 2025.
Recrutement… et choix ou discrimination ?
Parmi toutes les fonctions RH, celle du recrutement a été la plus transformée par la numérisation, et plus récemment par l’IA. Le passage au recrutement en ligne a commencé au milieu des années 1990. Pourtant, cette facilité a augmenté le volume de candidatures, rendant la tâche de tri des candidats plus lourde, nécessitant ainsi des solutions technologiques pour faciliter le processus. Le recrutement est donc un exemple parfait du « paradoxe de l’automatisation », selon lequel chaque problème que la technologie tente de résoudre crée un nouveau problème à résoudre.
En général, les systèmes d’IA sont conçus dans le but de cibler spécifiquement les personnes susceptibles de candidater après avoir vu l’annonce, ou les candidats potentiels possédant des compétences souhaitées par l’entreprise en recherche de talents. Chaque plateforme tierce qui affiche des offres d’emploi dispose de systèmes d’IA intégrés qui déterminent vers qui l’annonce est affichée.
Pourtant, le ciblage des offres d’emploi est complexe à la fois par les données disponibles, celles jugées pertinentes pour l’objectif, et la manière dont ces données sont traitées. Paradoxalement, les plateformes disposent d’une quantité considérable de données sur leurs utilisateurs, y compris des informations démographiques sur l’âge, le sexe, l’origine, l’orientation sexuelle, la religion, l’affiliation politique – mais leur utilisation peut entraîner des formes de discrimination explicites ou implicites.
La forme la plus flagrante de discrimination est lorsque les annonces ciblent ou excluent délibérément les candidats potentiels en fonction de ces caractéristiques. En 2002, Meta (Facebook) a accepté un accord avec le département de la Justice des Etats-Unis par lequel elle éliminerait certaines fonctionnalités permettant de discriminer les groupes protégés. L’accord faisait suite aux révélations selon lesquelles Facebook permettait aux marketeurs immobiliers d’exclure les Afro-Américains de la vue de certaines annonces.
Autre exemple : une expérience menée par des chercheurs sur Facebook sur la manière dont un emploi STEM (Science, Technologie, Ingénierie et Mathématiques) était annoncé a révélé que, bien que l’annonce ait été conçue pour être neutre en genre, moins de femmes la voyaient. L’explication ? La minimisation des coûts publicitaires étant intégrée dans le code – pour obtenir le meilleur retour possible pour le moins d’argent possible – l’algorithme de la plateforme a « appris » à distribuer et afficher plus efficacement l’offre d’emploi, et dans ce cas, les publicités ciblant les hommes sont moins coûteuses que celles destinées aux femmes. Les auteurs ont donc déduit que l’intelligence artificielle a évolué dans cette direction biaisée.
Bien que des mesures aient été prises pour atténuer ce risque, la discrimination persiste. Un audit de 2020 de l’API de la bibliothèque publicitaire de Facebook montrait que les femmes étaient plus susceptibles de recevoir des annonces pour « secrétaire » ou « infirmière », tandis que les hommes étaient plus susceptibles de recevoir des annonces pour des emplois dans la construction et les STEM.
Sélection puis entretien
Le processus de sélection commence généralement par une évaluation algorithmique de l’aptitude du candidat. Certaines données – comme les informations fournies sur les CV – sont fournies directement par le candidat. D’autres types de données – comme les tests de sélection, qui peuvent inclure une évaluation cognitive, un test de personnalité ou un entretien vidéo – peuvent être collectés par le système algorithmique dans le cadre du processus de candidature. D’autres sources de données – comme l’activité sur les réseaux sociaux – peuvent provenir de tiers.
Les employeurs ont désormais accès à un ensemble élargi de données détaillant le passé d’un travailleur. Il existe également des risques juridiques potentiels si un candidat est exclu en raison d’activités syndicales passées ou s’il n’a pas de présence sur les réseaux sociaux.
Une fois que les candidats ont passé le premier filtrage, ils peuvent alors faire face à d’autres évaluations, notamment des tests cognitifs, de personnalité ou de jugement situationnel. Les candidats doivent interagir directement avec un système numérique, les évaluations étant parfois présentées sous forme ludique. « Mais cette approche est-elle fiable, ou même valide ? Par exemple, dans quelle mesure un jeu de ballons peut-il montrer le temps de réaction qu’un travailleur pourrait avoir dans une situation réelle ? Et le temps de réaction est-il un indicateur précis et stable de la rétention des employés ? », interroge l’étude.
L’étape suivante du recrutement est généralement l’entretien avec le candidat. Dans les entretiens vidéo dirigés par l’IA, les entretiens sont réalisés et enregistrés par le système numérique et les candidats se voient poser une série de questions par un bot au lieu d’un humain. Les données collectées peuvent inclure des données visuelles (expression faciale, mouvement des yeux, mouvements de la main), des données verbales (vocabulaire, mots-clés) et des données vocales (son de la voix, prononciation). Ces données sont ensuite intégrées dans des systèmes de notation algorithmique qui attribuent les scores aux candidats et prédisent qui est un bon candidat. Avec toutes les surprises possibles, si on attribue des « points » au nombre de fois où « croissance » ou « performance » sont prononcés.
Gestion de la performance
Parmi les domaines les plus étudiés figure l’utilisation de l’IA pour la gestion de la performance. Fortement liée à l’héritage du taylorisme et au principe plus général de la gestion scientifique, elle repose sur une mesure rapprochée de l’activité des travailleurs. Les systèmes d’IA sont souvent conçus dans le but d’améliorer l’efficacité et la productivité – par exemple en produisant plus de biens ou en satisfaisant davantage de clients avec moins de ressources.
Certaines professions et tâches se prêtent bien à la mesure de l’objectif. Les emplois hautement standardisés et répétitifs sont plus faciles à quantifier grâce à des techniques de gestion de la performance basées sur les données.
Pourtant, « le niveau plus élevé de contrôle sur le lieu de travail a des conséquences potentiellement négatives sur la qualité de l’emploi », alerte l’OIT. La recherche a montré que lorsque les travailleurs sont capables d’exercer une certaine latitude décisionnelle, comme contrôler l’ordre des tâches, la vitesse de travail ou influencer la manière dont la tâche est associée à des perceptions plus favorables, cela améliore la qualité de l’emploi. L’IA utilisée dans les centres d’appels prive les travailleurs de cette latitude non seulement en dictant ce que les travailleurs doivent dire, mais aussi en surveillant de près le nombre et la durée des appels qu’ils effectuent, ainsi que les résultats.
Le même problème se pose pour le télétravail : incapables de voir la main-d’œuvre pendant la crise sanitaire, les employeurs se sont appuyés sur une multitude d’outils de surveillance comme mesure provisoire, devenue définitive, pour apaiser leurs inquiétudes concernant l’évitement. Les systèmes collectent des données sur les frappes au clavier, les mouvements de la souris, l’activité à l’écran, le contenu des emails et davantage encore. Ainsi, « les principaux fournisseurs de logiciels comme Microsoft ont intégré des indicateurs de productivité dans leurs applications informatiques. En enregistrant les activités des travailleurs sur des programmes comme Microsoft Teams, les programmes suivent non seulement combien de temps un employé passe en ligne, mais font aussi des inférences sur la qualité de son engagement ». Pourtant, une dépendance excessive à ces données peut donner aux employeurs une mauvaise compréhension de ce qui se passe réellement sur le lieu de travail.
Conclusion : comprendre le fonctionnement
« Un travailleur, par exemple, peut être loin de l’ordinateur et rester engagé dans des activités productives », alerte l’OIT. Attention aux technologies d’IA prêtes à l’emploi, « faciles à utiliser », mais qui « ne donneront probablement pas de résultats satisfaisants ». L’organisation conclut : « pour que ces systèmes soient utiles et atteignent l’objectif global de gérer efficacement les personnes au sein des organisations, les responsables RH doivent comprendre le fonctionnement des systèmes d’IA avant de les mettre en œuvre… Les systèmes les plus efficaces nécessiteront l’implication de leurs utilisateurs – dans ce cas, les responsables RH et les professionnels, ainsi que les travailleurs. »
—
« AI in human resource management – The limits of empiricism » OIT
—
« L’IA dans nos solutions » https://boutique.lamy-liaisons.fr/solutions/ia.html