Identifier le type d’IA et son niveau de risque : un préalable indispensable
L’une des premières étapes pour un employeur souhaitant intégrer l’IA dans son organisation est d’identifier précisément le système d’IA concerné. En effet, le Règlement européen sur l’IA (IA Act) classe les systèmes d’intelligence artificielle en trois niveaux de risque :
- Risque inacceptable : par exemple, la notation sociale, formellement interdite depuis le 2 février 2025.
- Risque minimal ou limité : tels que l’usage de chatbots ou d’assistants comme ChatGPT.
- Risque élevé : cette catégorie est particulièrement pertinente pour les employeurs. Elle englobe les systèmes d’IA utilisés pour le recrutement, l’évaluation des performances, ou encore la surveillance des salariés.
Un critère central permet de déterminer si une IA relève du haut risque : a-t-elle un impact potentiel sur les droits et libertés fondamentales des salariés ? Si la réponse est affirmative, l’IA est considérée comme à haut risque.
IA à haut risque : quelles obligations d’ici 2026 ?
Les employeurs qui souhaitent déployer une IA à haut risque ont jusqu’au 2 août 2026 pour se conformer aux exigences de l’IA Act.
Ces obligations sont multiples :
- Il est essentiel d’évaluer si l’outil d’IA représente un risque élevé pour les salariés, notamment dans les processus RH.
- Les entreprises doivent informer les salariés sur l’usage de l’IA, sa finalité, et les traitements automatisés qui les concernent. Cette obligation rejoint les principes déjà existants dans le Règlement général sur la protection des données (RGPD).
- L’IA ne peut fonctionner en autonomie totale. Une surveillance humaine active doit être assurée par une personne désignée : manager, DPO ou autre salarié habilité.
- Le système d’IA doit être documenté, audité régulièrement, et les employeurs doivent analyser les risques liés aux biais algorithmiques. Le cas échéant, ils doivent y remédier sans délai.
- L’IA Act distingue deux types de responsabilités :
– Le fournisseur, responsable de la conception du système.
– L’employeur, responsable de son utilisation au sein de l’entreprise.
Formaliser les bonnes pratiques : vers une charte d’utilisation de l’IA
Afin de démontrer leur proactivité, les entreprises peuvent élaborer une charte interne sur l’usage de l’IA. Cette charte peut être spécifique ou intégrée à des documents existants (comme une charte RGPD). Elle permet de formaliser les engagements de l’entreprise en matière d’éthique, de transparence et de conformité réglementaire.
Dialogue social : une obligation incontournable
L’introduction de l’IA dans l’entreprise ne relève pas d’une décision unilatérale de l’employeur. Elle implique un dialogue social structuré avec les représentants du personnel.
Dans les entreprises d’au moins 50 salariés, l’information-consultation du CSE est obligatoire dès lors que l’IA impacte les conditions de travail ou l’emploi. Le non-respect de cette obligation peut entraîner la suspension du projet, comme l’a récemment rappelé le juge des référés dans une décision du 14 février 2025.
L’IA doit également être évoquée dans les consultations annuelles obligatoires, notamment celles relatives à la politique sociale ou aux orientations stratégiques de l’entreprise.
Si l’entreprise dispose d’une Commission santé, sécurité et conditions de travail (CSSCT), celle-ci doit être impliquée, notamment en raison des risques psychosociaux que certains usages de l’IA peuvent engendrer.
Quelles évolutions du droit du travail face à l’IA ?
Face aux bouleversements induits par l’intelligence artificielle, le droit du travail pourrait évoluer selon trois grands axes :
- Une responsabilité renforcée pour les employeurs : La combinaison des exigences du RGPD et de l’IA Act impose aux entreprises d’être exemplaires en matière de transparence, éthique et respect des libertés fondamentales des salariés.
- Une obligation d’adaptation et de formation : Plutôt que de supprimer les postes, l’IA devrait être l’occasion de transformer l’emploi. L’entreprise a l’obligation d’adapter les postes de travail et de proposer des actions de formation ou de mobilité interne/externe, notamment via une démarche de gestion des emplois et des parcours professionnels (GEPP).
- L’émergence de nouveaux droits pour les salariés qui pourraient bénéficier à l’avenir d’un droit à l’explication (comprendre les décisions prises par une IA les concernant) et d’un droit de réponse ou de contestation de ces décisions.
Ces pistes pourraient faire l’objet de négociations futures entre l’État et les partenaires sociaux, comme évoqué récemment par la ministre du Travail.
L’intelligence artificielle constitue un enjeu majeur pour les entreprises, mais son introduction doit être menée avec rigueur. Entre encadrement juridique, dialogue social et responsabilité éthique, les employeurs sont appelés à structurer leur démarche dès aujourd’hui. Une anticipation efficace permettra non seulement de respecter les obligations légales, mais aussi de faire de l’IA un vecteur de progrès social et de compétitivité durable.