
IA, réglementation et conformité RH : risques à venir, erreurs déjà commises ?
Par José-Marie Jaeger – 25/06/2025
Le 24 juin 2025, ABV Group a accueilli Maître Alexandre Duprey, avocat associé chez Capstan, pour le deuxième acte de son cycle de webinars sur l’IA et les risques RH.
Objectif : mettre en lumière la responsabilité directe du DRH face aux nouvelles exigences du règlement européen IA Act – souvent mal comprises ou confiées aux mauvaises fonctions internes.
LE DRH EST (ET DOIT RESTER) UN ACTEUR CENTRAL DE LA CONFORMITÉ IA
Depuis le printemps 2025, l’IA Act européen entre progressivement en application. S’il mobilise naturellement la DSI, le DPO ou le juridique, c’est bien le DRH qui porte la responsabilité opérationnelle, sociale et juridique de l’IA appliquée aux ressources humaines.
Le dialogue social ne se délègue pas. Ce n’est ni au DPO, ni à la DSI, ni au juridique de décider ce qui est acceptable dans une politique RH.
En matière d’évaluation, de recrutement, de sanction ou de formation, l’IA impacte directement les personnes. Le DRH est donc le garant de la vigilance humaine attendue par la réglementation.
UNE IA “SOCIALEMENT ACCEPTABLE” : PAS SANS LES RH
Le règlement IA insiste : tout usage de l’IA en entreprise doit préserver la sécurité, la dignité, la santé et les droits fondamentaux des salariés.
Le DRH ne peut plus traiter l’IA comme un sujet technique. C’est une matière sociale, qui relève du contrat de travail, du dialogue avec les représentants du personnel, de l’équité entre les salariés.
Sans l’intervention active de la fonction RH, les outils à haut risque peuvent :
- Produire des décisions inadaptées ou biaisées, voir discriminantes
- Être déployés sans information suffisante
- Dégrader la confiance interne
- Exposer l’entreprise à des contentieux sociaux
SOCIALEMENT ACCEPTABLE” : PAS SANS LES RH
Risques interdits :
Reconnaissance d’émotions, notation sociale, surveillance intrusive…
Haut risque (souvent RH) :
Tri de CV, scoring des candidats, outils de décision RH automatisée
Risque limité ou acceptable :
Chatbots RH, traduction automatique, classements non décisionnels
Les outils RH sont très souvent à haut risque. Or ce sont des projets que seul le DRH peut cadrer et rendre compatibles avec le droit social.
LES ERREURS À NE PAS COMMETTRE
Laisser le juridique ou le DPO piloter seuls
Ils traiteront le sujet sous l’angle conformité technique sans sensibilité sociale.
Croire que l’éditeur est responsable
“Si le fournisseur de l’IA a des obligations, l’entreprise utilisatrice a les siennes. Elle utilise le système sous sa propre autorité. Le DRH engage la responsabilité de l’entreprise.”
Négliger la formation RH et les consultations
Sans action proactive, le CSE ou les salariés peuvent contester tout usage jugé opaque ou injuste et contester les décisions assistées ou générées par l’IA (discrimination, décision non objectivement fondée).
LE DRH DOIT SÉCURISER 5 PILIERS DÈS AUJOURD’HUI
- Identifier tous les outils RH contenant de l’IA
- Évaluer leur impact social et organisationnel
- Prévoir des dispositifs de contrôle humain
- Informer, former, consulter (notamment le CSE)
- Documenter et tracer les usages
C’est une nouvelle responsabilité. Et comme pour le RGPD, l’ignorance n’est plus une excuse.
SANCTIONS ET CONTRÔLES À VENIR
- Jusqu’à 7 % du CA mondial ou 35 M€ d’amende
- Une autorité de contrôle française doit prochainement être nommée. Probablement la CNIL et possiblement le défenseur des droits.
- Sanctions prud’homales en cas de discrimination ou de traitement inéquitable
LE DRH EST SEUL LÉGITIME POUR ÉVITER LES DÉRIVES
- Ce n’est pas un sujet informatique, juridique ou technique.
- C’est un enjeu RH, avec des conséquences sociales directes.
- C’est au DRH d’anticiper, sécuriser, dialoguer et piloter.
Contactez-nous
Nous vous proposons un entretien personnalisé et anonyme pour estimer vos économies potentielles.
Contactez-nous :