Biais algorithmiques dans le recrutement :
cadre juridique européen
et bonnes pratiques

Biais algorithmiques dans le recrutement :  cadre juridique européen et bonnes pratiques
27.04.2026

Le marché mondial des logiciels de recrutement automatisé représentait 3, 2 milliards de dollars en 2023, selon Grand View Research [1]. Cette croissance spectaculaire dissimule un problème que les départements RH tardent à affronter : les algorithmes reproduisent, amplifient et parfois créent des discriminations que le droit du travail combat depuis des décennies. En 2018, Reuters révélait qu'Amazon avait abandonné un outil de tri de CV qui pénalisait systématiquement les candidatures féminines [2]. Ce cas, loin d'être isolé, a mis en lumière un phénomène structurel. Les systèmes d'intelligence artificielle appliqués au recrutement héritent des biais présents dans les données historiques d'embauche, et ces données reflètent des décennies de pratiques discriminatoires. Le cadre juridique européen, renforcé par le Règlement sur l'intelligence artificielle adopté en 2024, tente désormais d'encadrer ces technologies avant qu'elles ne deviennent des instruments de discrimination à grande échelle. Ce problème de biais automatisé ne se limite pas aux ressources humaines : des dynamiques comparables existent dans le crédit scoring avec IA, où les modèles qui remplacent les grilles traditionnelles reproduisent parfois les mêmes inégalités structurelles.

La mécanique des biais dans les systèmes de recrutement automatisé

Un algorithme de recrutement fonctionne selon un principe simple en apparence. Il reçoit des milliers de CV, les compare aux profils des candidats précédemment retenus ou performants, puis attribue un score de compatibilité à chaque nouvelle candidature. Le problème réside dans cette référence au passé. Si une entreprise technologique a embauché 85 % d'hommes sur les dix dernières années, l'algorithme apprend que le profil "idéal" est masculin. Il ne s'agit pas d'une erreur de programmation. C'est le fonctionnement normal d'un système d'apprentissage statistique confronté à des données déséquilibrées.

L'étude de Raghavan, Barocas, Kleinberg et Levy publiée dans les actes de la conférence FAT* 2020 a analysé 18 outils commerciaux de recrutement algorithmique [3]. Leurs conclusions sont sans appel : la majorité de ces outils ne fournissaient aucune documentation sur les mesures prises pour prévenir les biais, et plusieurs d'entre eux utilisaient des variables proxy corrélées au genre ou à l'origine ethnique. Le code postal, le prénom, l'université fréquentée, la participation à certaines activités extracurriculaires : autant de signaux que l'algorithme capte sans qu'aucun développeur n'ait explicitement programmé une discrimination.

Le National Bureau of Economic Research a publié en 2021 une étude montrant que les candidats portant des prénoms à consonance afro-américaine recevaient 36 % de rappels en moins que ceux portant des prénoms à consonance européenne, à CV strictement identique [4]. Lorsque ces mêmes CV alimentent un algorithme d'apprentissage, le système reproduit cet écart. Pire, il le systématise. Un recruteur humain peut, dans un éclair de lucidité, remettre en question ses propres réflexes. Un algorithme applique la même logique discriminatoire à des centaines de milliers de candidatures sans jamais hésiter. On retrouve cette même problématique de biais ancrés dans les données historiques dans le secteur financier, où la détection de fraude bancaire par IA chez BNP Paribas et Société Générale repose sur des modèles confrontés à des défis analogues de représentativité des jeux de données.

Les biais ne se limitent pas au tri de CV. Les entretiens vidéo analysés par intelligence artificielle posent des questions tout aussi sérieuses. HireVue, l'un des leaders du secteur avec plus de 700 clients entreprises, a longtemps utilisé l'analyse des expressions faciales pour évaluer les candidats [5]. En 2021, sous la pression d'une plainte déposée auprès de la Federal Trade Commission américaine par l'Electronic Privacy Information Center, l'entreprise a abandonné cette fonctionnalité. Les recherches en vision par ordinateur avaient démontré que ces systèmes performaient de manière inégale selon les carnations de peau et les morphologies faciales. L'étude "Gender Shades" de Joy Buolamwini et Timnit Gebru au MIT Media Lab a révélé des taux d'erreur de classification pouvant atteindre 34, 7 % pour les femmes à peau foncée, contre 0, 8 % pour les hommes à peau claire [6].

Un second type de biais, moins visible, concerne la construction même des critères d'évaluation. Lorsqu'un algorithme valorise la "stabilité professionnelle", il pénalise indirectement les femmes ayant interrompu leur carrière pour un congé maternité. Lorsqu'il favorise les candidats ayant fait du sport en équipe à l'université, il avantage les profils socio-économiques privilégiés. Ces choix de conception, souvent présentés comme objectifs et neutres, incorporent des jugements de valeur rarement interrogés.

Le Règlement européen sur l'intelligence artificielle et ses implications pour les ressources humaines

L'Union européenne a adopté le Règlement sur l'intelligence artificielle (AI Act) le 13 mars 2024, après trois années de négociations législatives [7]. Ce texte, entré en application progressive entre 2024 et 2027, classe les systèmes d'IA en quatre catégories de risque. Les outils de recrutement automatisé figurent dans la catégorie "haut risque", ce qui les soumet aux obligations les plus contraignantes du règlement.

L'article 6 du Règlement, combiné à l'Annexe III, qualifie explicitement de haut risque les systèmes d'IA utilisés pour "le recrutement ou la sélection de personnes physiques, notamment pour publier des offres d'emploi ciblées, analyser et filtrer les candidatures, et évaluer les candidats" [8]. Cette classification entraîne une série d'obligations concrètes pour les entreprises qui déploient ces outils.

L'article 9 impose une évaluation et une atténuation des risques en amont du déploiement. Les fournisseurs doivent identifier les biais potentiels dans les données d'entraînement et mettre en place des mesures correctives. L'article 10 fixe des exigences strictes en matière de gouvernance des données : les jeux de données d'entraînement doivent être "pertinents, suffisamment représentatifs et, dans la mesure du possible, exempts d'erreurs et complets au regard de la finalité prévue". L'article 13 exige une transparence suffisante pour permettre aux utilisateurs d'interpréter les résultats du système. L'article 14 garantit un contrôle humain effectif, avec la possibilité pour un opérateur humain de comprendre les capacités et limites du système et d'annuler ses décisions. Cette exigence de conformité algorithmique rejoint les enjeux plus larges du secteur financier, où les solutions de RegTech et conformité automatisée réduisent les coûts réglementaires tout en posant des questions similaires sur la fiabilité des systèmes automatisés.

Les sanctions prévues par le Règlement sont substantielles. Les infractions aux obligations applicables aux systèmes à haut risque peuvent entraîner des amendes allant jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial, selon le montant le plus élevé [9]. Pour les grandes entreprises technologiques qui commercialisent ces solutions, ces montants représentent un risque financier réel.

Le Règlement européen s'inscrit dans un écosystème juridique déjà dense. La directive 2000/78/CE établissant un cadre général en faveur de l'égalité de traitement en matière d'emploi et de travail interdit toute discrimination directe ou indirecte fondée sur la religion, le handicap, l'âge ou l'orientation sexuelle [10]. Le RGPD, dans son article 22, accorde aux individus le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques ou les affectant de manière significative [11]. Une décision de recrutement automatisée tombe clairement dans le champ de cet article.

La combinaison de ces trois textes crée un cadre juridique à trois niveaux. Le RGPD protège les droits individuels des candidats face aux décisions automatisées. La directive emploi interdit les discriminations dans le processus de recrutement. Le Règlement IA impose des obligations de conception et de déploiement aux fournisseurs et utilisateurs de ces systèmes. Les entreprises qui utilisent des algorithmes de recrutement doivent se conformer simultanément à ces trois régimes.

Les limites des approches techniques de débiaisage

Face à ces contraintes juridiques et éthiques, l'industrie technologique propose des solutions techniques de débiaisage. Ces approches méritent un examen critique, car elles risquent de créer un faux sentiment de sécurité.

La première approche consiste à supprimer les variables sensibles des données d'entraînement. On retire le genre, l'âge, l'origine ethnique. Cette méthode, dite "fairness through unawareness", est largement reconnue comme insuffisante par la communauté scientifique [12]. Les travaux de Dwork, Hardt, Pitassi, Reingold et Zemel ont démontré dès 2012 que d'autres variables présentes dans les données agissent comme des substituts des attributs protégés. Le code postal prédit l'origine ethnique. Le prénom prédit le genre. Le type d'université prédit le milieu socio-économique. Retirer la variable cible ne supprime pas l'information qu'elle porte.

La seconde approche repose sur des métriques mathématiques d'équité. On cherche à garantir que l'algorithme traite différents groupes de manière équivalente. Le problème est qu'il existe au moins 21 définitions mathématiques différentes de l'équité algorithmique, et que plusieurs d'entre elles sont mutuellement incompatibles [13]. L'étude de Chouldechova publiée dans Big Data en 2017 a démontré qu'il est mathématiquement impossible de satisfaire simultanément trois critères d'équité fréquemment utilisés : l'égalité des taux de faux positifs, l'égalité des taux de faux négatifs et la parité des prédictions positives, sauf dans le cas trivial où les groupes ont des taux de base identiques [14]. Un recruteur qui affirme que son algorithme est "équitable" doit préciser selon quelle définition, et accepter que d'autres définitions ne soient pas respectées.

La troisième approche est l'audit algorithmique ex post. On teste le système sur des jeux de données synthétiques pour vérifier l'absence de discrimination. Le rapport de l'Agence des droits fondamentaux de l'Union européenne publié en 2022 souligne les limites de ces audits : ils dépendent des scénarios testés, des métriques choisies et des groupes considérés [15]. Un audit peut conclure à l'absence de biais racial tout en ignorant un biais intersectionnel affectant spécifiquement les femmes appartenant à une minorité ethnique.

Ces limites techniques ne signifient pas que tout effort de débiaisage est vain. Elles imposent une posture de vigilance permanente et une reconnaissance honnête des limites de la technologie. Le risque principal est qu'une entreprise, ayant investi dans un outil "certifié sans biais", cesse toute surveillance humaine et laisse l'algorithme opérer sans contrôle. Le secteur de la lutte anti-blanchiment avec l'IA connaît des débats comparables : les modèles automatisés y suscitent la même tension entre efficacité opérationnelle et risques de faux positifs discriminatoires.

Jurisprudence et décisions réglementaires récentes

Plusieurs décisions récentes illustrent la manière dont les autorités européennes abordent concrètement la question des biais algorithmiques dans le recrutement.

En Italie, la Cour de Bologne a rendu en décembre 2020 une décision condamnant la plateforme Deliveroo pour discrimination algorithmique [16]. Le système de notation des livreurs, qui déterminait l'accès aux créneaux de travail, pénalisait les travailleurs qui s'absentaient, sans distinguer entre une absence pour grève et une absence injustifiée. Le tribunal a jugé que cet algorithme constituait une discrimination indirecte à l'encontre du droit de grève. Bien que cette affaire concerne la gestion des travailleurs plutôt que le recrutement, elle établit un précédent significatif sur la responsabilité des employeurs face aux décisions algorithmiques.

Aux Pays-Bas, l'Autorité de protection des données a infligé en 2021 une amende de 2, 75 millions d'euros à l'administration fiscale néerlandaise pour un algorithme de détection de fraude aux allocations familiales qui discriminait systématiquement les familles portant une double nationalité [17]. Cette affaire, connue sous le nom de "scandale des allocations familiales" (toeslagenaffaire), a provoqué la démission du gouvernement Rutte III en janvier 2021. Elle démontre que les biais algorithmiques ne sont pas un problème abstrait mais produisent des conséquences dévastatrices sur des vies réelles.

À New York, la loi Local Law 144, entrée en vigueur en juillet 2023, impose un audit annuel des biais pour tout outil automatisé utilisé dans les décisions d'embauche ou de promotion [18]. Les résultats de ces audits doivent être publiés sur le site web de l'employeur. Cette législation, pionnière au niveau municipal, offre un modèle que plusieurs juridictions européennes observent avec attention.

Pratiques opérationnelles pour un recrutement algorithmique responsable

Les organisations qui souhaitent utiliser l'IA dans leur processus de recrutement tout en respectant le cadre juridique européen et les principes d'équité doivent adopter une approche structurée.

La première exigence porte sur la qualité et la représentativité des données d'entraînement. Une analyse démographique des données historiques d'embauche doit précéder toute mise en production. Si ces données reflètent des déséquilibres passés, elles doivent être corrigées ou complétées. Le rapport technique du National Institute of Standards and Technology (NIST) sur les biais dans l'IA recommande une documentation systématique des jeux de données, incluant leur provenance, leur composition démographique et leurs limitations connues [19].

La deuxième exigence concerne la transparence envers les candidats. L'article 13 du RGPD impose que les candidats soient informés de l'existence d'un traitement automatisé et reçoivent "des informations utiles concernant la logique sous-jacente, ainsi que l'importance et les conséquences prévues de ce traitement" [20]. Cette obligation ne se satisfait pas d'une mention vague dans les conditions générales. Elle requiert une communication claire, accessible et spécifique.

La troisième exigence est le maintien d'un contrôle humain significatif. Le Règlement IA insiste sur la notion de "human oversight", mais cette exigence perd tout sens si l'opérateur humain se contente de valider les recommandations algorithmiques sans les examiner réellement. Le rapport du Haut-Commissariat des Nations Unies aux droits de l'homme publié en septembre 2021 alerte sur le risque d'une "automation bias" où les décideurs humains font confiance aveugle aux recommandations de la machine [21]. Les entreprises doivent concevoir des processus où l'intervention humaine est effective, pas décorative.

La quatrième exigence est l'audit régulier et indépendant. Un audit interne, conduit par l'équipe qui a développé le système, présente des conflits d'intérêts évidents. L'Algorithmic Accountability Act, proposé au Congrès américain en 2022, prévoyait des audits d'impact par des tiers indépendants [22]. Le Règlement européen va dans la même direction en imposant des évaluations de conformité pour les systèmes à haut risque. Les organisations devraient anticiper ces exigences en mandatant des auditeurs externes spécialisés. Le trading algorithmique en 2026 fait face à des exigences d'audit similaires, là où les régulateurs financiers imposent des obligations de transparence croissantes sur les modèles automatisés.

La cinquième exigence, souvent négligée, est la formation des équipes RH. Un outil algorithmique n'est pas meilleur que l'usage qui en est fait. Les professionnels des ressources humaines doivent comprendre les principes de fonctionnement, les limites et les risques des systèmes qu'ils utilisent. Le rapport McKinsey "The State of AI in 2023" indique que seulement 21 % des entreprises utilisant l'IA dans leurs processus RH avaient mis en place des programmes de formation dédiés pour les utilisateurs de ces outils [23].

Perspectives et évolution prévisible du cadre réglementaire

Le paysage réglementaire européen va continuer à évoluer dans les prochaines années. La directive sur la transparence salariale, adoptée en mai 2023 et devant être transposée par les États membres avant juin 2026, contient des dispositions pertinentes pour le recrutement algorithmique [24]. Elle interdit aux employeurs de demander aux candidats leur historique de rémunération et impose une transparence sur les fourchettes salariales. Ces dispositions limitent les données que les algorithmes de recrutement peuvent utiliser et renforcent l'égalité de traitement.

Le Comité européen de la protection des données (EDPB) a annoncé des lignes directrices spécifiques sur l'application du RGPD aux systèmes d'IA, attendues pour 2025. Ces lignes directrices devraient préciser les conditions dans lesquelles un profilage algorithmique dans le contexte du recrutement respecte les exigences de l'article 22 du RGPD.

L'émergence de standards techniques accompagne cette évolution normative. L'ISO a publié en 2023 la norme ISO/IEC 42001 sur les systèmes de management de l'IA, qui fournit un cadre pour la gouvernance responsable de l'intelligence artificielle [25]. Le CEN et le CENELEC, mandatés par la Commission européenne, travaillent sur des normes harmonisées qui serviront de référence pour la mise en conformité avec le Règlement IA.

La question des biais algorithmiques dans le recrutement ne trouvera pas de résolution purement technique. Elle exige une combinaison de vigilance juridique, de rigueur scientifique et de volonté politique. Les organisations qui choisiront de considérer le cadre réglementaire européen comme une simple contrainte administrative passeront à côté de l'essentiel. La confiance des candidats, la qualité des recrutements et la réputation des entreprises dépendent de leur capacité à déployer ces technologies avec lucidité et responsabilité. Les outils algorithmiques peuvent enrichir le processus de recrutement, à condition que leurs concepteurs et leurs utilisateurs acceptent de reconnaître ce qu'ils ne savent pas faire.

FAQ

Oui, le recrutement assisté par algorithme reste légal en Europe, mais il est strictement encadré. Le Règlement européen sur l'intelligence artificielle (AI Act) classe ces outils dans la catégorie "haut risque", ce qui impose aux entreprises des obligations de transparence, de gouvernance des données, d'évaluation des risques et de contrôle humain. Le RGPD exige en parallèle que les candidats soient informés de l'existence d'un traitement automatisé et puissent contester les décisions prises sur cette base. Une entreprise qui respecte ces cadres peut utiliser légalement un algorithme dans son processus de recrutement.

Les biais les plus courants sont liés au genre, à l'origine ethnique et au milieu socio-économique. Un algorithme entraîné sur des données historiques d'embauche où les hommes étaient majoritairement recrutés apprendra à privilégier les profils masculins. Les variables proxy jouent un rôle central : le code postal, le prénom, le type d'université ou les activités extracurriculaires permettent à l'algorithme de déduire indirectement des caractéristiques protégées, même lorsque ces dernières ont été retirées des données d'entraînement.

L'article 22 du RGPD accorde aux individus le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé lorsque cette décision produit des effets juridiques ou les affecte de manière significative. Une décision de recrutement entre clairement dans ce cadre. Le candidat peut exiger une intervention humaine, exprimer son point de vue et contester la décision. Les entreprises doivent prévoir des mécanismes concrets pour permettre l'exercice de ce droit.

La vérification repose sur un audit régulier et multi-dimensionnel. L'entreprise doit analyser les taux de sélection par groupe démographique, tester le système sur des données synthétiques variées et faire appel à des auditeurs externes indépendants. Il faut garder à l'esprit qu'il n'existe pas de définition unique de l'équité algorithmique : au moins 21 métriques différentes coexistent, et certaines sont mathématiquement incompatibles entre elles. Un audit sérieux doit préciser les critères retenus et documenter les limites de l'évaluation.

Les sanctions sont cumulatives. Le Règlement IA prévoit des amendes pouvant atteindre 15 millions d'euros ou 3 % du chiffre d'affaires mondial. Le RGPD autorise des sanctions allant jusqu'à 20 millions d'euros ou 4 % du chiffre d'affaires mondial. Le droit du travail national ajoute des sanctions spécifiques en cas de discrimination avérée à l'embauche, qui peuvent inclure des dommages et intérêts, des injonctions et des poursuites pénales selon les juridictions.

La fiabilité de l'analyse vidéo par IA est sérieusement remise en question. L'étude "Gender Shades" du MIT Media Lab a révélé des taux d'erreur de classification atteignant 34, 7 % pour les femmes à peau foncée. HireVue, leader du marché, a abandonné l'analyse des expressions faciales en 2021 après une plainte déposée auprès de la FTC. En Europe, le Règlement IA interdit certains usages de la reconnaissance des émotions sur le lieu de travail, et tout système d'analyse vidéo utilisé dans le recrutement tombe sous les obligations des systèmes à haut risque.

Non. Cette approche, appelée "fairness through unawareness" dans la littérature scientifique, est largement reconnue comme insuffisante. Les recherches démontrent que d'autres variables présentes dans les données agissent comme des substituts des attributs protégés. Le code postal peut prédire l'origine ethnique, le prénom peut prédire le genre, le type d'établissement fréquenté peut prédire le milieu socio-économique. Retirer la variable sensible ne supprime pas l'information qu'elle porte dans le reste du jeu de données. Un débiaisage efficace exige des approches beaucoup plus sophistiquées, combinées à une surveillance humaine continue.

Sources

[1] Grand View Research, "Recruitment Software Market Size, Share & Trends Analysis Report", 2023.

[2] J. Dastin, "Amazon scraps secret AI recruiting tool that showed bias against women", Reuters, 10 octobre 2018.

[3] M. Raghavan, S. Barocas, J. Kleinberg, K. Levy, "Mitigating Bias in Algorithmic Hiring: Evaluating Claims and Practices", Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (FAT*), janvier 2020.

[4] P. Kline, E. Rose, C. Walters, "Systemic Discrimination Among Large U.S. Employers", NBER Working Paper 29053, juillet 2021.

[5] D. Harwell, "A face-scanning algorithm increasingly decides whether you deserve the job", The Washington Post, 6 novembre 2019.

[6] J. Buolamwini, T. Gebru, "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification", Proceedings of Machine Learning Research, vol. 81, 2018.

[7] Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle, Journal officiel de l'Union européenne, 12 juillet 2024.

[8] Règlement (UE) 2024/1689, Annexe III, point 4.

[9] Règlement (UE) 2024/1689, Article 99.

[10] Directive 2000/78/CE du Conseil du 27 novembre 2000 portant création d'un cadre général en faveur de l'égalité de traitement en matière d'emploi et de travail.

[11] Règlement (UE) 2016/679 (RGPD), Article 22.

[12] C. Dwork, M. Hardt, T. Pitassi, O. Reingold, R. Zemel, "Fairness Through Awareness", Proceedings of the 3rd Innovations in Theoretical Computer Science Conference, 2012.

[13] A. Narayanan, "21 fairness definitions and their politics", Tutorial at FAT* Conference, 2018.

[14] A. Chouldechova, "Fair Prediction with Disparate Impact: A Study of Bias in Recidivism Prediction Instruments", Big Data, vol. 5, no. 2, 2017.

[15] Agence des droits fondamentaux de l'Union européenne, "Bias in Algorithms: Artificial Intelligence and Discrimination", 2022.

[16] Tribunale di Bologna, Ordinanza del 31 dicembre 2020, R.G. 2949/2020.

[17] Autoriteit Persoonsgegevens, "Belastingdienst/Toeslagen: de verwerking van de dubbele nationaliteit van aanvragers van kinderopvangtoeslag", juillet 2021.

[18] New York City, Local Law 144 of 2021, effective 5 juillet 2023.

[19] NIST, "Towards a Standard for Identifying and Managing Bias in Artificial Intelligence", NIST Special Publication 1270, mars 2022.

[20] Règlement (UE) 2016/679 (RGPD), Article 13, paragraphe 2, point f.

[21] Haut-Commissariat des Nations Unies aux droits de l'homme, "The Right to Privacy in the Digital Age", rapport A/HRC/48/31, septembre 2021.

[22] Algorithmic Accountability Act of 2022, S.3572, 117th Congress.

[23] McKinsey & Company, "The State of AI in 2023: Generative AI's Breakout Year", août 2023.

[24] Directive (UE) 2023/970 du Parlement européen et du Conseil du 10 mai 2023 visant à renforcer l'application du principe de l'égalité des rémunérations entre les femmes et les hommes.

[25] ISO/IEC 42001:2023, "Information technology — Artificial intelligence — Management system", décembre 2023.