Évaluation de performance avec l'IA,
entre objectivité, limites
et cadre légal

Évaluation de performance avec l'IA, entre objectivité, limites et cadre légal
30.04.2026

En 2024, 86 % des salariés estiment que les algorithmes leur fourniraient un feedback plus juste que celui de leurs managers, selon une enquête Gartner portant sur 3 500 employés [1]. Ce chiffre traduit un basculement dans la perception des méthodes d'évaluation professionnelle. L'intelligence artificielle s'installe dans les processus RH — tri de CV, notation de performances, attribution de primes — et les entreprises doivent composer avec une promesse d'objectivité algorithmique, des risques de discrimination automatisée et un cadre réglementaire européen qui se durcit. L'évaluation de performance avec l'IA en entreprise fait désormais l'objet de débats techniques, juridiques et éthiques dont aucun DRH ne peut se tenir à l'écart.

Comment l'IA change-t-elle l'évaluation des salariés en entreprise ?

L'évaluation de performance assistée par l'IA repose sur l'analyse automatisée de données professionnelles : atteinte d'objectifs, productivité mesurée en temps réel, feedback des pairs, qualité des livrables. Les logiciels de gestion des talents — SAP SuccessFactors, Workday HCM, Oracle Cloud HCM, Cornerstone OnDemand — intègrent des modules d'intelligence artificielle qui scorent les collaborateurs et recommandent des plans de développement. Le marché mondial de la gestion de performance pilotée par l'IA pesait 3, 52 milliards de dollars en 2025 et devrait atteindre 6, 33 milliards d'ici 2030, avec une croissance annuelle de 12, 4 % (MarketsandMarkets, 2025) [2].

Plusieurs fonctionnalités se retrouvent chez les éditeurs leaders. SAP a lancé People Intelligence, un module qui transforme les données liées aux compétences en recommandations via l'IA. Oracle a déployé en février 2025 des agents IA dédiés à la gestion des objectifs et au feedback en continu. Workday mise sur une architecture centrée sur les compétences, avec des algorithmes prédictifs qui identifient les lacunes avant qu'elles ne freinent la performance. Des groupes comme Adobe, Accenture, Deloitte et Bank of America ont abandonné l'entretien annuel au profit de cycles de retour continus, portés par ces technologies [2].

Tony Guadagni, directeur de recherche au sein de la division RH de Gartner, résume l'enjeu avec précision : "The future of performance management processes is automation, but the future of managing performance can't be" [1]. Les processus se numérisent. Le jugement humain reste irremplaçable quand il faut évaluer le leadership, la collaboration ou la créativité d'un salarié. 57 % des employés pensent que les humains sont plus biaisés que l'IA pour les décisions de rémunération (Gartner, 2024) [1]. Cette confiance dans la machine mérite d'être interrogée à la lumière des dérapages documentés.

Quels gains de productivité les entreprises mesurent-elles ?

Le PwC AI Jobs Barometer 2025, fondé sur l'analyse d'un milliard d'offres d'emploi dans 15 pays, livre des résultats frappants. Entre 2018 et 2024, la productivité du travail a été multipliée par quatre dans les secteurs les plus exposés à l'IA — services financiers, développement logiciel — passant d'une croissance de 7 % à 27 % [3]. Les secteurs peu exposés (hôtellerie, extraction minière) ont stagné, avec une croissance de 10 % retombée à 9 %.

Indicateur
Chiffre
Source
Prime salariale pour les compétences IA +56 % par rapport aux postes comparables PwC, 2025 [3]
Offres d'emploi liées à l'IA en France (2024) 166 000 (+273 % depuis 2019) PwC France, 2025 [3]
Temps moyen économisé par l'IA au travail 8 heures/semaine EY, 2025 [4]
Part des organisations avec un ROI significatif 28 % EY, 2025 [4]

 

L'enquête EY Work Reimagined 2025, menée auprès de 15 000 salariés et 1 500 employeurs dans 29 pays, confirme un décalage entre potentiel et résultats. Si 88 % des salariés déclarent utiliser l'IA au travail et que les utilisateurs avancés économisent jusqu'à 14 heures par semaine, seules 28 % des organisations tirent un résultat véritablement transformationnel de ces outils [4]. Les entreprises dont les fondations IA sont fragiles subissent des retards de productivité supérieurs à 40 %.

Autre tension à surveiller : les salariés les plus formés à l'IA affichent une intention de départ de 45 %, contre 21 % pour ceux qui n'ont reçu qu'une formation minimale (EY, 2025) [4]. La montée en compétences IA rend les collaborateurs plus mobiles et plus courtisés par la concurrence. Ce phénomène, comparable à ce que vivent les robo-advisors en France avec la rareté des profils tech, pose un problème de rétention majeur pour les DRH. Philippe Trouchaud, associé chez PwC, note que "l'IA démocratise l'expertise et permet à chacun d'avoir un impact démultiplié" [3].

Les biais algorithmiques menacent-ils l'équité des évaluations ?

En 2015, Amazon a découvert que son outil de recrutement automatisé pénalisait les candidatures féminines pour les postes techniques. L'algorithme, entraîné sur dix ans de CV reçus — en majorité masculins —, avait appris à associer le profil "performant" au genre masculin. Les CV contenant le mot "women's" étaient dégradés. Amazon a tenté de corriger ces biais sans y parvenir et a abandonné le projet en 2017 [5]. L'ACLU (American Civil Liberties Union) a qualifié ce cas de "disparate impact discrimination", une discrimination par impact disproportionné illégale au regard du Title VII américain [5].

Ce type de dérive se reproduit dans l'évaluation de performance. Un algorithme entraîné sur des données historiques où les managers ont systématiquement mieux noté certains profils — hommes, diplômés de grandes écoles, anciens d'un même réseau — va reproduire et amplifier ces tendances. Un recruteur humain peut discriminer dix candidats par jour. Un algorithme biaisé peut en discriminer dix mille en une heure, derrière une apparence de neutralité technique.

La CNIL rappelle que le RGPD s'applique dès qu'un modèle d'IA traite des données personnelles, y compris quand les bases d'entraînement contiennent des informations identifiables [6]. Le droit d'accès (article 15 du RGPD), le droit de rectification (article 16) et le droit d'opposition (article 21) couvrent les salariés évalués par un système automatisé. La mise en œuvre reste complexe : tracer l'origine d'une donnée au sein d'un modèle de langage ou corriger un biais encodé dans les poids du réseau de neurones relève du défi technique. Les secteurs financiers affrontent les mêmes questions. La détection de fraude bancaire par IA et le crédit scoring avec IA se heurtent à des interrogations identiques de transparence et de biais dans les données d'entraînement.

Que prévoit le règlement européen sur l'IA (AI Act) ?

Le règlement européen sur l'intelligence artificielle, adopté en 2024, classe les systèmes d'IA utilisés pour le recrutement, l'évaluation de performance, la promotion et le licenciement dans la catégorie "haut risque" (Annexe III) [7]. À compter du 2 août 2026, ces systèmes déclenchent des obligations renforcées pour les entreprises qui les déploient.

Les employeurs qui utilisent un outil d'IA pour évaluer un salarié devront produire une documentation technique détaillée, mettre en place un contrôle humain permanent, procéder à une analyse d'impact préalable et informer chaque personne concernée de l'usage de l'IA dans le processus de décision. Comme le détaille l'analyse d'Unow sur les obligations RH de l'AI Act, le CSE devra être consulté avant toute introduction d'une technologie IA affectant les conditions de travail [7].

Depuis le 2 février 2025, les pratiques les plus intrusives sont interdites : inférence des émotions à partir de données biométriques sur le lieu de travail, social scoring, catégorisation biométrique fondée sur des données sensibles. Les sanctions atteignent 35 millions d'euros ou 7 % du chiffre d'affaires mondial pour les violations les plus graves [7]. Le secteur de la conformité réglementaire fait face à la même pression, comme le montrent les solutions RegTech automatisées et la lutte anti-blanchiment avec l'IA, elles aussi soumises à ces nouvelles exigences.

Où en est l'adoption de l'IA par les entreprises françaises ?

L'INSEE a publié en 2025 les résultats de son enquête TIC auprès des entreprises de dix salariés ou plus. En 2024, 10 % d'entre elles déclarent utiliser au moins une technologie d'intelligence artificielle, contre 6 % en 2023 [8]. La progression est réelle. Le retard persiste : la moyenne européenne se situe à 13 %, et les pays nordiques — Danemark (28 %), Belgique (25 %), Finlande (24 %) — restent loin devant.

Échéance
Obligation
2 février 2025 Formation obligatoire à l'IA (article 4)
2 août 2025 Premières obligations pour les modèles à usage général
2 août 2026 Application complète pour les systèmes à haut risque
2 août 2027 Extension aux systèmes intégrés à des produits réglementés


Source : INSEE, enquête TIC entreprises 2024 [8]

Les entreprises utilisant l'IA concentrent la moitié du chiffre d'affaires total des sociétés françaises et représentent deux cinquièmes de l'emploi. L'écart entre grandes entreprises et PME reste marqué. La technologie la plus déployée est l'analyse du langage écrit (44 % des entreprises utilisatrices), suivie du machine learning pour l'analyse de données (41 %). La génération de texte — portée par les outils d'IA générative comme ChatGPT et Gemini — a bondi de 13 points en un an pour atteindre 32 % (INSEE, 2024) [8]. En France, 166 000 offres d'emploi liées à l'IA ont été publiées en 2024, plaçant l'Hexagone en tête des pays européens devant l'Allemagne (147 000) et le Royaume-Uni (125 000) selon PwC [3].

Former les équipes RH, un enjeu de compétitivité

Les salariés ayant suivi plus de 81 heures de formation à l'IA dans l'année économisent 14 heures de travail par semaine, contre 3 heures pour ceux ayant suivi moins de 4 heures de formation (EY, 2025) [4]. Le retour sur investissement de la formation IA est direct et mesurable. Pourtant, 88 % des DRH reconnaissent que leur organisation n'a pas encore tiré de valeur significative de l'IA, selon Emily Rose McRae, directrice senior chez Gartner (Gartner, 2026) [9].

L'article 4 du règlement européen impose une obligation de formation à l'IA depuis février 2025. Les deployers — toute entreprise utilisant un outil fondé sur l'IA, même partiellement — doivent s'assurer que les salariés manipulant ces systèmes disposent des compétences suffisantes [7]. Gartner relève que la majorité des managers qui expérimentent l'IA dans l'évaluation de performance n'ont reçu aucune formation formelle sur les biais à identifier et les usages à proscrire [1].

Des formations spécialisées répondent à ce besoin croissant. À Paris, PST&B (Paris School of Technology & Business), membre du réseau Galileo Global Education et située au 41 rue Chanzy dans le 11e arrondissement, propose des cursus en alternance — 3 jours en entreprise, 2 jours à l'école — qui préparent aux métiers de la data et de l'IA appliquée. Le Bachelor Data & IA et le Mastère Data Science intègrent des modules sur l'éthique algorithmique, le traitement des données RH et la conformité au RGPD. Le BTS SIO (options SLAM et SISR) forme les profils techniques qui déploient et maintiennent les infrastructures supportant ces outils. Gartner prévoit que 75 % des processus de recrutement incluront des certifications de maîtrise de l'IA d'ici 2027 [1] — un signal clair pour les professionnels RH qui souhaitent rester compétitifs.

Bachelor Data / IA

Bachelor Data / IA

pstb_vignette_data_ia
Admissibilité Admissibilité

Bac+1/+2

Rythme Rythme

Initial en B1/B2 Alternance en B3

Rentrée Rentrée

Octobre 2026

Certificat Certificat

Titre RNCP de niveau 6 reconnu par l'État

Mastère Data Science in Business

Mastère Data Science in Business

pstb_vignette_mastere_data_science
Admissibilité Admissibilité

Bac+4/+5

Rythme Rythme

Alternance en M1/M2

Rentrée Rentrée

Octobre 2026

Certificat Certificat

Titre RNCP de niveau 7 reconnu par l'État

FAQ

L'IA ne remplace pas l'entretien annuel. Elle automatise certains processus — collecte de feedback, suivi des objectifs, mesure de productivité — mais le jugement humain reste nécessaire pour évaluer des compétences comme le leadership et la capacité d'adaptation. Des entreprises comme Adobe et Deloitte utilisent l'IA pour passer d'un cycle annuel à un feedback continu, ce qui modifie la forme de l'entretien sans supprimer le besoin d'échange entre manager et salarié.

Les algorithmes entraînés sur des données historiques reproduisent les biais présents dans ces données. Le cas Amazon (2015-2017) a montré qu'un outil de recrutement IA pouvait pénaliser les candidatures féminines. En matière d'évaluation de performance, les mêmes risques existent : survalorisation de certains profils, discrimination indirecte fondée sur l'âge, le genre ou l'origine scolaire. L'audit régulier des algorithmes et la diversification des données d'entraînement sont les deux parades techniques les plus documentées.

Le règlement européen sur l'IA (AI Act) classe les systèmes d'évaluation de performance par IA dans la catégorie "haut risque". À partir du 2 août 2026, les entreprises devront documenter leurs systèmes, assurer un contrôle humain, informer les salariés et consulter le CSE. Le RGPD impose en parallèle le droit d'accès, de rectification et d'opposition pour toute personne évaluée par un traitement automatisé. Les sanctions peuvent atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial.

Le marché mondial de la gestion de performance par IA pesait 3, 52 milliards de dollars en 2025 (MarketsandMarkets) [2]. Les solutions des éditeurs comme SAP SuccessFactors, Workday ou Oracle Cloud HCM fonctionnent en mode SaaS avec des tarifications par utilisateur et par mois. Le coût varie selon la taille de l'organisation et le périmètre fonctionnel. Les PME peuvent accéder à des solutions plus accessibles via des plateformes comme Personio ou Lattice.

L'article 4 de l'AI Act impose une obligation de formation à l'IA depuis février 2025. PST&B propose un Bachelor Data & IA et un Mastère Data Science avec modules d'éthique algorithmique. Des MOOC via Coursera ou OpenClassrooms et des formations professionnelles chez Unow ou CNFCE complètent l'offre. Les compétences cibles incluent la compréhension des algorithmes, la conformité RGPD et AI Act, et l'interprétation des KPI de performance.

Selon Gartner (2024), 57 % des salariés pensent que les humains sont plus biaisés que l'IA pour les décisions de rémunération [1]. Cette perception ne correspond pas toujours à la réalité technique. L'IA reproduit les biais contenus dans ses données d'entraînement. Un système mal calibré peut se révéler plus discriminant qu'un manager formé aux enjeux de diversité. L'objectivité dépend de la qualité des données, de la transparence de l'algorithme et de l'intensité de la supervision humaine.

Les entreprises doivent réaliser une analyse d'impact (AI Impact Assessment) distincte du DPIA prévu par le RGPD. Le déploiement d'un système à haut risque exige une documentation technique, des journaux d'activité (logs), un mécanisme de contrôle humain et une information claire des personnes concernées. La CNIL recommande de cartographier tous les usages IA en RH, d'anticiper les demandes d'exercice de droits et de désigner un référent IA au sein de la DRH [6].