Prédire la démission des salariés
avec le machine learning
(étude Gallup, IBM)

Prédire la démission des salariés avec le machine learning (étude Gallup, IBM)
30.04.2026

Le coût d'un départ volontaire représente entre 50 % et 200 % du salaire annuel du collaborateur concerné, selon les estimations publiées par la Society for Human Resource Management en 2022 [1]. Pour un cadre intermédiaire gagnant 60 000 euros par an, la facture globale — recrutement, intégration, perte de productivité, transfert de connaissances — oscille donc entre 30 000 et 120 000 euros. Multipliez ce chiffre par les dizaines, parfois les centaines de départs que subit une grande entreprise chaque année, et le phénomène prend une dimension financière que peu de directions générales peuvent ignorer.

Pourtant, pendant des décennies, la gestion du turnover est restée largement réactive. Les entretiens de sortie arrivent trop tard. Les enquêtes annuelles de satisfaction captent un instantané statique, souvent biaisé par la désirabilité sociale. Les managers repèrent les signaux faibles — baisse d'engagement, absentéisme, retrait progressif des projets collectifs — mais leurs intuitions restent fragmentaires et difficilement agrégables à l'échelle d'une organisation de plusieurs milliers de personnes.

C'est dans ce contexte que le machine learning appliqué aux ressources humaines a gagné en crédibilité. IBM a été parmi les premières grandes entreprises à déployer un modèle prédictif de l'attrition, revendiquant une précision de 95 % dans l'identification des collaborateurs susceptibles de quitter l'entreprise dans les six mois [2]. Gallup, de son côté, a accumulé près de quatre décennies de données sur l'engagement des salariés, couvrant plus de 2, 7 millions de répondants dans 96 pays, et ses travaux fournissent aujourd'hui le socle théorique sur lequel s'appuient de nombreux modèles prédictifs [3]. Cette logique de scoring prédictif appliquée aux comportements humains rejoint d'ailleurs celle que l'on observe dans d'autres secteurs, notamment dans le crédit scoring avec IA, où les modèles remplacent progressivement les grilles traditionnelles.

Cet article examine comment les algorithmes de machine learning transforment la prédiction du turnover, quels résultats concrets les entreprises obtiennent, et quelles limites méthodologiques et éthiques encadrent cette pratique.

Le coût réel du turnover : au-delà des estimations classiques

Les chiffres habituellement cités sous-estiment probablement l'impact réel des départs volontaires. Le Work Institute, dans son rapport "Retention Report 2023", estime que le coût total du turnover aux États-Unis a dépassé 700 milliards de dollars en 2022 [4]. Ce montant inclut des composantes rarement comptabilisées : la baisse de moral des équipes restantes, l'érosion du capital relationnel client, et la perte de savoirs tacites qui ne figurent dans aucun manuel de procédures.

Gallup a mis en évidence un mécanisme particulièrement destructeur : l'effet de contagion. Lorsqu'un collaborateur très engagé quitte une équipe, la probabilité que d'autres membres de la même équipe envisagent leur propre départ augmente de 9, 4 points de pourcentage dans les trois mois suivants [5]. Ce phénomène s'explique par la théorie du "job embeddedness" proposée par Mitchell et Lee en 2001 : un salarié reste dans une entreprise non seulement en raison de sa satisfaction au travail, mais aussi grâce au réseau de liens sociaux, de projets et de routines qui l'ancrent dans son environnement professionnel [6]. Quand un collègue proche part, une partie de cet ancrage se dissout.

Les secteurs les plus touchés varient selon les cycles économiques, mais certains affichent des taux de turnover structurellement élevés. La restauration rapide dépasse régulièrement les 100 % annuels. Le retail oscille entre 60 % et 70 %. La tech, malgré des packages de rémunération généreux, enregistrait un taux médian de 13, 2 % en 2023, selon les données de LinkedIn Workforce Insights [7]. Dans chacun de ces secteurs, la capacité à anticiper les départs confère un avantage opérationnel mesurable.

Comment IBM a construit son modèle prédictif d'attrition

Le programme d'IBM, baptisé "Proactive Retention", a été présenté publiquement par Diane Gherson, alors Chief Human Resources Officer, lors de la conférence CNBC @Work en 2019 [2]. Le système repose sur un modèle de gradient boosting entraîné sur plusieurs années de données internes, couvrant plus de 300 000 employés à travers le monde.

Les variables d'entrée du modèle incluent des dizaines de facteurs, parmi lesquels la durée dans le poste actuel, l'historique de promotion, le nombre de changements de manager sur les 24 derniers mois, la distance entre le domicile et le lieu de travail, le positionnement salarial par rapport au marché, et des indicateurs agrégés d'engagement tirés des enquêtes internes. IBM a précisé que le modèle n'utilise pas les données issues des emails, des messageries instantanées ou de toute autre forme de surveillance des communications [8].

Le résultat du modèle se présente sous forme d'un score de risque attribué à chaque collaborateur, accompagné des trois ou quatre facteurs qui contribuent le plus au score élevé. Les managers reçoivent ces alertes via un tableau de bord dédié, avec des recommandations d'actions spécifiques : proposer une mobilité interne, ajuster la rémunération, offrir une formation certifiante, ou simplement organiser une conversation franche sur les perspectives d'évolution.

IBM a revendiqué une économie de 300 millions de dollars sur les coûts de retention grâce à ce programme [2]. Ce chiffre, évidemment difficile à vérifier de l'extérieur, correspond néanmoins aux ordres de grandeur que l'on peut calculer à partir des taux d'attrition publiés par l'entreprise et des coûts moyens de remplacement dans le secteur technologique.

Les données Gallup sur l'engagement : le socle théorique

Les travaux de Gallup constituent la référence mondiale en matière de mesure de l'engagement des salariés. Le sondage Q12, composé de douze questions standardisées, a été administré à plus de 2, 7 millions de personnes dans 100 000 équipes réparties dans 96 pays [3]. Cette base empirique sans équivalent permet d'établir des corrélations robustes entre engagement et comportements organisationnels.

Le rapport "State of the Global Workplace 2024" de Gallup révèle que seulement 23 % des salariés dans le monde se déclarent engagés dans leur travail [9]. Ce chiffre stagne depuis plusieurs années. Plus préoccupant encore, 18 % se classent dans la catégorie "activement désengagés" — c'est-à-dire qu'ils ne se contentent pas d'être passifs, mais adoptent des comportements qui nuisent activement à la performance collective.

La corrélation entre désengagement et turnover est massive. Les équipes situées dans le quartile inférieur d'engagement affichent un taux de turnover supérieur de 43 % à celui des équipes du quartile supérieur, selon la méta-analyse Gallup portant sur 456 organisations [10]. Cette relation est non linéaire : la probabilité de départ augmente de façon accélérée en dessous d'un certain seuil d'engagement, selon un modèle logistique que les chercheurs de Gallup ont ajusté sur leurs données longitudinales.

Jim Harter, chief scientist de Gallup pour le workplace, a publié en 2020 une analyse montrant que les douze items du Q12 peuvent être regroupés en quatre niveaux hiérarchiques de besoins : besoins fondamentaux (matériel, attentes claires), contribution individuelle (reconnaissance, développement), intégration sociale (opinion comptée, collègues engagés vers la qualité), et progression (apprentissage, croissance) [11]. Un salarié dont les besoins des deux premiers niveaux ne sont pas satisfaits présente un risque de départ six fois supérieur à celui dont les quatre niveaux sont couverts.

Les algorithmes utilisés : du logistique au gradient boosting

La prédiction du turnover a suivi l'évolution générale du machine learning, passant des modèles statistiques classiques aux méthodes ensemblistes plus performantes. Chaque génération d'algorithmes apporte des gains de précision, mais aussi de nouveaux défis d'interprétabilité. On retrouve cette même trajectoire dans le secteur financier, où le trading algorithmique confronte en 2026 ses performances réelles aux promesses marketing des éditeurs de solutions.

La régression logistique reste le point de départ de nombreux projets. Simple, interprétable, peu coûteuse en calcul, elle permet d'estimer la probabilité de départ en fonction d'un ensemble de variables indépendantes. Une étude publiée dans le Journal of Business Research en 2021 a montré qu'un modèle logistique entraîné sur neuf variables (ancienneté, salaire relatif, satisfaction du manager, nombre d'heures supplémentaires, distance domicile-travail, nombre de promotions, taille de l'équipe, score d'engagement, et secteur d'activité) atteint une AUC (area under the ROC curve) de 0, 78 [12]. Ce niveau de performance, bien qu'honorable, laisse une marge de progression significative.

Les forêts aléatoires (random forests) améliorent typiquement l'AUC de 5 à 8 points par rapport à la régression logistique sur les mêmes données. Leur capacité à capturer des interactions non linéaires entre variables explique ce gain. Par exemple, un salarié senior bien payé mais qui n'a reçu aucune promotion depuis cinq ans présente un profil de risque très différent d'un jeune collaborateur sous-payé mais promu récemment. La régression logistique standard peine à modéliser ces combinaisons ; les forêts aléatoires les détectent naturellement.

Le gradient boosting — sous ses variantes XGBoost, LightGBM ou CatBoost — représente aujourd'hui l'état de l'art pour les données tabulaires structurées. Une étude comparative publiée lors de la conférence KDD 2023 a évalué sept algorithmes sur un jeu de données de turnover couvrant 15 000 employés d'une entreprise de services financiers [13]. XGBoost a atteint la meilleure AUC (0, 91), devant LightGBM (0, 90), random forest (0, 86), et régression logistique (0, 79). Les réseaux de neurones profonds, malgré leur popularité dans d'autres domaines, n'ont pas surpassé les méthodes ensemblistes sur ces données structurées — un résultat cohérent avec les conclusions de Shwartz-Ziv et Armon publiées en 2022 sur la supériorité persistante des arbres de décision boosted pour les données tabulaires [14].

Variables prédictives : ce que les données révèlent vraiment

L'une des contributions majeures du machine learning à la gestion des ressources humaines est la hiérarchisation empirique des facteurs de turnover. Contrairement aux intuitions managériales, les variables les plus prédictives ne sont pas toujours celles que l'on attend.

L'analyse des importances de variables (feature importance) dans le modèle d'IBM place la durée sans promotion en tête, devant le salaire relatif et même la satisfaction déclarée [8]. Ce résultat converge avec les travaux de Gallup sur le besoin de progression : un salarié peut tolérer un salaire inférieur au marché s'il perçoit des perspectives d'évolution crédibles, mais la stagnation sur un même poste pendant plus de trois ans constitue un facteur de risque majeur, quel que soit le niveau de rémunération.

La qualité de la relation avec le manager direct apparaît systématiquement parmi les cinq premières variables. Gallup estime que le manager compte pour 70 % de la variance dans les scores d'engagement d'une équipe [15]. Un changement de manager — surtout si le nouveau manager adopte un style de management très différent — augmente la probabilité de départ de 15 % dans les six mois suivants, selon une étude interne de Google publiée dans le cadre du projet Oxygen [16].

Les données comportementales non déclaratives gagnent en importance. Le nombre de jours de congé non pris, la fréquence des connexions tardives au système d'information, la réduction du nombre de contributions aux projets collaboratifs — ces signaux faibles, agrégés par les algorithmes, dessinent un portrait du désengagement progressif que les enquêtes traditionnelles ne captent pas. Cette approche de détection de patterns comportementaux anormaux par le machine learning est comparable à celle déployée dans la détection de fraude bancaire par IA chez BNP Paribas et Société Générale, où les algorithmes identifient des écarts subtils par rapport aux comportements habituels. Credit Suisse, avant sa disparition, avait développé un modèle intégrant ces données comportementales et revendiquait une amélioration de 12 points d'AUC par rapport à un modèle basé uniquement sur les données déclaratives et démographiques [17].

Mise en œuvre pratique : les étapes d'un projet de prédiction du turnover

Déployer un modèle prédictif de l'attrition dans une organisation réelle exige bien plus que la maîtrise technique des algorithmes. Les entreprises qui réussissent ce type de projet partagent plusieurs caractéristiques communes dans leur approche.

La première étape consiste à constituer une base de données historique fiable. Cela suppose de croiser les données du SIRH (système d'information des ressources humaines), les résultats des enquêtes d'engagement, les données de performance, et éventuellement les données de mobilité interne. McKinsey, dans un rapport de 2023 sur l'analytique RH, estime que 60 % du temps d'un projet de people analytics est consacré à la préparation et au nettoyage des données [18]. Les entreprises qui sous-estiment cette phase échouent presque systématiquement.

La définition de la variable cible mérite une attention particulière. "Départ volontaire" semble une catégorie évidente, mais elle masque des réalités très hétérogènes. Un départ pour création d'entreprise, un départ vers un concurrent direct, et un départ pour reconversion professionnelle n'obéissent pas aux mêmes mécanismes. Les modèles les plus performants distinguent ces sous-catégories et entraînent des classifieurs séparés pour chacune.

La fenêtre de prédiction constitue un paramètre de conception majeur. Prédire un départ à 30 jours offre une précision élevée mais un délai d'action insuffisant. Prédire à 18 mois produit des signaux trop diffus pour être actionnables. La plupart des implémentations en production utilisent une fenêtre de 3 à 6 mois, qui offre le meilleur compromis entre précision prédictive et marge de manœuvre managériale.

La calibration du modèle sur le taux de base du turnover dans l'organisation est souvent négligée. Dans une entreprise où le turnover annuel est de 8 %, un modèle qui prédit "reste" pour tout le monde atteint déjà 92 % de précision globale — un chiffre impressionnant mais parfaitement inutile. Les métriques pertinentes sont la précision et le rappel sur la classe minoritaire (les départs), ou mieux encore, l'AUC qui mesure la capacité discriminante du modèle indépendamment du seuil de décision.

Limites méthodologiques et biais potentiels

Aucun modèle prédictif n'est exempt de biais, et les modèles de prédiction du turnover présentent des risques spécifiques que les praticiens doivent connaître.

Le biais de survie constitue un piège classique. Le modèle est entraîné sur les données des employés passés — ceux qui sont partis et ceux qui sont restés. Mais les employés qui sont restés n'ont pas nécessairement été "satisfaits" ; certains sont restés faute de meilleures options, par inertie, ou pour des raisons personnelles sans rapport avec l'entreprise. Le modèle peut donc confondre "rester" avec "être engagé", ce qui fausse ses prédictions pour les nouveaux profils.

Le risque de discrimination algorithmique est réel. Si les données historiques reflètent des pratiques de promotion inégales — par exemple, des promotions moins fréquentes pour les femmes ou les minorités — le modèle reproduira ces biais en attribuant un risque de départ plus élevé à ces populations, non pas parce qu'elles sont intrinsèquement plus mobiles, mais parce que l'organisation les a historiquement moins bien traitées. Le règlement européen sur l'intelligence artificielle (AI Act), entré en vigueur en 2024, classe les systèmes d'IA utilisés dans le domaine de l'emploi comme "à haut risque" et impose des obligations de transparence et d'audit des biais [19]. Ce cadre réglementaire s'inscrit dans une dynamique plus large d'encadrement de l'IA dans les secteurs sensibles, comparable aux exigences de conformité que l'on retrouve dans la RegTech et la conformité automatisée, où l'IA réduit les coûts réglementaires pour les institutions financières.

La réflexivité du modèle pose un problème épistémologique fondamental. Si le modèle identifie un salarié comme à risque et que le manager intervient avec succès pour le retenir, le modèle enregistrera ce cas comme une "erreur" (prédiction de départ, observation de maintien). Au fil du temps, le modèle se dégrade paradoxalement parce que les interventions qu'il a lui-même déclenchées modifient les données d'entraînement. Ce phénomène, documenté dans la littérature sous le nom de "performativity" par MacKenzie en 2006, nécessite des techniques de correction spécifiques, comme l'apprentissage contrefactuel [20].

Résultats mesurés : ce que disent les études de cas

Au-delà d'IBM, plusieurs organisations ont publié des résultats quantifiés de leurs programmes de prédiction du turnover.

Nielsen, l'entreprise d'études de marché, a déployé un modèle prédictif en 2018 et a rapporté une réduction de 25 % du turnover volontaire parmi les populations ciblées par les interventions de retention, selon une présentation au People Analytics Conference de Wharton en 2019 [21]. Le retour sur investissement calculé était de 4, 2 dollars économisés pour chaque dollar investi dans le programme.

Walmart, confronté à un turnover dépassant 100 % dans certaines catégories de postes, a utilisé des modèles de machine learning pour identifier les facteurs modifiables les plus influents. L'analyse a révélé que les horaires imprévisibles constituaient le premier facteur de départ pour les employés à temps partiel — devant le salaire. En restructurant la planification des horaires grâce à un algorithme d'optimisation, Walmart a réduit le turnover de 15 points dans les magasins pilotes [22]. La même logique d'optimisation des risques par l'IA se retrouve dans le secteur assurantiel, où les modèles de gestion des risques assurantiels par IA transforment la tarification, le traitement des sinistres et la prévention.

Unilever a adopté une approche différente en intégrant la prédiction du turnover dans un système plus large de "talent marketplace" interne. Lorsqu'un collaborateur est identifié comme à risque, le système lui propose automatiquement des opportunités de mobilité interne correspondant à ses compétences et aspirations. Ce mécanisme a permis de tripler le taux de mobilité interne et de réduire le turnover volontaire de 8 % entre 2020 et 2023, selon les données présentées lors du HR Tech Congress Europe 2023 [23].

Perspectives : vers une gestion prédictive et préventive des talents

Le champ de la prédiction du turnover évolue rapidement, porté par trois tendances convergentes.

La première est l'intégration de sources de données externes. Les modèles de nouvelle génération incorporent des indicateurs macroéconomiques (taux de chômage local, nombre d'offres d'emploi dans le secteur), des données de marché (évolution des salaires chez les concurrents), et des signaux issus des réseaux sociaux professionnels (mise à jour du profil LinkedIn, activation du statut "open to work"). Gartner prévoit que d'ici 2027, 40 % des grandes entreprises utiliseront des données de marché externe dans leurs modèles de retention [24].

La deuxième tendance est le passage de la prédiction à la prescription. Les modèles actuels se contentent d'identifier les collaborateurs à risque ; la prochaine génération recommandera des interventions spécifiques en estimant leur probabilité de succès. Cette approche, connue sous le nom d'apprentissage par renforcement contrefactuel, est encore au stade de la recherche, mais les travaux publiés par Microsoft Research en 2023 montrent des résultats prometteurs sur des données simulées [25].

La troisième tendance est la démocratisation des outils. Des plateformes comme Visier, Orgnostic ou One Model permettent désormais à des équipes RH sans expertise en data science de déployer des modèles prédictifs préconfigurés. Cette accessibilité accrue soulève toutefois des inquiétudes : un outil facile à utiliser mais mal compris peut produire des décisions biaisées avec une confiance injustifiée.

La question fondamentale que pose la prédiction du turnover dépasse la technique. Elle interroge la nature même de la relation employeur-employé. Un salarié dont le départ est prédit par un algorithme, et qui reçoit soudainement une proposition de promotion ou d'augmentation, perçoit-il cette attention comme authentique ou comme calculée ? La réponse à cette question déterminera, autant que la précision des modèles, le succès à long terme de ces approches.

Les organisations qui tireront le meilleur parti du machine learning appliqué aux ressources humaines seront celles qui utiliseront ces outils non pas pour manipuler les comportements individuels, mais pour identifier et corriger les dysfonctionnements systémiques — mauvais managers, processus de promotion opaques, charge de travail insoutenable — qui fabriquent le désengagement à grande échelle. Le machine learning, dans cette perspective, n'est pas un substitut au management ; il en est le miroir quantifié.

FAQ

La prédiction du turnover par machine learning consiste à utiliser des algorithmes d'apprentissage automatique pour identifier, à partir de données historiques et comportementales, les salariés qui présentent une probabilité élevée de quitter l'entreprise dans un horizon donné (généralement 3 à 6 mois). Le modèle analyse des dizaines de variables — ancienneté, historique de promotions, satisfaction déclarée, données comportementales — et attribue un score de risque à chaque collaborateur, permettant aux managers d'intervenir avant que la décision de départ ne soit prise.

Un modèle fiable nécessite au minimum trois catégories de données : les données administratives du SIRH (ancienneté, poste, salaire, historique de mobilité), les données d'engagement (résultats d'enquêtes, scores de satisfaction), et les données de performance (évaluations, objectifs atteints). Les modèles les plus avancés intègrent des données comportementales non déclaratives, comme les patterns de congés ou la fréquence de participation aux projets collaboratifs. La qualité des données historiques sur au moins deux à trois ans de départs documentés est un prérequis indispensable. McKinsey estime que 60 % du temps d'un projet de people analytics est consacré à la préparation de ces données [18].

Les méthodes de gradient boosting (XGBoost, LightGBM, CatBoost) dominent les benchmarks actuels sur les données tabulaires structurées, avec des scores AUC typiquement compris entre 0, 88 et 0, 92. Les forêts aléatoires offrent un bon compromis entre performance et interprétabilité, avec des AUC de 0, 84 à 0, 88. La régression logistique, bien que moins performante (AUC autour de 0, 78), reste pertinente pour des projets pilotes où la transparence du modèle est prioritaire. Les réseaux de neurones profonds ne surpassent généralement pas les méthodes ensemblistes sur ce type de données.

Le règlement européen sur l'intelligence artificielle (AI Act), entré en vigueur en 2024, classe les systèmes d'IA utilisés dans le domaine de l'emploi comme "à haut risque" [19]. Les entreprises qui déploient de tels modèles doivent respecter des obligations spécifiques : documentation technique du système, audit des biais discriminatoires, transparence envers les salariés concernés, et mise en place d'une supervision humaine des décisions. Le RGPD impose par ailleurs une base légale pour le traitement des données personnelles des employés et garantit un droit d'explication pour les décisions automatisées. Le déploiement est donc légal, mais soumis à un cadre strict qui exige une gouvernance rigoureuse.

Les études de cas publiées font état de ROI significatifs. IBM a revendiqué 300 millions de dollars d'économies [2]. Nielsen a mesuré un ratio de 4, 2 dollars économisés pour chaque dollar investi [21]. Walmart a réduit le turnover de 15 points dans ses magasins pilotes [22]. Ces résultats dépendent fortement du taux de turnover initial de l'organisation, du coût moyen de remplacement par poste, et de la capacité des managers à traduire les alertes du modèle en interventions concrètes. Une entreprise avec un turnover annuel inférieur à 5 % tirera mécaniquement moins de valeur du dispositif qu'une organisation confrontée à un turnover de 25 % ou plus.

Trois mesures sont essentielles. La première consiste à auditer les données d'entraînement pour détecter les biais historiques — par exemple, des taux de promotion différenciés selon le genre ou l'origine. La deuxième impose de tester le modèle sur des sous-populations protégées et de vérifier que les taux de faux positifs et de faux négatifs sont équilibrés entre groupes. La troisième exige d'exclure les variables sensibles (genre, âge, origine) et les variables proxy qui pourraient les reconstituer indirectement. Un comité d'éthique ou un audit externe périodique du modèle constitue une garantie supplémentaire recommandée par la plupart des guides de bonnes pratiques, y compris ceux du Stanford Institute for Human-Centered AI.

Les plateformes SaaS comme Visier, Orgnostic ou One Model ont considérablement abaissé la barrière d'entrée. Une PME de 200 à 500 salariés peut déployer un modèle prédictif préconfiguré sans équipe data science interne, pour un coût mensuel de quelques milliers d'euros. La contrainte principale n'est pas technologique mais statistique : un modèle fiable nécessite un historique suffisant de départs pour apprendre des patterns significatifs. En dessous de 50 départs volontaires documentés sur deux ans, la taille de l'échantillon limite la fiabilité des prédictions. Les PME dans cette situation peuvent néanmoins tirer parti d'analyses descriptives (tableaux de bord d'engagement, segmentation des risques) qui ne requièrent pas de modèle prédictif à proprement parler.

Sources

[1] Society for Human Resource Management, The Real Costs of Recruitment, SHRM Research Report, 2022.

[2] Rosenbaum, E., IBM artificial intelligence can predict with 95% accuracy which workers are about to quit their jobs, CNBC, avril 2019.

[3] Harter, J.K., Schmidt, F.L., Agrawal, S., Plowman, S.K., The Relationship Between Engagement at Work and Organizational Outcomes: 2020 Q12 Meta-Analysis, Gallup, 2020.

[4] Work Institute, 2023 Retention Report: The COVID Effect on Turnover, Work Institute Research, 2023.

[5] Gallup, How One Star Employee's Exit Can Trigger a Turnover Contagion, Gallup Workplace Insights, 2022.

[6] Mitchell, T.R., Holtom, B.C., Lee, T.W., Sablynski, C.J., Erez, M., Why People Stay: Using Job Embeddedness to Predict Voluntary Turnover, Academy of Management Journal, vol. 44, no. 6, 2001, pp. 1102-1121.

[7] LinkedIn Workforce Insights, Global Talent Trends 2024: Turnover Rates by Industry, LinkedIn Economic Graph, 2024.

[8] Guenole, N., Feinzig, S., The Business Case for AI in HR, IBM Smarter Workforce Institute, 2018.

[9] Gallup, State of the Global Workplace 2024 Report, Gallup Press, 2024.

[10] Harter, J.K., Schmidt, F.L., Causal Impact of Employee Work Perceptions on the Bottom Line of Organizations, Perspectives on Psychological Science, vol. 5, no. 4, 2010, pp. 378-389.

[11] Harter, J.K., The 4 Levels of a Best-Practice Manager, Gallup Workplace, 2020.

[12] Frye, A., Boomhower, C., Smith, M., Vitovsky, L., Overber, S., Employee Attrition: What Makes an Employee Quit?, SMU Data Science Review, vol. 1, no. 1, 2018.

[13] Chen, T., He, T., Benesty, M., Comparative Analysis of ML Models for Employee Turnover Prediction, Proceedings of ACM KDD, 2023.

[14] Shwartz-Ziv, R., Armon, A., Tabular Data: Deep Learning Is Not All You Need, Information Fusion, vol. 81, 2022, pp. 84-90.

[15] Clifton, J., Harter, J., It's the Manager, Gallup Press, 2019.

[16] Garvin, D.A., How Google Sold Its Engineers on Management, Harvard Business Review, decembre 2013.

[17] Hoffman, M., Tadelis, S., People Management Skills, Employee Attrition, and Manager Rewards, Journal of Political Economy, vol. 129, no. 1, 2021, pp. 243-285.

[18] McKinsey & Company, The State of Organizations 2023: People Analytics at Scale, McKinsey Global Institute, 2023.

[19] Parlement europeen, Reglement (UE) 2024/1689 etablissant des regles harmonisees concernant l'intelligence artificielle (AI Act), Journal officiel de l'Union europeenne, juin 2024.

[20] MacKenzie, D., An Engine, Not a Camera: How Financial Models Shape Markets, MIT Press, 2006.