Observatoire de l’Inclusion | Source : Institut du capitalisme responsable
Cette semaine, nous souhaitons attirer votre attention sur les risques de discrimination liés à l’utilisation de l’Intelligence Artificielle (IA) dans les processus de recrutement.
Dans cet article publié dans The Conversation et fondé sur plusieurs études scientifiques (2018-2022), les chercheurs en science de gestion Christelle Martin-Lacroux et Alain Lacroux évoquent la montée en puissance du recrutement dit « augmenté » ou « prédictif ». Si 64% des recruteurs utilisaient déjà l’IA dans leur processus de recrutement en 2018, on suggère même aujourd’hui un lien entre son utilisation et la performance : 22% des entreprises les plus productives utiliseraient l’IA dans leur processus RH (contre 6% des entreprises les moins productives) (étude Deloitte citée dans l’article).
Tout d’abord, comment fonctionne l’IA ? La première phase, le sourcing de profil, est prise en charge par un algorithme qui va rechercher des données repérables sur les CV, mais aussi sur les réseaux sociaux. Les chatbots rentrent ensuite en jeu pour la présélection des dossiers, proposant des tests personnalisés à l’attention des candidats pour ensuite les réorienter vers des recruteurs humains. Ces derniers peuvent être accompagnés dans la phase d’entretien par des outils d’analyse automatique de la vidéo, permettant d’évaluer les réponses données sur la base des expressions faciales et du langage corporel.
Ces différentes solutions techniques reposent sur une triple promesse :
– Un avantage économique, lié à la rapidité du mode de sélection ;
– Un avantage technique, lié à la masse d’information que l’IA peut traiter ;
– Un avantage éthique, l’IA échappant a priori aux stéréotypes des recruteurs humains.
Ce dernier point est particulièrement problématique selon les deux chercheurs, qui évoquent les préjugés pouvant être incorporés dans les algorithmes par les développeurs au moment de leur conception. «Culturellement dépendant», le décodage des expressions faciales accuse ainsi un taux d’erreur de seulement 1% pour un homme blanc contre 35% pour une femme noire (étude MIT/Microsoft citée dans l’article). Des biais qui peuvent être reproduits et décuplés par les algorithmes dits de « machine learning » qui s’appuient sur la masse de données pour s’entrainer et s’ajuster.
Les chercheurs mentionnent l’exemple emblématique d’Amazon, qui avait dû cesser l’utilisation d’un logiciel de tri automatique en 2018. Celui-ci discriminait systématiquement les femmes postulant pour des emplois techniques, car il se basait sur une base de données préexistante de recruteurs humains ayant favorisé les hommes dans leurs sélections.
L’algorithme peut également faire des corrélations fallacieuses. À titre d’exemple, un logiciel d’IA peut estimer que la pratique du golf est un indicateur de performance au travail, car cette activité est surreprésentée parmi les personnes postulant à des postes d’encadrement. Enfin, les seniors peuvent être intimidés par les processus de sélection digitaux et délivrer des performances moins bien notées que s’ils se trouvaient face à un recruteur humain.
Pour prévenir ces risques, le Parlement européen élabore actuellement le Artificial Intelligence Act (AI Act), qui exigera des utilisateurs d’IA (Euractiv) :
– Une évaluation des droits fondamentaux et notamment : l’objectif visé, la portée géographique et temporelle de l’utilisation, les catégories d’individus et de groupes concernés et les risques spécifiques pour les groupes marginalisés ;
– Le respect de la législation européenne et nationale et des droits fondamentaux, ainsi que l’impact négatif potentiel sur les valeurs de l’UE ;
– L’élaboration d’un plan détaillé sur les incidences négatives directes ou indirectes de l’IA.
De son côté, la Commission européenne travaille sur une proposition de Directive pour l’amélioration des conditions de travail des entreprises opérant via des plateformes (telles Deliveroo, Uber…). Celle-ci aura pour objectif d’accroître la transparence dans l’utilisation des algorithmes et d’assurer un suivi humain sur le respect des conditions de travail (Deutsche Welle).
Aux États-Unis, la Equal Employment Opportunity Commission (EEOC) cible encore plus directement les risques de discrimination liés à l’IA. Elle a annoncé dans son plan stratégique d’application de la loi de 2023 qu’elle visait l’IA comme premier critère d’élimination des obstacles à l’embauche « lorsque ces systèmes excluent intentionnellement ou ont un impact négatif sur les groupes protégés » (Law and the Workplace).
Malgré les risques que représente l’utilisation de l’IA, en particulier dans les processus de recrutement, les chercheurs de l’article de The Conversation insistent sur ses potentialités, à condition de respecter trois principes :
– La transparence des données utilisées pour fabriquer le modèle ;
– L’interprétabilité, c’est-à-dire la capacité à produire des résultats compréhensibles par un utilisateur ;
– L’explicabilité, la possibilité de comprendre les mécanismes ayant conduit à ce résultat avec les biais potentiels qu’ils comportent.
Enfin, et au-delà du recrutement, de bonnes applications de l’IA fleurissent. Pour lutter contre l’anxiété, la dépression et le burn-out, de nouvelles applications permettent aux collaborateurs de communiquer des informations sur leur état mental. En plus de fournir des conseils médicaux aux personnes diagnostiquées, ces informations peuvent être compilées et anonymisées pour donner aux dirigeants une cartographie du climat mental de leur entreprise. Un indicateur précieux pour développer des mesures de lutte contre les processus d’exclusion dont sont victimes les salariés les plus fragiles (Financial Times).