Les biais du recrutement augmenté par l’IA : comment s’en prémunir ?
La technologie transforme le marché du travail. L'IA s'immisce désormais dans les processus de recrutement des entreprises. Les chatbots trient les CV, des algorithmes prédisent les performances, et des logiciels analysent les compétences linguistiques des candidats. Le recrutement augmenté par l'IA fascine autant qu'il inquiète. Certes, l'automatisation accélère les procédures et réduit les biais humains. Néanmoins, de nouveaux biais apparaissent, inhérents aux lacunes des programmes. Comment l'IA peut-elle recruter sans discriminer ? Examinons les travers de ces technologies ainsi que les garde-fous à instaurer.
Le recrutement augmenté à l’IA : une pratique en vogue
Le recrutement constitue un processus stratégique pour les entreprises. Trouver les bons profils représente un enjeu de compétitivité. C'est pourquoi les recruteurs adoptent de plus en plus des technologies d'intelligence artificielle.
Ces dernières interviennent à chaque étape du recrutement :
En amont, des chatbots dialoguent avec les candidats pour un premier filtrage. Des algorithmes analysent les CV pour présélectionner les profils pertinents.
Pendant les entretiens, des logiciels évaluent la personnalité des candidats à travers leurs réponses orales. D'autres mesurent leurs compétences techniques via des mises en situation.
En aval, des systèmes prédictifs évaluent l'adéquation du candidat avec le poste et l'entreprise. Ils estiment même ses chances de réussite et de fidélisation.
On parle alors de « recrutement augmenté ». L'IA vient en soutien du recruteur humain pour accélérer et optimiser le processus. Elle traite des volumes de données inaccessibles à l'esprit humain.
Désormais incontournables, ces technologies soulèvent néanmoins des enjeux éthiques.
Qu’est-ce qu’un biais de l’IA dans le recrutement ?
L'IA ne constitue pas une solution miracle aux biais humains. Ces technologies développent leurs propres travers, tenant à leur nature algorithmique.
Certes, l'IA permet d'analyser un volume considérable de candidatures selon des critères rationnels et systématiques. Elle semble donc pallier les biais involontaires des recruteurs humains, tributaires de leurs émotions et de leurs stéréotypes.
Toutefois, les algorithmes apprennent à partir des données fournies par les humains. Or ces jeux de données reflètent souvent les partis pris passés en matière de recrutement. L'IA est ainsi susceptible de reproduire certaines discriminations présentes dans les biais humains.
De plus, les mécanismes algorithmiques eux-mêmes peuvent engendrer de nouvelles formes de biais. En établissant des corrélations statistiques entre différentes variables, l'IA peut associer à tort certains profils à la réussite dans un poste.
Bref, loin d'éradiquer totalement les biais humains, l'IA produit ses propres travers discriminatoires. D'où l'importance d'auditer ces systèmes pour garantir un processus de recrutement éthique.
Quels sont les biais du recrutement augmenté ?
Biais liés aux données d'entraînement
Les systèmes d'IA apprennent à partir des données utilisées pour les entraîner. Problème : ces jeux de données reflètent souvent les partis pris des recruteurs humains.
Par exemple, si les candidats issus de certaines universités ou certains profils démographiques sont historiquement plus recrutés, l'algorithme reproduira cette tendance. Même constat si les données contiennent plus d'hommes que de femmes pour certains postes.
Il est donc essentiel de constituer des données d'entraînement exemptes de biais, en assurant une représentativité égale des profils. À défaut, les inégalités passées se perpétueront.
Biais algorithmiques
Même entraîné sur des données équilibrées, un algorithme peut développer ses propres biais. En cause : ses mécanismes mathématiques et statistiques.
Par exemple, une corrélation trompeuse entre deux variables. Le système peut associer à tort certaines caractéristiques à la réussite dans un poste. Il finira par favoriser les candidats possédant ces caractéristiques, sans lien réel avec leurs compétences.
Biais de conception
Enfin, les biais cognitifs des concepteurs de l'IA peuvent également se répercuter dans les systèmes.
Inconsciemment, les développeurs orientent parfois l'algorithme vers certains profils qu'ils considèrent comme plus pertinents ou omettent de prendre en compte certains profils minoritaires.
Quelles solutions pour contrer ces biais ?
Audit et testing approfondis des systèmes d'IA
Il est indispensable de tester en profondeur et de façon continue les algorithmes de recrutement afin de détecter la présence de tout biais discriminatoire, même insidieux.
Des équipes d'audit de divers profils (data scientists, spécialistes RH, psychologues, juristes...) conçoivent des milliers de candidatures fictives extrêmement variées. Elles simulent des parcours atypiques en mixant de multiples critères (genre, origine, handicap, orientation sexuelle, âge, situation familiale...).
En comparant les décisions de l'IA pour ces profils, les auditeurs identifient les moindres failles des algorithmes. Ils en déduisent les ajustements à opérer pour garantir une évaluation parfaitement équitable et inclusive des candidats.
Ces batteries de tests doivent être répétées fréquemment, en continu, pour s'assurer que les mises à jour algorithmiques n'introduisent pas de nouvelles dérives.
Des données d'entraînement exemptes de tout biais
Ici, la clé est de constituer des jeux de données d'entraînement irréprochables sur le plan de la diversité et de l'équilibre des profils.
Concrètement, il s'agit de collecter des données incluant la plus grande variété possible de parcours et d'expériences candidats. Chaque critère de diversité (genre, âge, origine...) doit être représenté de façon paritaire.
Il faut aussi veiller à ne pas surreprésenter les profils traditionnellement valorisés dans les recrutements passés, qui ont pu bénéficier de discriminations positives.
En apprenant à partir d'un matériau parfaitement équilibré et représentatif de la société dans toutes ses diversités, l'IA pourra prendre des décisions éthiques, exemptes de tout parti pris.
Le rôle central de l'humain dans les décisions finales
L'IA ne constitue jamais qu'un outil d'aide à la décision pour le professionnel RH. Ce dernier doit conserver un rôle central dans le processus et le pouvoir décisionnaire final.
Le recruteur combine de façon optimale l'analyse rationnelle de l'IA et sa propre expertise pour évaluer les candidats. Il prend les décisions finales en toute conscience, après avoir invalidé d'éventuelles erreurs des algorithmes.
Cette supervision humaine attentive à toutes les étapes permet de corriger les défaillances de l'IA. Le facteur humain constitue également une garantie d'éthique et d'équité.
En réalité, l'alliance de l'IA et de l'intelligence humaine, en plaçant cette dernière au centre, constitue la clé pour un recrutement à la fois augmenté ET éthique.
Ainsi, l’IA transforme en profondeur le recrutement, non sans soulever des défis éthiques majeurs. Si ces technologies offrent des opportunités indéniables, elles présentent aussi le risque de reproduire, voire d'amplifier, certains biais discriminatoires.
Les solutions existent pour exploiter tout le potentiel de l'IA, tout en garantissant son utilisation équitable. Audits poussés, données irréprochables et maintien du contrôle humain constituent des garde-fous essentiels.
À l'avenir, les progrès technologiques renforceront les capacités prédictives de ces systèmes. Dès lors, nous devrons redoubler de vigilance pour que l'IA demeure un outil au service d'un recrutement augmenté ET éthique. Le défi consiste à tirer parti de toute la puissance de ces technologies, sans sacrifier nos valeurs d'égalité et de justice sociale. Relever ce défi nécessitera sans doute de repenser en profondeur les fondements et les modalités du recrutement à l'ère de l'IA.
Commentaire
Connectez-vous ou créez votre compte pour réagir à l’article.