L’utilisation des services d’ensembles de règles protège-t-elle contre les préjugés ou les améliore-t-elle? Cette question essentielle est apparue comme un motif d’inquiétude pour les partisans de la technologie ainsi que pour ses sceptiques, mais il est plus compliqué d’y parvenir que de donner la bonne réponse. L’emploi n’est presque jamais un choix individuel, mais plutôt l’aboutissement d’une série de choix plus petits et séquentiels. Les techniques jouent des emplois distincts tout au long de cette technique: certaines orientent les offres d’emploi vers un certain nombre de candidats potentiels, tandis que d’autres désignent des personnes indirectes pour le recrutement. L’analyse prédictive des instruments et la cote de crédit reprennent, et aident les superviseurs à employer à examiner les compétences des prospects de manière nouvelle, en utilisant les deux informations classiques et uniques. Beaucoup pensent que les algorithmes peuvent aider les décisionnaires humains à prévenir leurs propres préjugés en ajoutant de la persistance à l’approche de recrutement. Mais les algorithmes apportent de nouveaux dangers. Ils sont capables de dupliquer des biais institutionnels et antiques, amplifiant les inconvénients cachés dans les détails de données tels que la fréquentation universitaire ou les évaluations d’analyse de performance.
Même si des règles éliminent une part de subjectivité de votre procédure de recrutement, les êtres humains continuent d’être fortement associés aux choix d’embauche définitifs. Les arguments qui font que les techniques «objectives» sont aussi justes et plus précises que les humains faillibles oublient de bien savoir que, dans la plupart des cas, jouent également un rôle. Pour comprendre les préjugés dans la sélection des algorithmes et les moyens de les minimiser, nous devrons explorer la façon dont la technologie prédictive fonctionne à chaque changement d’application de votre approche. Même s’ils partagent fréquemment une partie de l’unité d’apprentissage, les ressources utilisées précédemment dans le processus peuvent être fondamentalement différentes de celles utilisées par la suite. Même les instruments qui semblent effectuer exactement le même processus pourraient dépendre de plusieurs types de données, ou présenter des prophéties de manière très différente. Notre analyse de l’équipement prédictif dans le cadre de la méthode de recrutement vous aide à expliquer exactement ce que font les «algorithmes de recrutement» et comment et où des préjugés peuvent entrer dans la méthode. Malheureusement, nous avons découvert que la plupart des ensembles de règles d’embauche dériveraient au détriment des préjugés. Même si leur contribution probable à la réduction des préjugés interpersonnels ne doit pas être minimisée, seuls des outils permettant de gérer de manière proactive des disparités encore plus profondes vous donneront l’espoir que l’innovation technologique prédictive pourrait aider à promouvoir les garanties, au lieu de les atténuer. L’approche d’emploi commence effectivement juste avant qu’un demandeur d’emploi soumette un logiciel.
Au cours de la période de «recrutement» ou de recrutement, les technologies prédictives aident à commercialiser les emplois disponibles, alertent les demandeurs d’emploi sur les rôles potentiellement souhaitables et ouvrent des perspectives potentielles aux recruteurs pour une portée positive. Pour attirer les candidats, de nombreuses organisations utilisent des systèmes de publicité algorithmiques et des tableaux de bord pour parvenir de loin aux demandeurs d’emploi les plus «pertinents». Ces solutions, qui garantissent aux entreprises une utilisation plus efficace des ressources financières en matière d’embauche, produisent souvent des prévisions très superficielles: elles ne prédisent pas qui obtiendra le succès dans la fonction, mais qui cliquera probablement tout simplement sur cette tâche. Ces prophéties peuvent conduire les annonces de travail à être diffusées d’une manière qui prenne en charge les stéréotypes sexistes et raciaux, même si les entreprises n’ont pas ce genre d’objectif. Dans une étude récente que nous avons menée avec des collègues de Northeastern School et de USC, nous avons découvert, entre autres choses, que les publicités généralement ciblées sur Facebook ou Twitter pour des placements dans des caisses d’épicerie étaient effectivement montrées à un public de 85% de filles, lorsque des tâches de taxi les entreprises ont visité un public composé à 75% de couleur noire. C’est un cas typique de tout algorithme reproduisant un biais du monde réel, sans implication humaine. Dans le même temps, des forums de travail personnalisés, tels que ZipRecruiter, tentent de comprendre immédiatement les choix des recruteurs et utilisent toutes ces prophéties pour obtenir des personnes très similaires.
À l’instar de Facebook, ces systèmes de recommandation sont spécialement conçus pour obtenir et reproduire les styles dans le comportement des utilisateurs finaux, en mettant à jour les prophéties de manière dynamique à mesure que les entreprises et les demandeurs d’emploi interagissent. Si la méthode remarque que les recruteurs affligent socialisent plus souvent avec des hommes de couleur blanche, elle pourrait très bien localiser les mandataires pour ces qualités (comme s’appeler Jared ou jouer activement à la crosse au lycée) et reproduire cette conception. Ce type d’impact indésirable peut se produire sans instruction spécifique et, pire encore, sans reconnaissance individuelle. Les techniques de localisation ne sont pas une surface d’imagination probable pour beaucoup d’individus quand ils se sentent «comme une formule d’algorithme d’embauche». Cependant, les sélections informatisées à ce stade précoce de l’entonnoir employé sont nombreuses. À titre d’exemple, le marché en ligne d’Amazon, abandonné au profit des femmes défavorisées, n’était pas un instrument de variété permettant d’évaluer des personnes réelles, mais un outil permettant de découvrir des candidats passifs à recruter pour les recruteurs. La recherche d’algorithmes n’engage peut-être pas ouvertement les individus, mais comme l’a suggéré une chercheuse autorisée, Pauline Kim, «ne pas informer les employés d’une option de travail peut être un obstacle très efficace» pour les personnes à la recherche d’un emploi. Ces outils électriques ne font peut-être pas généralement les gros titres dystopiques, mais ils jouent un rôle crucial dans la détermination des personnes pouvant accéder à la procédure de recrutement, que ce soit.