Alors que de plus en plus d’employeurs se tournent vers l’IA pour simplifier le processus de recrutement, de plus en plus de questions se posent sur l’éthique impliquée. Des journalistes de Bavarian Broadcasting (BR) à Munich, en Allemagne, ont mené une expérience utilisant l’analyse vidéo AI de Rhetorio, une startup locale, pour voir quels facteurs pourraient affecter sa perception des candidats. Ils ont découvert que quelque chose d’aussi simple que de porter des lunettes peut affecter l’évaluation de la personnalité de l’algorithme, ce qui pourrait coûter un emploi à quelqu’un.

Ajoutez-le à la liste des algorithmes biaisés – La startup analyse la vidéo pour déterminer les attributs de personnalité basés sur le Big Five Model (aka, « Ocean »), qui décompose les scores en « ouverture, conscience, extraversion, agrément et névrosisme ».

Le premier test de l’équipe a utilisé une actrice blanche pour voir comment sa note a changé à mesure que son apparence changeait. Le port de lunettes la rendait moins consciencieuse alors que le port d’un voile la rendait beaucoup moins névrotique. Elle a subi plusieurs changements de vêtements et de cheveux, tous avec des résultats très différents.

Retorio a répondu à ces résultats en déclarant: « Tout comme dans un entretien d’embauche normal, ces facteurs sont pris en compte pour l’évaluation. » L’IA est partiellement utilisée dans ces processus pour omettre les biais dans le processus de sélection initial, donc si elle prend en compte l’aspect, elle échoue déjà.

Dans un test qui a obscurci la vidéo d’une femme noire, l’algorithme a déterminé qu’elle était moins agréable et plus névrotique dans la vidéo filtrée. Il y a quelques indices de préjugé racial ici, mais même en général, cela pourrait affecter négativement toute personne incapable de faire des vidéos de haute qualité.

Une autre découverte n’avait rien à voir avec la personne. L’ajout d’œuvres d’art ou d’une bibliothèque en arrière-plan donnait à un sujet asiatique un aspect beaucoup plus consciencieux et nettement moins névrotique que le même faux candidat devant un arrière-plan uni. Les modifications de l’audio de ces vidéos – qui informent vraisemblablement également l’évaluation – ont eu peu d’effet sur les résultats.

Arrêtons de remplacer le jugement humain par l’intelligence artificielle: ce n’est un secret pour personne que l’IA a ses défauts et ses préjugés qui vont bien au-delà de cette startup. HireVue, un outil similaire, est utilisé aux États-Unis depuis des années et est toujours en plein essor. Dans ce cas, environ 20% seulement des candidats ne reçoivent aucune contribution humaine, mais ils sont encore trop nombreux.

Chaque fois que vous entraînez l’IA sur un système défectueux, cette IA produira des résultats erronés. Le plus souvent, cela affecte négativement les groupes marginalisés, des personnes qui ont déjà suffisamment de difficulté à mettre les pieds dans la porte telle qu’elle est. Amazon a également suspendu son processus de recrutement d’IA en raison de la discrimination à l’égard des femmes. Peut-être qu’au lieu de laisser un algorithme décider si quelqu’un est d’accord ou non, les responsables du recrutement pourraient s’efforcer de désapprendre leurs préjugés.