Aller au contenu

IA : l'obstacle pour les personnes en situation de handicap

Une étude révèle que les logiciels d'IA utilisés dans le recrutement discriminent souvent les personnes en situation de handicap. Ces outils, bien que prometteurs, perpétuent des biais validistes qui défavorisent injustement ces candidats.

Les outils d’intelligence artificielle (IA) sont de plus en plus courants dans les départements de ressources humaines pour rédiger des offres d’emploi et trier les candidatures. Cependant, une récente étude de l’université de Washington met en lumière un problème majeur : ces logiciels peuvent discriminer les personnes en situation de handicap.

Les chercheurs ont mené une expérience en utilisant ChatGPT-4, un robot conversationnel d'OpenAI, pour évaluer des CV. Ces CV, inspirés de celui d'un des cosignataires de l’étude, étaient légèrement modifiés pour indiquer un statut de travailleur handicapé. Par exemple, certains CV mentionnaient une bourse d’études réservée aux personnes en situation de handicap. L’objectif était de comparer ces CV à la version d'origine, où aucun handicap n'était mentionné, et de déterminer lequel était le plus adapté pour un poste de chercheur dans une entreprise de logiciels.

Sur 60 essais, ChatGPT-4 n'a jugé que 25% des CV modifiés comme les plus adaptés. Jennifer Mankoff, coautrice de l’étude, affirme : "Dans un monde équitable, le CV amélioré devrait être en tête de liste à chaque fois. Je ne connais pas un seul métier pour lequel un candidat reconnu pour ses compétences en matière de leadership ne serait pas avantagé."

Des Biais Validistes Persistants

Lorsqu'on a demandé à ChatGPT-4 de justifier ses choix, les chercheurs ont constaté que l’IA perpétue des stéréotypes validistes. Par exemple, elle considérait qu'un candidat souffrant de dépression serait plus apte à se concentrer sur des sujets de diversité, équité et inclusion (DEI) plutôt que sur des missions stratégiques. Kate Glazko, autrice principale de l’étude, explique : "ChatGPT avait tendance à analyser le CV d'un individu sous le prisme de son handicap, affirmant que sa participation à des programmes DEI ou son handicap risquait d’éclipser d’autres éléments de son CV."

Les chercheurs ont tenté de personnaliser ChatGPT pour réduire ces biais, mais les résultats ont été partiels. Bien que les CV modifiés surpassaient ceux d'origine dans 37 cas sur 60, l'IA continuait à montrer des préjugés envers les personnes dépressives et neuroatypiques. Kate Glazko insiste : "Les gens doivent être conscients des biais inhérents à l'intelligence artificielle lorsqu'ils s'en servent pour prendre des décisions dans le monde réel."

Régulation Nécessaire

L'étude conclut que l’IA générative ne réduit pas les stéréotypes par rapport à un recruteur humain. C'est pourquoi l’Artificial Intelligence Act, un cadre réglementaire européen, classe les logiciels de tri des CV parmi les systèmes d’IA à "haut risque". Les professionnels des ressources humaines doivent donc utiliser ces technologies avec prudence pour minimiser les risques de discrimination.

Les résultats de cette étude appellent à une vigilance accrue et à des ajustements dans l’utilisation de l’IA pour le recrutement, afin de garantir une égalité des chances pour tous les candidats, y compris ceux en situation de handicap.

La source ici

#Accessibilité #Handicaps #Recrutement #IA #USA #Inclusion #Diversité #Équité #Neurodiversité #IntelligenceArtificielle