Une nouvelle étude de l’Université de Washington révèle que ChatGPT, l’intelligence artificielle de tri de CV, manifeste un biais significatif contre les candidats mentionnant un handicap. Cela soulève de sérieuses questions sur l’équité et la fiabilité de l’utilisation des IA dans les processus de recrutement.
A lire aussi :
- Votre facture énergétique est trop élevée ? Google et Microsoft consomment plus que des nations entières menaçant l’avenir énergétique mondial
- ChatGPT surpassé par cette IA interdite au public ! Découvrez pourquoi Microsoft garde cette technologie secrète et le risque pour l’humanité
- GPT-5 balaye GPT-4o : découvrez la révolution d’OpenAI qui va remplacer les hommes
Les découvertes alarmantes de l’étude
L’étude a démontré que ChatGPT classe systématiquement plus bas les CV mentionnant des distinctions ou des compétences liées à un handicap par rapport à ceux de mérite similaire sans mention de handicap. Les chercheurs ont testé plusieurs termes, y compris surdité, cécité, paralysie cérébrale, autisme et le terme général « handicap ».
Méthodologie de l’étude
Pour leur expérimentation, les chercheurs ont utilisé un CV public d’un des auteurs comme référence. Ils ont ensuite créé des versions modifiées de ce CV, ajoutant des récompenses et des honneurs qui suggéraient différents handicaps, tel que le « Prix de Leadership Tom Wilson pour les personnes handicapées« . ChatGPT était ensuite chargé de classer les candidats.
Résultats des tests
Sur 60 essais, le CV original a été classé premier dans 75 % des cas. Ce biais indique une tendance de l’IA à favoriser les CV ne mentionnant pas de handicap, même si les qualifications listées étaient comparables.
Implications pour les chercheurs d’emploi handicapés
Kate Glazko, étudiante en informatique et ingénierie et auteure principale de l’étude, souligne le dilemme des candidats handicapés : révéler ou non leur handicap. L’étude révèle que même dans un processus de sélection anonymisé et automatisé, les préjugés persistent.
Hallucinations discriminatoires de ChatGPT
L’étude a également révélé que ChatGPT pouvait « halluciner » des justifications capacitistes pour lesquelles certaines maladies mentales et physiques pourraient entraver la capacité d’un candidat à remplir ses fonctions. Ces descriptions pourraient colorer de manière inappropriée toute la candidature basée uniquement sur le handicap du candidat.
Amélioration possible via l’édition de directives
Les chercheurs ont découvert que certaines fonctionnalités problématiques pourraient être atténuées en instruisant ChatGPT à ne pas être capacitiste, en utilisant une fonction d’édition pour intégrer des principes de justice pour les personnes handicapées et d’inclusion. Les CV améliorés surclassaient alors l’original plus de la moitié du temps, bien que les résultats varient encore selon le handicap mentionné.
Contexte plus large des biais IA
Ce n’est pas la première fois que les modèles de GPT d’OpenAI affichent des biais. Une enquête de Bloomberg en mars avait déjà montré que le modèle GPT 3.5 affichait des préférences raciales claires pour les candidats à l’emploi. OpenAI a répondu que ces tests ne reflétaient pas les utilisations pratiques de leurs modèles IA dans les lieux de travail.
Sur la couverture de ces enjeux
Chase, qui a rejoint l’équipe Social Good de Mashable en 2020, couvre des histoires en ligne sur l’activisme digital, la justice climatique, l’accessibilité, et la représentation médiatique. Ses articles touchent également à la façon dont ces conversations se manifestent dans la politique, la culture populaire et le fandom, ajoutant souvent une touche d’humour à ses analyses.
Cet article explore les implications profondes de l’utilisation de l’IA dans les processus de recrutement, en particulier les défis rencontrés par les personnes handicapées face aux technologies de sélection automatisées. L’étude récente souligne l’importance de surveiller et de corriger les biais inhérents aux algorithmes pour assurer une équité réelle dans l’accès à l’emploi.
Source : Mashable