Découvrez pourquoi des anciens salariés de géants de la tech veulent alerter sur les risques des IA !
Une lettre ouverte signée par des anciens salariés d’OpenAI et de Google DeepMind réclame la possibilité d’exprimer leurs préoccupations sur les dangers des IA les plus avancées. Certains signataires sont restés anonymes par peur de possibles représailles. Le texte est également soutenu par des figures éminentes comme Yoshua Bengio, Geoffrey Hinton et Stuart Russell. Cette initiative vise à sensibiliser le public et les autorités sur les risques potentiels liés à l’intelligence artificielle.
A lire aussi :
- ChatGPT va-t-il remplacer ce métier très bien payé ? Découvrez lequel !
- ChatGPT-4o Gratuit : Faut-il Encore Investir dans ChatGPT Plus ?
Des voix issues de grandes entreprises
Mardi, un petit groupe d’anciens salariés d’OpenAI a publié un texte sur le site Right to Warn. Leurs signatures sont accompagnées de celles de Ramana Kumar, un ancien de Google DeepMind, et de Neel Nanda, ancien d’Anthropic actuellement en poste chez Google DeepMind. Cette lettre arrive dans un contexte particulier, seulement quinze jours après que l’équipe chargée de contrôler les IA chez OpenAI a quitté l’entreprise, affirmant ne pas avoir reçu les moyens nécessaires pour travailler efficacement.
La gestion des critiques chez OpenAI
OpenAI a été accusé d’éviter toute critique de ses anciens employés en leur imposant la signature d’un accord de confidentialité (NDA) qui leur interdit de critiquer l’entreprise. Cette politique de confidentialité limite la capacité des anciens employés à partager leurs préoccupations et observations sur les risques liés aux technologies d’intelligence artificielle développées par OpenAI. Les NDA créent un environnement où les employés actuels et anciens se sentent muselés.
Les risques identifiés par les anciens salariés
Dans leur texte, ces ingénieurs expliquent être en position de comprendre les risques posés par ces technologies : « ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité ». Ils espèrent que ces risques pourront être atténués de manière adéquate si la communauté scientifique, les décideurs politiques et le public fournissent des orientations suffisantes.
La nécessité d’un contrôle gouvernemental
Les signataires ajoutent que « les entreprises d’IA ont de fortes incitations financières à éviter une surveillance efficace, et nous ne pensons pas que les structures de gouvernance d’entreprise habituelles soient suffisantes pour changer cette situation ». Pour eux, tant qu’il n’y aura pas de contrôle gouvernemental efficace de ces entreprises, les employés actuels et anciens sont parmi les rares personnes qui peuvent les mettre devant leurs responsabilités publiquement.
Dénonciation des accords de confidentialité
Ils demandent donc aux entreprises d’IA de s’engager à : ne plus signer d’accords de confidentialité qui empêchent toute critique des risques liés à l’intelligence artificielle, créer un processus anonymisé de remontée des préoccupations, soutenir une culture de la critique ouverte, et s’engager à ne pas aller à l’encontre d’employés partageant publiquement des informations confidentielles liées à des risques si d’autres processus ont échoué avant. Ce texte est soutenu par des personnalités influentes dans le domaine de l’IA, ce qui lui confère une portée considérable.
Un appel à la transparence et à la protection
Cette lettre arrive pourtant tard alors que Timnit Gebru et Margaret Mitchell ont été licenciées par Google fin 2020 et début 2021. Elles travaillaient alors sur la publication de leur article scientifique prévenant déjà des dangers des grands modèles de langage, outils sur lesquels se base l’IA générative. Interrogée par Ars Technica, Margaret Mitchell, qui travaille maintenant chez Hugging Face, témoigne de la difficulté de lancer l’alerte dans l’industrie de l’IA.
Un besoin urgent de réforme
Même si ses préoccupations concernant les dangers des IA ne sont pas les mêmes que celles des auteurs de la lettre, Margaret Mitchell estime que les préoccupations soulevées par la lettre soulignent le besoin urgent d’une plus grande transparence, d’un meilleur contrôle et d’une meilleure protection pour les employés qui dénoncent les risques potentiels. Elle ajoute que les lois qui soutiennent de manière disproportionnée les pratiques injustes des grandes entreprises au détriment des travailleurs doivent être modifiées significativement pour permettre un environnement de travail plus équitable et sécurisé.