AccueilActualitésL'intelligence artificielle hors de contrôle : des employés dénoncent ce que les...

L’intelligence artificielle hors de contrôle : des employés dénoncent ce que les géants de la tech ne veulent pas que vous sachiez !

Découvrez pourquoi des anciens salariés de géants de la tech veulent alerter sur les risques des IA !

Une lettre ouverte signée par des anciens salariés d’OpenAI et de Google DeepMind réclame la possibilité d’exprimer leurs préoccupations sur les dangers des IA les plus avancées. Certains signataires sont restés anonymes par peur de possibles représailles. Le texte est également soutenu par des figures éminentes comme Yoshua Bengio, Geoffrey Hinton et Stuart Russell. Cette initiative vise à sensibiliser le public et les autorités sur les risques potentiels liés à l’intelligence artificielle.

A lire aussi :

Des voix issues de grandes entreprises

Mardi, un petit groupe d’anciens salariés d’OpenAI a publié un texte sur le site Right to Warn. Leurs signatures sont accompagnées de celles de Ramana Kumar, un ancien de Google DeepMind, et de Neel Nanda, ancien d’Anthropic actuellement en poste chez Google DeepMind. Cette lettre arrive dans un contexte particulier, seulement quinze jours après que l’équipe chargée de contrôler les IA chez OpenAI a quitté l’entreprise, affirmant ne pas avoir reçu les moyens nécessaires pour travailler efficacement.

La gestion des critiques chez OpenAI

OpenAI a été accusé d’éviter toute critique de ses anciens employés en leur imposant la signature d’un accord de confidentialité (NDA) qui leur interdit de critiquer l’entreprise. Cette politique de confidentialité limite la capacité des anciens employés à partager leurs préoccupations et observations sur les risques liés aux technologies d’intelligence artificielle développées par OpenAI. Les NDA créent un environnement où les employés actuels et anciens se sentent muselés.

Les risques identifiés par les anciens salariés

Dans leur texte, ces ingénieurs expliquent être en position de comprendre les risques posés par ces technologies : « ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité ». Ils espèrent que ces risques pourront être atténués de manière adéquate si la communauté scientifique, les décideurs politiques et le public fournissent des orientations suffisantes.

La nécessité d’un contrôle gouvernemental

Les signataires ajoutent que « les entreprises d’IA ont de fortes incitations financières à éviter une surveillance efficace, et nous ne pensons pas que les structures de gouvernance d’entreprise habituelles soient suffisantes pour changer cette situation ». Pour eux, tant qu’il n’y aura pas de contrôle gouvernemental efficace de ces entreprises, les employés actuels et anciens sont parmi les rares personnes qui peuvent les mettre devant leurs responsabilités publiquement.

Dénonciation des accords de confidentialité

Ils demandent donc aux entreprises d’IA de s’engager à : ne plus signer d’accords de confidentialité qui empêchent toute critique des risques liés à l’intelligence artificielle, créer un processus anonymisé de remontée des préoccupations, soutenir une culture de la critique ouverte, et s’engager à ne pas aller à l’encontre d’employés partageant publiquement des informations confidentielles liées à des risques si d’autres processus ont échoué avant. Ce texte est soutenu par des personnalités influentes dans le domaine de l’IA, ce qui lui confère une portée considérable.

Un appel à la transparence et à la protection

Cette lettre arrive pourtant tard alors que Timnit Gebru et Margaret Mitchell ont été licenciées par Google fin 2020 et début 2021. Elles travaillaient alors sur la publication de leur article scientifique prévenant déjà des dangers des grands modèles de langage, outils sur lesquels se base l’IA générative. Interrogée par Ars Technica, Margaret Mitchell, qui travaille maintenant chez Hugging Face, témoigne de la difficulté de lancer l’alerte dans l’industrie de l’IA.

L’IA de Nvidia bouleverse le gaming : découvrez la nouvelle révolution du jeu vidéo qui va vous choquer !

Un besoin urgent de réforme

Même si ses préoccupations concernant les dangers des IA ne sont pas les mêmes que celles des auteurs de la lettre, Margaret Mitchell estime que les préoccupations soulevées par la lettre soulignent le besoin urgent d’une plus grande transparence, d’un meilleur contrôle et d’une meilleure protection pour les employés qui dénoncent les risques potentiels. Elle ajoute que les lois qui soutiennent de manière disproportionnée les pratiques injustes des grandes entreprises au détriment des travailleurs doivent être modifiées significativement pour permettre un environnement de travail plus équitable et sécurisé.

Said Laribi
Said Laribi
Depuis que j'ai découvert l'informatique avec mon premier Packard Bell sous Windows 95, ma passion pour la technologie et les jeux vidéo n'a cessé de grandir. Cette passion m'a naturellement conduit à poursuivre des études en marketing digital et en commerce, couronnées par un Master spécialisé en entrepreneuriat. Toujours à l'affût des dernières innovations et tendances, je scrute en permanence l'actualité technologique. Mon objectif ? Vous offrir des articles captivants et informatifs sur les évolutions palpitantes de notre époque.