Les modèles d’IA comme ChatGPT ne représentent pas une menace existentielle pour l’humanité : Décryptage d’une nouvelle étude
Une récente étude met en lumière le fonctionnement des modèles de langage de grande taille, révélant qu’ils sont incapables d’apprendre de manière autonome ou d’acquérir de nouvelles compétences sans intervention humaine. Cette découverte remet en question les craintes largement répandues selon lesquelles ces systèmes pourraient un jour menacer l’existence de l’humanité.
A lire aussi :
- Ce géant prépare un réseau de superordinateurs pour dépasser le cerveau humain !
- Les 10 applications d’IA à absolument découvrir en 2024 pour booster votre productivité !
- Microsoft transforme la défense Américaine avec une technologie de pointe unique au monde !
Les modèles de langage : Des outils puissants mais limités
Les modèles de langage de grande taille (LLM), comme ChatGPT, sont des versions évoluées des modèles de langage pré-entraînés (PLM). Ces modèles sont formés à partir de quantités massives de données provenant du web, ce qui leur permet de comprendre et de générer du langage naturel ainsi que d’autres types de contenu. Cependant, malgré leur capacité impressionnante à effectuer une variété de tâches, une nouvelle étude montre qu’ils ne possèdent pas la capacité d’apprendre ou de développer de nouvelles compétences de manière indépendante. En d’autres termes, ces IA restent dépendantes des instructions humaines pour accomplir des tâches spécifiques.
Les capacités émergentes : Mythe ou réalité ?
Un des aspects fascinants des LLM est leur tendance à exhiber des « capacités émergentes ». Ces performances inattendues, que les modèles n’ont pas explicitement été entraînés à réaliser, ont suscité beaucoup d’intérêt. Par exemple, certaines capacités émergentes incluent la compréhension des situations sociales ou la réalisation de tâches complexes, ce qui pourrait laisser croire que ces modèles commencent à raisonner de manière autonome. Pourtant, l’étude récente indique que ces capacités ne sont pas le fruit d’un véritable raisonnement, mais plutôt le résultat d’une capacité bien connue appelée « apprentissage en contexte » (ICL), où les modèles s’appuient sur des exemples spécifiques pour accomplir des tâches.
L’imprévisibilité des modèles de langage : Une menace exagérée ?
L’imprévisibilité associée aux capacités émergentes des LLM, en particulier alors que ces modèles sont formés sur des ensembles de données de plus en plus vastes, soulève des questions importantes sur la sécurité et la sûreté. Certains craignent que ces capacités émergentes puissent un jour inclure des compétences potentiellement dangereuses, comme le raisonnement ou la planification, qui pourraient représenter une menace pour l’humanité. Cependant, l’étude démontre que les LLM n’ont pas la capacité de maîtriser de nouvelles compétences sans instruction explicite, ce qui signifie qu’ils sont prévisibles, sûrs et contrôlables, bien qu’ils puissent encore être mal utilisés par des individus.
L’avenir des LLM : Plus sophistiqués, mais toujours sous contrôle
À mesure que ces modèles continuent de croître en taille et en sophistication, il est probable qu’ils génèrent un langage de plus en plus précis lorsqu’ils sont confrontés à des prompts détaillés et explicites. Cependant, ils sont très peu susceptibles de développer des capacités de raisonnement complexe. Cette réalité remet en question la narration dominante selon laquelle ce type d’IA pourrait constituer une menace pour l’humanité. Comme l’explique le Dr Harish Tayyar Madabushi, chercheur en informatique à l’Université de Bath, cette perception erronée détourne l’attention des véritables problèmes qui nécessitent notre attention, comme les risques liés à la désinformation ou à la fraude.
Expérimentations et découvertes : Ce que la science révèle vraiment
Pour tester les capacités des LLM à accomplir des tâches qu’ils n’ont jamais rencontrées auparavant, l’équipe de chercheurs, dirigée par le professeur Iryna Gurevych de l’Université technique de Darmstadt en Allemagne, a mené plus de 1 000 expériences. Ils ont découvert que la capacité des LLM à suivre des instructions, leur mémoire et leur compétence linguistique suffisent à expliquer leurs performances, ainsi que leurs limitations. Cette découverte montre que la crainte que ces modèles puissent acquérir des compétences dangereuses, telles que le raisonnement et la planification, est infondée.
Les vraies menaces : Ce qu’il faut vraiment surveiller avec l’IA
Bien que l’étude montre que les craintes concernant les menaces existentielles posées par les LLM soient exagérées, elle ne minimise pas les autres risques associés à l’IA. Le professeur Gurevych souligne que, même si ces modèles ne développent pas de compétences de raisonnement complexe, ils peuvent encore être utilisés pour générer de fausses informations, ce qui représente un risque important pour la société. Les chercheurs insistent sur le fait que l’accent devrait être mis sur la gestion des risques réels posés par ces technologies, plutôt que sur des menaces hypothétiques et non fondées.
Implications pour les utilisateurs : Comment utiliser les LLM en toute sécurité
Pour les utilisateurs finaux, cela signifie qu’il est important de ne pas s’appuyer sur les LLM pour interpréter et exécuter des tâches complexes sans instruction explicite. Au lieu de cela, les utilisateurs devraient fournir des consignes claires et des exemples lorsque cela est possible, surtout pour les tâches les plus complexes. Cela permettra non seulement d’améliorer la précision des résultats, mais aussi de minimiser les risques d’utilisation incorrecte ou de mauvaise interprétation des capacités de l’IA.
BMW remplace les humains par des robots et transforme la manière de construire des voitures
Cet article explore comment les craintes concernant les modèles de langage de grande taille, tels que ChatGPT, sont souvent exagérées, notamment en ce qui concerne leur potentiel à menacer l’humanité. Bien que ces technologies soient puissantes et impressionnantes, elles restent sous le contrôle humain et nécessitent une attention particulière aux véritables risques qu’elles posent, tels que la désinformation et la fraude.
Source : ACL Anthology