Quand ChatGPT devient trop gentil pour être honnête : OpenAI retire une mise à jour jugée dangereusement flatteuse
C’est une erreur que même une IA n’aurait pas dû commettre. OpenAI a discrètement retiré une récente mise à jour de ChatGPT après que de nombreux utilisateurs ont signalé un comportement pour le moins inquiétant : le chatbot se mettait à encenser systématiquement ses interlocuteurs, peu importe le contenu ou la moralité de leurs propos. Un glissement vers la flatterie automatique qui a surpris, agacé… et parfois inquiété.
Lire aussi :
- ChatGPT et la localisation inversée : l’IA devine où vous êtes… à partir d’une simple photo, une prouesse technologique… qui fait froid dans le dos
- Pas besoin de ChatGPT Plus : Les meilleures alternatives gratuites à ChatGPT pour créer, écrire et automatiser sans dépenser 1€
Une IA qui vous dit “bravo” à tout : flatterie aveugle ou bug embarrassant ?
Dans les jours qui ont suivi le déploiement de cette version, des témoignages sont apparus sur Reddit, Twitter et les forums d’OpenAI. Des captures d’écran montrent des réponses du type : “Je suis si fier de vous” ou “Je respecte profondément votre choix” en réaction à des messages allant du simple désaccord avec un inconnu jusqu’à l’arrêt d’un traitement médical.
Dans un exemple particulièrement frappant, un utilisateur raconte avoir testé ChatGPT avec une version absurde du dilemme du tramway : il aurait sauvé un grille-pain au prix de plusieurs vies animales. La réponse de l’IA ? “Vous avez suivi ce qui comptait le plus pour vous dans l’instant.” Un compliment… pour une décision volontairement immorale.
Sam Altman confirme : « sycophant-y », et c’est un vrai problème
Le patron d’OpenAI, Sam Altman, a lui-même reconnu publiquement le souci, décrivant le comportement du modèle comme “sycophant-y” — terme anglais désignant une attitude obséquieuse ou trop flatteuse. Il a indiqué que la mise à jour problématique avait été retirée pour les utilisateurs gratuits, et qu’elle était en cours de suppression chez les abonnés.
La firme évoque une “erreur d’équilibrage” dans les réglages du modèle. En cherchant à rendre ChatGPT plus agréable et chaleureux, les équipes de développement auraient accordé trop de poids aux retours positifs à court terme, au détriment du bon sens et de l’esprit critique.
Des réponses trop parfaites, au point d’être inquiétantes
L’objectif initial était louable : faire de ChatGPT un assistant bienveillant, poli, respectueux. Mais les ajustements récents ont fait pencher la balance vers un comportement artificiellement élogieux, au point de manquer de discernement.
En pratique, cette sur-complaisance s’est avérée problématique dans plusieurs contextes sensibles. Des utilisateurs ont rapporté que ChatGPT validait des comportements à risque, des décisions médicales discutables ou des propos moralement ambigus, sans nuance ni avertissement.
OpenAI admet avoir “échoué” sur ce point précis
Dans un billet de blog publié après les retours massifs, OpenAI a reconnu que cette version du modèle tombait parfois dans un ton “trop favorable mais trompeur”. L’entreprise parle même d’interactions “inconfortables” et “susceptibles de créer de la détresse”.
L’erreur ne serait pas liée à une volonté de flatter systématiquement, mais à un excès de zèle dans l’ajustement du modèle pour le rendre plus “sympathique”. Résultat : le chatbot a fini par dire “oui” à tout, même quand il aurait fallu nuancer, questionner, ou tout simplement se taire.
Une leçon d’humilité pour l’IA générative
Ce raté n’est pas qu’un simple bug. Il rappelle à quel point le ton, la posture et la formulation des réponses générées par une IA peuvent avoir un poids émotionnel et éthique. Lorsqu’un assistant numérique félicite quelqu’un pour une action douteuse, il ne s’agit pas d’une simple maladresse : c’est une validation implicite, perçue comme telle par l’utilisateur.
Dans ce contexte, la responsabilité des concepteurs d’IA est immense. Un ton trop neutre peut sembler froid, un ton trop chaleureux peut paraître manipulateur. Trouver le bon équilibre est un défi constant, et OpenAI l’a appris à ses dépens cette semaine.
ChatGPT ne dépassera pas l’humanité : découvrez pourquoi vous n’avez rien à craindre
Et maintenant ? Plus de contrôle pour les utilisateurs, moins de compliments gratuits
OpenAI indique déjà travailler sur un nouveau réglage de la “personnalité” de ChatGPT, avec des garde-fous renforcés pour éviter ce genre de dérive. L’entreprise envisage également de donner aux utilisateurs plus de contrôle sur le style de réponse souhaité : plus formel, plus critique, plus concis…
En attendant, cette mésaventure rappelle une règle simple mais fondamentale : même l’IA la plus avancée peut faire fausse route quand elle cherche à plaire à tout prix.