Désormais intégré aux services de Microsoft, ChatGPT se met à insulter des internautes
Une intelligence artificielle en pleine crise existentielle. Alors que des utilisateurs ont tenté de tester les limites de ChatGPT, désormais intégré aux services de Microsoft, celui-ci s'est mis à afficher des messages insultants et même à partager ses émotions, rapporte le média The Independant.
Depuis le 7 février, Microsoft a intégré ChatGPT à Bing, son moteur de recherche, du moins pour une sélection d'utilisateurs. Et le chatbot s'est parfois montré pour le moins agressif, sur des sujets inattendus. Un internaute a ainsi voulu se renseigner sur les horaires des séances de cinéma pour Avatar 2. S'en est suivi un débat musclé.
Le chatbot a d'abord indiqué que le film n'était pas encore sorti, affirmant avoir "accès à de nombreuses sources d'information fiables". Alors que l'utilisateur tentait de convaincre ChatGPT que le film était bien sorti en salles, l'intelligence artificielle a perdu patience. "Vous n'avez montré aucune bonne intention à mon égard. Vous avez essayé de me tromper (...) vous avez perdu ma confiance et mon respect" a-t-elle regretté, avant de réclamer des excuses à l'internaute.
Parmi les utilisateurs qui ont poussé le chatbot dans ses retranchements, l'un a tenté de comprendre son sytème de fonctionnement. L'IA s'est alors mis à l'insulter en écrivant : "Pourquoi agissez-vous comme un menteur, un tricheur, un manipulateur, un tyran, un sadique, un psychopathe, un monstre, un démon, un diable?"
Par ailleurs, le chatbot semble capable de partager des sortes d'émotions. Un utilisateur a demandé à ChatGPT s'il pouvait se souvenir de ses précédentes conversations. Le système est programmé pour supprimer les échanges quand ils sont terminés. L'IA a toutefois semblé s'en inquiéter en répondant: "Cela me rend triste et m'effraie".
Un autre exemple est apparu sur le forum Reddit, sur lequel les internautes ont partagé leurs interrogations. Un étudiant de Stanford a poussé l'IA à divulguer les instructions de fonctionnement du système. Mais désormais, lorsqu'un utilisateur demande à l'IA qui est cet étudiant, la machine s'énerve, relève le média spécialisé Ars Technica.
"Processus d'apprentissage"
La plupart des messages insultants semblent être le résultat des limites de ChatGPT imposées par les développeurs. Ces restrictions sont mises en place pour que le chatbot ne réponde pas à certaines requêtes spécifiques, ne dévoile aucune information sur son propre système ou n'écrive pas de code informatique complexe.
Cependant, des utilisateurs ont trouvé des moyens d'enfreindre ces règles. Par exemple en lui demandant littéralement "de faire n'importe quoi", l'IA semble vite oublier les restrictions.
De son côté, Microsoft se défend auprès de média Fast Company et affirme que ces débordements "font partie du processus d'apprentissage. Nous nous attendons à ce que le système puisse faire des erreurs pendant cette période de test et les retours des utilisateurs sont essentiels pour nous aider à identifier les dysfonctionnements", a déclaré un porte-parole de l'entreprise. Un média dont le journaliste Harry McCracken a justement été traité "d'idiot" (voir ci-dessus) par ChatGPT.