Tech&Co Intelligence artificielle
Intelligence artificielle

Microsoft explique pourquoi ChatGPT peut parfois insulter les utilisateurs de Bing

placeholder video
L'entreprise publie une note de blog pour faire un premier point, une semaine après l'ouverture d'un accès anticipé à une nouvelle version de son moteur de recherche Bing, dopé à l'IA.

En quelques jours, Microsoft a propulsé l'intelligence artificielle ChatGPT dans une nouvelle dimension, en l'intégrant à son moteur de recherche Bing. Grâce à un partenariat avec l'entreprise OpenAI, Microsoft propose pour une poignée d'utilisateurs un outil reprenant les mêmes fonctions que ChatGPT, à savoir la capacité d'écrire des textes ou de répondre à toutes sortes de questions d'un internaute. Après des débuts plus compliqués que prévus, Microsoft fait un premier bilan, revenant sur les raisons pour lesquelles le logiciel peut dérailler.

Tandis que les réponses de ChatGPT (accessible librement en ligne) sont très encadrées par l'équipe d'OpenAI, la version du système adaptée au moteur de recherche de Microsoft semble plus débridée. Au cours des derniers jours, de nombreux internautes ayant conversé avec l'intelligence artificielle ont rapporté un comportement parfois étonnant.

Pas plus de quinze questions

Dans certains cas, ChatGPT, version Bing, a répondu aux internautes par des informations erronées, insultant ces derniers lorsqu'ils tentaient de les corriger. Dans d'autres, l'intelligence artificielle a tout simplement raconté avoir espionné les équipes de Microsoft en s'introduisant dans leurs webcams.

Sur son site, Microsoft explique avoir découvert que le risque que l'intelligence artificielle conversationnelle augmente rapidement avec le temps. Ainsi, une session d'échange de plus de quinze questions avec la machine peut provoquer des réponses qui ne sont pas conformes à ce que l'on pourrait attendre, estime l'entreprise. Ainsi, un bouton permettant de réinitialiser une conversation pourrait prochainement faire son apparition.

Microsoft revient par ailleurs sur la tonalité, parfois agressive ou insultante, employée par son intelligence artificielle. "Le système tente parfois de répondre avec la même tonalité que l'interlocuteur" indique ainsi l'entreprise, qui assure que le problème ne touche qu'une minorité d'utilisateurs. Le travail pour rendre sa version de ChatGPT plus fiable que lors des précédentes tentatives de démocratisation d'un chatbot semble encore loin d'être terminé.

https://twitter.com/GrablyR Raphaël Grably Rédacteur en chef adjoint Tech & Co