Pour Microsoft, les fausses réponses de l'IA sont "utilement fausses"
Mauvaise foi ou exercice de transparence? Microsoft qui a intégré GPT-4 dans sa dernière version de Bing et développe de nouveaux outils dans ses logiciels, avec Copilot doit aussi faire face aux critiques dénonçant des erreurs factuelles produites par l'intelligence artificielle (IA). Mais pour Microsoft, elles sont "utilement fausses", rapporte CNBC.
Le 16 mars, Microsoft a présenté Copilot, une technologie dotée d'une IA de type ChatGPT, capable de générer par exemple des PowerPoint de manière autonome et en quelques secondes à partir d'un simple document ou d'envoyer des mails.
Lors de la présentation, les dirigeants de Microsoft ont évoqué les limites du logiciel: produire des réponses inexactes, et ont choisi de présenter cette faille comme quelque chose d'utile.
Selon Microsoft, l'outil permet à l'utilisateur de gagner du temps, il doit juste faire très attention et s'assurer que le texte ne contient pas d'erreurs. Les utilisateurs peuvent eux-mêmes corriger les inexactitudes, modifier des paragraphes ou demander à l'IA de corriger certaines parties.
Inquiétude des chercheurs
Sauf que cette approche inquiète des chercheurs spécialistes des nouvelles technologies. Ils craignent que les utilisateurs ne fassent trop confiance à l'IA en prenant au pied de la lettre tout ce qui est écrit, notamment sur des questions sensibles et importantes comme la santé.
Jaime Teevan, le responsable scientifique et technique de Microsoft, a précisé à CNBC que si Copilot "se trompe, a des préjugés ou est mal utilisé", Microsoft a mis en place des mesures.
Microsoft ne testera, dans un premier temps, le logiciel qu'avec 20 entreprises clientes afin de travailler son application réelle. "Nous allons faire des erreurs, mais nous les corrigerons rapidement", a assuré le responsable scientifique.