Tech&Co Intelligence artificielle
Intelligence artificielle

OpenAI a développé un outil pour détecter les textes d'IA mais hésite encore à le dévoiler

placeholder video
De plus en plus répandue, l'IA pour imaginer des textes peut être détectée avec un outil d'OpenAI... si l'entreprise se décide à le sortir publiquement.

Avec les avancées de l'intelligence artificielle générative, créer un texte de toute pièce s'avère être un jeu d'enfant. Lettres de motivation, présentation d'un sujet, création de dissertations, voire même de romans, la crédibilité d'un texte, si celui-ci est néanmoins retouché, peut s'avérer difficile à remettre en cause.

L'écosystème de l'IA en question

Des logiciels pour détecter les plagiats par l'IA existent, mais selon le Wall Street Journal, OpenAI, à qui l'on doit ChatGPT, dispose de ses propres outils, et n'est visiblement pas prête à le proposer publiquement. A TechCrunch, l'entreprise explique reporter "délibérément" une disponibilité à large échelle de son outil en raison de "son impact probablement sur l'écosystème plus large au-delà d'OpenAI."

En clair, OpenAI a peur que si elle sort son outil, l'ensemble des chaînes de production utilisant l'IA ne s'effondre.

Pour réussir à détecter les textes générés par l'IA, cet outil vient analyser la présence d'une sorte de filigrane (une signature visible ou non à l'oeil nu sur un document numérique) en s'appuyant sur la manière dont ChatGPT modifie les mots pour ensuite créer un texte. La solution n'est donc possible que sur les textes créés par ChatGPT.

Pour l'entreprise américaine, "la méthode de filigrane du texte que nous développons est techniquement prometteuse, mais comporte des risques importants que nous évaluons pendant que nous recherchons des alternatives." Elle a notamment peur que l'outil soit ensuite utilisé "par de mauvais acteurs" et qu'il y ait "un impact disproportionné sur des groupes comme les non-anglophones," précise un porte-parole. Par exemple, en ostracisant ceux qui utilisent l'outil pour des traductions de langues qu'ils ne maitrisent pas.

De plus, elle argue que sa méthode reste encore trop facilement contournable. Il suffit en effet de modifier un peu le texte imaginé par ChatGPT pour que l'outil devienne inopérant.

Et s'il fallait un argument pour ne pas lancer ce système de vérification, OpenAI craint évidemment que son outil soit moins utilisé. Et donc avec une perte de revenus à la fin...

Sylvain Trinel