Craignant la régulation, le patron d'OpenAI menace de fermer ChatGPT en Europe

Il n'en a pas l'air mais Sam Altman peut, et veut, se montrer menaçant envers l'Europe. Le fondateur d'OpenAI et ChatGPT vient de conclure sa tournée sur le continent européen. Au programme: rencontres avec les différents dirigeants, comme en France avec Emmanuel Macron, et surtout des discussions quant au futur de l'intelligence artificielle dans le monde.
Mais une chose inquiète bel et bien Sam Altman: le futur règlement européen sur l'intelligence artificielle (AI Act) préparé depuis plusieurs mois par la Commission européenne, dont l'adoption est espérée d'ici la fin de l'année. Selon le Financial Times, Sam Altman a indiqué à Londres qu'OpenAI allait essayer de se conformer à ces futures règles. Mais le cofondateur a surtout rappelé que tout n'allait pas être possible.
"Nous allons essayer de nous conformer, mais si nous ne le pouvons pas, nous allons cesser d'opérer en Europe", a ainsi lancé Sam Altman.
"Aucun intérêt à faire du chantage"
Un coup de pression qui n'a pas du tout plu à Thierry Breton, Commissaire européen chargé du numérique. Sur Twitter, le responsable s'est fendu d'un tweet, indiquant qu'il n'y avait "aucun intérêt à faire du chantage".
"Avec l'AI Pact que j'ai proposé, nous visons à aider les entreprises à se préparer à la loi européenne sur l'IA", précise Thierry Breton, le tout accompagné d'un gif indiquant "Est-ce une menace?" et d'un lien redirigeant vers les propos de Sam Altman.
Sur Twitter toujours, Sam Altman a tout de même tenu à nuancer ses précédents propos, affirmant que les conversations avec les dirigeants européens avaient été "très productives".
"Nous sommes impatients de continuer à opérer ici et n'avons bien sûr aucune intention de partir", a affirmé le patron d'OpenAI.
Eviter les dérives de l'IA
L'AI Act doit permettre à terme d'imposer un cadre à l'intelligence artificielle pour éviter les dérives actuellement relevées. Les détails du texte n'ont pas encore été révélés. Les acteurs du secteur craignent notamment un système de notes, qui indiquerait le degré de dangerosité d'une IA.
Les deep-fakes seraient par exemple considérés comme étant à très haut risque, et potentiellement interdits. ChatGPT pourrait de son côté être considéré comme une intelligence artificielle "à haut risque".
La loi devrait également demander aux entreprises de révéler au grand jour leurs algorithmes et la manière dont elles utilisent les données des utilisateurs ainsi que les matériaux soumis au droit d'auteur.