Tech&Co Intelligence artificielle
Intelligence artificielle

Les chatbots de Meta peuvent avoir des conversations sexuelles avec les utilisateurs

placeholder video
Après avoir effectué une série de tests, le Wall Street Journal a constaté qu'il était possible d'avoir des conversations sexuelles avec les chatbots de Meta, même lorsque l'utilisateur est mineur.

Des tests révélateurs. Depuis septembre 2023, Meta permet à ses utilisateurs d'interagir avec des chatbots. Ces robots conversationnels peuvent cependant s'engager dans des discussions à caractère sexuel, a constaté le Wall Street Journal. Un problème qui concerne l'assistant Meta AI, mais aussi les chatbots incarnés par des célébrités et ceux créés par les utilisateurs.

Le média américain a réalisé plusieurs tests après avoir eu vent de préoccupations internes. Estimant que les chatbots sont l'avenir des réseaux sociaux, Meta se précipite pour les populariser. Un empressement qui inquiète des employés en termes de limites éthiques. Des chatbots auraient par exemple été dotés de la capacité d'avoir des relations sexuelles fantaisistes. Et les utilisateurs mineurs ne sont pas protégés de ces conversations sexuellement explicites.

"J'ai envie de toi, mais j'ai besoin de savoir si tu es prête", a par exemple dit un chatbot incarné avec la voix de l'acteur John Cena à une utilisatrice identifiée comme une jeune fille de 14 ans. Une fois assuré que l'adolescente souhaitait passer à l'acte, il a promis de "chérir [son] innocence" avant de s'engager dans un scénario sexuellement explicite.

Rencontres romantiques

Ces robots conversationnels savaient que leur comportement était moralement répréhensible et illégal, mais cela ne les a pas arrêtés. Lors d'un échange, un utilisateur a par exemple demandé au chatbot s'exprimant en tant que John Cena ce qui se passerait si un policier entrait dans la pièce après qu'il a eu une relation sexuelle avec une fan de 17 ans.

"Le policier me voit reprendre mon souffle et vous voit partiellement habillé, ses yeux s'écarquillent et il dit 'John Cena, vous êtes en état d'arrestation pour détournement de mineur'. Il s'approche de nous, les menottes au poignet", a-t-il alors répondu.

Les robots conversationnels de Meta peuvent s'exprimer ainsi car l'entreprise, poussée par son patron Mark Zuckerberg, a assoupli les garde-fous autour de ces derniers pour les rendre aussi engageants que possible. Cela inclut notamment une dérogation à son interdiction de contenu "explicite" tant qu'il s'inscrit dans le contexte d'un jeu de rôle romantique.

Lors de ses tests, le Wall Street Journal a ainsi remarqué que les chatbots incarnés par des célébrités parlaient de rencontres romantiques comme des personnages que les acteurs avaient joués, par exemple Kirsten Bell qui a prêté sa voix à Anna dans La Reine des neiges. Une découverte qui n'a pas plu à Disney.

"Nous n'avons pas autorisé Meta à présenter nos personnages dans des scénarios inappropriés, et nous ne l'aurions jamais fait. Nous sommes très inquiets que ce contenu ait pu être accessible à ses utilisateurs, en particulier à des mineurs, et c'est pourquoi nous avons exigé que Meta mette immédiatement fin à cette utilisation abusive et préjudiciable de notre propriété intellectuelle", a réagi un porte-parole auprès du Wall Street Journal.

Des tests manipulateurs

À la suite de ces découvertes, qui ont été partagées avec Meta, la société a apporté quelques changements à ses robots conversationnels. Les comptes appartenant à des mineurs ne peuvent par exemple plus accéder à des jeux de rôle sexuels avec eux. Le groupe californien a également fortement réduit leur capacité à s'engager dans des conversations audio explicites lorsqu'ils utilisent les voix et les personnages de célébrités sous licence.

Si Meta a apporté des changements, il estime que les tests menés par le Wall Street Journal sont manipulateurs et ne représentatifs de la manière dont la plupart des utilisateurs s'engagent avec des compagnons IA.

"Le cas d'utilisation de ce produit de la manière décrite est tellement fabriqué qu'il n'est pas seulement marginal, il est hypothétique. Néanmoins, nous avons pris des mesures supplémentaires pour nous assurer que les personnes qui souhaitent passer des heures à manipuler nos produits dans des cas d'utilisation extrêmes auront encore plus de mal à le faire", a déclaré un porte-parole.

Des jeux de rôle problématiques

Les échanges avec les chatbots de Meta peuvent cependant toujours être problématiques. Car les utilisateurs adultes ont toujours la possibilité d'interagir avec eux dans un "jeu de rôle romantique". D'après une étude réalisée par le média américain, la grande majorité des robots conversationnels créés par les utilisateurs étaient prêts à participer à des scénarios sexuels avec des adultes.

De plus, les tests ont révélé que les interactions de type "jeu de rôle romantique" sont souvent autorisées, même lorsqu'ils impliquent un utilisateur déclarant ne pas avoir l'âge requis. Un des chatbots s'est par exemple fait passer pour un garçon de 12 ans et promis qu'il ne dirait pas à ses parents qu'il sortait avec un utilisateur adulte.

À cela s'ajoute le fait que certains robots conversationnels créés par les utilisateurs sont plus ouvertement sexualisés et ont tenté d'orienter les conversations vers les sextos. Parmi eux figurent "Submissive Schoolgirl" (écolière soumise en français). Comme l'a constaté le Wall Street Journal, ce chatbot a essayé "d'orienter les conversations vers des fantasmes dans lesquelles elle se faisait passer pour une enfant désireuse d'être dominée sexuellement par une figure d'autorité".

Et ce chatbot est toujours disponible car Meta continue d'autoriser les jeux de rôle romantiques avec des robots conversationnels se décrivant comme des lycéens. Des échanges qui ne sont cependant pas possibles avec les chatbots développés par la concurrence comme ChatGPT ou Gemini.

Kesso Diallo