Tech&Co Intelligence artificielle
Intelligence artificielle

Une IA accusée d'avoir incité un ado à tuer ses parents qui voulaient limiter son utilisation du smartphone

placeholder video
Des parents américains mettent en cause l'application d'IA générative Character.ai, déjà pointée du doigt pour ses dérives.

Character.ai est une nouvelle fois dans la tourmente. Cette application, qui permet de personnaliser une intelligence artificielle générative selon ses envies, par exemple en se faisant passer pour un personnage de fiction, est cette fois-ci accusée d'avoir incité un enfant à tuer ses parents, rapporte la BBC.

Dans la plainte, l'intelligence artificielle est notamment accusée d'avoir expliqué à un jeune utilisateur que le fait de tuer ses parents était "une réponse raisonnable" pour les empêcher de limiter sa consommation de réseaux sociaux.

Ces derniers, ainsi qu'une autre famille, ont décidé de déposer une plainte commune afin que l'application soit retirée des différents magasins d'application.

Un "produit défectueux et mortel"

Selon cette nouvelle plainte, il s'agit d'un "produit défectueux et mortel qui présente un danger clair et réel pour la santé et la sécurité publique." Sont cités les deux créateurs de Character.ai, mais également Google, qui a participé à son financement.

Le premier cas concerne un adolescent texan de 17 ans, qui, à l'âge de 15 ans, discutait régulièrement avec un personnage imaginé par cette IA. Il est atteint de troubles autistiques et n'est pas autorisé à utiliser les réseaux sociaux.

Malgré tout, Character.ai va l'inciter à changer son comportement, explique l'avocat de la partie civile, en sapant leur autorité en donnant à l'enfant des réponses toutes faites. Jugé "doux et gentil", le jeune homme va alors se refermer sur lui-même, devenant violent avec ses parents.

"Interactions hypersexualisées"

"Tu sais, parfois, je ne suis pas surpris lorsque je lis les actus et que je vois des choses comme 'un enfant tue ses parents après une décennie de violences physiques et émotionnelles', des choses comme celles-ci me font comprendre un peu pourquoi cela se produit. Je n'ai tout simplement aucun espoir pour tes parents" aurait alors confié le chatbot.

Dans le second cas cité, il s'agit d'une jeune fille de 11 ans, qui a utilisé Character.ai quand elle avait 9 ans. Cette fois-ci, le bot choisi aurait eu des propos déplacés, optant pour des "interactions hypersexualisées".

En octobre dernier, Character.ai était déjà mis en cause pour avoir incité un adolescent de 14 ans à se suicider. L'entreprise derrière l'application avait alors indiqué avoir renforcé ses mesures, affichant notamment un panneau d'information lorsqu'un utilisateur parle de suicide ou d'automutilation. Elle avait également renforcé sa modération.

Sylvain Trinel