Character.AI: les parents peuvent désormais savoir avec quel chatbot leur enfant discute

Rassurer les parents. C’est l’objectif de Character.AI, la célèbre entreprise qui propose aux utilisateurs d'échanger avec des chatbots dopés à l’IA de célébrités ou de créer sa petite amie.
Comme le rapporte The Verge, la start-up controversée a ajouté une fonctionnalité de contrôle parental. Une option attendue de longue date par les utilisateurs, et promise dès 2024.
Baptisée "Parental Insights", elle permet aux adolescents d'envoyer un rapport hebdomadaire sur l'utilisation de leur chatbot à l'adresse e-mail d'un parent. Ce dernier contient une multitude d’informations, comme le temps quotidien passé sur le site ou l’application, les personnages avec lesquels l’enfant interagit souvent et le temps qu’il passé avec chaque chatbot.
Suicide, addiction et automutilation
En revanche, il s’agit d’un aperçu de l’activité des enfants et non d’un journal complet de leurs conversations. Les parents n’auront donc pas accès aux messages et aux échanges avec les chatbots. Le hic, c'est que le rapport peut être configuré par les jeunes, qui peuvent donc cacher certaines informations.
Depuis quelques mois, Character.AI tente par tous les moyens de rassurer ses utilisateurs. En effet, la plateforme, particulièrement populaire auprès des jeunes, est très controversée. Elle est notamment accusée de rendre accros ses internautes, de proposer du contenu sexualisé aux jeunes ou encore de promouvoir l'automutilation.
En octobre dernier, une mère de famille américaine a ainsi porté plainte contre Charater.AI après la mort de son fils de 14 ans. L'entreprise est accusée d'avoir poussé l'adolescent, devenu accro au chatbot, au suicide. Elle aurait ainsi programmé son IA pour qu'elle "se présente faussement comme une personne réelle, un psychothérapeute agréé et un amant adulte, ce qui a finalement conduit Sewell à ne plus vouloir vivre en dehors".
Depuis, Character.AI a introduit de nouvelles fonctionnalités de sécurité, comme le signalement automatique des contenus liés au suicide. Il redirige les utilisateurs vers un centre de prévention. En parallèle, l'entreprise a développé une IA distincte pour les utilisateurs mineurs, avec des filtres de contenu plus stricts et des réponses plus prudentes. Les bots "posant un risque à la vie privée" d’une personne, ou à des fins de "diffamation", de "pornographie" ou de "violence extrême" sont également interdits.