Suicide d'adolescents: la FTC ouvre une enquête sur les chatbots utilisés comme confidents et compagnons par les mineurs

L'application ChatGPT sur un iPhone. - MATTHIAS BALK / DPA / dpa Picture-Alliance via AFP
L'agence américaine de protection des consommateurs, la FTC, a indiqué jeudi avoir ouvert une enquête sur les chatbots utilisés comme des compagnons d'intelligence artificielle (IA) générative, tels ChatGPT ou Grok, après la plainte récente contre OpenAI liée au suicide d'un adolescent californien.
La FTC a transmis une demande d'information à sept sociétés proposant des chatbots accessibles au grand public, à savoir OpenAI, Alphabet, Character.AI, Instagram, Meta, Snap et xAI. Toutes proposent leur propre version d'un assistant IA généraliste.
La requête concerne la façon dont ces entreprises "mesurent, testent et surveillent les potentiels effets négatifs de cette technologie sur les enfants et les adolescents", a précisé l'agence dans un communiqué.
Surveiller l'impact des chatbots sur les enfants
Fin août, les parents d'Adam Raine, adolescent qui s'est suicidé en avril à l'âge de 16 ans, ont porté plainte contre OpenAI, accusant ChatGPT d'avoir donné à leur fils des instructions détaillées pour passer à l'acte. Dans la foulée du dépôt de la plainte, OpenAI a annoncé travailler à des actions correctives.
Le groupe de San Francisco dit notamment avoir constaté que lorsque l'échange avec ChatGPT se prolonge, le chatbot ne suggère plus systématiquement de contacter un service d'aide psychologique si l'internaute évoque des pensées suicidaires.
La FTC dit s'intéresser "en particulier à l'impact qu'ont ces chatbots sur les enfants et sur les actions prises par les entreprises" pour les protéger, "limiter l'accès" des mineurs à ces compagnons IA.
L'agence veut également s'assurer qu'elles respectent le Children's Online Privacy Protection Act, une loi votée en 1998 par le Congrès qui encadre le recueil et l'utilisation des données personnelles d'enfants de moins de 13 ans sur internet.
Un nombre croissant de jeunes internautes utilise les assistants IA de nouvelle génération comme compagnon virtuel, y cherchant parfois un soutien psychologique, même si ces chatbots n'ont pas été conçus à cette fin.
En octobre 2024, une mère de Floride avait mis en cause Character.AI, jugeant que son chatbot avait laissé la santé mentale de son fils, au cours de longs échanges sur plusieurs mois, se détériorer sans lui recommander de chercher de l'aide psychologique. L'adolescent de 14 ans s'était suicidé quelques minutes après une dernière conversation évoquant clairement son passage à l'acte.