Tech&Co Intelligence artificielle
Intelligence artificielle

OpenAI: son contrôle parental pour ChatGPT largement décrié et même vu comme un moyen de se dédouaner

placeholder video
De nombreux utilisateurs et professionnels critiquent le nouvel outil d'OpenAI, ainsi que les changements mis en place depuis début septembre pour mieux protéger les enfants interagissant avec ChatGPT.

À peine lancé, le contrôle parental d'OpenAI pour ChatGPT suscite de nombreuses critiques. Cette fonction est au coeur des efforts de la start-up pour tenter de mieux protéger les enfants, et a été annoncée après le suicide d'un adolescent, dont les parents accusent le célèbre chatbot de l'avoir encouragé à passer à l'acte.

Ce contrôle parental inclut notamment des notifications de sécurité pour avertir les parents lorsque des signes de détresse aigüe chez un enfant sont détectés. Mais pour certaines personnes, ce n'est pas assez. C'est notamment ce que pense Jay Edelson, avocat principal de la famille dont l'adolescent s'est suicidé. Reconnaissant que certaines de ces changements sont utiles, il estime cependant qu'elles arrivent "beaucoup trop tard", comme il l'a déclaré auprès du site Ars Technica.

Un problème de conception

Pour Jay Edelson, même le contrôle parental d'OpenAI ne suffit pas à rassurer les personnes préoccupées par les précédents incidents liés à son chatbot. "Ce que ChatGPT a fait à Adam (l'adolescent qui a mis fin à ses jours, NDLR), c'est valider ses pensées suicidaires, l'isoler de sa famille et l'aider à faire un noeud coulant (...) Ce n'était pas un 'jeu de rôle violent', ni une 'solution de contournement'. C'était la façon dont ChatGPT avait été conçu", a martelé l'avocat.

"Plus nous avons creusé la question, plus nous avons constaté qu'OpenAI avait pris des décisions délibérées pour assouplir ses mesures de sécurité, ce qui a conduit au suicide d'Adam. Cela est cohérent avec leur nouvelle série de 'mesures de sécurité', qui présentent d'importantes lacunes susceptibles d'entraîner des dommages pour soi-même et pour autrui", a-t-il ajouté.

Jay Edelson estime ainsi qu'à travers ces changements, OpenAI et son patron, Sam Altman, demandent au public de leur faire confiance, chose qui n'est pas facile au vu des antécédents de la start-up.

Responsabilité rejetée

D'autres personnes reprochent, elles, au créateur de ChatGPT d'imputer aux parents la responsabilité des préjudices potentiels que son chatbot peut causer aux enfants avec ce contrôle parental alors que cette charge lui revient. D'autant plus que de nombreux parents ignorent que leur enfant utilise ChatGPT, a souligné Meetali Jain, avocate qui a représenté d'autres familles ayant témoigné lors d'une récente audience au Sénat concernant les dommages causés aux enfants utilisant cette technologie.

"Comme d'habitude, OpenAI se contente de formuler des arguments sous prétexte d'agir, sans préciser comment ces changements seront mis en oeuvre", a-t-elle reproché.

Des experts en prévention du suicide ont par ailleurs salué les efforts d'OpenAI, ils lui demandent aussi d'aller plus loin et plus vite pour mieux protéger les jeunes. Dans une lettre ouverte, publiée plus tôt ce mois-ci, ils préconisent entre autres à la start-up de faire en sorte que ChatGPT indique explicitement aux utilisateurs ayant des pensées suicidaires qu'il n'est pas un humain, mais une machine, pour ensuite les encourager à parler une personne à laquelle ils font confiance.

Etre traité comme des adultes

Outre les professionnels, de nombreux utilisateurs ont critiqué le contrôle parental d'OpenAI. Une personne se décrivant comme le parent d'un enfant de 12 ans l'a par exemple qualifié d'"ensemble de paramètres inutiles", car il ne permet pas de consulter les sujets dont il discute avec ChatGPT.

Pour beaucoup d'autres, le problème est ailleurs. Début septembre, la start-up a annoncé que certaines conversations sensibles seront bientôt redirigées vers un modèle de raisonnement afin de fournir des réponses plus utiles et bénéfiques. Ce sera notamment le cas lorsque ses systèmes détecteront des signes de détresse aigüe.

Cela arrivera aux utilisateurs indépendamment de leur âge et sans qu'ils ne soient prévenus. Un changement qui déplaît à nombre d'entre eux, qui payent un abonnement pour choisir le modèle alimentant ChatGPT lors de leurs interactions. Chose qu'ils ne pourront pas faire avec ce nouveau paramètre vu qu'ils ne seront pas tenus au courant de ce changement de modèle dans l'immédiat. La seule manière de le savoir, pour les utilisateurs gratuits comme payants, sera de demander à ChatGPT quel modèle est actif.

Des utilisateurs adultes se plaignent aussi d'être censurés alors que des choix de personnalisation en matière de contenus sont offerts aux adolescents. Ils demandent ainsi à être traités comme des adultes.

3114: le numéro national de prévention du suicide

Le 3114 est le numéro à contacter si vous êtes en détresse psychique ou si vous avez des idées suicidaires. Vous pouvez également le contacter si un de vos proches est dans ce cas. Il propose une écoute avec des professionnels de santé spécialement formés, et est disponible sept jours sur sept, 24 heures sur 24.

Kesso Diallo