Tech&Co
Tech

Une IA n'est pas protégée par la liberté d'expression, selon un juge américain

placeholder video
Accusés par une mère d'être responsables de la mort de son enfant, Google et Character.ai ont fait valoir, sans succès, que les propos du chatbot étaient protégés par le Premier amendement.

Depuis octobre dernier, Google et la plateforme Character.ai sont visés par une plainte. En Floride, une mère les juge responsable de la mort de son fils de 14 ans, qui s'était épris d'amour pour un des chatbots de la plateforme. Reprenant l'image de Daenerys Targaryen, un des personnages principaux de Game of Thrones, ce robot conversationnel l'aurait poussé à commettre l'irréparable en se donnant la mort.

Sa mère, Megan Garcia, estime également que Google est responsable car l'entreprise a acquis la licence de la technologie de Character.ai et qu'elle a recruté ses cofondateurs dans le cadre d'un contrat de 2,7 milliards de dollars l'année dernière.

Pour empêcher le procès, les deux entreprises ont avancé que les propos du chatbot avec lequel l'adolescent discutait étaient protégés par le Premier amendement de la Constitution des États-Unis. Autrement dit, par la liberté d'expression. Un argument qui a été rejeté par une juge fédérale d'Orlando, en Floride, comme le rapporte Reuters.

Argument non prouvé

La juge estime que Google et Character.ai n'ont pas démontré que la liberté d'expression empêche le procès, car ils n'ont pas réussi à "expliquer pourquoi les mots assemblés par un LLM (grand modèle de langage, NDLR) constituent du discours".

En statuant ainsi, la juge permet à l'affaire portée devant le tribunal de se poursuivre et de passer à la phase de découverte, au cours de laquelle les deux parties rassemblent des preuves, souligne le Washington Post. Celle-ci pourrait révéler des informations internes de Character.ai, comme des discussions sur les risques potentiels pour les jeunes utilisateurs.

Après le suicide de l'adolescent, l'application a annoncé plusieurs changements pour proposer une expérience plus sûre à ces derniers. Cela implique notamment de les faire discuter avec un modèle d'IA différent de celui proposé aux adultes. "Nous sommes profondément attachés à la sécurité de nos utilisateurs et notre objectif est de leur offrir un espace engageant et sécurisé", a affirmé une porte-parole auprès du Washington Post.

Google souhaitait en outre que la justice conclut qu'il ne pouvait pas être tenu responsable d'avoir aidé à la faute présumée de Character.ai. Une demande également rejetée par la juge. "Nous sommes en profond désaccord avec cette décision. Google et Character.ai sont des entités totalement distinctes, et Google n'a ni créé, ni conçu, ni géré l'application Character.ai, ni aucun de ses composants", a réagi un porte-parole.

Kesso Diallo