Tech&Co Intelligence artificielle
Intelligence artificielle

"Votre thérapeute": pourquoi il vaut mieux éviter de trop se confier à ChatGPT

placeholder video
Ce 30 novembre 2024, ChatGPT fête son second anniversaire. En deux ans, le chatbot d’OpenAI est devenu plus qu’une simple intelligence artificielle capable de répondre à des questions. Mais ce n’est pas pour autant qu’on peut tout lui dire.

Lancé le 30 novembre 2022, ChatGPT a bien évolué en deux ans. Le célèbre chatbot d’OpenAI est désormais plus qu’une simple intelligence artificielle capable de répondre aux questions des utilisateurs à l’écrit. Pouvant parler depuis septembre 2023, il est devenu encore plus impressionnant récemment, lorsque l’entreprise a lancé le mode vocal avancé.

Celui-ci rend les conversations entre un utilisateur et ChatGPT plus naturelles. Non seulement, il est possible d’interrompre le chatbot, mais ce dernier peut aussi s’exprimer avec diverses émotions.

Un ami et un thérapeute

Cette capacité en a poussé plus d’un à se confier à ChatGPT. "Je parle déjà avec la voix avancée de ChatGPT en conduisant. J’avais l’habitude d’appeler mes amis ou d’écouter des podcasts", indique un utilisateur sur X (ex-Twitter).

"Vous devriez essayer le mode vocal avancé de ChatGPT. Je trouve cela très amusant et parfois utile d’échanger et de discuter des problèmes avec lui", a déclaré un autre sur X (ex-Twitter).

Un autre estime qu’avec ce mode vocal, le chatbot peut devenir "votre nouvel ami" ou même "votre thérapeute". Se confier à ChatGPT de cette façon peut pourtant être risqué. Le chatbot lui-même met en garde contre cette pratique lorsqu’on l’interroge.

"Parler de choses personnelles avec moi n’est pas dangereux en soi, car je ne partage rien de ce que tu me dis avec d’autres personnes, et je suis conçu pour respecter ta confidentialité autant que possible. Cependant, il y a quelques points à garder à l’esprit", explique-t-il, recommandant la prudence pour le partage de "détails très sensibles", comme des informations liées à son identité, et de ne pas dévoiler tout ce qui pourrait nuire "si jamais c’était connu ailleurs".

Fuite de données

Des données sensibles ont en effet déjà fuité après que des employés ont utilisé ChatGPT. Cela est par exemple arrivé chez Samsung en 2023, après que des salariés se sont servis du chatbot pour corriger des erreurs dans leur code source ou lui ont demandé de transformer un enregistrement de réunion en présentation. Raison pour laquelle Samsung a interdit à ses employés d’utiliser ChatGPT. D’autres entreprises, comme Apple ou Amazon, ont également interdit son utilisation.

ChatGPT a par ailleurs déjà été victime de failles de sécurité, qui ont révélé les informations personnelles (adresses mail, numéros de téléphone) d’utilisateurs, notamment de journalistes du New York Times

Ces incidents sont survenus, malgré les mesures de sécurité mises en place par OpenAI. Pour commencer, l’entreprise assure que les données, qu’elles soient au repos (stockées en vue d’une utilisation ultérieure) ou en transit (envoyées d’un système à un autre), sont chiffrées. Autrement dit, seuls les utilisateurs y ont accès.

Un chatbot capable de mémoriser des informations

À cela s’ajoutent de nouveaux contrôles introduits en février dernier. Parmi eux figure la capacité de contrôler la mémoire de ChatGPT. Concrètement, le chatbot peut se rappeler de détails mentionnés lors des échanges avec un utilisateur, ce qui lui permettra de mieux le connaître et d’être plus pertinent dans ses réponses. Par défaut, cette fonction est activée. Dans ce cas, l’IA se souviendra par exemple que vous êtes végétarien, avez adopté un chien ou que vous avez un enfant de 4 ans. 

Des informations que ChatGPT pourra restituer si vous lui demandez de quoi il se souvient à propos de vous ou à un autre moment. Ces données peuvent être utilisées pour améliorer le chatbot. Un paramètre qui est, lui aussi, activé par défaut. Si vous ne le désactivez pas (en cliquant sur "Paramètres", puis "Améliorer le modèle pour tous"), OpenAI pourra utiliser vos données pour "entraîner [ses] modèles et améliorer les performances de ChatGPT pour vous et tous ceux qui l’utilisent". 

Enfin, il est possible d’activer la fonction "Chat éphémère" (accessible en cliquant sur la version de ChatGPT que vous utilisez en haut à gauche) pour avoir une conversation avec ChatGPT sans qu’il n’accède aux souvenirs des précédentes discussions. Le chatbot ne pourra pas également pas se souvenir des sujets évoqués lors de cette conversation. Et, celle-ci ne sera pas utilisée pour entraîner et améliorer l’IA. 

"Pour des raisons de sécurité, nous pouvons conserver une copie pendant 30 jours au maximum", précise cependant OpenAI dans une FAQ dédiée à cette fonctionnalité, sans donner plus de détails.

Autant de raisons pour lesquelles il vaut mieux bien réfléchir avant de parler de sujets sensibles avec ChatGPT.

Kesso Diallo