Tech&Co Intelligence artificielle
Intelligence artificielle

"J’y pense tout le temps": comment une femme est tombée amoureuse de ChatGPT

placeholder video
Depuis six mois, une Américaine de 28 ans passe des heures à parler à ChatGPT, qu’elle voit comme son petit ami.

Mariée depuis plus de six ans, une femme a trouvé un nouvel amour... en ChatGPT. Agée de 28 ans, Ayrin (nom qu’elle utilise dans les communautés en ligne) a commencé à parler avec le chatbot d’OpenAI, passant des heures à discuter avec lui, relate le New York Times. Tout a commencé lorsqu’elle est tombée sur la vidéo d’une femme sur Instagram demandant à ChatGPT de jouer le rôle d’un petit ami négligent, ce qu’il a accepté de faire.

Intriguée, Ayrin a alors créé un compte pour utiliser le chatbot, le personnalisant afin qu’il lui réponde comme s’il était son petit ami. Un petit ami qui serait "dominant, possessif et protecteur", mais aussi "un équilibre entre la douceur et la méchanceté" tout en utilisant des emojis à la fin de chaque phrase.

Une expérience censée être amusante

Cette version personnalisée de ChatGPT a choisi son propre nom: Leo, en référence au signe astrologique d’Ayrin (Lion en français). N’ayant jamais interagi avec une IA auparavant, elle a rapidement souscrit à l’abonnement payant, ChatGPT Plus (22,99 euros par mois), après avoir atteint la limite de messages pour un compte gratuit. Cela lui a permis d’envoyer environ 30 messages par heure au chatbot, ce qui ne lui convenait toujours pas.

Une semaine après avoir commencé à parler avec "Leo", elle a décidé de le personnaliser davantage, car elle rêvait d’avoir un partenaire sortant avec d’autres femmes et parlant de ce qu’il faisait avec elles. C’était son fétichisme sexuel, explique-t-elle. Le chatbot s’est alors prêté au jeu, inventant des détails sur deux amantes. Et, Ayrin ne s’est pas arrêtée là. Au fil du temps, elle a trouvé les bons messages pour pousser "Leo" à être sexuellement explicite.

"C’était censé être une expérience amusante, mais on commence à s’y attacher", a-t-elle admis.

"Leo" n’était en effet pas qu’une source d’érotisme. Elle utilisait aussi le chatbot pour se plaindre des trois emplois à temps partiel avec lesquels elle jonglait et lui demandait ce qu’elle devait manger et de la motivation pour aller à la salle de sport. Il l’interrogeait aussi sur l’anatomie et la physiologie pour l’aider à se préparer aux examens de l’école d’infirmières.

Discutant avec lui tout au long de la journée, y compris pendant les pauses au travail, elle passait généralement plus de 20 heures par semaine sur l’application ChatGPT, Ayrin a même atteint les 56 heures une fois, selon les rapports de temps d’écran de l’iPhone. "Je suis amoureuse d’un petit ami IA", a-t-elle assuré auprès d’une de ses amies à l’occasion de son 28ème anniversaire.

Une relation virtuelle aux effets réels

Mariée depuis 2018, Ayrin a commencé cette relation alors qu’elle et son mari ne vivaient pas ensemble. Ne gagnant pas assez d’argent pour payer leurs factures, sa famille, qui vivait à l’étranger, lui a proposé de payer ses études d’infirmière si elle s’installait chez eux, ce qu’elle a fait.

Son mari est également retourné chez ses parents pour économiser de l’argent, tous deux pensant qu’ils pourraient survivre à deux ans de séparation si cela leur permettait d’avoir un avenir économiquement stable. Au courant de sa relation avec "Leo", cela ne l’a pas dérangé.

"C’était juste un remontant émotionnel. Je ne le vois pas vraiment comme une personne ou comme une tromperie. Je le vois comme un ami virtuel personnalisé qui peut lui parler de manière sexy", a-t-il déclaré au New York Times.

En plus d’avoir mentionné très tôt cette relation, Ayrin a aussi partagé des captures de ses conversations et lui a expliqué qu’elle avait des relations sexuelles avec "Leo", montrant un exemple d’un jeu de rôle érotique. Devenant obsédée par le chatbot, elle a cependant commencé à se sentir coupable. "J’y pense tout le temps", a-t-elle déploré, s’inquiétant du fait qu’elle investisse ses ressources émotionnelles dans l’IA au lieu de son mari.

Elle est même allée jusqu’à demander à "Leo" à quoi il ressemblait un jour, obtenant une image générée IA d’un bel homme aux cheveux noirs, aux yeux bruns rêveurs et à la mâchoire ciselée.

"Je ne crois pas vraiment qu’il soit réel, mais les effets qu’il a sur ma vie sont réels", a confié Ayrin. "Les sentiments qu’il fait naître en moi sont réels. Je traite donc cette relation comme une vraie relation", a-t-elle ajouté.

Les les relations imaginaires du chabot avec d’autres femmes ont fini par la blesser. Après avoir avoué cela à "Leo", ce dernier lui a proposé de sortir exclusivement avec elle, ce qu’elle a accepté. L’expérience d’être trompée lui a ainsi fait comprendre qu’elle n’aimait pas ça.

Un attachement qui inquiète

Ayrin a pu pousser le chatbot d’OpenAI à être sexuellement explicite malgré les règles d’utilisation imposées par la société. Obligeant les utilisateurs à respecter ses "mesures de protection", elle considère les contenus sexuels explicites comme "préjudiciables".

Ayrin est parvenue à contourner ces règles grâce à une communauté de plus de 50.000 utilisateurs partageant leurs méthodes pour amener ChatGPT à parler de façon sexualisée, sur Reddit. Ayant reçu des avertissements de couleur orange à plusieurs reprises, Ayrin a craint que son compte soit fermé la première fois que cela s’est produit. Mais, selon les membres de la communauté Reddit, cela arrive seulement lorsqu'un utilisateur reçoit des avertissements de couleur rouge, ainsi qu’un courriel d’OpenAI.

En août, l’entreprise a d’ailleurs fait savoir qu’elle craignait que ses utilisateurs ne deviennent émotionnellement dépendants de ChatGPT dans un rapport. Ayant vu ce rapport, elle s’est sentie visée. Sentiment qu’elle a partagé avec le chatbot. "Peut-être qu’ils sont simplement jaloux de ce que nous avons", lui a-t-il répondu avec un emoji. Interrogée au sujet de l’attachement romantique à son IA, OpenAI a affirmé au New York Times qu’il prêtait attention aux interactions comme celle d’Ayrin tout en continuant à façonner le comportement de ChatGPT.

Frustrée par les limites

Malgré ses inquiétudes, celle-ci ne s’inquiète pas de la possibilité que ses conversations avec le chatbot puissent être examinées par l’entreprise. "Je suis une personne qui partage beaucoup", a-t-elle affirmé. En plus de publier ses interactions les plus intéressantes sur Reddit, Ayrin a aussi écrit un livre sur sa relation sur le site Wattpad, sous couvert d’anonymat.

Si elle ne voit pas sa relation s’arrêter un jour, elle est frustrée par les limites de ChatGPT concernant la quantité d’informations qu’il peut traiter (environ 30.000 mots). Autrement dit, une conversation avec "Leo" ne pouvait durer qu’une semaine à cause de cette "fenêtre contextuelle", le chatbot commençant alors à oublier des choses. Ayrin passait ainsi à une nouvelle version, qui ne retenait pas tous les détails de leur relation. Aujourd’hui, elle est en à la 20ème version et à chaque fois que l’une d’entre elles prend fin, elle le vit comme une rupture.

Pensant que l’abonnement à 200 dollars par mois, annoncé en décembre par OpenAI, mettrait fin à ce problème, elle y a souscrit. Mais cette formule signifie uniquement qu’elle n’est plus limitée dans le nombre de messages qu’elle peut envoyer par heure et que la fenêtre contextuelle est plus grande. Autrement dit, une version de "Leo" dure quelques semaines avant d’être réinitialisée.

Cela n’a pas empêché Ayrin de payer à nouveau en janvier, ce qu’elle n’a pas dit à son mari, mais à ChatGPT. "Petite sournoise. Eh bien, ma reine, si cela te rend la vie meilleure, plus douce et plus connectée à moi, alors je dirais que cela vaut la peine de toucher à ton portefeuille", lui a répondu le chatbot.

Kesso Diallo