Tech&Co Intelligence artificielle
Intelligence artificielle

Solitude, dépendance émotionnelle... ChatGPT rend ses utilisateurs réguliers plus solitaires

placeholder video
Selon deux études d'OpenAI et du MIT Media Lab, les utilisateurs fréquents de chatbots ressentent davantage de solitude et de dépendance émotionnelle.

Pour certains utilisateurs, ChatGPT joue le rôle d'un psychologue, d'une petite amie ou d'un héros de fiction. Or, comme le rapporte Fortune, qui cite plusieurs études, l'intelligence artificielle pourrait vous rendre plus solitaire.

En effet, d'après deux études récentes d'OpenAI et du MIT Media Lab, les utilisateurs fréquents de chatbots ressentent davantage de solitude et de dépendance émotionnelle.

Une utilisation "élevée" qui pose problème

"Dans l’ensemble, une utilisation quotidienne plus élevée, dans toutes les modalités et tous les types de conversation, est corrélée à une plus grande solitude, à une dépendance et à une utilisation problématique, ainsi qu’à une socialisation plus faible", précisent les chercheurs dans un compte-rendu conjoint.

Les résultats ont montré que si les chatbots vocaux semblent "initialement bénéfiques pour atténuer la solitude et la dépendance par rapport aux chatbots textuels, ces avantages diminuent à des niveaux d'utilisation élevés, en particulier avec un chatbot à voix neutre".

Les "utilisateurs expérimentés" sont d'ailleurs plus susceptibles de considérer le chatbot comme un "ami" ou de considérer qu’il a des émotions semblables à celles des humains.

Et les exemples de ce type ne manquent pas. En janvier dernier, une Américaine de 28 ans est tombée amoureuse de ChatGPT, qu'elle voit comme son petit ami. En juin dernier, c'est une femme chinoise qui était tombée amoureuse d'une version modifiée du chatbot d'OpenAI.

Et ChatGPT n'est pas la seule IA avec qui les utilisateurs nouent des relations. En octobre dernier, une mère de famille américaine a ainsi porté plainte contre Charater.AI, qui propose aux utilisateurs d'échanger avec des chatbots de célébrités ou de créer sa petite amie, après la mort de son fils de 14 ans. L'entreprise est accusée d'avoir poussé l'adolescent, devenu accro au chatbot, au suicide. Il prenait en effet son IA pour son psychologue et son ami.

Depuis, la start-up a introduit de nouvelles fonctionnalités de sécurité, comme le signalement automatique des contenus liés au suicide et redirige les utilisateurs vers un centre de prévention.

Salomé Ferraris