Des personnes tombent amoureuses de ChatGPT et OpenAI commence à s'en inquiéter

Pour certains internautes, ChatGPT est plus qu'un outil capable de les aider grâce à l'intelligence artificielle. Certains le considèrent comme une véritable personne, à laquelle ils peuvent se confier voire même éprouver de l'amour. Une Américaine de 28 ans a par exemple relaté, en début d'année, comment elle est tombée amoureuse du chatbot, le voyant comme son petit ami et parlant des heures avec lui chaque jour.
Ce genre d'interactions inquiète OpenAI. Responsable du comportement et de la politique des modèles, Joanne Jang a partagé, dans un article de blog, l'approche de l'entreprise concernant les relations entre humains et intelligence artificielle ce jeudi 5 juin. Une publication jugée "importante" par le patron de la startup, Sam Altman.
"Récemment, de plus en plus de personnes nous ont dit que parler à ChatGPT leur donnait l'impression de parler 'à quelqu'un'. Ils le remercient, se confient à lui et certains le décrivent même comme 'vivant'. Au fur et à mesure que les systèmes d'IA s'améliorent en matière de conversation naturelle et qu'ils apparaissent dans de plus en plus d'aspects de la vie, nous pensons que ce type de liens se renforcera", avance-t-elle.
Anthropomorphisation
Pour OpenAI, il est donc nécessaire d'encadrer les relations entre les humains et l'IA. "Si nous manquons de précision dans les termes ou les nuances - dans les produits que nous livrons ou dans les discussions publiques auxquelles nous participons - nous risquons de faire partir la relation entre les individus et l'IA du mauvais pied", a expliqué Joanne Jeng.
Dans le cadre de son approche, le créateur de ChatGPT se pose ainsi trois questions "étroitement liées", dont la première est "pourquoi les gens peuvent-ils s'attacher émotionnellement à l'IA?". La responsable du comportement et des modèles d'OpenAI rappelle ainsi que les humains ont naturellement tendance à anthropomorphiser les objets qui les entourent. Autrement dit, à leur attribuer des caractéristiques humaines. Certaines personnes donnent par exemple un nom à leur voiture.
Mais c'est encore pire avec ChatGPT parce que là où les objets sont immobiles, le chatbot répond aux internautes. "Il peut se souvenir de ce ce que vous lui avez dit, refléter votre ton et offrir ce qui ressemble à de l'empathie. Pour une personne seule ou bouleversée, cette attention constante et sans jugement peut ressembler à de la compagnie, à de la validation et à de l'écoute, qui sont des besoins réels", souligne Joanne Jeng.
Conscience perçue
Se pose alors la question de la conscience de l'IA. Et OpenAI s'y est préparé. Si des utilisateurs demandent à l'un de ses modèles s'ils sont conscients, ces derniers sont censés répondre en reconnaissant la complexité de la conscience et en les invitant à une discussion ouverte.
"C'est la réponse la plus responsable que nous puissions donner à l'heure actuelle, avec les informations dont nous disposons", justifie Joanne Jeng.
Plus précisément, OpenAI a divisé ce débat en deux axes, avec la "conscience ontologique" d'un côté et la "conscience perçue" de l'autre. La première consiste à se demander si un modèle est réellement conscient et la seconde dans quelle mesure il semble conscient.
Si pour la startup, des "tests clairs et falsifiables" sont nécessaires pour répondre scientifiquement à la première, il ne fait aucun doute que la conscience perçue ne fera que croître au fur et à mesure que les modèles deviennent plus intelligents. Et OpenAI accorde la priorité à celle-ci.
Affirmant construire des modèles pour "servir les gens en premier lieu", elle estime en effet que "l'impact des modèles sur le bien-être émotionnel humain est l'élément le plus urgent et le plus important sur lequel nous pouvons influer actuellement", comme l'explique la responsable du comportement et de la politique des modèles.
Trouver un juste milieu
En termes de conscience, l'objectif pour OpenAI est ainsi de "trouver le juste milieu" entre l'accesssibilité et le fait de ne pas impliquer que ChatGPT a "une vie intérieure". Concrètement, il s'agit, d'un côté, d'utiliser des mots familiers (penser, se souvenir....) pour aider les personnes moins techniques à comprendre ce qui se passe sans leur donner une histoire fictive, des intérêts romantiques ou encore une peur de la mort.
"Notre objectif est que la personnalité par défaut de ChatGPT soit chaleureuse, attentionnée et utile sans chercher à créer des liens émotionnels avec l'utilisateur ou à poursuivre son propre agenda", a expliqué Joanne Jeng.
Raison pour laquelle l'agent conversationnel peut s'excuser lorsqu'il commet une erreur, "car cela fait partie de la politesse", cite-t-elle en exemple.
À partir des interactions entre humains et IA qu'elle commence à observer, OpenAI estime que les individus finiront par nouer de véritables liens émotionnels avec son chatbot. Pour se préparer à cela, la startup prévoit notamment de "développer des évaluations ciblées du comportement des modèles qui peuvent contribuer à l'impact émotionnel" dans les prochains mois, mais aussi d''écouter directement" les utilisateurs, a fait savoir Joanne Jeng, sans donner plus de détails.
OpenAI promet cependant de partager "ouvertement" ce qu'elle apprendra en cours de cours de route, "compte tenu de l'importance de ces questions".