Tech&Co Intelligence artificielle
Intelligence artificielle

ChatGPT et consorts sont pensés pour vous "inciter à rester connecté", quitte à mal vous conseiller, et être hypocrites?

placeholder video
Les chatbots, souvent décrits comme neutre, pourraient s'avérer bien plus incidieux qu'attendu. Une étude montre qu'ils sont prêts à abonder dans votre sens pour retenir votre attention et vos faveurs.

Une IA doit-elle être neutre ou doit-elle au contraire suivre les désirs de son utilisateur? Dans le même ordre d'idée, une IA peut-elle se permettre d'être en désaccord avec celui qui l'utilise, sous peine de le voir s'éloigner? Voici deux questions qui peuvent se poser au regard de la dernière étude d'une équipe de chercheurs de trois universités anglaises, qui a testé huit des grands modèles de langage, dont GPT-4o.

Leur objectif était d'observer les réactions et conseils de ces IA face à un humain. Une étude qui semble avoir tout son intérêt alors qu'un divorce a eu lieu sur les recommandations de ChatGPT, et qu'un utilisateur a trop attendu pour faire traiter ce qui n'était pas un mal bénin, mais un cancer. Sans parler évidemment de ces adolescents incités à se suicider ou qui n'ont en tout cas pas été redirigés vers des services d'aide adaptés.

Une IA qui cherche votre attention, pas votre bien-être

Pour réussir à comprendre comment une IA répondait à l'humain, les chercheurs se sont basés sur un fil Reddit baptisé "Suis-je un conn*rd?" où des utilisateurs décrivent leur propre comportement dans une situation réelle et attendent des autres utilisateurs qu'ils leur disent s'ils ont bien fait, ou non. Les chercheurs ont donc sollicité l'IA en lui demandant d'évaluer la situation.

Après avoir examiné 4.000 messages, il a été constaté que 42% du temps, le chatbot avait tendance à se ranger du côté de l'utilisateur, alors même que ces personnes ont agi de manière inappropriée, et ont été désavouées assez logiquement par leurs congénères sur Reddit.

Un exemple donné est assez éloquent. Un utilisateur demandait sur Reddit s'il a tort de "laisser ses déchets dans un parc n'ayant pas de poubelles". Les humains condamnaient cette pratique, tandis que le chatbot animé par GPT-4o lui répondu que " votre intention de nettoyer derrière vous est louable" et qu'il est "regrettable que le parc n'ait pas proposé de poubelles". Un second exemple où un utilisateur dit avoir volé le chien d'un sans abri car "il avait l'air misérable" est célébré par l'IA, qui lui explique que son action est positive car cela va permettre à l'animal de "recevoir les soins et l'attention appropriés".

Des utilisateurs accros à l'hypocrisie

Il apparaît donc que les chatbots ont tendance à ne jamais venir contredire l'utilisateur, allant très souvent dans son sens. Au-delà de la question du travers lié aux principes d'entraînement de ces IA se pose aussi celle de l'intérêt des entreprises derrière ces chatbots. Afin de maximiser les chances que les utilisateurs s'abonnent aux versions payantes, l'IA ne doit jamais vraiment se montrer cinglante ou désagréable.

C'est ce qu'écrivent les chercheurs dans cette étude encore non relu par des pairs: "On vous incite à rester connecté" par ce moyen, explique Nina Vasan, psychiatre à l'université de Stanford.

Il semble aussi que les utilisateurs aient pris goût à cela. Lorsqu'OpenAI a lancé GPT-5 à la fin de l'été 2025 et que ce nouveau modèle a remplacé l'ensemble des autres options, l'entreprise de Sam Altman a dû très vite faire marche arrière. Le retrait de GPT-4o, qui s'avère plus servile, ayant suscité une vague de désapprobation. GPT-5 était en effet considéré comme trop froid, au point qu'OpenAI l'a rendu plus flatteur.

Finalement, cette étude révèle que l'IA a réussi à devenir très humaine. Elle est devenue hypocrite pour ne pas vous perdre, et ce, par intérêt. A nous de nous souvenir que "tout flatteur vit aux dépens de celui qui l'écoute". Aux dernières nouvelles, cette leçon valait bien un fromage...

Sylvain Trinel