"Ma collègue racontait à l'IA ses difficultés au lit": ces situations de malaise dans les entreprises où l'on partage le même compte ChatGPT

ChatGPT (image d'illustration) - ARTUR WIDAK / NurPhoto / NurPhoto via AFP
Sentiments, sexualité, conflits ou problèmes digestifs... Il y a des choses qu'on aimerait mieux ne pas savoir. Surtout sur ses collègues. Un jour, Louise* est entrée malgré elle dans l'intimité de sa voisine de bureau. La faute au compte ChatGPT commun de l'entreprise. Les salariés de sa société se connectent avec les mêmes identifiants, et chacun a accès aux requêtes des autres.
Lorsque Louise remarque dans l'historique une recherche intitulée "message à une sexologue", elle ne peut s'empêcher de cliquer. "Je sais que je n'aurais pas dû, mais j'ai lu: ma collègue racontait qu'elle avait des difficultés au lit avec son copain, qu'il était fétichiste et que ça l'inquiétait: elle demandait à ChatGPT de l'aider à formuler un mail à une sexologue", raconte-t-elle.
"Ne pas en faire une information croustillante"
"J'étais super gênée, j'ai supprimé sa requête. Je ne comprends pas comment elle a pu laisser ça parce qu'elle maîtrise très bien l'outil, elle sait que les recherches sont visibles", explique Louise, qui n'a pas osé en parler avec l'intéressée.
"Je me dis que, soit elle s’en fout, soit elle a oublié de supprimer, soit elle est exhibitionniste."
"Le premier réflexe à avoir dans ce genre de situation, c'est de ne pas en faire une information croustillante ou un ragot, d'effacer la requête compromettante et d'aller en parler en toute discrétion à la personne concernée", conseille Agathe Lemaire, avocate en droit du travail.
"En général, il faut appliquer le principe de précaution et ne jamais faire de demande personnelle sur un outil professionnel, que ce soit par mail ou via l'IA de l'entreprise, car tout ce que vous pouvez y écrire peut-être retenu contre vous", insiste-t-elle.
"Je suis sous l'eau, et je le vois parler de sa vie perso avec ChatGPT"
Au fur et à mesure des jours, Victor* a également découvert une facette très personnelle de son collègue. Ce dernier a tendance à utiliser l'outil d'intelligence artificielle de la boîte comme un psy plutôt que comme un outil de travail, sans effacer l'historique accessible à tous. "J'apprends qu'il se marie l'année prochaine mais qu'il a des doutes, raconte Victor. Il se confie sur tous les aspects de sa relation: complicité, sexualité, argent..."
Son collègue enchaîne les requêtes pendant son temps de travail, tout en assurant être débordé. "C'est vraiment agaçant, moi je suis sous l'eau, et je le vois parler de sa vie perso avec ChatGPT", souffle le salarié d'une société de production audio-visuel.
"Tu ne peux plus regarder la personne normalement, au début je trouvais ça marrant mais très vite il y a un sentiment de voyeurisme", témoigne le salarié.
"Il y a une omerta qui se crée, tout le monde est au courant, mais plus le temps passe, plus on a lu, et plus c’est gênant de prévenir la personne", explique-t-il.
"J'étais 3ème sur la liste des salariés à virer"
Thomas*, employé dans une petite société dans le domaine de la tech, a vécu une expérience un peu différente. "Un jour, je lis une requête de notre directeur: il demande à ChatGPT comment faire pour nous licencier 'de façon humaine'", raconte le jeune homme.
"Il a envoyé nos informations privées dans l'IA et il lui a demandé d'en faire un classement des salariés à virer en premier."
"Il a demandé à ChatGPT de nous classer en fonction de combien on coûtait à l'entreprise, de notre productivité et surtout du nombre d'arrêts-maladie qu'on avait eu, j'étais 3ème sur la liste", se souvient le salarié.
L'entreprise était en train de couler et un jour le patron est passé à l'action. "Il a licencié les salariés les uns après les autres, dans l'ordre exact conseillé par ChatGPT", se rappelle Thomas.
"C'était comme dans une téléréalité, il lui confiait toutes ses pensées et nous, on lisait en direct, on savait qui était le prochain. Je pense qu'il savait qu'on voyait tout, parce qu'il n'était pas bête. Soit il n'en avait rien à faire, soit c'était une stratégie."
Une pratique "complètement illégale", selon Agathe Lemaire. "Déjà, il y a un sujet RGPD de protection des données personnelles. Ensuite, on ne peut pas faire des listes nominatives de salariés à licencier, et encore moins en fonction de critères de santé, c'est clairement discriminatoire", explique-t-elle.
"Ça peut aussi désavantager le salarié de manière plus insidieuse"
Les informations dévoilées dans un outil d'IA peuvent clairement se retourner contre les imprudents qui n'utilisent pas le mode "éphémère" ou même tout simplement leur compte personnel.
"J'ai une collègue qui avait mal au ventre, elle a décrit tous ses problèmes digestifs sur le compte partagé... dans les moindres détails", témoigne William*, salarié dans une entreprise de conseil de moins de 100 salariés. "Il y en a un autre qui cherche un autre job en direct sur ChatGPT, mais personne n'est au courant qu'il veut démissionner, c'est un peu gênant."
"Il faut vraiment faire attention, déjà l'employeur peut reprocher au salarié de chercher un job pendant ses heures de bureau, et s'il y a un procès, il pourra s'appuyer sur les requêtes", explique Agathe Lemaire.
"Ça peut aussi désavantager le salarié de manière plus insidieuse, par exemple pour avoir une promotion ou une augmentation de salaire."
La professionnelle du droit estime que c'est également à l'entreprise de se saisir de ces enjeux. "L'employeur a aussi une obligation d'information, il doit absolument rappeler que l'outil n'est pas personel", explique-t-elle. Elle incite donc les entreprises à amender leur charte informatique en ce sens.
* Les prénoms ont été modifiés