BFM Business
Vie de bureau

"Ils ont peur du jugement ou de la sanction": pourquoi les salariés utilisent l'IA en cachette

Image d'illustration

Image d'illustration - Matheus Bertelli - Pexels

Selon une étude Indeed, les salariés qui utilisent l'intelligence artificielle pour les aider dans leur travail tendent à le faire en cachette. Le phénomène a un nom, le "shadow AI".

Utiliser ChatGPT oui, mais en catimini. Selon une récente étude publiée par Indeed et réalisée avec l’institut Censuswide, les Français utilisent massivement l'intelligence artificielle dans le cadre professionnel, mais n'assument pas vraiment. Plus de 2 actifs français sur 5 (45%) interrogés disent connaître désormais les outils d’IA générative (tels que ChatGPT, Gemini, Midjourney, etc.). Ce chiffre atteint 82 % chez les étudiants, contre 46% des personnes déjà salariées et 38% des personnes interrogées au chômage.

Non seulement ces outils sont désormais connus, mais ils sont massivement utilisés. Chez les salariés, près de trois répondants sur cinq (57 %) disent utiliser des assistants IA dans leur vie professionnelle et ce, en moyenne, deux fois par semaine. Sauf que les salariés y ont recours en toute discrétion. Comme pour réserver des billets de train au travail ou traîner sur Facebook, ils se cachent pour formuler leurs requêtes à leur robot conversationnel.

"Ils craignent de perdre leur emploi"

Toujours selon l'étude Indeed, seuls 11% des professionnels utilisant l'IA l'avouent explicitement. À l'inverse, 17% n’admettent jamais qu'ils ont utilisé un outil d'intelligence artificielle.

"Quand Internet est arrivé, certains arrivaient plus tôt au bureau le matin pour l'utiliser en cachette, c'était mal vu", se souvient Caroline Diard, enseignante-chercheuse en management et RH.

"Les salariés ont peur du jugement ou de la sanction, décrypte-t-elle. Ils craignent aussi de perdre leur emploi si l'employeur se rendait compte que leurs tâches peuvent être déléguées à une IA." En effet, les actifs interrogés par Indeed expriment une peur d'être jugés ou dévalorisés. 29% craignent que cela diminue la valeur de leur contribution, 28% pensent que cela nuit à l’image de leurs compétences et 20% craignent d’être jugés par le recruteur ou le supérieur hiérarchique.

Donner un cadre formel pour éviter les risques

C'est la preuve selon Indeed que "le sujet reste tabou dans de nombreuses entreprises, souvent faute de formation, de sensibilisation ou d’un cadre juridique clair autour de l’usage de l’IA au travail".

Sauf que ce phénomène d'utilisation "clandestine", aussi appelé "shadow AI" (IA fantôme), n'est pas sans danger. Le risque est d’exposer involontairement des informations privées ou sensibles sur internet, avec de possibles conséquences désastreuses comme des fuites de données. Une dérive qui inquiète les services informatiques des entreprises.

En réalité, les salariés commencent à utiliser l'IA de manière autonome lorsque son usage n'est pas formalisé par l'entreprise. Mais les choses sont en train de changer.

"Les entreprises s'approprient de plus en plus les outils, établissent des chartes d'éthique et d'utilisation, réfléchissent aux processus et à l'utilisation des données", assure Caroline Diard.

"C'est absolument essentiel de donner un cadre formel aux salariés pour garder la maîtrise et éviter les risques de fuites de données, ou les risques liés à l’image d'entreprise", conclut la spécialiste.

*Résultats basés sur une enquête Indeed France réalisée en juin 2025 avec l’institut CensusWide. Étude réalisée auprès de deux échantillons: un échantillon de 1.103 salariés/chercheurs d’emploi français (503 répondants salariés, 500 répondants sans emploi et 100 répondants âgés de plus de 18 ans actuellement scolarisés) et un échantillon de 1.001 employeurs/responsable du recrutement en France.

Marine Cardot