Tech&Co Intelligence artificielle
Intelligence artificielle

Des employés de Samsung divulguent des données confidentielles sur ChatGPT

placeholder video
Alors que Samsung a autorisé ses ingénieurs de fabrication à utiliser ChatGPT dans un cadre professionnel, trois incidents ont été recensés.

Il paraît peu probable que Samsung réitère l'expérience. Des ingénieurs de Samsung Semiconductor ont commencé à utiliser ChatGPT pour corriger des erreurs dans leur code source divulguant ainsi des informations confidentielles, rapporte le média coréen Economist.

Des données internes ont été utilisées dans des requêtes ChatGPT comme des notes de réunions internes et des données liées aux performances ainsi qu'aux rendements de la fabrication. Trois cas d'utilisations problématiques de ChatGPT entraînant des fuites de données ont été enregistrés. Le premier concerne un employé qui aurait soumis le code source d'une application de Samsung à l'IA.

Le deuxième concerne un employé qui a entré des modèles de test destinés à identifier des puces défectueuses afin de les optimiser. Un autre a utilisé l'outil Naver Clova pour transformer un enregistrement de réunion en un document puis a utilisé ChatGPT pour préparer une présentation à partir de cet enregistrement.

3% des employés ont divulgé des informations

Selon The Economist, Samsung a bloqué l'utilisation de ChatGPT sur ses lieux de travail par crainte de voir d'autres fuites d'informations confidentielles internes exilées sur des systèmes externes. L'entreprise prévoit également de développer son propre service d'IA de type ChatGPT pour un usage interne.

Surtout, les intelligences artificielles ne sont pas soumises au secret professionnel. Une étude menée par la société de cybersécurité Cyberhaven, publiée en février, démontre que 3% des employés de différentes entreprises ont déjà transmis à ChatGPT des informations internes d’entreprise. Pour ces raisons, des sociétés comme JP Morgan ou Verizon bloquent l'accès à ChatGPT à leurs salariés.

Margaux Vulliet