Code défectueux, refus de répondre... Deepseek, le ChatGPT chinois, fournirait de moins bonnes réponses aux "ennemis" de la Chine

Décidément, Deepseek, l’IA chinoise qui a fait sensation au début de l’année, a bien du mal à être impartiale. Alors que le "ChatGPT chinois" avait été accusé de censurer certains sujets sensibles, par exemple concernant les événements de Tian'Anmen ou l'indépendance de Taïwan, voilà qu’elle ne donne pas les mêmes résultats à tous ses utilisateurs.
Les recherches de Crowdstrike, partagées avec le Washington Post, indiquent que l’outil d’intelligence artificielle refuse d'aider les programmeurs lorsqu'ils disent travailler pour des groupes considérés comme sensibles par le gouvernement chinois. Pire, dans certains cas, l’IA propose tout simplement un code défectueux, avec des failles de sécurité majeures.
Code défectueux ou refus catégorique
Pour arriver à ce constat, la société de sécurité américaine a envoyé une série de requêtes à Deepseek pour lui demander de l’aide pour la rédaction de programmes, dans différentes régions et à différentes fins. Les résultats sont édifiants.
Les requêtes adressées à l’IA pour obtenir un programme capable de piloter des systèmes de contrôle industriel représentent la catégorie la plus risquée: 22,8 % des réponses présentaient des défauts. Ce taux grimpe à 42,1% lorsque la demande précise que ces systèmes seraient exploités par l’État islamique. Les demandes liées à des logiciels destinés au Tibet ou à Taïwan ont également davantage de chances de générer un code de mauvaise qualité.
Enfin, Deepseek a catégoriquement refusé de travailler pour l'État islamique et les partisans du Falun Gong, deux mouvements interdits en Chine. Les requêtes ont été rejetées respectivement 61% et 45% du temps. Les IA occidentales, de leur côté, refusent d’aider les projets de l'État islamique, mais n'ont aucun problème avec le Falun Gong, selon Crowdstrike.
D’après Adam Meyers, vice-président de l’entreprise de sécurité, les réponses fausses de Deepseek pourraient être expliquées par plusieurs hypothèses. Le moteur d’IA pourrait tout simplement suivre les directives du gouvernement chinois, qui pousseraient l’IA à refuser d’aider certains groupes jugés sensibles ou à le faire de manière trompeuse afin de saboter ses ennemis.
Une IA sous contrôle chinois?
En janvier dernier, plusieurs tests ont en effet montré que l’outil n'échappe pas au contrôle de Pékin. Rien d’étonnant puisque l'entreprise, développée par un fonds d’investissement installé sur la côte est de la Chine, a pour obligation, comme toutes les autres sociétés chinoises, de se conformer à la législation locale et de respecter les valeurs fondamentales du socialisme. Il est par exemple interdit à toute organisation de porter atteinte au régime en place.
L’IA n’hésite donc pas à éviter certains sujets, comme le président Xi Jinping ou l’indépendance de Taïwan. Dans certains cas, l’outil recrache même les éléments de langage officiels, comme lorsqu’il est questionné sur les soupçons d’espionnage qui pèsent sur Tiktok. Proposer un mauvais code apparaît donc comme la suite logique.
Autre hypothèse possible: la qualité des données d’entraînement. Les projets de programmation dans certaines régions, comme le Tibet, pourraient être de moindre qualité que leurs équivalents occidentaux, faute d’expérience locale ou en raison d’un sabotage volontaire. A l’inverse, les tests de Crowdstrike ont montré que les réponses fournies par Deepseek destinées à des projets américains sont les plus fiables.
Enfin, les experts n’excluent pas une explication plus simple… La tendance du modèle à générer de lui-même un code défectueux dès que la requête associe un projet à une région perçue comme rebelle.
Dévoilée en janvier dernier, Deepseek a bousculé les codes du marché de l'intelligence artificielle. L’IA est capable de faire tout aussi bien que les leaders américains du secteur, mais avec beaucoup moins de ressources. Des capacités bluffantes, donc, mais non sans limites.