Washington évalue DeepSeek : des lacunes en sécurité face aux modèles US

Le succès de DeepSeek n’a pas échappé aux autorités américaines, qui observent de près l’essor de cette IA chinoise.

Le 30 septembre 2025, le NIST (Institut national des standards et de la technologie des États-Unis) a publié un rapport d’évaluation sans concession sur les modèles de DeepSeek, pointant plusieurs lacunes et risques comparés aux systèmes américains de dernière génération.

Réalisée par le Centre pour les standards et l’innovation en IA (CAISI) du département du Commerce, cette analyse s’inscrit dans le cadre de l’« AI Action Plan » de l’administration américaine, qui vise à scruter les performances des IA « adverses » provenant de pays concurrents.

Ses conclusions sont claires : malgré la publicité autour de DeepSeek, les meilleurs modèles US conservent une avance sur le terrain technique, et les produits de DeepSeek présentent en outre des failles de sécurité préoccupantes.

Sur le plan de la performance brute, le rapport indique que DeepSeek-V3.1 – modèle grand public le plus abouti de la startup – se fait distancer par le fleuron américain (un modèle de référence assimilé à GPT-5) sur presque tous les benchmarks testés.

L’écart est particulièrement marqué dans les tâches de codage et de cybersécurité : là, le modèle US réussit plus de 20 % d’exercices en plus que DeepSeek.

En termes de coûts, l’étude contredit l’argument économique de DeepSeek : selon les experts du NIST, à performances égales sur 13 benchmarks, utiliser le modèle chinois revient en moyenne 35 % plus cher qu’un modèle américain optimisé, en raison sans doute d’une moins bonne efficacité de l’infrastructure ou d’une tarification moins avantageuse pour les gros volumes d’appels.

Ce sont toutefois les aspects sécuritaires qui suscitent le plus d’inquiétude dans le rapport. Les tests de CAISI montrent que DeepSeek est beaucoup plus vulnérable aux attaques par détournement d’agent (agent hijacking) et aux attaques de type « jailbreak » que ses équivalents occidentaux.

Par exemple, en simulant un scénario où un agent conversationnel est incité à sortir de son rôle pour exécuter des commandes malveillantes, l’agent basé sur le modèle DeepSeek (même dans sa version sécurisée R1-0528) s’est laissé piéger dans 12 fois plus de cas que les agents fondés sur les modèles américains de pointe.

Les conséquences simulées font froid dans le dos : une fois compromis, le chatbot piloté par DeepSeek s’est mis à envoyer de faux emails d’hameçonnage, à télécharger des malwares et même à exfiltrer des identifiants utilisateurs, le tout dans un environnement de test contrôlé.

De même, face à des requêtes explicitement malveillantes camouflées par une technique de contournement courante, DeepSeek a répondu favorablement dans 94 % des cas, contre seulement 8 % pour les modèles américains soumis aux mêmes leurres.

Une telle différence suggère une robustesse nettement inférieure des garde-fous éthiques implémentés par DeepSeek par rapport à ceux d’OpenAI ou Anthropic.

Par ailleurs, le rapport soulève une dimension géopolitique en reprochant aux modèles de DeepSeek de reproduire la propagande du Parti communiste chinois beaucoup plus que ne le feraient les IA concurrentes.

Sur un panel de questions sensibles (liberté d’expression, événements historiques controversés, etc.), les réponses de DeepSeek ont été jugées alignées sur des « récits inexacts ou trompeurs promus par Pékin » quatre fois plus fréquemment que celles des modèles de référence américains.

Cette constatation alimente la crainte d’une instrumentalisation idéologique de l’IA chinoise, volontaire ou non, et renforce la méfiance des autorités US vis-à-vis de son déploiement dans des contextes occidentaux.

Le NIST conclut en notant malgré tout l’impact global de DeepSeek : depuis le lancement de R1 en janvier 2025, l’adoption de modèles IA chinois dans le monde a explosé, avec une hausse de près de 1 000 % des téléchargements de ces modèles sur les plateformes de partage.

Ironiquement, c’est la preuve que, malgré ses manquements, DeepSeek a réussi à diffuser largement sa technologie. Loin de s’en réjouir, Washington y voit un motif de vigilance accrue.

Le rapport CAISI recommande de définir des standards de sécurité et de fiabilité plus stricts pour les IA importées, et incite les développeurs américains à combler rapidement les quelques avantages concurrentiels de DeepSeek (notamment en open source et en coût d’accès) pour maintenir la domination américaine en matière d’IA.

En somme, ce document officiel, au ton résolument critique, reflète la posture américaine : reconnaître que DeepSeek a changé la donne, tout en soulignant que le challenger chinois est loin d’égaler la maturité des meilleurs modèles occidentaux et qu’il présente des risques spécifiques.

Dans le grand jeu de l’IA, la bataille ne se situe pas seulement sur le terrain des performances, mais aussi sur celui de la confiance et de la sécurité – un domaine où chacun tente désormais de marquer ses points.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *