Microsoft interdit l’application d’IA DeepSeek, invoquant sécurité des données et propagande

Le géant Microsoft a décidé de bloquer l’utilisation de l’application d’intelligence artificielle (IA) DeepSeek au sein de son entreprise.

La direction de Microsoft a confirmé que ses employés n’ont désormais plus le droit d’utiliser cette application IA d’origine chinoise, une mesure prise en raison de préoccupations majeures liées à la sécurité des données et aux risques de propagande.

Cette interdiction a été annoncée publiquement le 8 mai 2025 par Brad Smith, vice-président et président de Microsoft, lors d’une audition au Sénat américain sur la course à l’IA face à la Chine.

Il a précisé que DeepSeek a également été retirée de la boutique d’applications de Microsoft, par précaution, afin d’éviter tout risque « de données renvoyées à la Chine et [de] contenu associé à de la propagande chinoise ».

Qu’est-ce que DeepSeek et pourquoi cette application est-elle populaire ?

DeepSeek est une application d’IA chinoise développée par une startup du même nom, connue pour son chatbot équipé d’un modèle de langage avancé.

Lancée en janvier 2025, cette application IA a rapidement bouleversé le secteur de l’IA en égalant les performances de ses concurrents occidentaux pour une fraction de leur coût.

Son modèle open source baptisé DeepSeek-R1 a contribué à son succès viral, permettant à un large public et à des entreprises de l’adopter ou de l’intégrer facilement à moindre frais.

Face à cette montée en puissance, les géants américains de la tech comme OpenAI, Google ou Meta ont même ajusté leurs stratégies (offres gratuites ou tarifs réduits) pour contrer la croissance agressive de DeepSeek sur le marché.

DeepSeek s’est ainsi diffusée à l’international en peu de temps, y compris dans certains pays occidentaux. En Asie, son adoption a été fulgurante – par exemple en Corée du Sud où l’application a connu un succès massif dès son lancement.

Toutefois, cette expansion éclair a aussi suscité la méfiance de nombreux régulateurs.

Plusieurs pays et institutions ont ouvert des enquêtes ou imposé des restrictions sur DeepSeek, inquiets des pratiques de l’application en matière de données et de sécurité.

Par exemple, l’Italie a banni l’application après des doutes sur sa conformité au RGPD européen, et la Corée du Sud a temporairement suspendu les téléchargements de DeepSeek en découvrant que des données sensibles d’utilisateurs étaient transmises à des entreprises en Chine sans consentement.

De même, des pays comme les États-Unis, le Canada ou l’Australie ont interdit l’usage de DeepSeek au sein de leurs administrations par précaution, citant des motifs de cybersécurité et de protection des informations sensibles.

Les raisons de l’interdiction par Microsoft : données et propagande

Microsoft justifie sa décision par deux raisons principales : la vulnérabilité des données confidentielles et le risque de désinformation ou de biais idéologique.

Brad Smith a expliqué que l’application DeepSeek présente un risque que les données des utilisateurs soient stockées en Chine et potentiellement accessibles par des tiers non autorisés.

En effet, la politique de confidentialité de DeepSeek indique que les données des utilisateurs sont enregistrées sur des serveurs situés en Chine – où la loi oblige les entreprises à coopérer avec les agences de renseignement nationales si celles-ci en font la demande.

Microsoft redoute donc que des informations internes ou sensibles puissent être transmises, même indirectement, aux autorités chinoises (fuite de données).

Par ailleurs, la firme de Redmond pointe un risque de propagande dans les réponses générées par DeepSeek. D’après Brad Smith, les contenus produits par le chatbot pourraient refléter des orientations dictées par les autorités chinoises.

Il est avéré que l’application censure fortement les sujets jugés sensibles par le gouvernement de Pékin.

Microsoft craint que ces biais de contenu se traduisent par des réponses alignées sur la propagande ou la censure d’État, ce qui est problématique dans un contexte professionnel neutre.

En somme, la société estime que DeepSeek, dans sa forme actuelle, menace la confidentialité des données de l’entreprise et pourrait diffuser des messages orientés, justifiant ainsi son interdiction en interne.

Notons que Microsoft n’est pas seule à exprimer ces préoccupations. Aux États-Unis, plusieurs entités publiques avaient déjà pris des mesures similaires avant même l’annonce de Brad Smith.

Par exemple, la Chambre des représentants avait déconseillé à ses équipes d’installer DeepSeek, mentionnant des risques sérieux d’exploitation malveillante de l’application par des acteurs étrangers (distribution de logiciels malveillants via le chatbot).

L’US Navy et la NASA ont également proscrit l’utilisation de DeepSeek par leurs employés par mesure de sécurité.

Ces multiples interdictions soulignent la crainte partagée, au-delà de Microsoft, que des applications d’IA étrangères non maîtrisées constituent une faille de sécurité ou un vecteur de désinformation.

Réaction de DeepSeek et position officielle de la startup

Jusqu’à présent, DeepSeek n’a pas directement commenté la décision de Microsoft. La jeune pousse chinoise adopte cependant une posture défensive face aux critiques internationales.

Lors d’une enquête de l’autorité italienne de protection des données, la startup a ainsi affirmé que son application ne relevait pas des lois européennes, contestant l’application du RGPD à son service.

De même, confrontée aux interrogations sur sa gestion des données privées, DeepSeek a admis avoir transféré des informations d’utilisateurs sans consentement vers des serveurs cloud en Chine – notamment vers Volcano Engine, une plateforme liée à ByteDance (maison mère de TikTok).

La société a expliqué avoir « négligé » certaines exigences en matière de protection des données lors de son lancement, et justifie l’usage de serveurs chinois par la volonté « d’améliorer la sécurité et l’expérience utilisateur ».

Face aux régulateurs sud-coréens, DeepSeek a même pris des mesures correctives en interrompant ces transferts non autorisés à partir d’avril 2025, signe qu’elle tente de répondre aux critiques sur le volet de la confidentialité.

La Chine, de son côté, monte au créneau pour défendre ses champions technologiques. Pékin a qualifié d’« injustifiées » et « discriminatoires » les restrictions prises contre DeepSeek et d’autres applications chinoises, accusant les pays occidentaux de cibler déloyalement ses entreprises.

Le gouvernement chinois a laissé entendre qu’il pourrait prendre des mesures de rétorsion symétriques contre les firmes occidentales en Chine si ces interdictions se multiplient.

Cette dimension géopolitique, avec des tensions croissantes autour des technologies d’IA, ajoute un contexte diplomatique sensible à l’affaire DeepSeek.

Quelles conséquences pour les utilisateurs, les entreprises et le secteur de l’IA ?

L’interdiction de DeepSeek par Microsoft pourrait avoir des répercussions plus larges, au-delà du cas de ses seuls employés. Parmi les implications potentielles :

  • Pour les utilisateurs individuels : La méfiance accrue envers DeepSeek pourrait décourager une partie du grand public d’utiliser cette application, par crainte pour la confidentialité de leurs données personnelles (sécurité des données). Si les boutiques d’applications occidentales suivent l’exemple de Microsoft et retirent DeepSeek de leur catalogue, les utilisateurs lambda auront plus de difficulté à y accéder. Certains adeptes de ce chatbot devront peut-être se tourner vers des solutions alternatives ou vers la version open source auto-hébergée, moins susceptible d’exposer leurs données à l’étranger.
  • Pour les entreprises et administrations : Le geste de Microsoft envoie un signal fort aux autres organisations. De nombreuses entreprises pourraient imiter cette politique en bannissant DeepSeek des outils de travail autorisés, par précaution vis-à-vis de la protection des informations sensibles. Plusieurs gouvernements ont d’ores et déjà interdit l’application sur les appareils professionnels de leurs agents, une tendance qui pourrait s’amplifier dans le secteur privé. Par ailleurs, les partenaires ou clients de Microsoft utilisant DeepSeek pourraient se voir recommandés d’abandonner cet outil au profit de solutions locales ou mieux contrôlées, afin d’éviter tout risque de fuite de données ou de dépendance envers une technologie jugée non fiable.
  • Pour le secteur de l’IA open source : L’affaire soulève un débat sur la confiance dans les IA ouvertes développées à l’étranger. D’un côté, le fait que DeepSeek soit open source a permis à des acteurs comme Microsoft d’inspecter son code et même d’héberger son modèle R1 sur leurs propres serveurs pour en atténuer les risques. En proposant la version de DeepSeek sur Azure, Microsoft a montré qu’il est possible d’exploiter les atouts d’un modèle ouvert tout en gardant la maîtrise des données (hébergement en dehors de Chine) et en filtrant les contenus indésirables. D’un autre côté, même en open source, un modèle entraîné dans un certain contexte culturel ou politique peut conserver des biais problématiques. Comme le note Microsoft, héberger soi-même l’IA DeepSeek élimine certes le souci du transfert de données vers la Chine, mais n’élimine pas nécessairement les risques liés au contenu que le modèle peut générer (propagande ou code peu sûr). Cette situation pourrait inciter la communauté IA à redoubler de vigilance dans l’adoption de modèles open source issus d’écosystèmes aux réglementations différentes, et pousser à développer des garde-fous plus robustes pour garantir une IA de confiance. En filigrane, l’industrie technologique pourrait se fragmenter davantage, avec des écosystèmes IA séparés entre la Chine et l’Occident si les préoccupations de souveraineté des données et de sécurité persistent.

En définitive, la décision de Microsoft de bannir l’application DeepSeek illustre les défis croissants à l’ère de l’IA globalisée.

Elle met en balance l’ouverture et l’innovation apportées par des modèles d’IA émergents, avec les impératifs de sécurité des données et de fiabilité auxquels les entreprises et gouvernements sont particulièrement attentifs.

L’affaire DeepSeek s’inscrit dans un contexte plus large de vigilance vis-à-vis des technologies d’intelligence artificielle étrangères, et pourrait bien marquer un tournant dans la manière dont les outils d’IA open source seront évalués et déployés à l’avenir.

Les utilisateurs, quant à eux, restent en attente de garanties solides sur la protection de leurs données et l’objectivité des IA qu’ils utilisent, qu’elles soient développées en Occident ou ailleurs.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *