DeepSeek-R2 : ce qu’on sait du prochain modèle open source d’IA chinoise

DeepSeek-R2 est le nom du futur modèle d’intelligence artificielle open source que prépare la start-up chinoise DeepSeek.

Successeur très attendu du modèle R1 lancé début 2025, DeepSeek-R2 suscite déjà une grande impatience dans la communauté tech mondiale.

Il promet des avancées majeures en matière de raisonnement, de codage et de support multilingue, au point d’être considéré comme “le prochain grand modèle” de l’IA, susceptible de rivaliser avec les systèmes occidentaux de pointe.

Voici un tour d’horizon factuel des informations disponibles : date de sortie envisagée, annonces et feuille de route de DeepSeek, innovations attendues par rapport à R1, et contexte de performances du premier modèle.

Calendrier de sortie et roadmap de DeepSeek : R2 en approche

Officiellement, DeepSeek n’a pas encore communiqué de date précise pour la sortie de R2. D’après des informations rapportées par Reuters, le modèle était initialement prévu pour mai 2025.

La jeune pousse de Hangzhou aurait même accéléré son calendrier en début d’année pour profiter de l’avance acquise avec R1, visant un lancement “dès que possible” plutôt qu’en mai.

Cependant, au moment d’écrire ces lignes, DeepSeek-R2 n’a pas été rendu public fin juin. Les observateurs tablent désormais sur un lancement au second semestre 2025, possiblement entre le troisième et le quatrième trimestre.

Cette incertitude s’explique par le secret entretenu par DeepSeek autour de son projet. Le fondateur Liang Wenfeng, milliardaire discret issu de la finance, ne s’exprime plus publiquement depuis mi-2024.

La start-up a été invitée par les autorités chinoises à garder un profil bas après l’engouement massif suscité par R1, en raison notamment des questions de respect de la vie privée et de géopolitique technologique.

Malgré cela, les « fuites » et déclarations officieuses tracent une feuille de route ambitieuse.

DeepSeek a procédé à plusieurs mises à jour intermédiaires en attendant R2 : en mars 2025, elle a publié une nouvelle version de son modèle de base (DeepSeek-V3) sous licence open source, puis le 28 mai 2025, elle a déployé R1-0528, une version améliorée de R1, pour combler l’attente avant R2.

Selon Reuters, R2 reste prévu “prochainement” par l’entreprise. L’objectif de DeepSeek est clair : maintenir son avance dans la course à l’IA, alors que les géants chinois comme Alibaba et Tencent ont profité du succès de R1 pour lancer leurs propres modèles concurrents ces derniers mois.

Retour sur DeepSeek-R1 : un modèle chinois open source qui bouscule l’IA

Pour comprendre l’importance de DeepSeek-R2, il faut rappeler l’impact de DeepSeek-R1. Lancé en janvier 2025, R1 a fait l’effet d’une déflagration dans le secteur de l’IA.

Ce modèle de « reasoning » (raisonnement) a démontré des performances comparables à celles de nombreux modèles occidentaux tout en ayant coûté une fraction de leur budget – le tout développé avec des puces Nvidia moins puissantes que celles utilisées par OpenAI ou Google.

L’exploit a surpris au point de provoquer un krach boursier de plus de 1 000 milliards de dollars en janvier sur les valeurs technologiques, les investisseurs réalisant que la suprématie occidentale en IA pouvait être remise en cause par une start-up chinoise.

Le succès de R1 a été accueilli avec fierté en Chine, brandi comme la preuve que les restrictions américaines sur les technologies avancées ne sauraient freiner les ambitions de l’IA chinoise.

Techniquement, DeepSeek-R1 a surpris par ses capacités de raisonnement, de logique, de mathématiques et de programmation, démontrées sur de nombreux benchmarks internes et indépendants.

Une mise à jour R1-0528 a encore amélioré ces performances en mai, réduisant de près de moitié le taux « d’hallucinations » (erreurs factuelles) du modèle et approchant le niveau des modèles fermés les plus avancés d’OpenAI et de Google.

Surtout, DeepSeek a fait le choix de la transparence totale en open source. R1 a été publié sous licence MIT avec ses poids de réseau neuronaux librement téléchargeables.

Cette ouverture a permis à des milliers de développeurs dans le monde de tester et d’adopter rapidement l’IA : le modèle a été intégré localement sur des serveurs ou ordinateurs personnels, sans passer par le cloud chinois, offrant à la fois des garanties de confidentialité et la possibilité de lever les censures intégrées aux versions grand public.

DeepSeek a également fourni des versions « distillées » allégées de R1 (basées sur des modèles plus petits comme Qwen ou Llama) pour rendre son IA accessible avec des ressources matérielles modestes.

Par exemple, une déclinaison de R1 lancée fin mai par DeepSeek ne nécessite qu’une seule carte graphique pour fonctionner, contre une douzaine pour le modèle R1 complet.

Ce pari de l’open source et de l’optimisation extrême a largement contribué à la popularité mondiale de DeepSeek-R1, au point qu’en une semaine l’application mobile DeepSeek dépassait ChatGPT en nombre de téléchargements aux États-Unis.

DeepSeek-R2 : quelles améliorations par rapport à R1 ?

Face à cet héritage, DeepSeek-R2 est annoncé comme un bond en avant plutôt qu’une simple mise à jour incrémentale.

D’après les informations disponibles, voici les évolutions clés attendues pour R2 par rapport à son prédécesseur :

  • Puissance de calcul et efficacité accrues : R2 devrait s’appuyer sur l’architecture innovante de R1 (notamment l’utilisation de Mixture-of-Experts, ou experts multiples, qui activent seulement une partie des 671 milliards de paramètres du modèle à chaque requête) tout en optimisant encore l’inférence. DeepSeek aurait focalisé ses efforts sur la réduction des besoins de calcul, afin d’offrir de meilleures performances avec un coût matériel moind. Des sources industrielles évoquent l’intégration d’un mécanisme d’attention latente multi-tête (MLA) couplé aux experts multiples, ce qui pourrait rendre R2 jusqu’à 40 fois moins coûteux à faire tourner que GPT-4 à précision équivalente.
  • Raisonnement multilingue : Là où R1 excellait surtout en anglais, DeepSeek-R2 vise une maîtrise du raisonnement dans de nombreuses langues. La start-up a indiqué qu’elle voulait que le nouveau modèle puisse raisonner de façon fluide au-delà de l’anglais. De fait, R2 aurait été entraîné sur un corpus linguistique beaucoup plus large. Des premières évaluations internes laissent entendre qu’il surpasse même GPT-4 sur certains jeux de tests en mandarin, arabe, hindi ou russe. Cet atout multilingue est stratégique dans un contexte de mondialisation de l’IA : DeepSeek-R2 pourrait être adopté dans de nombreux pays sans nécessiter de coûteux ajustements locaux, renforçant ainsi l’influence de l’écosystème chinois dans le monde.
  • Génération de code améliorée : DeepSeek-R1 avait déjà démontré des compétences en programmation, mais R2 ira plus loin en matière de codage automatisé. DeepSeek a confié espérer de meilleurs résultats en génération de code avec R2, pour en faire un outil encore plus précieux aux yeux des développeurs. Concrètement, le nouveau modèle devrait non seulement comprendre une grande variété de langages de programmation, mais aussi produire du code plus robuste et structuré. Des rumeurs font état d’une version dédiée baptisée DeepSeek Coder, capable de traiter plus de 30 langages (Python, C++, Java, Rust, Go, etc.) et d’atteindre d’excellents scores sur des benchmarks comme HumanEval ou MBPP, bien au-delà de ce que proposait R1. R2 serait ainsi en mesure de détecter des vulnérabilités dans du code, suggérer des corrections ou optimisations, et même générer des tests unitaires, se positionnant comme un concurrent sérieux aux outils comme GitHub Copilot.
  • Vers le multimodal : Une des innovations les plus attendues concerne l’éventuelle ouverture de R2 au multimodal. Autrement dit, DeepSeek-R2 pourrait comprendre et générer non seulement du texte, mais aussi analyser des images, du son ou de la vidéo. Plusieurs observateurs de la communauté open source estiment en effet que R2 sera « nativement multimodal », ayant été entraîné conjointement sur des données visuelles et textuelles. DeepSeek reste discret sur ce point, mais des indices laissent penser qu’une capacité à interpréter des images complexes (par exemple des radiographies médicales ou des schémas techniques) fait partie des fonctionnalités testées. Une extension à l’audio est même évoquée à l’état de prototype. Si cela se confirme, R2 se distinguerait de concurrents comme GPT-4 ou Gemini (Google) qui ont ajouté la vision de façon plus limitée. Un modèle vraiment multimodal ouvrirait la voie à de nouveaux cas d’usage : diagnostic visuel en service client, analyse automatique de documents scannés, pilotage d’appareils via des instructions vocales locales, etc.

Puissance, transparence, benchmarks : l’impatience de la communauté IA

Chaque nouvelle génération de modèle d’IA suscite son lot d’attentes, mais dans le cas de DeepSeek-R2, l’enthousiasme de la communauté tech et open source est particulièrement élevé. Plusieurs raisons expliquent cet engouement :

  • Un niveau de performance à confirmer : La question sur toutes les lèvres est de savoir où se situera R2 face aux ténors actuels comme GPT-4 d’OpenAI ou Gemini de Google. DeepSeek-R1 avait déjà réduit l’écart avec ces derniers, et son update R1-0528 atteint par exemple 91,4 % de réussite à un examen de mathématiques avancé (AIME 2024), frôlant le score de modèles fermés bien plus volumineux. La communauté espère que R2 franchira un nouveau palier de puissance, et les benchmarks indépendants à venir seront scrutés de près. Qu’il s’agisse des tests de raisonnement général, de compréhension du langage, ou des épreuves de code et de calcul, R2 sera évalué sur toutes ses capacités. Des experts estiment que son lancement pourrait constituer un moment charnière, capable de rebattre les cartes du leadership dans l’IA en démocratisant les modèles de pointe.
  • Conserver l’esprit open source et la transparence : Les partisans de l’IA libre attendent de DeepSeek qu’il maintienne sa démarche de transparence intégrale avec R2. Le modèle R1 a été mis à disposition de tous sous licence open source (MIT), un fait suffisamment rare pour un modèle aussi avancé. Cette ouverture a permis à des chercheurs, des startups, voire de grands groupes, d’inspecter le modèle, de le déployer sur leurs propres serveurs et de l’adapter à leurs besoins. R2 est donc espéré lui aussi comme un modèle “open weights”, où chaque paramètre sera publiquement partagé. Une telle transparence renforcerait la confiance, notamment à l’international, dissipant les craintes que certains pourraient avoir envers une IA chinoise « boîte noire ». DeepSeek semble en tout cas assumer cette philosophie : la startup a déjà publié le code de certains de ses outils d’optimisation (moteur d’attention Flat MLA, bibliothèque de calcul matriciel DeepGEM, backend de parallélisation DeepEP), signal qu’elle souhaite bâtir un écosystème ouvert autour de R2.
  • Des innovations attendues pour la communauté de développeurs : Au-delà de la performance brute, les fonctionnalités de R2 feront la différence aux yeux des utilisateurs. La possibilité de lancer un modèle de haut niveau sur des infrastructures locales ou minimalistes enthousiasme de nombreux ingénieurs. R2, si ses optimisations tiennent leurs promesses, pourrait être beaucoup plus facile à déployer sur des serveurs d’entreprise ou des appareils embarqués. D’après un article de Reuters, DeepSeek travaille déjà avec des fabricants d’électronique grand public pour intégrer ses IA dans des télévisions, réfrigérateurs ou robots aspirateurs. Des prototypes de TV “intelligentes” propulsées par R1 existent chez des marques chinoises comme TCL ou Hisense, permettant par exemple un assistant vocal hors-ligne très précis. La perspective d’un R2 encore plus léger en inférence laisse entrevoir une prolifération de l’IA dans les objets du quotidien, sans dépendre du cloud. Pour les développeurs, cela signifie également la possibilité d’intégrer R2 dans leurs applications avec un coût d’infrastructure réduit, et sans sacrifier la confidentialité des données traitées localement.
  • Rivalité technologique et émulation open source : Enfin, l’arrivée de DeepSeek-R2 est vécue comme un événement stimulant pour la communauté IA globale. D’un côté, les acteurs open source voient en R2 un allié de poids face aux modèles fermés des géants américains – un modèle qu’ils pourront tester, améliorer, forker éventuellement, contribuant ainsi à l’innovation partagée. De l’autre, les concurrents établis seront poussés à se dépasser. Déjà, le succès de R1 a forcé OpenAI à baisser ses prix et proposer une version allégée de ChatGPT (nommée o3 Mini), tandis que Google a accéléré les offres commerciales de son modèle Gemini pour rester dans la course. R2 pourrait amplifier cette émulation. Sa sortie obligerait les leaders actuels à innover plus vite et à revoir leurs stratégies tarifaires, ce qui in fine bénéficie aux utilisateurs et à l’écosystème dans son ensemble. Comme le résume un analyste, la réussite de DeepSeek montre que l’on peut briser le duopole de quelques acteurs dominants en misant sur la recherche et l’ouverture.

En respectant ce cahier des charges ambitieux – puissance, ouverture, efficience et innovations pratiques –, DeepSeek-R2 s’annonce comme un modèle pivot de l’année 2025.

S’il tient ses promesses, ce nouvel étalon de l’IA open source pourrait non seulement conforter la place de la Chine dans la course à l’intelligence artificielle, mais aussi élargir l’adoption d’IA avancées à un plus grand nombre d’acteurs grâce à son accessibilité.

Il ne reste plus qu’à attendre l’annonce officielle de DeepSeek pour découvrir si R2 sera, comme espéré, à la hauteur de l’enthousiasme qu’il génère déjà.

Les prochains mois diront si le pari de DeepSeek est réussi :

celui d’une IA de pointe, ouverte et collaborative, capable de rivaliser avec les meilleures au profit de tous.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *