DeepSeek-AI est un modèle d’IA open source de nouvelle génération qui suscite un engouement mondial.
Fondée en 2023 en Chine, la startup DeepSeek (深度求索) s’est rapidement fait connaître avec des modèles d’IA performants et accessibles.
En l’espace de deux ans, DeepSeek a connu une croissance IA fulgurante : son application mobile est devenue l’une des plus populaires et ses modèles open source rivalisent désormais avec les leaders du marché.
Cet article présente les statistiques DeepSeek clés (utilisateurs, téléchargements, adoptions), analyse les performances de ses principaux modèles (V2, V3, R1, Coder, Janus, Math, etc.), compare ces données à d’autres modèles (GPT, Claude, Mistral, Gemini…) et retrace l’évolution de DeepSeek depuis sa création.
Statistiques de croissance de DeepSeek AI
DeepSeek affiche des chiffres de croissance impressionnants. Lancée fin 2023, l’application grand public de DeepSeek a gravi les classements en quelques jours, atteignant la première place de l’App Store d’Apple devant ChatGPT.
Ce succès grand public s’accompagne d’une adoption massive en Chine : plus de 20 constructeurs automobiles (ainsi qu’au moins un fabricant de bus) intègrent désormais le chatbot DeepSeek dans leurs véhicules, environ 30 entreprises du secteur médical et pharmaceutique l’utilisent pour des diagnostics ou de la R&D, et des dizaines de banques, compagnies d’assurance et courtiers l’exploitent pour le service client ou l’aide à la décision.
Sur les plateformes chinoises, des centaines d’entreprises ont publiquement confirmé expérimenter les modèles de DeepSeek, provoquant parfois des hausses temporaires de leurs actions en Bourse.
En parallèle, la communauté open source s’est emballée pour DeepSeek.
Ses modèles publiés sur Hugging Face cumulent des téléchargements massifs : par exemple, le modèle DeepSeek-V3 a été téléchargé plus de 2 millions de fois rien que sur cette plateforme, et le modèle de raisonnement DeepSeek-R1, sorti plus récemment, compte déjà plusieurs centaines de milliers de téléchargements.
Cette adoption rapide témoigne de l’attrait pour une alternative ouverte et abordable aux offres d’OpenAI ou Anthropic.
Il convient de noter toutefois qu’en dehors de Chine, l’adoption professionnelle reste limitée : fin janvier 2025, à peine 0,2 % des entreprises américaines avaient utilisé DeepSeek, freinées notamment par des préoccupations de fiabilité et de sécurité (pannes de service, craintes de fuite de données, etc.).
Performances des modèles DeepSeek (V2, V3, R1, Coder, Janus, Math…)
DeepSeek a développé une gamme variée de modèles IA, chacun excelling dans des domaines spécifiques, tout en maintenant un niveau de performance élevé face aux concurrents privés. Voici un tour d’horizon des principaux modèles DeepSeek et de leurs performances :
- DeepSeek V2 / V3 (LLM généralistes) : Les versions V2 et V3 incarnent la troisième génération de LLM de DeepSeek. DeepSeek-V3, lancée en décembre 2024, est un modèle gigantesque en Mixture-of-Experts totalisant 671 milliards de paramètres (dont 37 milliards activés par token). Grâce à cette architecture efficace, V3 « MoE » se classe parmi les meilleurs modèles du marché en benchmark, rivalisant avec les LLM occidentaux les plus avancés. V3 introduit des optimisations innovantes (attention latente multi-tête, calcul en précision mixte FP8, etc.) qui la rendent environ 10× plus efficace que ses pairs en termes de calcul et mémoire. DeepSeek-V3 a d’ailleurs établi un nouveau standard de coût : son entraînement n’a mobilisé que 2048 GPU NVIDIA H800 pendant deux mois (coût d’environ 5 millions $), soit seulement 9 % des ressources nécessaires pour entraîner un modèle occidental comparable (ex: LLaMA 3.1 de 405B paramètres). La version précédente DeepSeek-V2 (lancée en mai 2024) était déjà un modèle MoE de 236B paramètres actifs, classé dans le top 3 du benchmark AlignBench et compétitif face à GPT-4 Turbo.
- DeepSeek R1 (modèle de raisonnement) : DeepSeek-R1 est le modèle phare orienté raisonnement, sorti en janvier 2025, avec pour ambition de rivaliser les performances de ChatGPT (OpenAI model o1) en logique, math et code. R1 innove par son entraînement quasi-exclusivement par renforcement (RLHF) et sans avoir recours à du fine-tuning supervisé classique. Les résultats sont au rendez-vous : R1 atteint des scores équivalents aux meilleurs modèles propriétaires sur de nombreux tests. Par exemple, il obtient 90,8 % de réussite au benchmark MMLU (évaluation multitâche), très proche du score de GPT-4 open (88,7 %). Sur les problèmes mathématiques avancés, DeepSeek-R1 surpasse même GPT-4 : il résout jusqu’à 97,3 % du test MATH contre 76,6 % pour GPT-4. En codage, R1 excelle également (il aurait atteint un classement Elo de 2029 sur Codeforces, dépassant 96 % des humains) et propose une fenêtre de contexte de 64k tokens suffisante pour la plupart des usages. DeepSeek a rendu R1 entièrement open source sous licence MIT, encourageant la communauté à l’exploiter et le dériver librement. En outre, la version R1-Zero a été entraînée uniquement par RL (sans données étiquetées), développant de lui-même des stratégies de vérification et réflexion, ce qui a servi à générer des données synthétiques supplémentaires pour améliorer R1.
- DeepSeek-Coder : Ce modèle, lancé initialement en novembre 2023, cible les tâches de programmation. DeepSeek-Coder (v1) était un modèle de 1.3 à 33 milliards de paramètres dérivé de Llama, entraîné sur plus de 80 langages de programmation. La version DeepSeek-Coder V2 (juin 2024) a fait un bond en taille et en puissance avec 236 milliards de paramètres et un entraînement sur 6 000 milliards de tokens, améliorant drastiquement ses performances en code et en raisonnement mathématique. DeepSeek-Coder V2 a ainsi dépassé GPT-4 Turbo sur des benchmarks de génération de code et gère un contexte étendu de 128 000 tokens, tout en supportant plus de 330 langages de programmation, un record dans le domaine.
- DeepSeek-Math : Introduit en février 2024, ce modèle spécialisé (7B paramètres) est dédié aux raisonnements mathématiques complexes. En étant entraîné en continu sur 120 milliards de tokens orientés math (provenant de corpus comme Common Crawl, plus du code et du texte technique), DeepSeek-Math a atteint 51,7 % de réussite sur le benchmark MATH. Un tel score le rapproche des performances élites de GPT-4 ou même du niveau « Ultra » du modèle Gemini de Google, alors que ceux-ci disposent de bien plus de paramètres – un accomplissement notable pour un modèle open source de cette taille.
- Janus et modèles multimodaux (DeepSeek-VL) : DeepSeek ne se limite pas au texte. La série Janus (annoncée début 2025) propose un cadre unifié de compréhension multimodale (image+texte) pour à la fois analyser et générer du contenu visuel. Le modèle Janus-Pro excelle en génération d’images à partir de texte, au point de surpasser des références comme DALL-E 3 ou Stable Diffusion dans certaines évaluations. En parallèle, DeepSeek-VL (mars 2024) et son successeur DeepSeek-VL2 (décembre 2024) sont des modèles vision-langage capables de traiter des images haute résolution (jusqu’à 1024×1024) avec un coût calculatoire réduit. Les variantes VL2-Tiny, Small, etc., utilisent une architecture MoE active de seulement 1 à 4,5 milliards de paramètres pour offrir une compréhension visuelle efficiente.
- DeepSeek-Prover : Enfin, DeepSeek s’est aventuré dans le domaine pointu de la preuve automatique de théorèmes. Le modèle DeepSeek-Prover (V1 fin 2023, amélioré en V1.5 à l’été 2024) est conçu pour fonctionner avec l’assistant de preuve Lean 4. En générant massivement des données synthétiques et via des algorithmes d’entraînement innovants (RLPAF, RMaxTS), Prover V1.5 a atteint l’état de l’art en efficacité sur des tâches de démonstration formelle. C’est un exemple de plus de la diversification des modèles DeepSeek, couvrant du langage naturel généraliste jusqu’aux mathématiques formelles.
Comparaison avec les autres modèles du marché (GPT, Claude, Mistral, Gemini…)
Malgré son jeune âge, DeepSeek AI se mesure déjà aux meilleurs modèles IA existants, souvent avec succès sur des tâches spécialisées :
- Face à GPT (OpenAI) : Les modèles DeepSeek de pointe soutiennent la comparaison avec les GPT d’OpenAI. Sur des évaluations multitâches comme MMLU, DeepSeek-R1 obtient ~90,8 % contre ~88,7 % pour GPT-4 OpenAI. Sur le calcul mathématique avancé, l’avantage va nettement à DeepSeek (97 % vs 76 % de réussite sur un test MATH, en faveur de R1 par rapport à GPT-4). DeepSeek-V3, de son côté, rivalise avec GPT-4 version « open » (dite GPT-4o) et dépasse même la performance du modèle GPT-3.5 (ChatGPT) sur de nombreux benchmarks. En revanche, OpenAI conserve un avantage en termes de fine-tuning et de robustesse générale pour certaines tâches créatives ou conversationnelles, domaines où GPT-4 excelle par son entraînement massif et ses optimisations propriétaires.
- Face à Claude (Anthropic) : Les modèles de DeepSeek brillent particulièrement dans les tâches techniques comparés à Claude (l’assistant d’Anthropic). DeepSeek-V3 surclasse la version Claude 3.7 (Sonnet) sur plusieurs benchmarks exigeants : par exemple, V3 a obtenu 86,1 % en questions de connaissance générale (GPQA) contre 80,7 % pour Claude, et 81,2 % sur MMLU-Pro contre 75,9 % pour Claude. Sur les problèmes mathématiques, l’écart se creuse encore – un test MATH de niveau universitaire a vu DeepSeek V3 réussir ~68 % des questions contre ~60 % pour Claude 3.7. De même en programmation, DeepSeek affiche un meilleur pass@1 (code juste du premier coup) : ~90 % de succès sur un benchmark LiveCode contre ~82 % pour Claude. Ces écarts reflètent la priorité donnée par DeepSeek au raisonnement et au code. Toutefois, Claude garde quelques atouts : un contexte étendu (100k tokens dès Claude 2, quand DeepSeek R1/V3 est à 64–128k) et une fiabilité conversationnelle éprouvée. Pour des tâches de chat longues ou de résumé de documents volumineux, Claude demeure excellent grâce à son alignement sur les préférences humaines et son souci de réponses sûres et cohérentes. En somme, DeepSeek dépasse souvent Claude sur les critères purs de performance (précision sur benchmarks techniques), tandis que Claude peut fournir des réponses plus robustes et nuancées dans un cadre interactif général.
- Face à Mistral : Mistral AI, startup européenne fondée en 2023, a fait sensation avec son modèle open source Mistral 7B. Ce dernier offre un très bon rapport taille/efficacité, mais il reste de petite envergure face aux modèles DeepSeek. Avec des modèles allant de 7B jusqu’à des centaines de milliards de paramètres, DeepSeek joue dans une catégorie différente. Par exemple, DeepSeek LLM 67B (fin 2023) surpassait déjà LLaMA-2 70B sur plusieurs tâches complexes. On peut donc estimer que les versions V2/V3 de DeepSeek, beaucoup plus volumineuses (et utilisant MoE), délivrent une performance nettement supérieure à Mistral 7B dans la plupart des benchmarks. Là où Mistral mise sur la légèreté et l’open source accessible, DeepSeek pousse l’open source vers le haut de gamme, tentant d’égaler les meilleurs modèles fermés. Il faudra cependant surveiller les prochaines versions de Mistral (annoncées en 2024–2025) ; si Mistral sort des modèles ~30B ou plus, la comparaison avec DeepSeek deviendra intéressante sur le terrain de l’efficacité par paramètre.
- Face à Gemini (Google) : Google prépare avec Gemini une nouvelle génération de modèles multimodaux censés rivaliser ou dépasser GPT-4. Au moment d’écrire ces lignes, les détails publics sur Gemini sont limités, mais DeepSeek a déjà montré qu’une petite équipe open source pouvait approcher les géants. En mathématiques, DeepSeek-Math atteint des scores comparables à ceux attendus d’un Gemini « Ultra » – frôlant le niveau de GPT-4 sur le benchmark MATH. De plus, DeepSeek-Janus s’attaque à la vision et pourrait préfigurer des capacités similaires à celles de Gemini en mode texte+image. Bien sûr, Google dispose de ressources colossales et d’expertises qui pourront donner à Gemini un avantage global. Néanmoins, la progression ultra-rapide de DeepSeek démontre que l’innovation open source peut réduire l’écart avec les laboratoires des géants du secteur, en proposant dès maintenant des performances de haut vol accessibles à tous.
Évolution historique et communauté open source de DeepSeek
DeepSeek AI a parcouru un chemin remarquable en peu de temps. Voici les dates et jalons clés de son évolution :
- 2023 – Création et premiers modèles : DeepSeek est fondée en 2023 avec l’objectif ambitieux de rendre l’AGI accessible. Dès novembre 2023, la startup sort DeepSeek-Coder (v1), un modèle open source de 33B paramètres pour la génération de code. Quelques semaines plus tard (novembre 2023 toujours), DeepSeek LLM 67B est lancé, surpassant le modèle LLaMA-2 70B de Meta en raisonnement, code, mathématiques et compréhension du chinois. Le ton est donné : DeepSeek améliore l’état de l’art open source rapidement.
- Début 2024 – Innovations MoE et spécialisations : En janvier 2024, DeepSeek introduit sa première architecture Mixture-of-Experts avec DeepSeek-MoE 16B (2,8B de paramètres actifs) pour accroître l’efficacité. Puis en février 2024 vient DeepSeek-Math 7B qui se rapproche du niveau GPT-4 en mathématiques. En mars 2024, DeepSeek-VL pose les bases du multimodal vision-texte en open source.
- Montée en puissance mi-2024 : Mai 2024 marque la sortie de DeepSeek-V2 (236B MoE), qui se classe parmi les top modèles en AlignBench et commence à concurrencer les offres d’OpenAI sur la qualité des réponses. En juin, DeepSeek-Coder V2 (MoE) repousse les limites en programmation, surpassant GPT-4 Turbo et offrant 128K de contexte. L’été 2024 voit l’amélioration de la preuve automatique avec DeepSeek-Prover V1.5 en août (record sur les défis Lean 4), puis la fusion des savoir-faire avec DeepSeek-V2.5 en septembre (combinaison des atouts de V2 et Coder V2).
- Fin 2024 – Troisième génération et previews : En novembre 2024, DeepSeek propose un aperçu (R1-Lite Preview) de son modèle de raisonnement à venir, déjà très performant en logique et résolution de problèmes. En décembre 2024, deux sorties majeures couronnent l’année : DeepSeek-VL2 (multimodal MoE efficient)et surtout DeepSeek-V3 (671B paramètres) le 27 décembre 2024. DeepSeek-V3 devient immédiatement le modèle open source le plus avancé, surpassant LLaMA 3.1 de Meta et Qwen 2.5 d’Alibaba, et se hissant au niveau de GPT-4 sur de nombreux aspects.
- Début 2025 – DeepSeek-R1 et reconnaissance mondiale : Le 20 janvier 2025, DeepSeek-R1 est lancé officiellement et open sourcé, accompagné de son rapport technique complet
- . L’impact est énorme : R1 offre pour la première fois au grand public un modèle de raisonnement comparable aux meilleurs modèles commerciaux, le tout sous licence libre. Dans la foulée, DeepSeek publie 6 modèles distillés plus légers (jusqu’à 70B) issus de R1 pour démocratiser encore ces capacités. La réaction ne se fait pas attendre : l’application DeepSeek devient l’app gratuite la plus téléchargée au monde, dépassant même ChatGPT sur l’App Store début 2025. Des figures de la tech comme Marc Andreessen saluent une avancée « incroyable et impressionnante » dans l’IA. Fin janvier 2025, DeepSeek dévoile Janus-Pro, son modèle multimodal de génération d’images, consolidant sa présence sur tous les fronts de l’IA.
Tout au long de cette évolution rapide, DeepSeek est resté fidèle à son approche open source. Les codes et poids de modèles sont publiés (souvent sur GitHub ou HuggingFace) sous licence MIT, permettant à la communauté de réutiliser librement ces modèles, de les affiner ou de les intégrer dans des produits.
La startup encourage explicitement la communauté IA à contribuer : en ouvrant ses modèles (et même en autorisant la réutilisation des sorties de son API pour affiner d’autres), DeepSeek a su fédérer des chercheurs et développeurs du monde entier.
Cet esprit collaboratif a accéléré les progrès – on le voit avec les nombreux forks, modèles dérivés et améliorations communautaires apparus en quelques mois autour de DeepSeek.
En résumé, l’histoire de DeepSeek illustre la synergie entre croissance explosive d’une startup tech et dynamique open source : l’entreprise a su innover très vite tout en partageant largement ses avancées, ce qui a amplifié son impact.
Conclusion et perspectives
En à peine deux ans, DeepSeek AI est passé du statut de nouvel entrant à celui d’acteur incontournable dans l’univers de l’intelligence artificielle open source.
Sa progression rapide — marquée par des millions de téléchargements, une adoption massive en Chine et des modèles concurrençant GPT-4 ou Claude — témoigne d’un bouleversement profond dans l’écosystème technologique mondial.
L’approche de DeepSeek allie performance technique, ouverture communautaire et accessibilité économique, ce qui en fait aujourd’hui une alternative crédible et durable aux géants fermés comme OpenAI ou Anthropic.
Qu’il s’agisse de DeepSeek-V3, de R1 ou de ses modèles spécialisés comme Coder ou Janus, chaque version pousse plus loin les limites de ce que l’IA open source peut accomplir.
D’un point de vue stratégique et SEO, cette montée en puissance reflète une tendance globale : un intérêt croissant pour les modèles IA open source puissants, reproductibles et transparents.
Pour les créateurs de contenu, les chercheurs et les professionnels de la tech, cela ouvre un champ riche en opportunités pour créer des analyses, tutoriels ou comparatifs autour de DeepSeek AI, en s’appuyant sur des mots-clés porteurs comme modèle IA open source, statistiques DeepSeek, ou croissance IA.
En somme, DeepSeek ne se contente pas de suivre la vague de l’IA : il la redéfinit.
Et si la trajectoire actuelle se confirme, son nom deviendra l’un des piliers de la prochaine génération d’intelligences artificielles ouvertes, influençant aussi bien la recherche, l’industrie que la communauté mondiale.