La science s’empare de DeepSeek : l’IA open source plébiscitée par les chercheurs

Quelques jours à peine après la sortie de DeepSeek-R1 en janvier 2025, un phénomène inédit s’est produit dans la communauté scientifique : des chercheurs du monde entier se sont rués sur ce nouveau modèle d’IA pour l’étudier et l’expérimenter. L’ouverture totale du code et des poids de DeepSeek a fait tomber des barrières qui, ces dernières années, freinaient la recherche académique en intelligence artificielle.

« Là où GPT-4 restait une boîte noire hors d’atteinte, DeepSeek nous tend les clés d’un moteur dernier cri à explorer librement », résumait fin janvier Elizabeth Gibney dans la revue Nature. En quelques semaines, de multiples équipes universitaires ont lancé des projets pilotes utilisant DeepSeek dans des disciplines variées – signe que le modèle open source a comblé un manque en offrant à la science un instrument de pointe enfin accessible.

En mathématiques, par exemple, des professeurs ont testé DeepSeek sur la résolution de théorèmes ou de problèmes ouverts. Sur des concours de démonstration automatique, R1 s’est mesuré aux meilleurs systèmes existants et a étonnamment bien performé, égalant parfois les scores de modèles spécialisés de Google ou OpenAI.

En physique des particules, des chercheurs du CERN ont commencé à entraîner la version open source de DeepSeek sur leurs données de collision pour voir s’il pouvait découvrir de nouveaux schémas dans le bruit de fond – une tâche où sa capacité de raisonnement pas-à-pas pourrait apporter un plus par rapport aux réseaux de neurones classiques.

En sciences sociales, on a vu émerger des études où l’IA de DeepSeek joue le rôle d’analyste de texte pour passer au crible des corpus historiques volumineux, cherchant des tendances sémantiques ou d’éventuelles reconstructions de récits biaisés, ce qui intéresse historiens et spécialistes des médias.

Le domaine de la cognition et des neurosciences s’est lui aussi emparé de l’outil. DeepSeek, avec son architecture inspirée du raisonnement humain, suscite la curiosité des psychologues cognitifs : certains expérimentent en lui posant des tests de QI, des énigmes logiques, ou en comparant ses erreurs à celles commises par l’homme dans des illusions cognitives.

L’objectif est double : mieux cerner les mécanismes du modèle (fait-il les mêmes « fautes » que l’intelligence humaine ?) et potentiellement s’en servir comme modèle d’étude du cerveau.

Par exemple, des chercheurs en neurosciences computationnelles utilisent DeepSeek pour simuler des processus d’apprentissage et les confronter à des données d’imagerie cérébrale : ils espèrent voir si les représentations internes développées par l’IA présentent des analogies avec celles du cerveau humain lors de tâches similaires.

Cette effervescence a été largement facilitée par la licence ouverte de DeepSeek. Non seulement le modèle est téléchargeable gratuitement, mais la licence MIT autorise explicitement son usage y compris commercial, sans restriction. Pour les universités, souvent empêtrées dans des négociations contractuelles complexes pour accéder aux IA propriétaires, c’est un soulagement.

« Quel que soit le domaine, si vous avez une idée expérimentale avec DeepSeek, vous pouvez la mettre en œuvre immédiatement, sans papier à signer ni facture à payer », se félicite un professeur d’informatique à l’Université de Stanford, qui a intégré DeepSeek dans son cours sur les modèles de langage.

Par ailleurs, la possibilité d’inspecter le code source et les paramètres a ouvert la voie à des travaux de méta-analyse inédits : des informaticiens décortiquent les couches de neurones de R1 pour identifier quelles neurones artificiels codent quelles informations (chiffres, noms propres, règles grammaticales…), espérant ainsi percer une partie des mystères de la « boîte noire » que constitue un grand modèle de langage.

DeepSeek a également stimulé des collaborations académiques internationales. Des ateliers de recherche en ligne, parfois baptisés « DeepSeek-a-thons », ont réuni des centaines de doctorants et post-doctorants autour de projets collaboratifs éclair sur 48 heures, dans l’esprit des hackathons, pour faire avancer la compréhension du modèle.

On y a vu par exemple une équipe franco-américaine tenter d’évaluer la robustesse multilingue de DeepSeek en lui faisant traduire des textes littéraires rares, ou un duo sino-allemand analyser comment R1 modélise la temporalité dans les récits.

Les résultats préliminaires de ces efforts commencent à apparaître sous forme de prépublications sur arXiv : DeepSeek est en passe de devenir l’un des modèles les plus documentés par la littérature scientifique, alors qu’il n’a même pas un an d’existence.

Évidemment, tout n’est pas parfait. Des chercheurs ont aussi mis en lumière des limites de DeepSeek dans certains contextes : il lui arrive de fabuler des références (hallucinations) comme d’autres modèles, et son caractère open source signifie qu’il n’a pas été « bride » de la même façon qu’un ChatGPT pour filtrer des contenus toxiques, ce qui nécessite une prudence éthique lors de certaines expérimentations.

Mais loin d’être des obstacles, ces faiblesses documentées sont autant d’opportunités de recherche : elles permettent d’étudier comment les corriger.

Déjà, des équipes travaillent à adosser à DeepSeek des modules de critique externe ou à affiner son entraînement avec des retours humains pour atténuer ces problèmes, contribuant ainsi à l’amélioration de l’IA.

En somme, l’essor de DeepSeek dans la sphère scientifique rappelle un précédent illustre : celui du projet Genomic Open Source dans les années 2000, lorsque la libération du génome humain avait démultiplié les travaux en biologie.

Ici, c’est la libération d’un modèle d’IA avancé qui agit comme un catalyseur du progrès. La science s’est emparée de DeepSeek non seulement pour l’utiliser comme outil, mais aussi pour l’étudier lui-même comme objet d’intérêt.

Et cette dynamique risque fort de se poursuivre, car DeepSeek étant en évolution constante (V3.1, V3.2…), chaque nouvelle version apportera son lot de questions à explorer. Pour beaucoup de chercheurs, DeepSeek a rouvert un champ des possibles en IA qui s’était refermé avec la privatisation des modèles : l’intelligence artificielle redevient un bien commun à investiguer collectivement, renouant avec l’idéal de partage de la connaissance.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *