DeepSeek R1

L’IA chinoise qui veut redéfinir la donne mondiale

IA

Sylvain Morizet

1/28/20256 min read

Alors que ChatGPT (OpenAI), Bard (Google) ou encore Claude (Anthropic) dominaient jusqu’ici les conversations autour de l’IA générative, un nouvel acteur chinois fait grand bruit : DeepSeek. Depuis fin 2024 et plus encore ce 20 janvier 2025, son dernier modèle DeepSeek R1 suscite un enthousiasme spectaculaire, notamment grâce à une approche novatrice dite de « raisonnement profond » (chain of thought), un coût d’entraînement dérisoire comparé à ses concurrents, et une philosophie open source qui interpelle tout autant qu’elle inquiète. Retour sur DeepSeek R1 et sur les raisons qui en font la nouvelle étoile montante (et peut-être le nouveau « Sputnik moment ») de l’IA.

DeepSeek  : Entreprise chinoise aux grandes ambitions

  • Date de création : 2023

  • Équipe : majoritairement de jeunes ingénieurs chinois, financés notamment par le géant Tencent

  • Objectif affiché : répondre à la suprématie américaine en matière d’IA générative (OpenAI, Google, Microsoft, Meta, etc.) en proposant des solutions open source ou semi-ouvertes, puissantes et surtout beaucoup moins coûteuses.

Un succès fulgurant

En quelques semaines, l’application mobile DeepSeek a été téléchargée massivement, au point de dépasser ChatGPT en nombre de téléchargements sur l’App Store américain. Sur les réseaux sociaux, impossible d’échapper aux discussions sur les performances de DeepSeek V3 et, plus récemment, sur DeepSeek R1. Les promesses ?

  • Résoudre aisément des problèmes mathématiques,

  • Générer du code Python performant,

  • Répondre de façon cohérente à des questions complexes,

  • Le tout avec une facture énergétique et financière nettement inférieure à celles de ChatGPT, Bard ou Claude.

DeepSeek R1 et DeepSeek V3 : quelles différences ?

DeepSeek V3, le polyvalent

Sorti fin 2024, DeepSeek V3 est un modèle généraliste capable de rédiger du texte, de résumer de longs documents, de coder, etc. Avec un coût d’entraînement de 5 millions de dollars, il rivalise déjà avec certains modèles de la gamme GPT d’OpenAI, qui eux mobilisent des centaines de millions (voire des milliards) de dollars en ressources GPU.

DeepSeek R1, le nouveau venu à la « réflexion profonde »

Présenté le 20 janvier 2025, DeepSeek R1 est un modèle de raisonnement (chain of thought) ou « système 2 » qui n’hésite pas à formuler plusieurs hypothèses, se corriger, revenir en arrière pour ensuite générer une réponse finale plus pertinente. Mark Andreessen, célèbre investisseur, n’hésite pas à qualifier ce lancement de « Sputnik moment », rappelant comment le lancement du premier satellite soviétique avait bousculé la présumée domination américaine dans la conquête spatiale.

Au-delà de sa précision en mathématiques et en code, R1 affiche une efficacité de calcul remarquable, grâce à :

  1. Un “mix d’experts” : le modèle se compose de multiples “spécialistes” (en médecine, en code, en géographie, etc.) qu’il active à la demande pour limiter la consommation de ressources.

  2. Une précision moindre en interne (8 décimales), jugée largement suffisante pour la plupart des tâches courantes, mais permettant de gigantesques économies sur les GPU.

  3. Un coût ultra-compétitif : 2,19 $ pour générer 1 million de tokens, contre environ 60 $ pour la même quantité chez ChatGPT.

L’approche technique :  distillation  et réduction de coûts

La distillation, ou « l’apprenti qui apprend du maître »

Dave W. Plummer, ex-ingénieur Microsoft, compare la méthode DeepSeek à un apprentissage par transfert : « Au lieu de tout réentraîner massivement, DeepSeek R1 condense les connaissances de gros modèles (GPT-4O, Llama, etc.) pour aboutir à un modèle plus petit, mais quasiment aussi performant sur de nombreuses tâches. »

Concrètement :

  • Un modèle gigantesque (plus de 600 milliards de paramètres) sert de référence ou de “professeur”.

  • DeepSeek R1, plus léger, “dérive” de ce professeur par une succession d’exemples et de corrections.

  • Le résultat : un LLM beaucoup moins gourmand en infrastructure, exécutable sur des GPU moins récents (voire sur CPU haut de gamme) tout en restant très compétent.

Des économies à tous les étages

DeepSeek affirme avoir dépensé moins de 6 millions de dollars pour développer R1. Dans le monde de l’IA, où OpenAI, Microsoft ou Google engloutissent des dizaines de milliards (cf. projet “Stargate” évoquant 500 milliards de dollars), cette performance fait l’effet d’une bombe. Certains soupçonnent un artifice ou des subventions dissimulées par le gouvernement chinois pour abaisser artificiellement le coût. D’autres considèrent cette prouesse comme un exemple de ce qu’il est possible de faire avec plus d’ingéniosité et moins de GPU de dernière génération.

Une IA ouverte… et censurée ?

La version en ligne vs. la version open source

  • Version en ligne (chat.deepseek.com / application mobile) : soumise à la censure chinoise sur les sujets sensibles (Parti communiste, événements historiques controversés, etc.). Dans de nombreux cas, DeepSeek coupe court à la conversation dès que des mots-clés politiquement sensibles sont détectés.

  • Version open source : téléchargeable par les développeurs et la communauté IA internationale, avec accès aux poids (weights) du modèle. Dans cette variante, certains contenus politiquement sensibles ne sont pas filtrés (Dave indique avoir questionné DeepSeek en local sur un cliché de Tian’anmen, et obtenu une réponse documentée).

Ainsi, DeepSeek R1 n’est pas monolithique : selon l’endroit où il est hébergé et les règles imposées, le contenu généré varie.

Les implications pour la concurrence

La composante open source de DeepSeek R1 permet à des développeurs du monde entier de l’utiliser sans recourir aux (coûteuses) API d’OpenAI.

  • Conséquence : une pression sur les tarifs des grands LLM propriétaires (OpenAI, Google, Microsoft).

  • Ampleur potentielle : des centaines de projets indépendants ou de PME pourraient adopter DeepSeek pour concevoir leur propre chatbot ou assistant intelligent, à moindre frais.

Un « Sputnik Moment » pour l’IA ?

Lorsqu’en 1957, l’URSS lança Spoutnik, le monde découvrit brutalement que la suprématie technologique américaine pouvait être contestée. Aujourd’hui, certains voient dans DeepSeek R1 le signal qu’en matière d’IA générative, la Chine n’est plus seulement une suiveuse, mais un concurrent redoutable. Selon Dave, cette annonce pourrait :

  • Réduire l’enthousiasme des investisseurs envers les grandes entreprises US, s’ils estiment qu’on peut faire mieux ou aussi bien avec moins de moyens.

  • Favoriser une adoption massive des IA open source par des laboratoires de recherche, des gouvernements et des start-ups cherchant une alternative à l’hégémonie américaine.

  • Accélérer la course à la miniaturisation : à l’image des “scrappy little PCs” (petits ordinateurs personnels) ayant révolutionné l’informatique face aux mainframes, DeepSeek R1 pourrait annoncer l’ère de modèles “assez bons” pour couvrir la majorité des cas d’usage.

Bien sûr, il reste des zones d’ombre :

  • R1 peut-il réellement égaler GPT-4O sur le long terme, notamment dans les tâches ultra-spécialisées (médecine avancée, recherche scientifique, etc.) ?

  • Les “petits” modèles (distillés) sont-ils aussi robustes face aux « hallucinations » et approximations ?

  • L’opacité sur l’origine exacte des financements et sur l’usage des données d’entraînement suscite la méfiance.

La démocratisation de l’IA à portée de main ?

DeepSeek R1 cristallise aujourd’hui des espoirs et des craintes. D’un côté, il incarne la promesse d’une IA plus abordable, moins énergivore et plus transparente (open source). De l’autre, il soulève des questions sur la censure chinoise, la fiabilité de l’information, et la possible instrumentalisation géopolitique.

Une certitude se dégage : l’arrivée de DeepSeek R1 va accélérer la course à l’innovation et la pression concurrentielle dans un secteur encore dominé par quelques géants américains. Cette concurrence pourrait bénéficier directement aux utilisateurs finaux, avec des coûts moindres et des outils toujours plus performants.

Ainsi, pour qui souhaite se lancer dans l’aventure, DeepSeek R1 est déjà testable :

  1. Via l’application ou le site chat.deepseek.com, avec son “bouton réflexion profonde R1” qui dévoile la chaîne de pensée.

  2. En téléchargeant (ou compilant) la version open source pour une intégration locale.

Sans prétendre à la perfection, R1 annonce un tournant : celui d’une IA relativement légère, collaborative et prête à conquérir le monde. Une histoire qui ne fait que commencer.