Depuis la mi-2023, DeepSeek fait parler de lui. Basé à Hangzhou, ce laboratoire d’IA open source propose des modèles efficaces et transparents qui concurrencent les géants du secteur, mais sans les coûts colossaux. Soutenu par le fonds spéculatif High-Flyer, DeepSeek allie puissance, accessibilité et ouverture. Voici ce que ses modèles apportent concrètement.
Présentation des principaux modèles
DeepSeek ne propose pas un seul grand modèle, mais une série complète adaptée à différents usages. Que ce soit pour le code, le dialogue, ou les tâches complexes de raisonnement, chaque modèle a été conçu pour répondre à un besoin précis.
DeepSeek Coder & Coder V2
DeepSeek a commencé par des modèles conçus pour le code.
- DeepSeek Coder, lancé en novembre 2023, existe en versions Base et Instruct, allant de 1,3 à 33 milliards de paramètres. Il a été entraîné sur 1,8 trillion de tokens, majoritairement du code, et prend en charge un contexte allant jusqu’à 16 000 tokens.
- DeepSeek-Coder V2, sorti mi-2024, a été enrichi de 6 trillions de tokens supplémentaires et prend en charge 338 langages de programmation. Il gère un contexte de 128 000 tokens et rivalise avec GPT-4 Turbo ou Claude 3 Opus sur les tâches de code et de mathématiques.
DeepSeek V2 & V3
Les modèles de la série V sont conçus pour des usages généraux à grande échelle.
- DeepSeek-V2 (mai 2024) utilise une architecture « Mixture-of-Experts » avec 236 milliards de paramètres (21 milliards actifs). Il gère jusqu’à 128 000 tokens et réduit les coûts d’entraînement tout en accélérant l’inférence.
- DeepSeek-V3 (décembre 2024) pousse encore plus loin : 671 milliards de paramètres (dont 37 milliards actifs), avec des optimisations FP8, la prédiction multi-tokens (MTP) et une attention latente multi-têtes (MLA). Entraîné sur 14,8 trillions de tokens, il n’a requis que 2,8 millions d’heures GPU. Ses performances égalent celles de GPT-4o ou Claude 3.5.
DeepSeek R1 & R2
Ces modèles sont spécialisés dans le raisonnement, les maths et la logique.
- DeepSeek-R1-Lite, version allégée sortie en novembre 2024, dépasse OpenAI o1 Preview sur des tests comme AIME ou Codeforces.
- DeepSeek-R1 (janvier 2025) améliore cette base avec un entraînement multi-étapes et des données initiales spécifiques. Il existe en six tailles (de 1,5 à 70 milliards de paramètres), toutes sous licence MIT.
- DeepSeek-R2 (avril 2025) affine encore le modèle précédent avec un meilleur support multilingue et une gestion optimisée des ressources.
Pourquoi les modèles de DeepSeek se démarquent
Les modèles de DeepSeek misent sur l’innovation et la transparence. Le modèle V3, par exemple, combine grande échelle, prédiction multi-tokens et précision optimisée, tout en gardant une empreinte technique modérée. Sous licence MIT, avec un accès public aux poids et au code, il offre une ouverture que peu d’acteurs proposent aujourd’hui. Côté performances, V3 tient tête aux meilleurs — GPT-4o, Claude 3.5 — tout en restant plus léger en ressources.
Les modèles R1 et R2 renforcent encore cette dynamique. Entraînés avec des techniques de renforcement, ils excellent dans les tâches logiques et mathématiques. Même les versions allégées dépassent les leaders commerciaux sur les benchmarks techniques. Pour les outils qui reposent sur une réflexion poussée ou une logique fine, ces modèles sont immédiatement utilisables.
Ce qu’il faut garder en tête
DeepSeek présente aussi des limites. L’entreprise opère depuis la Chine et les données des utilisateurs (y compris les conversations API et chat) passent par des serveurs soumis aux lois locales. Cela soulève des interrogations sur la confidentialité et la conformité réglementaire à l’étranger. De plus, les modèles sont conçus pour éviter certains sujets politiquement sensibles, comme Taïwan ou Tian’anmen, ce qui limite leur neutralité dans certains contextes.
Techniquement, l’approche open source renforce la transparence, mais expose aussi d’éventuelles failles. Les modèles peuvent être vulnérables à des attaques ou manipulations de prompts. Enfin, plusieurs pays, dont les États-Unis, craignent que ces outils puissent être exploités à des fins militaires ou de renseignement, ce qui a mené à des restrictions dans les secteurs publics.
Conclusion
DeepSeek propose une suite d’outils IA open source complète. De petits assistants spécialisés dans le code jusqu’aux gros modèles de langage dotés de capacités de raisonnement avancées, l’écosystème couvre large, sans verrouillage commercial ni facture salée. Mais il faut aussi composer avec des enjeux de sécurité, de confidentialité et de politique internationale.Vous pouvez tester gratuitement le chat IA de deepseek ou consulter les fiches techniques de chaque modèle pour aller plus loin.