deepseek

DeepSeek v4

DeepSeek v4 est un modèle MoE de 1,6T de paramètres doté d'une context window de 1M de tokens et d'un support multimodal natif pour texte, vision et vidéo à...

Open SourceMultimodalMixture of ExpertsReasoningLong Context
deepseek logodeepseekDeepSeek-V2026-04-23
Contexte
1.0Mtokens
Sortie max.
384Ktokens
Prix entrée
$1.74/ 1M
Prix sortie
$3.48/ 1M
Modalité:TextImageAudioVideo
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
90.1%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). DeepSeek v4 a obtenu 90.1% sur ce benchmark.
HLE
48.2%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. DeepSeek v4 a obtenu 48.2% sur ce benchmark.
MMLU
90.1%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. DeepSeek v4 a obtenu 90.1% sur ce benchmark.
MMLU Pro
87.5%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. DeepSeek v4 a obtenu 87.5% sur ce benchmark.
SimpleQA
57.9%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. DeepSeek v4 a obtenu 57.9% sur ce benchmark.
IFEval
89%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. DeepSeek v4 a obtenu 89% sur ce benchmark.
AIME 2025
92%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. DeepSeek v4 a obtenu 92% sur ce benchmark.
MATH
90.2%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. DeepSeek v4 a obtenu 90.2% sur ce benchmark.
GSM8k
92.6%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. DeepSeek v4 a obtenu 92.6% sur ce benchmark.
MGSM
92%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. DeepSeek v4 a obtenu 92% sur ce benchmark.
MathVista
72%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. DeepSeek v4 a obtenu 72% sur ce benchmark.
SWE-Bench
80.6%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. DeepSeek v4 a obtenu 80.6% sur ce benchmark.
HumanEval
90%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. DeepSeek v4 a obtenu 90% sur ce benchmark.
LiveCodeBench
93.5%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. DeepSeek v4 a obtenu 93.5% sur ce benchmark.
MMMU
70%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. DeepSeek v4 a obtenu 70% sur ce benchmark.
MMMU Pro
55%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. DeepSeek v4 a obtenu 55% sur ce benchmark.
ChartQA
87%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. DeepSeek v4 a obtenu 87% sur ce benchmark.
DocVQA
92%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. DeepSeek v4 a obtenu 92% sur ce benchmark.
Terminal-Bench
67.9%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. DeepSeek v4 a obtenu 67.9% sur ce benchmark.
ARC-AGI
77%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. DeepSeek v4 a obtenu 77% sur ce benchmark.

À propos de DeepSeek v4

Découvrez les capacités, fonctionnalités et façons d'utiliser DeepSeek v4.

Architecture haute efficacité à l'échelle du trillion

DeepSeek v4 représente une évolution dans la conception des Mixture-of-Experts (MoE), s'étendant jusqu'à 1,6 trillion de paramètres au total avec 49 milliards de paramètres actifs. Le modèle intègre les technologies CSA (Compressed Sparse Attention) et HCA (Heavily Compressed Attention) pour gérer sa context window d'un million de tokens. Ces technologies réduisent l'empreinte mémoire du cache KV de 90 % par rapport aux architectures standard, permettant une inference plus rapide et des exigences matérielles moindres pour les tâches à long contexte.

Intégration multimodale native

Contrairement aux modèles qui utilisent des encodeurs de vision ou d'audio séparés, DeepSeek v4 est nativement multimodal dès la phase d'entraînement initiale. Il traite le texte, les images, l'audio et la vidéo au sein d'un cadre unifié unique. Cette approche améliore le reasoning cross-modal, permettant au modèle d'effectuer des analyses complexes sur des fichiers vidéo bruts et des archives documentaires à grande échelle sans perdre les détails granulaires.

Disruption stratégique des coûts

Le modèle est positionné comme une alternative open-source performante aux modèles propriétaires de haut niveau. Avec une tarification à 1,74 $ par million de tokens en entrée, il maintient des performances de niveau frontier en coding et en mathématiques, tout en réduisant considérablement les coûts opérationnels pour les développeurs. L'inclusion d'un Thinking Mode optionnel permet un raisonnement approfondi pour les démonstrations logiques et la programmation compétitive.

DeepSeek v4

Cas d'utilisation de DeepSeek v4

Découvrez les différentes façons d'utiliser DeepSeek v4 pour obtenir d'excellents résultats.

Refactoring de bases de code à grande échelle

Utilisation de la context window de 1M pour ingérer des dépôts entiers afin de détecter les bugs et d'apporter des améliorations architecturales globales.

Analyse vidéo native

Traitement direct de fichiers vidéo bruts pour effectuer la détection de scènes, la génération de transcriptions et un raisonnement visuel complexe.

Agents logiciels autonomes

Déploiement du modèle dans des workflows agentic pour résoudre des problèmes GitHub réels avec un taux de réussite de 80,6 % sur SWE-bench.

Création de contenu multimodal

Génération de données structurées et de contenu créatif via texte, image et audio en utilisant un modèle unifié.

Démonstrations mathématiques de haut niveau

Résolution de problèmes mathématiques de niveau Olympiade et démonstrations formelles grâce au Thinking Mode spécialisé pour le raisonnement approfondi.

Recherche de connaissances en entreprise

Analyse d'archives documentaires massives en un seul prompt pour extraire des faits sans avoir besoin de pipelines RAG complexes.

Points forts

Limitations

Long contexte hyper-efficace: Réduit l'empreinte du cache KV de 90 %, permettant une context window de 1M qui reste performante sur du matériel standard.
Latence accrue du Thinking Mode: Le mode de reasoning approfondi augmente le temps jusqu'au premier token (time-to-first-token), le rendant moins adapté aux besoins conversationnels ultra-rapides.
Valeur leader sur le marché: Offre une intelligence de niveau frontier à 1,74 $/M de tokens, surpassant largement les concurrents occidentaux closed-source.
Biais d'optimisation matérielle: Les rapports techniques suggèrent que l'optimisation est fortement axée sur des accélérateurs chinois spécifiques plutôt que sur les clusters Nvidia.
Coding agentic d'élite: Atteint 80,6 % sur SWE-bench Verified, ce qui en fait l'un des modèles les plus capables pour l'ingénierie logicielle autonome.
Lacunes en matière de véracité: Obtient 57,9 % sur SimpleQA, ce qui indique que, bien que le reasoning soit d'élite, les hallucinations factuelles restent un défi.
Multimodalité native unifiée: Prend en charge le texte, la vision, l'audio et la vidéo dans une seule architecture sans nécessiter d'adaptateurs externes ou de sous-modèles.
Exigences complexes pour le cache KV: Le mécanisme d'attention hybride HCA/CSA nécessite un support kernel spécifique pour des performances locales optimales.

Démarrage rapide API

deepseek/deepseek-v4-pro

Voir la documentation
deepseek SDK
import OpenAI from 'openai';  const deepseek = new OpenAI({   baseURL: 'https://api.deepseek.com',   apiKey: process.env.DEEPSEEK_API_KEY, });  const msg = await deepseek.chat.completions.create({   model: 'deepseek-v4-pro',   messages: [{ role: 'user', content: 'Optimize this Rust kernel for memory efficiency.' }], }); console.log(msg.choices[0].message.content);

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de DeepSeek v4

Voyez ce que la communauté pense de DeepSeek v4

Le mode de reasoning de DeepSeek v4 a trouvé un bug de concurrence dans mon code Rust que même Claude Opus a manqué. C'est vraiment fou.
rust_dev_2025
reddit
L'ère du 1M de contexte rentable est enfin arrivée. Nous pouvons maintenant effectuer des refactorings de projets complets pour quelques centimes.
tech_lead_alex
twitter
Voir le modèle travailler sur une base de code de 1M de tokens sans perdre le fil est le véritable tournant de 2026.
logic_fanatic
hackernews
Anthropic et OpenAI ont un sérieux problème de tarification maintenant. DeepSeek vient de transformer l'IA de pointe en produit de commodité.
CodeMaster
youtube
Il bat GPT-5.4 dans les benchmarks de coding tout en étant open source. C'est la plus grosse sortie de l'année.
AI_Researcher_99
twitter
La compression mémoire est la vraie magie. 1T de paramètres sur du matériel grand public commence enfin à devenir réalité.
GPU_Rich
reddit

Vidéos sur DeepSeek v4

Regardez des tutoriels, critiques et discussions sur DeepSeek v4

L'efficacité mémoire est le vrai point fort ici, réduire le cache KV de 90 % change tout

Faire tourner un modèle 1T avec ce niveau de vitesse est une victoire architecturale majeure

Le coût par million de tokens rend la chose incontournable pour les petites startups

Je n'ai jamais vu un modèle open source gérer 1 million de tokens aussi proprement

On dirait que l'écart entre les modèles open et closed s'est officiellement refermé

DeepSeek ne joue plus seulement sur les prix ; ils sont leaders en reasoning sur long contexte

Le support vidéo natif est étonnamment robuste comparé à Gemini 2.0

L'installation en local est étonnamment simple si vous utilisez SGLang

Les benchmarks sur HumanEval montrent qu'il est essentiellement à parité avec GPT-5

La context window rend les pipelines RAG presque redondants pour les projets de taille moyenne

Les performances sur les benchmarks de coding sont actuellement inégalées par tout autre modèle open-weight

Il égale ou dépasse les meilleurs modèles fermés sur le refactoring massif de bases de code

L'implémentation de la mémoire engramme est une prouesse technique dans ce domaine

Nous constatons une précision logique de 90 % en Thinking Mode pour les maths de niveau Olympiade

Cette version démocratise efficacement l'intelligence à mille milliards de paramètres

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour DeepSeek v4

Conseils d'experts pour tirer le meilleur parti de DeepSeek v4.

Basculer entre les modes de réflexion

Utilisez le mode standard pour des échanges rapides et réservez le Thinking Mode spécifiquement pour le coding et les démonstrations logiques.

Exploiter le cache de contexte

Utilisez les fonctionnalités de mise en cache de contexte intégrées pour réduire les coûts jusqu'à 90 % lors de l'utilisation de prompts à long contexte répétitifs.

Entrée multimodale directe

Fournissez des fichiers audio et vidéo bruts directement dans l'API pour bénéficier de l'architecture native plutôt que de passer par une pré-transcription.

Optimisation du System Prompt

Fournissez un schéma JSON clair ou des instructions d'utilisation d'outils dans le system prompt pour un comportement agentic hautement fiable.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
moonshot

Kimi k2.6

Moonshot

Kimi k2.6 is Moonshot AI's 1T-parameter MoE model featuring a 256K context window, native video input, and elite performance in autonomous agentic coding.

256K context
$0.95/$4.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Questions Fréquentes sur DeepSeek v4

Trouvez des réponses aux questions courantes sur DeepSeek v4