deepseek

DeepSeek-V3.2-Speciale

DeepSeek-V3.2-Speciale est un LLM axé sur le reasoning offrant des performances mathématiques de niveau médaille d'or, la DeepSeek Sparse Attention et une...

DeepSeekIAdeReasoningOpenSourceOlympiadesDeMathsSparseAttention
deepseek logodeepseekDeepSeek-V32025-12-01
Contexte
131Ktokens
Sortie max.
131Ktokens
Prix entrée
$0.28/ 1M
Prix sortie
$0.42/ 1M
Modalité:Text
Capacités:OutilsStreamingRaisonnement
Benchmarks
GPQA
91.5%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). DeepSeek-V3.2-Speciale a obtenu 91.5% sur ce benchmark.
HLE
30.6%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. DeepSeek-V3.2-Speciale a obtenu 30.6% sur ce benchmark.
MMLU
88.5%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. DeepSeek-V3.2-Speciale a obtenu 88.5% sur ce benchmark.
MMLU Pro
78.4%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. DeepSeek-V3.2-Speciale a obtenu 78.4% sur ce benchmark.
SimpleQA
45.8%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. DeepSeek-V3.2-Speciale a obtenu 45.8% sur ce benchmark.
IFEval
91.2%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. DeepSeek-V3.2-Speciale a obtenu 91.2% sur ce benchmark.
AIME 2025
96%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. DeepSeek-V3.2-Speciale a obtenu 96% sur ce benchmark.
MATH
90.1%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. DeepSeek-V3.2-Speciale a obtenu 90.1% sur ce benchmark.
GSM8k
98.9%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. DeepSeek-V3.2-Speciale a obtenu 98.9% sur ce benchmark.
MGSM
92.5%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. DeepSeek-V3.2-Speciale a obtenu 92.5% sur ce benchmark.
MathVista
68.5%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. DeepSeek-V3.2-Speciale a obtenu 68.5% sur ce benchmark.
SWE-Bench
73.1%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. DeepSeek-V3.2-Speciale a obtenu 73.1% sur ce benchmark.
HumanEval
94.1%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. DeepSeek-V3.2-Speciale a obtenu 94.1% sur ce benchmark.
LiveCodeBench
71.4%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. DeepSeek-V3.2-Speciale a obtenu 71.4% sur ce benchmark.
MMMU
70.2%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. DeepSeek-V3.2-Speciale a obtenu 70.2% sur ce benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. DeepSeek-V3.2-Speciale a obtenu 58% sur ce benchmark.
ChartQA
85%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. DeepSeek-V3.2-Speciale a obtenu 85% sur ce benchmark.
DocVQA
93%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. DeepSeek-V3.2-Speciale a obtenu 93% sur ce benchmark.
Terminal-Bench
46.4%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. DeepSeek-V3.2-Speciale a obtenu 46.4% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. DeepSeek-V3.2-Speciale a obtenu 12% sur ce benchmark.

À propos de DeepSeek-V3.2-Speciale

Découvrez les capacités, fonctionnalités et façons d'utiliser DeepSeek-V3.2-Speciale.

Une nouvelle frontière du reasoning

DeepSeek-V3.2-Speciale est un large language model (LLM) state-of-the-art, axé sur le reasoning, servant de variante à haut compute de la famille V3.2. Explicitement conçu pour rivaliser avec les frontier models comme GPT-5 et Gemini 3 Pro, il atteint des performances exceptionnelles en supprimant les pénalités de longueur pendant l'apprentissage par renforcement et en augmentant le compute post-entraînement à plus de 10 % du budget de pré-entraînement. Cela permet au model de générer des trajectoires chain-of-thought extrêmement longues — dépassant 47 000 tokens par réponse — pour résoudre des problèmes multi-étapes complexes.

Innovation architecturale

Techniquement, le model introduit la DeepSeek Sparse Attention (DSA), un mécanisme révolutionnaire qui utilise un indexeur ultra-rapide pour identifier les tokens les plus pertinents au sein de sa context window de 131K. En se concentrant sur un sous-ensemble spécifique de tokens, le model réduit considérablement la charge de compute pour l'inference sur contextes longs tout en maintenant la précision des architectures denses. C'est notamment le premier model open-source à obtenir des résultats de niveau médaille d'or aux Olympiades Internationales de Mathématiques (IMO) 2025 et aux Olympiades Internationales d'Informatique (IOI).

Efficacité et intégration

Au-delà de la logique pure, le model privilégie l'efficacité économique et l'utilité pour les développeurs. Proposé à une fraction du prix de ses pairs closed-source, il supporte le Thinking in Tool-Use, un mode où le reasoning est directement intégré dans la boucle d'appel d'outils. Cela permet de créer des agents autonomes plus robustes, capables de planifier, vérifier et corriger leurs actions en temps réel dans des environnements simulés complexes.

DeepSeek-V3.2-Speciale

Cas d'utilisation de DeepSeek-V3.2-Speciale

Découvrez les différentes façons d'utiliser DeepSeek-V3.2-Speciale pour obtenir d'excellents résultats.

Démonstrations mathématiques de niveau Olympiades

Résolution de problèmes de niveau compétition (IMO et CMO) nécessitant des dizaines d'étapes logiques.

Ingénierie logicielle agentic

Résolution de problèmes GitHub réels en naviguant de manière autonome dans des bases de code complexes et en appliquant des correctifs.

Simulation de systèmes complexes

Émulation de systèmes physiques ou mathématiques, tels que la propagation de fréquences radio ou la physique des ondes, avec une haute précision.

Workflows de deep reasoning

Réalisation de recherches approfondies et d'analyses chain-of-thought pour la planification stratégique ou la découverte scientifique.

Planification d'agents autonomes

Utilisation du « Thinking in Tool-Use » pour planifier, exécuter et vérifier des actions multi-étapes dans plus de 1 800 environnements simulés.

Programmation compétitive zero-shot

Génération d'algorithmes efficaces pour des défis de programmation de niveau CodeForces ou IOI avec autocorrections automatisées.

Points forts

Limitations

Reasoning de niveau médaille d'or: Obtention de résultats de niveau médaille d'or aux Olympiades Internationales de Mathématiques (IMO) 2025, surpassant presque tous les closed-source models en logique.
Inefficacité en tokens: Pour atteindre sa grande précision, le model génère souvent 3 à 4 fois plus de tokens que ses concurrents, ce qui rallonge les temps d'attente.
Accessibilité imbattable: Avec un prix de 0,28 $/0,42 $ par 1M de tokens, il offre un reasoning de pointe à un tarif rendant les déploiements d'agents à grande échelle viables.
Intensité matérielle: En tant que model de 671B parameters, l'exécuter localement nécessite des configurations VRAM massives dépassant la plupart des ordinateurs de bureau grand public.
Context long efficace: Le mécanisme DeepSeek Sparse Attention (DSA) lui permet de traiter 131K tokens avec un coût de compute bien inférieur aux transformers denses standards.
Latency d'inference: Les chaînes de reasoning étendues signifient que le model peut prendre plusieurs minutes pour produire une réponse finale à des problèmes mathématiques complexes.
Intégration d'outils avancée: Propose un mode « Thinking in Tool-Use » inédit où le reasoning est intégré directement dans la boucle d'appel d'outils.
Bêta optimisée uniquement pour l'API: Bien que les poids soient disponibles, l'expérience « Speciale » la plus optimisée est actuellement priorisée via les points de terminaison API de DeepSeek.

Démarrage rapide API

deepseek/deepseek-v3.2-speciale

Voir la documentation
deepseek SDK
import OpenAI from "openai";

const openai = new OpenAI({
  baseURL: "https://api.deepseek.com",
  apiKey: "VOTRE_CLÉ_API_DEEPSEEK",
});

async function main() {
  const completion = await openai.chat.completions.create({
    messages: [{ role: "user", content: "Résoudre le problème 1 de l'IMO 2025 avec un reasoning étape par étape." }],
    model: "deepseek-v3.2-speciale",
    max_tokens: 16384, 
  });

  console.log("Chaîne de reasoning :", completion.choices[0].message.reasoning_content);
  console.log("Réponse finale :", completion.choices[0].message.content);
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de DeepSeek-V3.2-Speciale

Voyez ce que la communauté pense de DeepSeek-V3.2-Speciale

"DeepSeek V3.2 Speciale domine mon benchmark de maths tout en étant environ 15 fois moins cher que GPT-5.1 High"
gum1h0x
x
"Ils sont les premiers à sortir un model niveau Or IMO 2025 et ICPC World Finals auquel tout le monde peut réellement accéder"
Chubby
reddit
"Il raisonne pendant un temps fou... mais le script qu'il a généré était mathématiquement parfait"
Bijan Bowen
youtube
"Speciale est fait pour les problèmes difficiles—il rivalise avec Gemini-3.0-Pro avec des résultats médaille d'or à l'IMO 2025"
nick-baumann
reddit
"Le ratio de validité est super élevé, ce qui signifie que s'il produit une mauvaise transition de mot, il ne tombe pas dans une boucle sans fin"
Lisan al Gaib
x
"C'est fondamentalement les performances d'o1-pro au prix de GPT-4o-mini. Travail incroyable de DeepSeek"
tech-enthusiast
hackernews

Vidéos sur DeepSeek-V3.2-Speciale

Regardez des tutoriels, critiques et discussions sur DeepSeek-V3.2-Speciale

Ils disent en gros qu'il possède des capacités de reasoning poussées au maximum et qu'il est conçu pour rivaliser avec Gemini 3 Pro.

Ce qui m'a marqué, c'est quand Gemini 2.5 deepthink n'a obtenu que des résultats de niveau bronze alors que ce model DeepSeek décroche l'or.

Avoir un model de ce niveau de puissance qui est, entre guillemets, open-source est vraiment très appréciable.

Il va réfléchir pendant très longtemps... il n'est pas fait pour des questions simples comme 'combien font 2+2'.

La précision sur les problèmes des olympiades de maths 2025 est tout simplement inouïe pour un model à ce prix.

La version Speciale de V3.2 a des capacités de reasoning au maximum et rivalise davantage avec Gemini 3 Pro.

DeepSeek est le premier à intégrer la réflexion directement dans l'utilisation des outils.

Un model open-source comparable à ces models closed-source et coûteux.

Les chiffres des benchmarks qu'ils atteignent écrasent littéralement la plupart des open weights.

Ils ont vraiment mis le paquet sur l'apprentissage par renforcement pour cette variante.

Speciale est conçu spécifiquement pour le reasoning... laissez le model réfléchir aussi longtemps qu'il le faut.

Il utilise désormais leur DSA ou architecture sparse DeepSeek pour résoudre le goulot d'étranglement de l'attention.

Ce n'est pas juste une optimisation théorique. Cela signifie que ce model est incroyablement peu coûteux à faire tourner, même avec de longs contextes.

Quand on regarde HumanEval, 94,1 % c'est tout simplement stupéfiant pour un model que l'on peut télécharger.

Il semble plus 'intelligent' dans sa façon de gérer le refactoring de code par rapport au V3 standard.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents
Voir la video demo

Conseils Pro pour DeepSeek-V3.2-Speciale

Conseils d'experts pour tirer le meilleur parti de DeepSeek-V3.2-Speciale.

Désactivez les contraintes de longueur

Assurez-vous que votre appel API n'a pas de limites max_tokens restrictives ; le model a besoin d'espace pour « réfléchir ».

Surveillez la consommation de tokens

Ce model privilégie la précision à la brièveté et peut utiliser 3 à 4 fois plus de tokens que les models standards pour la même tâche.

Exploitez le Thinking in Tool-Use

Utilisez le model pour des tâches d'agent complexes où il peut effectuer un reasoning pendant l'exécution de l'outil plutôt qu'avant.

Quantification locale

Si vous l'exécutez localement, utilisez une quantification Q5_K_M ou supérieure pour préserver les poids complexes du reasoning de l'architecture 671B.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

google

Gemini 3 Pro

google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
google

Gemini 3 Flash

google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
moonshot

Kimi K2 Thinking

moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.15/1M
openai

GPT-5.2

openai

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
openai

GPT-5.2 Pro

openai

GPT-5.2 Pro is OpenAI's 2025 flagship reasoning model featuring Extended Thinking for SOTA performance in mathematics, coding, and expert knowledge work.

400K context
$21.00/$168.00/1M
openai

GPT-5.1

openai

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
xai

Grok-4

xai

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M

Questions Fréquentes sur DeepSeek-V3.2-Speciale

Trouvez des réponses aux questions courantes sur DeepSeek-V3.2-Speciale