deepseek

DeepSeek-V3.2-Speciale

DeepSeek-V3.2-Speciale ist ein LLM mit Fokus auf reasoning, Goldmedaillen-Leistung in Mathe, DeepSeek Sparse Attention und einer 131K context window. Es...

DeepSeekReasoningAIOpenSourceMatheOlympiadeSparseAttention
deepseek logodeepseekDeepSeek-V31. Dezember 2025
Kontext
131KToken
Max. Ausgabe
131KToken
Eingabepreis
$0.28/ 1M
Ausgabepreis
$0.42/ 1M
Modalität:Text
Fähigkeiten:ToolsStreamingLogik
Benchmarks
GPQA
91.5%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). DeepSeek-V3.2-Speciale erreichte 91.5% bei diesem Benchmark.
HLE
30.6%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. DeepSeek-V3.2-Speciale erreichte 30.6% bei diesem Benchmark.
MMLU
88.5%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. DeepSeek-V3.2-Speciale erreichte 88.5% bei diesem Benchmark.
MMLU Pro
78.4%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. DeepSeek-V3.2-Speciale erreichte 78.4% bei diesem Benchmark.
SimpleQA
45.8%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. DeepSeek-V3.2-Speciale erreichte 45.8% bei diesem Benchmark.
IFEval
91.2%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. DeepSeek-V3.2-Speciale erreichte 91.2% bei diesem Benchmark.
AIME 2025
96%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. DeepSeek-V3.2-Speciale erreichte 96% bei diesem Benchmark.
MATH
90.1%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. DeepSeek-V3.2-Speciale erreichte 90.1% bei diesem Benchmark.
GSM8k
98.9%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. DeepSeek-V3.2-Speciale erreichte 98.9% bei diesem Benchmark.
MGSM
92.5%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. DeepSeek-V3.2-Speciale erreichte 92.5% bei diesem Benchmark.
MathVista
68.5%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. DeepSeek-V3.2-Speciale erreichte 68.5% bei diesem Benchmark.
SWE-Bench
73.1%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). DeepSeek-V3.2-Speciale erreichte 73.1% bei diesem Benchmark.
HumanEval
94.1%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. DeepSeek-V3.2-Speciale erreichte 94.1% bei diesem Benchmark.
LiveCodeBench
71.4%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. DeepSeek-V3.2-Speciale erreichte 71.4% bei diesem Benchmark.
MMMU
70.2%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. DeepSeek-V3.2-Speciale erreichte 70.2% bei diesem Benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. DeepSeek-V3.2-Speciale erreichte 58% bei diesem Benchmark.
ChartQA
85%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. DeepSeek-V3.2-Speciale erreichte 85% bei diesem Benchmark.
DocVQA
93%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. DeepSeek-V3.2-Speciale erreichte 93% bei diesem Benchmark.
Terminal-Bench
46.4%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. DeepSeek-V3.2-Speciale erreichte 46.4% bei diesem Benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. DeepSeek-V3.2-Speciale erreichte 12% bei diesem Benchmark.

Über DeepSeek-V3.2-Speciale

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von DeepSeek-V3.2-Speciale.

Fokus auf High-Compute Reasoning

DeepSeek-V3.2-Speciale ist ein Mixture-of-Experts Sprachmodell mit 685 Milliarden parameters. Es aktiviert 37 Milliarden parameters pro token, um Leistung und Effizienz in Einklang zu bringen. Diese Variante wurde entwickelt, um mehrstufige Probleme zu lösen, die erhebliches internes reasoning erfordern. Durch die Skalierung der Rechenleistung nach dem Training auf über 10 % des Pre-Training-Budgets produziert das Modell lange chain-of-thought Trajektorien, die 47.000 tokens pro Antwort überschreiten können. Dies macht es geeignet für die Navigation komplexer logischer Beweise und technischer Forschung.

Sparse Attention Architektur

Das Modell nutzt DeepSeek Sparse Attention (DSA), um seine 131.072-token context window zu verwalten. Dieser Mechanismus verwendet einen Blitz-Indexer, um die relevantesten tokens zu isolieren und so die Rechenlast zu reduzieren, die typischerweise in dense Systemen mit langem Kontext auftritt. Es bewahrt die Logik, während es mit geringerem Overhead arbeitet. Die Architektur zielt speziell auf High-Compute-Umgebungen ab, in denen die reasoning-Tiefe gegenüber breiter multimodaler Flexibilität priorisiert wird.

Technische und akademische Leistung

Speciale ist das erste Modell mit offenen Gewichten, das beim International Mathematical Olympiad (IMO) 2025 Ergebnisse auf Goldmedaillen-Niveau erzielt hat. Es zeichnet sich in technischen benchmarks wie AIME 2025 und HumanEval aus und entspricht bei reinen Logikaufgaben oft proprietären Systemen. Entwickler können es zur Generierung komplexer Codebasen oder zur Synthese dichter technischer Dokumentationen nutzen. Das Modell wird unter der MIT-Lizenz veröffentlicht, was eine breite Nutzung in der open-source Community erleichtert.

DeepSeek-V3.2-Speciale

Anwendungsfälle für DeepSeek-V3.2-Speciale

Entdecken Sie die verschiedenen Möglichkeiten, DeepSeek-V3.2-Speciale für großartige Ergebnisse zu nutzen.

Generierung mathematischer Beweise

Lösung mathematischer Beweise auf Olympiade-Niveau und symbolischer Logikprobleme, die eine hohe kognitive Tiefe erfordern.

Architektonisches Software-Design

Generierung komplexer Softwarearchitekturen über mehrere Dateien hinweg durch logisches Durchdenken struktureller Abhängigkeiten ohne tool-use.

Synthese technischer Dokumente

Analysieren und Verknüpfen von Erkenntnissen aus umfangreichen technischen Fachartikeln innerhalb der 131K context window.

Produktion synthetischer Daten

Erstellung hochwertiger, reasoning-reicher Trainingsdatensätze, um Logik in kleinere, spezialisierte KI-Modelle zu destillieren.

Wissenschaftliche Tiefenrecherche

Überprüfung und Synthese dichter akademischer Literatur, um nuancierte logische Fortschritte in MINT-Bereichen zu extrahieren.

Planung autonomer Agenten

Navigation komplexer, mehrstufiger Planungs- und Strategieentwicklungen für KI-agentic Systeme in simulierten Umgebungen.

Stärken

Einschränkungen

Herausragende Mathematikleistung: Erreicht 96 % bei AIME 2025 und Goldmedaillen-Ergebnisse beim internationalen IMO-Wettbewerb.
Keine native Multimodalität: Besitzt nicht die Fähigkeit, Bilder oder Audio zu verarbeiten, was die Nutzung auf textbasierte Daten einschränkt.
Massives Denk-Budget: Generiert Denk-Trajektorien von über 47.000 tokens für tiefgreifende logische Explorationen.
Deaktiviertes Tool-Calling: Unterstützt kein function calling, was den Nutzen für autonome API-Interaktionen einschränkt.
DSA-Effizienz: Der DeepSeek Sparse Attention-Mechanismus verarbeitet 131K Kontext mit geringeren Rechenkosten als dense Modelle.
Inference-Latenz: Denkmodi können bei komplexen logischen Beweisen zu Wartezeiten von mehreren Minuten führen.
Kostenvorteil: Bietet reasoning auf frontier-Niveau für 0,28 $ pro Million tokens, was deutlich günstiger ist als bei proprietären Wettbewerbern.
Hosting-Anforderungen: Erfordert GPU-Cluster auf Enterprise-Niveau aufgrund seiner MoE-Architektur mit 685 Milliarden parameters.

API-Schnellstart

deepseek/deepseek-v3.2-speciale

Dokumentation anzeigen
deepseek SDK
import OpenAI from "openai";

const openai = new OpenAI({
  baseURL: "https://api.deepseek.com",
  apiKey: process.env.DEEPSEEK_API_KEY,
});

async function main() {
  const completion = await openai.chat.completions.create({
    messages: [{ role: "user", content: "Löse nach x in der komplexen Ebene auf: e^z = -1." }],
    model: "deepseek-v3.2-speciale",
  });

  console.log(completion.choices[0].message.content);
}

main();

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über DeepSeek-V3.2-Speciale sagen

Sehen Sie, was die Community über DeepSeek-V3.2-Speciale denkt

DeepSeek-V3.2-Speciale ist ein Biest. Maximiertes reasoning, das mit Gemini 3 Pro konkurriert.
OpenRouter
twitter
Die HumanEval-Ergebnisse sind echt. Es schreibt saubereren Code als viele proprietäre Modelle, die ich diesen Monat getestet habe.
dev_guru_99
reddit
Die Preisgestaltung ist einfach wahnsinnig. Reasoning auf frontier-Niveau zu einem Bruchteil der Kosten von OpenAI oder Anthropic.
AI_Builder_X
twitter
Es ist erfrischend zu sehen, wie ein Modell mit offenen Gewichten die Top-3-Labore tatsächlich herausfordert. Die Architektur-Entscheidungen hier sind brillant.
binary_explorer
hackernews

Videos über DeepSeek-V3.2-Speciale

Schauen Sie Tutorials, Rezensionen und Diskussionen über DeepSeek-V3.2-Speciale

Es denkt für eine wahnsinnige Zeit... es ist ein deep reasoner.

Das DeepSeek-Modell gewinnt Gold [bei der IMO], während Deepthink nur Bronze holte.

Zu beobachten, was es tut, könnte pädagogisch extrem wertvoll sein.

Die Logik hier ist im Vergleich zu Standardmodellen auf einem anderen Niveau.

Man kann tatsächlich sehen, wie das Modell Fehlversuche durchläuft.

Alles, was 'speciale' wirklich bedeutet, ist Deep Think. Es hat einen Deep-Think-Modus.

Es denkt für 63 Sekunden... das ist ziemlich erstaunlich.

Es ist dort sehr schlau... und entwickelt wirklich fortgeschrittenen Code.

Dies lokal zu skalieren wird für Benutzer die größte Hürde sein.

Die reasoning-tokens werden auf den meisten Plattformen anders abgerechnet.

Speciale ist das Biest. Maximiertes reasoning, tiefe chain-of-thought.

Speciale wurde für tiefgreifendes reasoning, mehrstufige Beweise und komplexe Forschung entwickelt.

Die Transparenz von DeepSeek ist ein riesiger Vorteil... die Arbeit zu sehen.

Es schafft es, bei weitaus längeren Antworten kohärent zu bleiben als Gemini.

Die Sparse Attention Technologie ist der Grund, warum sie die Preise so niedrig halten können.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für DeepSeek-V3.2-Speciale

Expertentipps, um das Beste aus DeepSeek-V3.2-Speciale herauszuholen.

Sampling-Parameter optimieren

Setzen Sie temperature auf 1.0 und top_p auf 0.95 bei Aufgaben mit hohem Logikbedarf, um sicherzustellen, dass die tiefgreifenden reasoning-Pfade vielfältig bleiben.

Technische Details angeben

Strukturieren Sie Anweisungen in markdown, um dem Modell zu helfen, seine interne chain-of-thought Verarbeitung besser zu organisieren.

Denkzeit einplanen

Erwarten Sie eine höhere latency bei komplexen Beweisen, da das Modell massive interne Denkketten generiert.

Dedizierte Endpunkte verwenden

Geben Sie den 'speciale' API Pfad in Ihrer Konfiguration an, um gezielt auf die reasoning-Variante mit hoher Rechenleistung zuzugreifen.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
openai

GPT-5.2 Pro

OpenAI

GPT-5.2 Pro is OpenAI's 2025 flagship reasoning model featuring Extended Thinking for SOTA performance in mathematics, coding, and expert knowledge work.

400K context
$21.00/$168.00/1M
xai

Grok-3

xAI

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

1M context
$3.00/$15.00/1M
google

Gemini 3.1 Pro

Google

Gemini 3.1 Pro is Google's elite multimodal model featuring the DeepThink reasoning engine, a 1M+ context window, and industry-leading ARC-AGI logic scores.

1M context
$2.00/$12.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M

Häufig gestellte Fragen zu DeepSeek-V3.2-Speciale

Finden Sie Antworten auf häufige Fragen zu DeepSeek-V3.2-Speciale