deepseek

DeepSeek v4

DeepSeek v4 ist ein 1.6T parameter MoE model mit 1M token context window und nativer multimodaler Unterstützung für Text, Vision und Video zu disruptiven...

Open SourceMultimodalMixture of ExpertsReasoningLong Context
deepseek logodeepseekDeepSeek-V2026-04-23
Kontext
1.0MToken
Max. Ausgabe
384KToken
Eingabepreis
$1.74/ 1M
Ausgabepreis
$3.48/ 1M
Modalität:TextImageAudioVideo
Fähigkeiten:VisionToolsStreamingLogik
Benchmarks
GPQA
90.1%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). DeepSeek v4 erreichte 90.1% bei diesem Benchmark.
HLE
48.2%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. DeepSeek v4 erreichte 48.2% bei diesem Benchmark.
MMLU
90.1%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. DeepSeek v4 erreichte 90.1% bei diesem Benchmark.
MMLU Pro
87.5%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. DeepSeek v4 erreichte 87.5% bei diesem Benchmark.
SimpleQA
57.9%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. DeepSeek v4 erreichte 57.9% bei diesem Benchmark.
IFEval
89%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. DeepSeek v4 erreichte 89% bei diesem Benchmark.
AIME 2025
92%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. DeepSeek v4 erreichte 92% bei diesem Benchmark.
MATH
90.2%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. DeepSeek v4 erreichte 90.2% bei diesem Benchmark.
GSM8k
92.6%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. DeepSeek v4 erreichte 92.6% bei diesem Benchmark.
MGSM
92%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. DeepSeek v4 erreichte 92% bei diesem Benchmark.
MathVista
72%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. DeepSeek v4 erreichte 72% bei diesem Benchmark.
SWE-Bench
80.6%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). DeepSeek v4 erreichte 80.6% bei diesem Benchmark.
HumanEval
90%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. DeepSeek v4 erreichte 90% bei diesem Benchmark.
LiveCodeBench
93.5%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. DeepSeek v4 erreichte 93.5% bei diesem Benchmark.
MMMU
70%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. DeepSeek v4 erreichte 70% bei diesem Benchmark.
MMMU Pro
55%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. DeepSeek v4 erreichte 55% bei diesem Benchmark.
ChartQA
87%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. DeepSeek v4 erreichte 87% bei diesem Benchmark.
DocVQA
92%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. DeepSeek v4 erreichte 92% bei diesem Benchmark.
Terminal-Bench
67.9%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. DeepSeek v4 erreichte 67.9% bei diesem Benchmark.
ARC-AGI
77%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. DeepSeek v4 erreichte 77% bei diesem Benchmark.

Über DeepSeek v4

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von DeepSeek v4.

Hocheffiziente Architektur im Billionen-Maßstab

DeepSeek v4 stellt eine Evolution im Mixture-of-Experts (MoE)-Design dar und skaliert auf 1,6 Billionen Gesamtparameter bei 49 Milliarden aktiven Parametern. Das model integriert Compressed Sparse Attention (CSA) und Heavily Compressed Attention (HCA), um sein 1-Million-token context window zu verwalten. Diese Technologien reduzieren den KV cache-Speicherbedarf um 90 % im Vergleich zu Standardarchitekturen, was eine schnellere inference und geringere Hardwareanforderungen für long-context Aufgaben ermöglicht.

Native multimodale Integration

Im Gegensatz zu models, die separate Vision- oder Audio-Encoder verwenden, ist DeepSeek v4 von der ersten Trainingsphase an nativ multimodal. Es verarbeitet Text, Bilder, Audio und Video innerhalb eines einzigen vereinheitlichten Frameworks. Dieser Ansatz verbessert das cross-modale reasoning und ermöglicht es dem model, komplexe Analysen von Rohvideodateien und umfangreichen Dokumentenarchiven durchzuführen, ohne granulare Details zu verlieren.

Strategische Kostendisruption

Das model ist als performante open-source Alternative zu hochkarätigen proprietären models positioniert. Mit einer Preisgestaltung von $1,74 pro Million Input-tokens behält es die Leistungsfähigkeit von frontier models im Bereich Coding und Mathematik bei, während es die Betriebskosten für Entwickler erheblich senkt. Die Einbeziehung eines optionalen Thinking Mode ermöglicht deep reasoning für logische Beweise und wettbewerbsorientiertes Programmieren.

DeepSeek v4

Anwendungsfälle für DeepSeek v4

Entdecken Sie die verschiedenen Möglichkeiten, DeepSeek v4 für großartige Ergebnisse zu nutzen.

Großflächiges Refactoring von Code-Repositories

Nutzung des 1M context window zum Einlesen ganzer Repositorys für die globale Fehlersuche und architektonische Verbesserungen.

Native Videoanalyse

Direkte Verarbeitung von Rohvideodateien zur Szenenerkennung, Transkripterstellung und komplexen visuellen reasoning-Aufgaben.

Autonome Software-Agents

Einsatz des models in agentic Workflows zur Lösung realer GitHub-Issues mit einer Erfolgsquote von 80,6 % auf dem SWE-bench.

Multimodale Content-Erstellung

Generierung von strukturierten Daten und kreativen Inhalten in Text-, Bild- und Audioformaten über ein einheitliches model.

Mathematische Beweise auf hohem Niveau

Lösung mathematischer Probleme auf Olympiade-Niveau und formale Beweise unter Verwendung des spezialisierten Thinking Mode für deep reasoning.

Unternehmensweite Wissensabfrage

Analyse massiver Dokumentenarchive in einem einzigen prompt, um Fakten ohne komplexe RAG-Pipelines zu extrahieren.

Stärken

Einschränkungen

Hocheffizienter Long Context: Reduziert den KV cache-Footprint um 90 % und ermöglicht ein 1M context window, das auf Standard-Hardware performant bleibt.
Höhere Latenz im Thinking Mode: Der Modus für deep reasoning erhöht die Zeit bis zum ersten token, was ihn für extrem schnelle Konversationsbedürfnisse weniger geeignet macht.
Marktführendes Preis-Leistungs-Verhältnis: Bietet Intelligenz auf frontier-Niveau für $1,74/M tokens und unterbietet damit westliche closed-source Wettbewerber deutlich.
Bias bei der Hardware-Optimierung: Technische Berichte deuten darauf hin, dass die Optimierung stark auf spezifische chinesische Beschleuniger und weniger auf Nvidia-Cluster zugeschnitten ist.
Elite agentic Coding: Erreicht 80,6 % auf dem SWE-bench Verified und ist damit eines der leistungsfähigsten models für autonomes Software-Engineering.
Faktische Lücken: Erreicht 57,9 % bei SimpleQA, was darauf hindeutet, dass faktische Halluzinationen trotz exzellentem reasoning eine Herausforderung bleiben.
Einheitliche native Multimodalität: Unterstützt Text, Vision, Audio und Video in einer Architektur, ohne dass externe Adapter oder sub-models erforderlich sind.
Komplexe Anforderungen an den KV Cache: Der hybride HCA/CSA attention-Mechanismus erfordert eine spezifische Kernel-Unterstützung für eine optimale lokale Performance.

API-Schnellstart

deepseek/deepseek-v4-pro

Dokumentation anzeigen
deepseek SDK
import OpenAI from 'openai';  const deepseek = new OpenAI({   baseURL: 'https://api.deepseek.com',   apiKey: process.env.DEEPSEEK_API_KEY, });  const msg = await deepseek.chat.completions.create({   model: 'deepseek-v4-pro',   messages: [{ role: 'user', content: 'Optimieren Sie diesen Rust-Kernel auf Speichereffizienz.' }], }); console.log(msg.choices[0].message.content);

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über DeepSeek v4 sagen

Sehen Sie, was die Community über DeepSeek v4 denkt

Der reasoning-Modus von DeepSeek v4 hat einen Concurrency-Bug in meinem Rust-Code gefunden, den selbst Claude Opus übersehen hat. Wahnsinn.
rust_dev_2025
reddit
Die Ära des kosteneffizienten 1M context ist endlich da. Wir können jetzt Full-Project-Refactors für Cent-Beträge durchführen.
tech_lead_alex
twitter
Dass das model ein 1M token Code-Repository durcharbeiten kann, ohne den Faden zu verlieren, ist der echte Wendepunkt für 2026.
logic_fanatic
hackernews
Anthropic und OpenAI haben jetzt ein ernsthaftes Preisproblem. DeepSeek hat frontier AI gerade zur Handelsware gemacht.
CodeMaster
youtube
Es schlägt GPT-5.4 bei coding-benchmarks und ist dabei open-source. Das ist die größte Veröffentlichung des Jahres.
AI_Researcher_99
twitter
Die Speicherkomprimierung ist der echte Zaubertrick. 1T parameter auf Consumer-Hardware wird endlich Realität.
GPU_Rich
reddit

Videos über DeepSeek v4

Schauen Sie Tutorials, Rezensionen und Diskussionen über DeepSeek v4

Die Speichereffizienz ist hier die eigentliche Geschichte; die Reduzierung des KV cache um 90 % ändert alles

Ein 1T model mit dieser Geschwindigkeit zu betreiben, ist ein massiver architektonischer Gewinn

Die Kosten pro Million tokens machen es für kleine Startups unmöglich, dieses model zu ignorieren

Ich habe noch nie ein open-source model gesehen, das 1 Million tokens so sauber verarbeitet

Es fühlt sich an, als ob die Lücke zwischen open und closed models offiziell geschlossen ist

DeepSeek konkurriert nicht mehr nur über den Preis; sie sind führend beim long-context reasoning

Die native Videounterstützung ist im Vergleich zu Gemini 2.0 überraschend robust

Die lokale Installation ist überraschend einfach, wenn man SGLang verwendet

Benchmarks bei HumanEval zeigen, dass es im Wesentlichen mit GPT-5 gleichzieht

Das context window macht RAG-Pipelines für mittelgroße Projekte nahezu überflüssig

Die Leistung bei coding-benchmarks ist derzeit von keinem anderen open-weight model erreicht

Es erreicht oder übertrifft erstklassige closed models bei der Umgestaltung massiver Code-Repositories

Die engram memory-Implementierung ist ein technisches Meisterwerk in diesem Bereich

Wir sehen 90 % Logik-Genauigkeit im Thinking Mode für Mathematik auf Olympiade-Niveau

Diese Veröffentlichung demokratisiert effektiv Intelligenz im Bereich von Billionen-parametern

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für DeepSeek v4

Expertentipps, um das Beste aus DeepSeek v4 herauszuholen.

Thinking Modes umschalten

Verwenden Sie den Standardmodus für schnellen Chat und reservieren Sie den Thinking Mode speziell für coding und logische Beweise.

Context Caching nutzen

Nutzen Sie integrierte context caching-Funktionen, um Kosten bei der Verwendung repetitiver long-context prompts um bis zu 90 % zu senken.

Direkter multimodaler Input

Speisen Sie Audio- und Videodateien direkt in die API ein, um von der nativen Architektur zu profitieren, anstatt sie vorab zu transkribieren.

System Prompt-Optimierung

Geben Sie klare JSON-Schemas oder Anweisungen zur tool-use im system prompt an, um ein hochzuverlässiges agentic Verhalten zu erreichen.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
moonshot

Kimi k2.6

Moonshot

Kimi k2.6 is Moonshot AI's 1T-parameter MoE model featuring a 256K context window, native video input, and elite performance in autonomous agentic coding.

256K context
$0.95/$4.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Häufig gestellte Fragen zu DeepSeek v4

Finden Sie Antworten auf häufige Fragen zu DeepSeek v4