openai

GPT-5.2

GPT-5.2 ist das flagship-Modell von OpenAI für professionelle Aufgaben, mit 400K context window, Elite-Coding und tiefgreifenden mehrstufigen...

openai logoopenaiGPT-511. Dezember 2025
Kontext
400KToken
Max. Ausgabe
100KToken
Eingabepreis
$1.75/ 1M
Ausgabepreis
$14.00/ 1M
Modalität:TextImage
Fähigkeiten:VisionToolsStreamingLogik
Benchmarks
GPQA
93%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). GPT-5.2 erreichte 93% bei diesem Benchmark.
HLE
45%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. GPT-5.2 erreichte 45% bei diesem Benchmark.
MMLU
88%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. GPT-5.2 erreichte 88% bei diesem Benchmark.
MMLU Pro
83%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. GPT-5.2 erreichte 83% bei diesem Benchmark.
SimpleQA
58%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. GPT-5.2 erreichte 58% bei diesem Benchmark.
IFEval
95%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. GPT-5.2 erreichte 95% bei diesem Benchmark.
AIME 2025
100%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. GPT-5.2 erreichte 100% bei diesem Benchmark.
MATH
98%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. GPT-5.2 erreichte 98% bei diesem Benchmark.
GSM8k
99%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. GPT-5.2 erreichte 99% bei diesem Benchmark.
MGSM
98%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. GPT-5.2 erreichte 98% bei diesem Benchmark.
MathVista
78%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. GPT-5.2 erreichte 78% bei diesem Benchmark.
SWE-Bench
80%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). GPT-5.2 erreichte 80% bei diesem Benchmark.
HumanEval
95%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. GPT-5.2 erreichte 95% bei diesem Benchmark.
LiveCodeBench
80%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. GPT-5.2 erreichte 80% bei diesem Benchmark.
MMMU
75%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. GPT-5.2 erreichte 75% bei diesem Benchmark.
MMMU Pro
65%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. GPT-5.2 erreichte 65% bei diesem Benchmark.
ChartQA
93%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. GPT-5.2 erreichte 93% bei diesem Benchmark.
DocVQA
95%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. GPT-5.2 erreichte 95% bei diesem Benchmark.
Terminal-Bench
60%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. GPT-5.2 erreichte 60% bei diesem Benchmark.
ARC-AGI
52.9%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. GPT-5.2 erreichte 52.9% bei diesem Benchmark.

Über GPT-5.2

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von GPT-5.2.

GPT-5.2 ist das flagship Reasoning-Modell von OpenAI, konzipiert für anspruchsvolle professionelle Wissensarbeit und autonomes Engineering. Es wurde am 11. Dezember 2025 veröffentlicht und stellt eine bedeutende Weiterentwicklung der GPT-4- und GPT-o1-Serien dar, indem es einen dedizierten Thinking-Modus mit Effort-Steuerung (Medium, High, Extra High) integriert. Dies ermöglicht es dem Modell, innezuhalten und mehrstufige Logik zu verifizieren, bevor eine Antwort generiert wird.

Mit einem massiven 400K context window und nahezu 100 % Abrufgenauigkeit ist es für Senior-Code-Reviews, komplexe Refactorings und wissenschaftliche Forschung ausgelegt. Die Modellarchitektur unterstützt agentic Workflows und verfügt über native Tool-Calling-Fähigkeiten sowie multimodales Vision, das komplexe technische Diagramme und Codebases gleichzeitig verarbeiten kann.

Während es bei logischer Präzision und Engineering-benchmarks glänzt – mit einem 100 %-Ergebnis im AIME 2025 –, wirkt der Tonfall formaler und maschinenähnlicher als bei Wettbewerbern wie Claude. Es kostet derzeit 1,75 $ pro Million Input-tokens und 14,00 $ pro Million Output-tokens und ist damit eine kosteneffiziente Alternative für Deep-Reasoning-Aufgaben, die bisher ein hohes Maß an menschlicher Überwachung erforderten.

GPT-5.2

Anwendungsfälle für GPT-5.2

Entdecken Sie die verschiedenen Möglichkeiten, GPT-5.2 für großartige Ergebnisse zu nutzen.

Komplexe Engineering-Refactorings

Durchführung tiefgreifender Refactorings in performancekritischen Codebases unter Beibehaltung strenger Typ-Invarianten und architektonischer Konsistenz.

Autonome Terminal-Aufgaben

Ausführung mehrstufiger CLI-Workflows und Verwaltung komplexer Cloud-Deployments durch hohe Performance in Terminal-Bench-Umgebungen.

Wissenssynthese auf PhD-Niveau

Gleichzeitige Analyse hunderter technischer Quellen und wissenschaftlicher Arbeiten zur Erstellung umfassender Forschungsberichte zu Nischenthemen.

Lösung von Concurrency-Bugs

Identifizierung und Behebung subtiler Race Conditions oder Speicherlecks, die ein hohes Maß an logischem Reasoning über lange Codeabschnitte erfordern.

Mechanische Code-Verarbeitung

Bewältigung großflächiger, repetitiver Code-Migrationen über komplette Repositories hinweg, ohne die bei allgemeinen LLMs oft beobachtete Trägheit.

Senior Technical Review

Einsatz als virtueller Senior Engineer zur Überprüfung von Designplänen und Identifizierung von Edge Cases in der Logik von Produktionssystemen.

Stärken

Einschränkungen

Überlegene Engineering-Genauigkeit: Erzielte 77,3 % bei Terminal-Bench 2.0 und übertrifft damit Mitbewerber bei komplexen CLI-Aufgaben.
Hohe Response-latency: Der erhebliche Overhead durch das Reasoning führt dazu, dass das Modell spürbar langsamer ist als frühere Iterationen, was zu langen Wartezeiten führt.
Elite mathematisches Reasoning: Erreichte 100 % im AIME 2025 benchmark, was die Fähigkeit für Mathematik auf Wettbewerbsniveau ohne externe Tools belegt.
Künstlicher UX-Ton: Wird von Nutzern für eine prätentiöse und übermäßig strukturierte Hilfsbereitschaft kritisiert, die weniger natürlich wirkt als bei der Claude-Serie.
Niedrige Halluzinationsrate: Community-Tests und interne benchmarks zeigen eine 30-prozentige Reduzierung faktischer Fehler im Vergleich zu früheren flagship-Generationen.
Opaker Denkprozess: Im Gegensatz zu einigen transparenten Reasoning-Modellen verbirgt GPT-5.2 oft seinen internen chain-of-thought und liefert nur die finale, verifizierte Antwort.
Erweiterte Aufgaben-Persistenz: Kann aktive autonome Arbeitssitzungen über zwei Stunden aufrechterhalten und ist damit ideal für große Entwicklungsaufgaben.
Hohe Kosten für Premium-Reasoning: Der Output-Preis von 14,00 $ kann bei langen Reasoning-Aufgaben, bei denen große Mengen an thinking tokens anfallen, schnell steigen.

API-Schnellstart

openai/gpt-5.2

Dokumentation anzeigen
openai SDK
import OpenAI from 'openai';

const openai = new OpenAI();

async function solveCodeProblem() {
  const response = await openai.chat.completions.create({
    model: 'gpt-5.2',
    messages: [{ role: 'user', content: 'Debug this race condition in my Rust service.' }],
    reasoning_effort: 'high',
    temperature: 0,
  });
  console.log(response.choices[0].message.content);
}

solveCodeProblem();

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über GPT-5.2 sagen

Sehen Sie, was die Community über GPT-5.2 denkt

GPT 5.2 in Codex ist eine riesige Verbesserung; es ist eher bereit, diese mechanischen Aufgaben zu übernehmen, bei denen Modelle sonst faul werden.
ArchMeta1868
reddit
Die verstärkten Überlegungen und die Zeit, die in die Überprüfung der Ergebnisse fließt, sind lobenswert... die Zuverlässigkeit ist deutlich verbessert.
Thomas Randall
techopedia
Das Modell für tiefe Recherchen zeigte einen menschlichen Ansatz, indem es bei Bedarf gezielt nach spezialisierten Informationen suchte.
OpenAI Official
twitter
OpenAIs Fokus auf strukturierte 'Nutzerbetreuung' fühlt sich im Vergleich zu den natürlichen Diskussionen mit Claude wie eine Unternehmensmaske für einen kalten Kern an.
Anonymous Developer
hackernews
Endlich ein Modell, das bei einem 500-Zeilen-Refactoring nicht mitten drin faul wird.
CodeWizard
reddit
Der reasoning_effort-parameter ist der MVP für komplexe Logikprobleme.
AIBuilder
twitter

Videos über GPT-5.2

Schauen Sie Tutorials, Rezensionen und Diskussionen über GPT-5.2

Das ist wirklich der Wahnsinn. Schaut euch diesen One-Shot an.

Vom Design bei GPT 5.2 bin ich nicht so beeindruckt... es war deutlich schlechter als Gemini 3.

Der Kontext-Abruf ist über den gesamten 400k-Bereich nahezu perfekt.

Es fühlt sich viel mehr wie eine Reasoning-Engine an als wie ein Chatbot.

Die Latency ist für einige Echtzeit-Apps der einzige echte Dealbreaker.

GPT 5.2 kann jetzt vollständig formatierte Tabellen und Foliensätze direkt in ChatGPT erstellen.

Es wirkt, als wäre das Modell endlich erwachsen geworden und nähme seinen Job ernst.

Nutzen Sie die hohe Reasoning-Einstellung nur für logikintensive Aufgaben.

Die Halluzinationen sind im Vergleich zur 4o-Serie deutlich zurückgegangen.

Agentic Workflows sind endlich ohne ständiges Babysitting praktikabel.

GPT 5.2 ist eigentlich 40 % teurer als 5.1, aber immer noch deutlich günstiger als Opus.

GPT 5.2 brauchte 11 Minuten und 20 Sekunden [um die App zu bauen]. Also doppelt so lange [wie Opus].

Die Output-Qualität ist viel höher, wenn man den Thinking-Modus laufen lässt.

Es hat das Multi-File-Refactoring ohne Verlust der Typdefinitionen bewältigt.

Wenn Sie reine Geschwindigkeit brauchen, ist das nicht das richtige Modell für Sie.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für GPT-5.2

Expertentipps, um das Beste aus GPT-5.2 herauszuholen.

Thinking Effort gezielt nutzen

Verwenden Sie den reasoning_effort-parameter (medium, high, xhigh), um die Überlegungszeit des Modells an die Komplexität der Aufgabe anzupassen.

Codex für Persistenz aktivieren

Nutzen Sie bei der Arbeit an großen Repositories die dedizierte Codex-Umgebung, um aktive Verarbeitungssitzungen für bis zu 150 Minuten aufrechtzuerhalten.

Kontext präzise bereitstellen

Geben Sie umfassende Hintergrunddokumentation in system prompts an, da das Modell am besten arbeitet, wenn es gezielt nach dem benötigten Kontext befragt wird.

Anforderungen iterativ verfeinern

Weisen Sie das Modell explizit an, Verifizierungsprüfungen gegen das aktuelle Codebase durchzuführen, um sicherzustellen, dass die Anforderungen validiert sind.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

openai

GPT-5.2 Pro

OpenAI

GPT-5.2 Pro is OpenAI's 2025 flagship reasoning model featuring Extended Thinking for SOTA performance in mathematics, coding, and expert knowledge work.

400K context
$21.00/$168.00/1M
xai

Grok-3

xAI

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

1M context
$3.00/$15.00/1M
google

Gemini 3.1 Flash Live Preview

Google

Gemini 3.1 Flash Live Preview is Google's ultra-low-latency, audio-to-audio model featuring a 131K context window, high-fidelity multimodal reasoning, and...

131K context
$0.75/$4.50/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
google

Gemini 3.1 Pro

Google

Gemini 3.1 Pro is Google's elite multimodal model featuring the DeepThink reasoning engine, a 1M+ context window, and industry-leading ARC-AGI logic scores.

1M context
$2.00/$12.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M

Häufig gestellte Fragen zu GPT-5.2

Finden Sie Antworten auf häufige Fragen zu GPT-5.2