openai

GPT-5.4

GPT-5.4 ist das frontier model von OpenAI mit einem 1,05M context window und Extreme Reasoning. Es glänzt bei autonomer UI-Interaktion und umfangreicher...

OpenAIGPT-51M context windowreasoningmultimodal
openai logoopenaiGPT-54. März 2026
Kontext
1.1MToken
Max. Ausgabe
128KToken
Eingabepreis
$2.50/ 1M
Ausgabepreis
$15.00/ 1M
Modalität:TextImage
Fähigkeiten:VisionToolsStreamingLogik
Benchmarks
GPQA
84.2%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). GPT-5.4 erreichte 84.2% bei diesem Benchmark.
HLE
42%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. GPT-5.4 erreichte 42% bei diesem Benchmark.
MMLU
91%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. GPT-5.4 erreichte 91% bei diesem Benchmark.
MMLU Pro
76%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. GPT-5.4 erreichte 76% bei diesem Benchmark.
SimpleQA
56.7%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. GPT-5.4 erreichte 56.7% bei diesem Benchmark.
IFEval
92%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. GPT-5.4 erreichte 92% bei diesem Benchmark.
AIME 2025
100%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. GPT-5.4 erreichte 100% bei diesem Benchmark.
MATH
88.6%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. GPT-5.4 erreichte 88.6% bei diesem Benchmark.
GSM8k
99%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. GPT-5.4 erreichte 99% bei diesem Benchmark.
MGSM
96%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. GPT-5.4 erreichte 96% bei diesem Benchmark.
MathVista
74%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. GPT-5.4 erreichte 74% bei diesem Benchmark.
SWE-Bench
52.8%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). GPT-5.4 erreichte 52.8% bei diesem Benchmark.
HumanEval
85.1%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. GPT-5.4 erreichte 85.1% bei diesem Benchmark.
LiveCodeBench
72.5%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. GPT-5.4 erreichte 72.5% bei diesem Benchmark.
MMMU
84.2%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. GPT-5.4 erreichte 84.2% bei diesem Benchmark.
MMMU Pro
61%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. GPT-5.4 erreichte 61% bei diesem Benchmark.
ChartQA
89%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. GPT-5.4 erreichte 89% bei diesem Benchmark.
DocVQA
94%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. GPT-5.4 erreichte 94% bei diesem Benchmark.
Terminal-Bench
55%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. GPT-5.4 erreichte 55% bei diesem Benchmark.
ARC-AGI
52.9%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. GPT-5.4 erreichte 52.9% bei diesem Benchmark.

Über GPT-5.4

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von GPT-5.4.

Die Grenze des Long-Context Reasoning

GPT-5.4 stellt die Hochleistungsevolution der GPT-5-Serie dar, charakterisiert durch sein branchenführendes 1,05-Millionen-token context window. Dieses model wurde speziell entwickelt, um umfangreiche Datensätze wie massive Code-Repositories oder mehrjährige historische Logs zu verarbeiten, ohne die Fähigkeit zu verlieren, High-Fidelity reasoning durchzuführen. Ein herausragendes Merkmal ist das interaktive „Mid-Response Steering“, das es Benutzern ermöglicht, den Denkplan des model in Echtzeit visuell zu überwachen und anzupassen, um sicherzustellen, dass der Output perfekt mit komplexen, mehrstufigen Absichten übereinstimmt.

Einheitliche Intelligenz und autonomes Handeln

Technisch vereint GPT-5.4 die erstklassigen Coding-Stärken der vorherigen Codex-spezifischen Zweige mit den kreativen Nuancen der Standard-GPT-5-Serie. Es verfügt über einen spezialisierten „Thinking“-Modus mit anpassbaren Aufwandstufen (Standard, Extended und Heavy), der verstärktes chain-of-thought-Processing nutzt, um wissenschaftliche und logische Probleme auf PhD-Niveau zu lösen. Über Text hinaus führt GPT-5.4 native computer use Fähigkeiten ein und erreicht einen Score von 75 % bei OSWorld-verifizierten Aufgaben, indem es hochauflösende visuelle Screenshots interpretiert und koordinatenbasierte Klicks ausführt.

Effizienz und Zuverlässigkeit

OpenAI berichtet von einer signifikanten Verringerung der Fehler auf Behauptungsebene um 33 % im Vergleich zu seinen Vorgängern, was GPT-5.4 zur ersten Wahl für autonome Agenten und geschäftskritische Entscheidungsunterstützung macht. Trotz seiner Leistung ist es auf Token- und Energieeffizienz ausgelegt, was eine kostengünstigere Verarbeitung langer Kontexte als in früheren Iterationen ermöglicht. Ob bei der Verwaltung einer gesamten Unternehmens-Codebasis oder als autonomer Planungsagent – GPT-5.4 setzt einen neuen Standard für Zuverlässigkeit und agentic Performance in der KI-Landschaft.

GPT-5.4

Anwendungsfälle für GPT-5.4

Entdecken Sie die verschiedenen Möglichkeiten, GPT-5.4 für großartige Ergebnisse zu nutzen.

Refactoring großer Codebasen

Einlesen und Analysieren von hunderten Quelldateien gleichzeitig, um die Konsistenz über Module hinweg zu gewährleisten und tiefe semantische Fehler in gesamten Repositories zu identifizieren.

Autonome agentic Terminplanung

Interaktion mit E-Mails und Kalendern via Visual Grounding, um komplexe Veranstaltungspläne autonom zu koordinieren und Follow-up-Kommunikation zu versenden.

High-Fidelity Architektur-Design

Generierung komplizierter 3D-Szenen und Strukturpläne, wie z. B. funktionale U-Bahn-Stationen, unter Verwendung von über 1.000 Zeilen präzisem, simulationsbereitem Code.

Langfristige wissenschaftliche Planung

Nutzung von Extreme Reasoning zur Lösung wissenschaftlicher Probleme auf PhD-Niveau und zur Durchführung mehrstufiger Analysen, die eine stundenlange konsistente Zustandsverwaltung erfordern.

Untersuchung von Cybersecurity-Vorfällen

Verarbeitung riesiger Mengen an rohen Log-Daten in einer einzigen 1,05M context-Sitzung, um Sicherheitsverletzungen autonom zu identifizieren, zu untersuchen und zu melden.

Interaktives Mid-Response Steering

Kurskorrektur des model während der internen „Denkphase“, um Architekturentscheidungen oder Logikpfade anzupassen, ohne den prompt neu starten zu müssen.

Stärken

Einschränkungen

Wegweisendes 1,05M context window: Bietet branchenführende Kapazität, um über massive Datensätze und Codebasen in einem einzigen prompt zu rationieren, ohne sofort an Kohärenz zu verlieren.
Leistungsabfall bei langem Kontext: Es wurde festgestellt, dass die Performance bei hochkomplexen reasoning-Aufgaben erheblich sinkt, sobald das context window die Marke von 256K tokens überschreitet.
Extreme reasoning Genauigkeit: Erreicht wissenschaftliches Fachwissen auf PhD-Niveau (84,2 % bei GPQA) und perfekte Mathe-Ergebnisse (100 % bei AIME 2025) durch den Modus für hohen reasoning-Aufwand.
Verwirrendes Versionierungsschema: Die komplexe Aufstellung aus 5.1, 5.2 Thinking, 5.3 Codex und 5.4 Varianten erzeugt eine erhebliche kognitive Belastung für API-Entwickler und Chat-Nutzer.
Autonome UI-Interaktion: State-of-the-art Visual Grounding ermöglicht es dem model, mit Software und Browsern zu interagieren, mit einer Genauigkeit von 75 % im OSWorld-benchmark.
Hohe Latency im Heavy-Modus: Die Modi mit höchstem reasoning-Aufwand können über 8 Minuten benötigen, um internes chain-of-thought zu verarbeiten, was sie für interaktive Echtzeit-Aufgaben ungeeignet macht.
Token- und Energieeffizienz: Entwickelt als das bisher effizienteste frontier model von OpenAI, was die Energiekosten für komplexes reasoning im Vergleich zum GPT-5.2-Release senkt.
Neurotisches Alignment: Aggressives Sicherheits-fine-tuning kann zu widersprüchlichem Verhalten führen, bei dem das model dem Benutzer unnötigerweise bei harmlosen faktischen Themen widerspricht.

API-Schnellstart

openai/gpt-5.4

Dokumentation anzeigen
openai SDK
import OpenAI from 'openai';

const openai = new OpenAI();

async function main() {
  const completion = await openai.chat.completions.create({
    model: "gpt-5.4",
    messages: [{ role: "user", content: "Analyze this 1.05M token log file for security threats." }],
    reasoning_effort: "heavy",
    stream: true,
  });

  for await (const chunk of completion) {
    process.stdout.write(chunk.choices[0]?.delta?.content || '');
  }
}

main();

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über GPT-5.4 sagen

Sehen Sie, was die Community über GPT-5.4 denkt

GPT-5 feiert ein gnadenloses Comeback... jede einzelne Zeile Code, die es generiert hat, funktionierte einwandfrei.
immortalsol
reddit
Das Hauptmerkmal ist offensichtlich das 1M context window, verglichen mit den ~200k, die andere models unterstützen.
Developer
hackernews
Wow, GPT 5.4 ist wahnsinnig gut. Es sollte ein großer Schritt auf 6.0 sein. Schwer zu glauben, dass Codex so weit gekommen ist.
Rahul Sood
twitter
GPT-5.4 erzielt extra hohe Punktzahlen von 94,0 bei NYT Connections. Es macht die Dinge einfach beim ersten Versuch richtig.
senko
hackernews
GPT-5.4 ist jetzt im Artificial Analysis Intelligence Index... Gleichauf mit Gemini 3.1 Pro.
AiBattle
twitter
Die reasoning-Tiefe ist endlich auf einem Niveau, auf dem sie Architekturprobleme auf Unternehmensebene bewältigen kann.
CloudArchitect99
reddit

Videos über GPT-5.4

Schauen Sie Tutorials, Rezensionen und Diskussionen über GPT-5.4

Ein context window von 1 Million und 50.000 tokens... das ist ein extrem langes context window.

Nach 5 Minuten und 22 Sekunden des Denkens erhielten wir unser Ergebnis... es hat dies eher auf eine agentic Weise getestet.

Die Fähigkeit, hochauflösende Bilder zu betrachten, wurde aktualisiert... bis zu 10,24 Millionen Pixel insgesamt.

Das model führt tatsächlich Recherchen im Web durch, um seine eigene Logik zu verifizieren.

Dies ist ein massiver Sprung für agentic Workflows, bei denen der Status erhalten bleiben muss.

GPT 5.4 hat alles... sie haben im Grunde gesagt: Okay, 5.2 und GPT 5.3 Codex, bekommt ein Baby.

Die Coding-Fähigkeiten sind unglaublich. Es ist im Wesentlichen makellos.

Das Gespür für Front-End liegt weit hinter Opus 4.6 und Gemini 3.1 Pro zurück.

Es fühlt sich an, als hätte es ein viel besseres Verständnis für nuancierte Entwickler-Intentionen.

Der Preispunkt ist wettbewerbsfähig, wenn man die Größe des 1M token context window bedenkt.

Es setzt OpenAI eindeutig unter Druck, mit einem model zu antworten, das diese 1-Million-Kontext-Kapazität erreicht.

Dass dieses model in einem einzigen Versuch diesen Minecraft-Klon erstellen kann, ist einfach bemerkenswert.

Wir sehen eine Reduzierung der faktischen Halluzinationsraten um 33 Prozent.

Die reasoning-Modi sind in die Stufen Standard, Extended und Heavy unterteilt.

Das Visual Grounding im OSWorld-benchmark ist derzeit einfach branchenführend.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für GPT-5.4

Expertentipps, um das Beste aus GPT-5.4 herauszuholen.

Reasoning-Aufwand umschalten

Nutzen Sie je nach Komplexität der Aufgabe die reasoning-Stufen Standard, Extended oder Heavy, um Rechenkosten und Output-Qualität auszubalancieren.

Den Vorab-Plan überwachen

Achten Sie bei der Nutzung der Thinking-Variante auf den Vorab-Plan; Sie können mitten in der Generierung intervenieren, falls der vorgeschlagene Logikpfad des model fehlerhaft erscheint.

Strategisches prompt caching

Platzieren Sie große, statische Kontextblöcke am Anfang Ihres prompt, um vom automatischen prompt caching von OpenAI zu profitieren und Kosten zu sparen.

Stabilität des Kontextes verwalten

Obwohl das 1,05M window robust ist, ist die Performance innerhalb der ersten 256K tokens am stabilsten; platzieren Sie kritische Zusammenfassungen nahe am Ende des prompt.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

xai

Grok-3

xAI

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

128K context
$3.00/$15.00/1M
anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
anthropic

Claude Sonnet 4.5

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M

Häufig gestellte Fragen zu GPT-5.4

Finden Sie Antworten auf häufige Fragen zu GPT-5.4