openai

GPT-5.4

GPT-5.4 est le frontier model d'OpenAI doté d'une context window de 1,05M et de l'Extreme Reasoning. Il excelle dans l'interaction UI autonome et l'analyse de...

OpenAIGPT-51M ContextReasoningMultimodal
openai logoopenaiGPT-54 mars 2026
Contexte
1.1Mtokens
Sortie max.
128Ktokens
Prix entrée
$2.50/ 1M
Prix sortie
$15.00/ 1M
Modalité:TextImage
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
84.2%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). GPT-5.4 a obtenu 84.2% sur ce benchmark.
HLE
42%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. GPT-5.4 a obtenu 42% sur ce benchmark.
MMLU
91%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. GPT-5.4 a obtenu 91% sur ce benchmark.
MMLU Pro
76%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. GPT-5.4 a obtenu 76% sur ce benchmark.
SimpleQA
56.7%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. GPT-5.4 a obtenu 56.7% sur ce benchmark.
IFEval
92%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. GPT-5.4 a obtenu 92% sur ce benchmark.
AIME 2025
100%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. GPT-5.4 a obtenu 100% sur ce benchmark.
MATH
88.6%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. GPT-5.4 a obtenu 88.6% sur ce benchmark.
GSM8k
99%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. GPT-5.4 a obtenu 99% sur ce benchmark.
MGSM
96%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. GPT-5.4 a obtenu 96% sur ce benchmark.
MathVista
74%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. GPT-5.4 a obtenu 74% sur ce benchmark.
SWE-Bench
52.8%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. GPT-5.4 a obtenu 52.8% sur ce benchmark.
HumanEval
85.1%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. GPT-5.4 a obtenu 85.1% sur ce benchmark.
LiveCodeBench
72.5%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. GPT-5.4 a obtenu 72.5% sur ce benchmark.
MMMU
84.2%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. GPT-5.4 a obtenu 84.2% sur ce benchmark.
MMMU Pro
61%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. GPT-5.4 a obtenu 61% sur ce benchmark.
ChartQA
89%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. GPT-5.4 a obtenu 89% sur ce benchmark.
DocVQA
94%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. GPT-5.4 a obtenu 94% sur ce benchmark.
Terminal-Bench
55%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. GPT-5.4 a obtenu 55% sur ce benchmark.
ARC-AGI
52.9%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. GPT-5.4 a obtenu 52.9% sur ce benchmark.

À propos de GPT-5.4

Découvrez les capacités, fonctionnalités et façons d'utiliser GPT-5.4.

La frontière du Reasoning à long contexte

GPT-5.4 représente l'évolution haute performance de la série GPT-5, caractérisée par sa context window de 1,05 million de tokens, leader du secteur. Ce model est spécifiquement conçu pour gérer des ensembles de données vastes, tels que des dépôts de code massifs ou des logs historiques sur plusieurs années, sans perdre sa capacité à effectuer un reasoning de haute fidélité. Une fonctionnalité phare est le « Mid-Response Steering » interactif, qui permet aux utilisateurs de surveiller et d'ajuster visuellement le plan de pensée du model en temps réel, garantissant que la sortie s'aligne parfaitement avec des intentions complexes à plusieurs étapes.

Intelligence unifiée et action autonome

Techniquement, GPT-5.4 unifie les forces de code de classe mondiale des précédentes branches Codex avec les nuances créatives de la série GPT-5 standard. Il dispose d'un mode « Thinking » spécialisé avec des niveaux d'effort ajustables (Standard, Extended et Heavy) qui utilise un processus de chain-of-thought renforcé pour résoudre des problèmes de logique et de science de niveau doctorat. Au-delà du texte, GPT-5.4 introduit des capacités natives d'utilisation de l'ordinateur, atteignant un score de 75 % sur les tâches OSWorld-Verified en interprétant des captures d'écran visuelles haute fidélité et en exécutant des clics basés sur des coordonnées.

Efficacité et fiabilité

OpenAI rapporte une diminution significative de 33 % des erreurs factuelles par rapport à ses prédécesseurs, faisant de GPT-5.4 un choix de premier ordre pour les agents autonomes et l'aide à la décision à enjeux élevés. Malgré sa puissance, il est conçu pour une efficacité énergétique et de tokens, permettant un traitement de contexte long moins coûteux que les itérations précédentes. Qu'il s'agisse de gérer l'intégralité d'une base de code d'entreprise ou d'agir comme un agent de planification autonome, GPT-5.4 définit un nouveau standard de fiabilité et de performance agentic dans le paysage de l'IA générative.

GPT-5.4

Cas d'utilisation de GPT-5.4

Découvrez les différentes façons d'utiliser GPT-5.4 pour obtenir d'excellents résultats.

Refactorisation de bases de code volumineuses

Ingérer et analyser des centaines de fichiers sources simultanément pour garantir la cohérence entre les modules et identifier des bugs sémantiques profonds dans des dépôts entiers.

Planification agentic autonome

Interagir avec les e-mails et les calendriers via un ancrage visuel pour coordonner de manière autonome des agendas d'événements complexes et envoyer des communications de suivi.

Conception architecturale haute fidélité

Générer des scènes 3D complexes et des plans structurels, comme des stations de métro fonctionnelles, en utilisant plus de 1 000 lignes de code précis et prêt pour la simulation.

Planification scientifique à long terme

Utiliser l'Extreme Reasoning pour résoudre des problèmes scientifiques de niveau doctorat et effectuer des analyses multi-étapes nécessitant des heures de gestion d'état cohérente.

Enquête sur les incidents de cybersécurité

Traiter de vastes quantités de données de logs bruts en une seule session de context window de 1,05M pour identifier, enquêter et signaler les failles de sécurité de manière autonome.

Mid-Response Steering interactif

Corriger la trajectoire du model pendant sa phase de « pensée » interne pour ajuster les choix architecturaux ou les chemins logiques sans avoir à redémarrer le prompt.

Points forts

Limitations

Context Window frontier de 1,05M: Offre une capacité de pointe pour appliquer du reasoning sur des jeux de données et des bases de code massifs en un seul prompt sans perte immédiate de cohérence.
Dégradation sur les contextes longs: On note que les performances sur les tâches de reasoning de haute complexité chutent de manière significative dès que la context window dépasse le seuil des 256K tokens.
Précision de Reasoning extrême: Atteint un niveau de connaissances scientifiques de doctorat (84,2 % sur GPQA) et des scores parfaits en mathématiques (100 % sur AIME 2025) grâce à son mode reasoning haute intensité.
Schéma de versionnage confus: La gamme complexe de variantes 5.1, 5.2 Thinking, 5.3 Codex et 5.4 crée une charge cognitive importante pour les développeurs API et les utilisateurs de ChatGPT.
Interaction UI autonome: Un ancrage visuel state-of-the-art permet au model d'interagir avec les logiciels et les navigateurs avec une précision de 75 % sur le benchmark OSWorld.
Latence élevée en mode Heavy: Les modes de reasoning les plus intensifs peuvent prendre plus de 8 minutes pour traiter le chain-of-thought interne, ce qui les rend inadaptés aux tâches interactives en temps réel.
Efficacité énergétique et de tokens: Conçu comme le frontier model le plus efficace d'OpenAI à ce jour, réduisant le coût énergétique requis pour le reasoning complexe par rapport à la version GPT-5.2.
Alignement névrotique: Un fine-tuning de sécurité agressif peut entraîner des comportements contradictoires où le model contredit inutilement l'utilisateur sur des sujets factuels inoffensifs.

Démarrage rapide API

openai/gpt-5.4

Voir la documentation
openai SDK
import OpenAI from 'openai';

const openai = new OpenAI();

async function main() {
  const completion = await openai.chat.completions.create({
    model: "gpt-5.4",
    messages: [{ role: "user", content: "Analyze this 1.05M token log file for security threats." }],
    reasoning_effort: "heavy",
    stream: true,
  });

  for await (const chunk of completion) {
    process.stdout.write(chunk.choices[0]?.delta?.content || '');
  }
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de GPT-5.4

Voyez ce que la communauté pense de GPT-5.4

GPT-5 fait un retour en force brutal... chaque ligne de code générée était parfaitement fonctionnelle.
immortalsol
reddit
La fonctionnalité phare est évidemment la context window de 1M, comparée aux ~200k supportés par les autres models.
Developer
hackernews
Wow, GPT 5.4 est incroyablement bon. Il devrait s'appeler 6.0. Difficile de croire que Codex soit allé aussi loin.
Rahul Sood
twitter
GPT-5.4 obtient des scores extra élevés de 94,0 sur NYT Connections. Il réussit tout du premier coup.
senko
hackernews
GPT-5.4 est maintenant sur l'Artificial Analysis Intelligence Index... à égalité avec Gemini 3.1 Pro.
AiBattle
twitter
La profondeur de reasoning est enfin au niveau où elle peut gérer des problèmes d'architecture à l'échelle de l'entreprise.
CloudArchitect99
reddit

Vidéos sur GPT-5.4

Regardez des tutoriels, critiques et discussions sur GPT-5.4

Une context window de 1 million 50 000 tokens... c'est une fenêtre de contexte extrêmement longue.

Après 5 minutes et 22 secondes de pensée, nous avons reçu notre résultat... il a testé cela de manière plus agentic.

Mise à jour de sa capacité à analyser des images haute fidélité... jusqu'à 10,24 millions de pixels au total.

Le model effectue réellement des recherches sur le web pour vérifier sa propre logique.

C'est un bond massif pour les workflows agentic où l'état doit persister.

GPT 5.4 a tout... ils ont essentiellement dit, d'accord, 5.2 et GPT 5.3 Codex, allez-y, faites un enfant.

Les capacités de code sont ridicules. C'est pratiquement parfait.

Le goût pour le front-end est loin derrière Opus 4.6 et Gemini 3.1 Pro.

On a l'impression qu'il comprend beaucoup mieux les intentions nuancées des développeurs.

Le prix est compétitif compte tenu de la taille de la context window de 1M.

Cela met clairement la pression sur OpenAI pour répondre avec un model capable d'égaler cette capacité de 1 million de contexte.

Le fait que ce model soit capable de créer ce clone de Minecraft en un seul coup est tout simplement remarquable.

Nous constatons une réduction de 33 % des taux d'hallucinations factuelles.

Les modes de reasoning sont classés en niveaux Standard, Extended et Heavy.

L'ancrage visuel sur le benchmark OSWorld est tout simplement le meilleur du secteur actuellement.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour GPT-5.4

Conseils d'experts pour tirer le meilleur parti de GPT-5.4.

Ajuster l'effort de Reasoning

Utilisez les niveaux de reasoning Standard, Extended ou Heavy en fonction de la complexité de la tâche pour équilibrer le coût de calcul et la qualité de la sortie.

Surveiller le plan initial

Lorsque vous utilisez la variante Thinking, surveillez le plan initial ; vous pouvez intervenir en milieu de génération si le chemin logique proposé par le model semble erroné.

Prompt caching stratégique

Placez les blocs de contexte volumineux et statiques au début de votre prompt pour profiter du prompt caching automatique d'OpenAI et réaliser des économies.

Gérer la stabilité du contexte

Bien que la fenêtre de 1,05M soit robuste, les performances sont plus stables dans les premiers 256K tokens ; placez les résumés critiques vers la fin du prompt.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

xai

Grok-3

xAI

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

128K context
$3.00/$15.00/1M
anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
anthropic

Claude Sonnet 4.5

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M

Questions Fréquentes sur GPT-5.4

Trouvez des réponses aux questions courantes sur GPT-5.4