openai

GPT-4o mini

GPT-4o mini est le petit model le plus rentable d'OpenAI, offrant une intelligence de classe GPT-4 avec une vitesse supérieure et une vision multimodal pour...

Petit modelÉconomeCapacité de visionIA rapideMultimodal
openai logoopenaiGPT-418 juillet 2024
Contexte
128Ktokens
Sortie max.
16Ktokens
Prix entrée
$0.15/ 1M
Prix sortie
$0.60/ 1M
Modalité:TextImage
Capacités:VisionOutilsStreaming
Benchmarks
GPQA
40.2%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). GPT-4o mini a obtenu 40.2% sur ce benchmark.
HLE
2.3%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. GPT-4o mini a obtenu 2.3% sur ce benchmark.
MMLU
82%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. GPT-4o mini a obtenu 82% sur ce benchmark.
MMLU Pro
57%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. GPT-4o mini a obtenu 57% sur ce benchmark.
SimpleQA
8.6%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. GPT-4o mini a obtenu 8.6% sur ce benchmark.
IFEval
76.5%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. GPT-4o mini a obtenu 76.5% sur ce benchmark.
AIME 2025
5%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. GPT-4o mini a obtenu 5% sur ce benchmark.
MATH
50.2%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. GPT-4o mini a obtenu 50.2% sur ce benchmark.
GSM8k
91.3%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. GPT-4o mini a obtenu 91.3% sur ce benchmark.
MGSM
87%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. GPT-4o mini a obtenu 87% sur ce benchmark.
MathVista
42%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. GPT-4o mini a obtenu 42% sur ce benchmark.
SWE-Bench
8.7%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. GPT-4o mini a obtenu 8.7% sur ce benchmark.
HumanEval
87.2%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. GPT-4o mini a obtenu 87.2% sur ce benchmark.
LiveCodeBench
32.5%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. GPT-4o mini a obtenu 32.5% sur ce benchmark.
MMMU
59.4%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. GPT-4o mini a obtenu 59.4% sur ce benchmark.
MMMU Pro
34%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. GPT-4o mini a obtenu 34% sur ce benchmark.
ChartQA
78%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. GPT-4o mini a obtenu 78% sur ce benchmark.
DocVQA
88%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. GPT-4o mini a obtenu 88% sur ce benchmark.
Terminal-Bench
40%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. GPT-4o mini a obtenu 40% sur ce benchmark.
ARC-AGI
8%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. GPT-4o mini a obtenu 8% sur ce benchmark.

À propos de GPT-4o mini

Découvrez les capacités, fonctionnalités et façons d'utiliser GPT-4o mini.

Un nouveau standard pour les petits models

GPT-4o mini représente un bond significatif dans l'efficacité de l'IA, conçu pour remplacer GPT-3.5 Turbo comme model de référence pour les développeurs. Construit avec une architecture multimodal native, il offre des performances de classe GPT-4 à une fraction du coût et de la latency. Il dispose d'une immense context window de 128 000 tokens et prend en charge des sorties complexes allant jusqu'à 16 384 tokens, ce qui le rend idéal pour le traitement de documents longs et de flux de données à haut volume.

L'intelligence rencontre l'abordabilité

Contrairement aux anciens petits models qui sacrifiaient l'intelligence pour la vitesse, GPT-4o mini maintient des capacités de reasoning élevées pour les tâches de texte et de vision. Il est 60 % moins cher que GPT-3.5 Turbo et nettement plus performant, avec un score de 82 % sur le benchmark MMLU. Ce model est spécifiquement optimisé pour les applications où une faible latency et une grande fiabilité sont primordiales, comme les assistants clients en temps réel et les moteurs de classification de données à grande échelle.

GPT-4o mini

Cas d'utilisation de GPT-4o mini

Découvrez les différentes façons d'utiliser GPT-4o mini pour obtenir d'excellents résultats.

Automatisation du support client

Déployez des chatbots à faible latency et rentables capables de gérer des milliers de demandes de routine avec une grande précision.

Extraction de données structurées

Convertissez de gros volumes de texte non structuré ou de données d'image en schémas JSON propres et formatés pour les bases de données.

Traduction en temps réel

Propulsez des applications de messagerie avec une traduction quasi instantanée dans des dizaines de langues à un coût opérationnel minimal.

Résumé de documents

Résumez des rapports longs et des transcriptions de réunions en utilisant la vaste context window de 128k.

Analyse visuelle et OCR

Extrayez du texte à partir d'images, analysez des graphiques et décrivez du contenu visuel à des fins d'accessibilité.

Prototypage rapide

Construisez et itérez rapidement sur des applications d'IA avec des dépenses d'API minimales avant de passer à des models plus grands.

Points forts

Limitations

Rapport performance-prix inégalé: À 0,15 $/1M de tokens d'entrée, il offre une réduction de coût de 99 % par rapport à GPT-4 tout en conservant un reasoning élevé.
Profondeur de reasoning limitée: Ne possède pas les capacités avancées de chain-of-thought présentes dans des models comme OpenAI o1.
Temps de réponse à faible latency: Conçu pour la vitesse, fournissant des réponses quasi instantanées cruciales pour les agents conversationnels en temps réel.
Contrainte de tokens de sortie: La limite de 16 384 tokens de sortie est inférieure à celle des models spécialisés qui offrent une parité complète de sortie de 128k.
Vision multimodal native: Contrairement aux anciens petits models, il traite les images nativement avec des scores élevés sur ChartQA (78,0).
Lacunes en codage complexe: Éprouve des difficultés avec la conception architecturale de haut niveau et le débogage de grands dépôts multi-fichiers.
Suivi d'instructions rigoureux: Atteint 76,5 % sur IFEval, démontrant une capacité supérieure à respecter des règles de formatage complexes.
Pas d'entrée audio native: Ne prend pas en charge le traitement audio-à-audio direct via le point de terminaison API standard texte/vision.

Démarrage rapide API

openai/gpt-4o-mini

Voir la documentation
openai SDK
import OpenAI from "openai";

const openai = new OpenAI();

async function main() {
  const completion = await openai.chat.completions.create({
    model: "gpt-4o-mini",
    messages: [
      { role: "system", content: "You are a helpful assistant." },
      { role: "user", content: "Analyze this data and return JSON." },
    ],
    response_format: { type: "json_object" },
  });

  console.log(completion.choices[0].message.content);
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de GPT-4o mini

Voyez ce que la communauté pense de GPT-4o mini

GPT-4o mini sonne le glas de GPT-3.5. Il est plus rapide, moins cher et plus intelligent. Il n'y a plus aucune raison d'utiliser l'ancien model.
rowqi
reddit
OpenAI a vraiment changé la donne avec ses tarifs. 15 cents pour un million de tokens, c'est insensé pour ce niveau de reasoning.
peterm1598
hackernews
Je vois des réponses quasi instantanées pour mon chatbot. La latency sur 4o-mini est impressionnante pour ce prix.
WesternCat5211
twitter
GPT-4o mini lancé il y a 4 jours. Déjà plus de 200 milliards de tokens traités par jour !
Sam Altman
twitter
La performance de vision pour quelque chose d'aussi bon marché est le point clé. Il gère les graphiques mieux que certains models flagship d'il y a un an.
VisionDev99
reddit
Il suit parfaitement les instructions système pour l'extraction JSON. Une mise à niveau massive par rapport à la fiabilité de 3.5 Turbo.
LLM_Master
hackernews

Vidéos sur GPT-4o mini

Regardez des tutoriels, critiques et discussions sur GPT-4o mini

L'ère du petit model est arrivée

Son prix est de 15 cents par million de tokens d'entrée... c'est incroyablement bon marché

GPT-4o mini est très, très rapide... d'une rapidité incroyable

Ce model remplace essentiellement GPT-3.5 Turbo et il est 60 % moins cher

Regardez à quelle vitesse il génère du texte, c'est presque instantané

GPT-4o mini est gratuit, rapide et en fait plutôt bon

GPT-3.5 a complètement disparu... il vous ramène à GPT-4o mini

Regardez cette vitesse, bien plus rapide, n'est-ce pas ?

C'est un model multimodal, ce qui signifie qu'il peut voir des images

Il surpasse GPT-3.5 Turbo et même GPT-4 sur certains benchmarks

OpenAI a lancé un concurrent qui semble battre beaucoup de ces models

C'est le model qu'ils ont optimisé pour facturer le montant le plus bas

Pouvoir produire 16 000 tokens de sortie à la fois est vraiment quelque chose d'utile

La context window est de 128k, ce qui est idéal pour les applications RAG

Les mesures de sécurité sur ce model sont intégrées dès le départ

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour GPT-4o mini

Conseils d'experts pour tirer le meilleur parti de GPT-4o mini.

Instructions système directes

Fournissez des system prompts concis pour orienter le model vers des formats de sortie spécifiques comme JSON ou Markdown.

Regroupement de contexte

Utilisez la fenêtre de 128k en regroupant les petites tâches connexes dans un seul prompt pour réduire les coûts fixes.

Étiquetage visuel

Demandez des attributs visuels spécifiques lors du traitement d'images pour améliorer la précision de l'extraction de métadonnées.

Streaming pour l'UX

Activez toujours le paramètre stream pour fournir un retour de tokens immédiat aux utilisateurs finaux.

Réglage de la température

Réglez la température à 0 pour les tâches de données structurées afin de garantir des sorties déterministes et cohérentes.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

alibaba

Qwen3-Coder-Next

alibaba

Qwen3-Coder-Next is Alibaba Cloud's elite Apache 2.0 coding model, featuring an 80B MoE architecture and 256k context window for advanced local development.

256K context
$0.14/$0.42/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M
google

Gemini 3.1 Pro

Google

Gemini 3.1 Pro is Google's elite multimodal model featuring the DeepThink reasoning engine, a 1M+ context window, and industry-leading ARC-AGI logic scores.

1M context
$2.50/$15.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.60/$3.60/1M
minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.30/$1.20/1M

Questions Fréquentes sur GPT-4o mini

Trouvez des réponses aux questions courantes sur GPT-4o mini