minimax

MiniMax M2.5

MiniMax M2.5 est un model MoE SOTA doté d'une context window de 1M et de capacités de coding agentic d'élite à un prix disruptif pour les agents autonomes.

AI agenticArchitecture MoESpécialiste du codingRapport qualité-prix
minimax logominimaxMiniMax M-SeriesFebruary 12, 2026
Contexte
1.0Mtokens
Sortie max.
128Ktokens
Prix entrée
$0.30/ 1M
Prix sortie
$1.20/ 1M
Modalité:TextImage
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
62%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). MiniMax M2.5 a obtenu 62% sur ce benchmark.
HLE
28%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. MiniMax M2.5 a obtenu 28% sur ce benchmark.
MMLU
85%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. MiniMax M2.5 a obtenu 85% sur ce benchmark.
MMLU Pro
76.5%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. MiniMax M2.5 a obtenu 76.5% sur ce benchmark.
SimpleQA
44%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. MiniMax M2.5 a obtenu 44% sur ce benchmark.
IFEval
87.5%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. MiniMax M2.5 a obtenu 87.5% sur ce benchmark.
AIME 2025
45%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. MiniMax M2.5 a obtenu 45% sur ce benchmark.
MATH
72%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. MiniMax M2.5 a obtenu 72% sur ce benchmark.
GSM8k
95.8%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. MiniMax M2.5 a obtenu 95.8% sur ce benchmark.
MGSM
92.4%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. MiniMax M2.5 a obtenu 92.4% sur ce benchmark.
MathVista
65%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. MiniMax M2.5 a obtenu 65% sur ce benchmark.
SWE-Bench
80.2%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. MiniMax M2.5 a obtenu 80.2% sur ce benchmark.
HumanEval
89.6%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. MiniMax M2.5 a obtenu 89.6% sur ce benchmark.
LiveCodeBench
65%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. MiniMax M2.5 a obtenu 65% sur ce benchmark.
MMMU
68%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. MiniMax M2.5 a obtenu 68% sur ce benchmark.
MMMU Pro
54%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. MiniMax M2.5 a obtenu 54% sur ce benchmark.
ChartQA
88%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. MiniMax M2.5 a obtenu 88% sur ce benchmark.
DocVQA
93.2%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. MiniMax M2.5 a obtenu 93.2% sur ce benchmark.
Terminal-Bench
52%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. MiniMax M2.5 a obtenu 52% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. MiniMax M2.5 a obtenu 12% sur ce benchmark.

À propos de MiniMax M2.5

Découvrez les capacités, fonctionnalités et façons d'utiliser MiniMax M2.5.

Intelligence Frontier haute efficacité

MiniMax M2.5 représente une avancée majeure dans l'efficacité de l'IA de classe frontier model. En tant que model Mixture-of-Experts (MoE), il utilise une architecture sparse avec 230 milliards de parameters au total, mais n'active que 10 milliards de parameters par token. Cette conception lui permet d'offrir des performances compétitives par rapport aux modèles flagship mondiaux tout en restant nettement plus rapide et moins coûteux à exploiter. Sorti début 2026, il est spécifiquement optimisé pour les charges de travail « agentic » où l'IA doit planifier, exécuter et s'auto-corriger sur des tâches multi-étapes.

Reasoning architectural et coding

L'une des caractéristiques les plus distinctives de M2.5 est sa pensée architecturale émergente. Contrairement aux LLM standards qui génèrent du code de manière linéaire, M2.5 est entraîné pour cartographier les hiérarchies de projets et les structures logiques avant d'écrire les fichiers. Cette capacité, combinée à une context window d'un million de tokens, en fait un choix de premier ordre pour l'ingénierie logicielle autonome, les revues de code à grande échelle et la gestion de dépôts complexes. Il supporte plus de 10 langages de programmation et affiche un throughput natif allant jusqu'à 100 tokens par seconde.

MiniMax M2.5

Cas d'utilisation de MiniMax M2.5

Découvrez les différentes façons d'utiliser MiniMax M2.5 pour obtenir d'excellents résultats.

Ingénierie logicielle agentic

Génération et tests autonomes de projets multi-fichiers dans des environnements sandbox en utilisant le mode Architecte.

Bureautique de haute précision

Exécution de tâches complexes sur Word, PowerPoint et Excel, incluant la modélisation financière professionnelle.

Recherche Web autonome

Navigation sur des pages Web denses en informations pour effectuer une recherche et une synthèse d'informations de niveau expert.

Support technique bilingue

Maîtrise de niveau natif en chinois et en anglais pour le débogage complexe et la planification architecturale.

Prototypage de simulation 3D

Génération d'environnements 3D fonctionnels et de composants interactifs comme Three.js en un seul essai.

Revue de code en entreprise

Réalisation de revues de code complètes et de tests système sur plus de 10 langages de programmation avec une supervision architecturale.

Points forts

Limitations

Rentabilité disruptive: À 0,30 $/1,20 $ par million de tokens, il offre une intelligence d'élite pour une fraction du prix des concurrents mondiaux.
Erreurs logiques occasionnelles: Le code initial peut contenir des erreurs fonctionnelles, telles que des incohérences logiques dans des animations complexes.
Planification architecturale: Le model affiche une capacité unique à cartographier les hiérarchies de projet et les structures logiques avant de générer du code.
Latence géographique: Les utilisateurs situés en dehors de la région Asie-Pacifique peuvent subir une latence plus élevée sans centres de déploiement edge locaux.
Vitesse d'inference extrême: Le service natif à 100 tokens par seconde en fait l'un des modèles de classe frontier model les plus rapides pour les workflows interactifs.
Lacunes en culture générale: Bien que techniquement précis, il peut parfois avoir des difficultés avec l'alignement précis d'objets du monde réel de niche dans les générations 3D.
Performance de coding d'élite: Spécifiquement optimisé pour l'ingénierie logicielle réelle, atteignant 80,2 % sur SWE-Bench Verified.
Sensibilité aux instructions: Peut ignorer les contraintes de « fichier unique » pour des tâches complexes, à moins d'être sollicité très spécifiquement pour éviter l'éparpillement multi-fichiers.

Démarrage rapide API

minimax/minimax-m2.5

Voir la documentation
minimax SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.MINIMAX_API_KEY,
  baseURL: "https://api.minimax.chat/v1",
});

async function main() {
  const response = await client.chat.completions.create({
    model: "minimax-m2.5",
    messages: [{ role: "user", content: "Plan like an architect and code a 3D Formula 1 car drifting." }],
  });
  console.log(response.choices[0].message.content);
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de MiniMax M2.5

Voyez ce que la communauté pense de MiniMax M2.5

"MiniMax M2.5 est un model de coding et agentic de premier plan, bien plus rapide et considérablement moins cher."
WorldofAI
youtube
"La vitesse de M2.5 s'accumule rapidement dans les boucles d'agents. Il est conçu pour des charges de travail de production permanentes."
MarketingNetMind
reddit
"On dirait plus un assistant infatigable qu'un bot lent. La vitesse change vraiment la donne pour ma configuration."
bruckout
reddit
"Cela ressemble à une véritable révolution... le coût est un dixième de celui des modèles flagship propriétaires."
Techmeme
facebook
"Il atteint 80,2 % sur SWE Bench Verified. C'est un changement d'ordre de grandeur pour l'économie des agents."
jackhnels
x
"Le mode de planification architecturale rend enfin les agents de coding autonomes assez fiables pour les équipes de développement."
logic_pro
hackernews

Vidéos sur MiniMax M2.5

Regardez des tutoriels, critiques et discussions sur MiniMax M2.5

Il rend enfin l'idée d'une intelligence trop peu coûteuse pour être mesurée véritablement réaliste.

La qualité est bel et bien là... remarquablement fonctionnel même pour des animations frontend complexes.

Ce model dévore littéralement les benchmark de coding en ce moment.

Sa capacité à s'auto-corriger pendant la boucle agentic est ce qui le distingue de M2.1.

Je n'ai vu ce niveau de rapport performance-prix dans aucune autre sortie cette année.

Une amélioration significative par rapport aux générations précédentes est la capacité de M2.5 à penser et planifier comme un architecte.

Cet outil va s'imposer comme un instrument de coding agentic très, très puissant.

Remarquez comment il décompose la structure des dossiers avant d'écrire les composants React réels.

Les capacités de reasoning ici sont bien supérieures à son poids en parameters actifs.

Si vous construisez des agents de développement autonomes, vous devez tester ce model immédiatement.

Si vous voulez l'utiliser pour votre propre workflow, vous obtiendrez probablement de très bons résultats pour le coding.

Ils ne sont certainement pas à la traîne... ils se rapprochent en termes de performance globale.

Le support vision multimodal gère mieux les wireframes d'interface utilisateur complexes que certains modèles propriétaires.

Nous voyons une tendance où la vitesse devient aussi importante que l'intelligence brute pour les agents.

M2.5 représente la maturation de l'écosystème MiniMax pour les développeurs mondiaux.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour MiniMax M2.5

Conseils d'experts pour tirer le meilleur parti de MiniMax M2.5.

Exploitez le mode Architecte

Incitez explicitement le model à « planifier comme un architecte » pour déclencher son reasoning approfondi et sa décomposition de structure de fichiers.

Utilisez le feedback itératif

Pour les animations 3D ou SVG complexes, fournissez un feedback sur les erreurs fonctionnelles pour tirer parti de l'auto-correction agentic du model.

Gérez le prompt caching

Profitez de la context window de 1M en mettant en cache de grands ensembles de documentation pour réduire les coûts jusqu'à 90 %.

Basculez sur la version Lightning

Utilisez la version Lightning pour le coding d'interfaces utilisateur interactives en temps réel afin d'atteindre des vitesses de 100 tokens par seconde.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
alibaba

Qwen3-Coder-Next

alibaba

Qwen3-Coder-Next is Alibaba Cloud's elite Apache 2.0 coding model, featuring an 80B MoE architecture and 256k context window for advanced local development.

256K context
$0.14/$0.42/1M
alibaba

Qwen-Image-2.0

alibaba

Qwen-Image-2.0 is Alibaba's unified 7B model for professional infographics, photorealism, and precise image editing with native 2K resolution and 1k-token...

1K context
$0.07/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
other

PixVerse-R1

Other

PixVerse-R1 is a next-gen real-time world model by AIsphere, offering interactive 1080p video generation with instant response and physics-aware continuity.

Questions Fréquentes sur MiniMax M2.5

Trouvez des réponses aux questions courantes sur MiniMax M2.5