minimax

MiniMax M2.5

MiniMax M2.5 est un modèle MoE state-of-the-art doté d'une context window de 1M et de capacités de codage agentique d'élite à un prix disruptif pour les agents...

Agentic AIArchitecture MoESpécialiste du codageRentable
minimax logominimaxM-series12 février 2026
Contexte
1.0Mtokens
Sortie max.
128Ktokens
Prix entrée
$0.30/ 1M
Prix sortie
$1.20/ 1M
Modalité:TextImage
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
62%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). MiniMax M2.5 a obtenu 62% sur ce benchmark.
HLE
28%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. MiniMax M2.5 a obtenu 28% sur ce benchmark.
MMLU
85%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. MiniMax M2.5 a obtenu 85% sur ce benchmark.
MMLU Pro
76.5%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. MiniMax M2.5 a obtenu 76.5% sur ce benchmark.
SimpleQA
44%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. MiniMax M2.5 a obtenu 44% sur ce benchmark.
IFEval
87.5%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. MiniMax M2.5 a obtenu 87.5% sur ce benchmark.
AIME 2025
45%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. MiniMax M2.5 a obtenu 45% sur ce benchmark.
MATH
72%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. MiniMax M2.5 a obtenu 72% sur ce benchmark.
GSM8k
95.8%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. MiniMax M2.5 a obtenu 95.8% sur ce benchmark.
MGSM
92.4%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. MiniMax M2.5 a obtenu 92.4% sur ce benchmark.
MathVista
65%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. MiniMax M2.5 a obtenu 65% sur ce benchmark.
SWE-Bench
80.2%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. MiniMax M2.5 a obtenu 80.2% sur ce benchmark.
HumanEval
89.6%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. MiniMax M2.5 a obtenu 89.6% sur ce benchmark.
LiveCodeBench
65%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. MiniMax M2.5 a obtenu 65% sur ce benchmark.
MMMU
68%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. MiniMax M2.5 a obtenu 68% sur ce benchmark.
MMMU Pro
54%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. MiniMax M2.5 a obtenu 54% sur ce benchmark.
ChartQA
88%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. MiniMax M2.5 a obtenu 88% sur ce benchmark.
DocVQA
93.2%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. MiniMax M2.5 a obtenu 93.2% sur ce benchmark.
Terminal-Bench
52%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. MiniMax M2.5 a obtenu 52% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. MiniMax M2.5 a obtenu 12% sur ce benchmark.

À propos de MiniMax M2.5

Découvrez les capacités, fonctionnalités et façons d'utiliser MiniMax M2.5.

Architecture frontier efficace

MiniMax M2.5 est un modèle frontier à haute efficacité basé sur une architecture Mixture-of-Experts (MoE) de 230B. En n'activant que 10 milliards de paramètres par passage direct, il atteint des vitesses d'inference et des structures de prix près de 20 fois plus efficaces que les géants propriétaires. Il est conçu spécifiquement pour l'intelligence agentique, privilégiant la logique structurée et la planification multi-étapes aux simples complétions de chat. Cette conception sparse permet au modèle de conserver une haute intelligence sans le coût de calcul massif des modèles denses traditionnels.

Intelligence de codage avancée

La caractéristique principale du modèle est sa Mentalité d'Architecte, qui lui permet de visualiser les structures logiques et les hiérarchies de projet avant de générer du code. Cela le rend particulièrement efficace pour l'ingénierie logicielle autonome, où il égale l'état de l'art avec un score de 80,2 % sur SWE-Bench Verified. Avec une context window d'un million de tokens, il peut ingérer des codebases entières, permettant des audits de dépôts profonds et des refactorisations de systèmes complexes qui étaient auparavant prohibitifs en termes de coûts.

Déploiement en entreprise et en local

MiniMax M2.5 prend en charge plus de 10 langages de programmation et un débit natif allant jusqu'à 100 tokens par seconde sur sa variante lightning. Parce qu'il est disponible en tant que modèle open-weight, les développeurs peuvent le déployer localement pour une confidentialité totale des données tout en conservant l'accès au même raisonnement riche en logique que dans l'API hébergée. Cette polyvalence en fait un choix pratique tant pour les pipelines d'agents basés sur le cloud que pour les outils de développement sur site.

MiniMax M2.5

Cas d'utilisation de MiniMax M2.5

Découvrez les différentes façons d'utiliser MiniMax M2.5 pour obtenir d'excellents résultats.

Ingénierie logicielle autonome

Résolution de problèmes GitHub réels et débogage multi-fichiers à l'aide d'environnements d'agents.

Pipelines d'agents en entreprise

Alimentation d'agents d'arrière-plan toujours actifs pour la recherche et la synthèse de données à faible coût d'API.

Modernisation de code legacy

Refactorisation de dépôts massifs obsolètes vers des frameworks modernes tout en respectant les standards logiques.

Revues de code architecturales

Analyse des hiérarchies de projet pour fournir des retours logiques et des suggestions d'optimisation structurelle.

Édition de documents à haut volume

Traitement de fichiers bureautiques volumineux avec une grande fidélité pour la modélisation financière et juridique.

Outils de développement à faible latence

Pilotage d'extensions d'IDE et d'outils CLI nécessitant des temps de réponse inférieurs à la seconde.

Points forts

Limitations

Performances de codage state-of-the-art: Atteint un score de 80,2 % sur SWE-Bench Verified, égalant les performances de modèles beaucoup plus coûteux.
Profondeur de raisonnement moindre: Les 10B de paramètres actifs du modèle sparse peuvent parfois être à la traîne par rapport aux modèles denses sur des tâches de raisonnement extrêmement spécifiques.
Efficacité extrême des coûts: La tarification est environ 1/20ème de celle des principaux concurrents, rendant viables les déploiements d'agents à grande échelle.
Focus centré sur le texte: Manque de capacités natives de vision et d'audio comparé aux modèles multimodaux comme GPT-4o.
Débit élevé: La variante HighSpeed délivre 100 tokens par seconde, soit le double de la vitesse des modèles traditionnels.
Attribution de la marque requise: L'utilisation commerciale de la version open-weight nécessite une attribution bien visible à la marque MiniMax.
Disponibilité open-weight: Les développeurs peuvent exécuter le modèle localement pour garantir la confidentialité des données et la maîtrise totale de leur stack.
Exigences en VRAM: L'exécution locale du modèle complet nécessite du matériel haut de gamme, sauf en cas d'utilisation d'une quantification importante.

Démarrage rapide API

minimax/minimax-m2.5

Voir la documentation
minimax SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.MINIMAX_API_KEY,
  baseURL: 'https://api.minimax.io/v1',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'minimax-m2.5',
    messages: [{ role: 'user', content: 'Design a microservices architecture for a fintech app.' }],
    temperature: 0.1,
  });
  console.log(response.choices[0].message.content);
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de MiniMax M2.5

Voyez ce que la communauté pense de MiniMax M2.5

La tarification de MiniMax M2.5 est la vraie nouvelle, assez bon marché pour changer l'architecture, pas seulement les budgets.
PretendAd7988
twitter
Le M2.5 atteint des chiffres state-of-the-art et c'est un modèle à 10B de paramètres actifs, ce qui signifie qu'il est rapide et bon marché.
Low-Bread-2346
reddit
Le modèle réduit le travail lourd que les utilisateurs devaient fournir juste pour faire avancer les choses.
JamMasterJulian
youtube
Le M2.5 égale le débit de Claude Opus 4.6 pour une fraction du coût.
Significant-Tap-7854
reddit
Faire tourner M2.5 localement sur un Mac Studio est rapide. Les 10B de paramètres actifs font vraiment la différence.
MacCoder_X
reddit
L'étape de planification architecturale détecte les erreurs logiques avant même d'écrire une seule ligne de code.
dev_mindset
twitter

Vidéos sur MiniMax M2.5

Regardez des tutoriels, critiques et discussions sur MiniMax M2.5

C'est près de 20 fois moins cher que les meilleures options propriétaires.

C'est un modèle de codage et d'agent de premier plan, beaucoup plus rapide et nettement moins cher.

La performance sur SWE-bench verified le place vraiment dans la catégorie d'élite.

Vous obtenez une intelligence frontier avec des exigences matérielles open-source.

L'architecture MoE ici est parfaitement réglée pour les tâches de codage à faible latence.

MiniMax sert le modèle à 3 % du coût d'Opus 4.6 en tokens de sortie.

Le coût de l'intelligence approche désormais le coût de l'électricité.

Il gère les context windows de grands dépôts sans le typique oubli en milieu de document.

Pour les outils de développement, la vitesse de la variante lightning est un gain massif pour l'UX.

C'est la première fois que je vois un modèle aussi bon marché résoudre réellement des bugs logiques complexes.

Cela ne coûte qu'1 $ pour faire tourner le modèle en continu pendant une heure à 100 tokens par seconde.

La réflexion interne brille vraiment ici car il peut corriger sa trajectoire immédiatement.

En le testant face à GPT-4o, il fournit systématiquement de meilleures refactorisations multi-fichiers.

Les capacités agentiques sont intégrées, ce n'est pas juste une réflexion après-coup dans le prompt.

C'est essentiellement gratuit pour les petits développeurs compte tenu des paliers de prix d'entrée.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour MiniMax M2.5

Conseils d'experts pour tirer le meilleur parti de MiniMax M2.5.

Adoptez la mentalité d'architecte

Demandez au modèle de générer une structure de projet avant de demander le code d'implémentation proprement dit.

Utilisez la context window de 1M

Fournissez une documentation complète ou des modules entiers pour assurer une compréhension globale de votre codebase.

Utilisez le plan HighSpeed

Sélectionnez l'endpoint M2.5-HighSpeed pour atteindre un débit constant de 100 tokens par seconde pour les agents interactifs.

Raffinement itératif

Demandez au modèle de réviser son résultat initial pour détecter les lacunes logiques ou les vulnérabilités de sécurité.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M
google

Gemini 3.1 Pro

Google

Gemini 3.1 Pro is Google's elite multimodal model featuring the DeepThink reasoning engine, a 1M+ context window, and industry-leading ARC-AGI logic scores.

1M context
$2.00/$12.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M

Questions Fréquentes sur MiniMax M2.5

Trouvez des réponses aux questions courantes sur MiniMax M2.5