minimax

MiniMax M2.5

MiniMax M2.5 es un model MoE state-of-the-art con un context window de 1M y capacidades avanzadas de programación agentic a precios disruptivos para agentes...

Agentic AIArquitectura MoEEspecialista en programaciónRentable
minimax logominimaxM-series12 de febrero de 2026
Contexto
1.0Mtokens
Salida máx.
128Ktokens
Precio entrada
$0.30/ 1M
Precio salida
$1.20/ 1M
Modalidad:TextImage
Capacidades:VisiónHerramientasStreamingRazonamiento
Benchmarks
GPQA
62%
GPQA: Q&A Científico Nivel Posgrado. Un riguroso benchmark con 448 preguntas de opción múltiple en biología, física y química creadas por expertos. Los doctores solo logran 65-74% de precisión, mientras que los no expertos obtienen solo 34% incluso con acceso ilimitado a internet (por eso 'a prueba de Google'). MiniMax M2.5 obtuvo 62% en este benchmark.
HLE
28%
HLE: Razonamiento de Alto Nivel de Experticia. Evalúa la capacidad de un modelo para demostrar razonamiento a nivel experto en dominios especializados. Evalúa la comprensión profunda de temas complejos que requieren conocimiento profesional. MiniMax M2.5 obtuvo 28% en este benchmark.
MMLU
85%
MMLU: Comprensión Masiva Multitarea del Lenguaje. Un benchmark completo con 16,000 preguntas de opción múltiple en 57 materias académicas incluyendo matemáticas, filosofía, derecho y medicina. Evalúa conocimiento amplio y capacidades de razonamiento. MiniMax M2.5 obtuvo 85% en este benchmark.
MMLU Pro
76.5%
MMLU Pro: MMLU Edición Profesional. Una versión mejorada de MMLU con 12,032 preguntas usando un formato más difícil de 10 opciones. Cubre Matemáticas, Física, Química, Derecho, Ingeniería, Economía, Salud, Psicología, Negocios, Biología, Filosofía e Informática. MiniMax M2.5 obtuvo 76.5% en este benchmark.
SimpleQA
44%
SimpleQA: Benchmark de Precisión Factual. Evalúa la capacidad de un modelo para proporcionar respuestas precisas y factuales a preguntas directas. Mide la fiabilidad y reduce las alucinaciones en tareas de recuperación de conocimiento. MiniMax M2.5 obtuvo 44% en este benchmark.
IFEval
87.5%
IFEval: Evaluación de Seguimiento de Instrucciones. Mide qué tan bien un modelo sigue instrucciones y restricciones específicas. Evalúa la capacidad de adherirse a reglas de formato, límites de longitud y otros requisitos explícitos. MiniMax M2.5 obtuvo 87.5% en este benchmark.
AIME 2025
45%
AIME 2025: Examen de Matemáticas Invitacional Americano. Problemas de matemáticas a nivel de competencia del prestigioso examen AIME diseñado para estudiantes talentosos de secundaria. Evalúa resolución avanzada de problemas matemáticos que requiere razonamiento abstracto. MiniMax M2.5 obtuvo 45% en este benchmark.
MATH
72%
MATH: Resolución de Problemas Matemáticos. Un benchmark completo de matemáticas que evalúa la resolución de problemas en álgebra, geometría, cálculo y otros dominios matemáticos. Requiere razonamiento en múltiples pasos y conocimiento matemático formal. MiniMax M2.5 obtuvo 72% en este benchmark.
GSM8k
95.8%
GSM8k: Matemáticas de Primaria 8K. 8,500 problemas de matemáticas de nivel primaria que requieren razonamiento en múltiples pasos. Evalúa aritmética básica y pensamiento lógico a través de escenarios cotidianos. MiniMax M2.5 obtuvo 95.8% en este benchmark.
MGSM
92.4%
MGSM: Matemáticas de Primaria Multilingüe. El benchmark GSM8k traducido a 10 idiomas incluyendo español, francés, alemán, ruso, chino y japonés. Evalúa el razonamiento matemático en diferentes idiomas. MiniMax M2.5 obtuvo 92.4% en este benchmark.
MathVista
65%
MathVista: Razonamiento Visual Matemático. Evalúa la capacidad de resolver problemas matemáticos que involucran elementos visuales como gráficos, diagramas de geometría y figuras científicas. Combina comprensión visual con razonamiento matemático. MiniMax M2.5 obtuvo 65% en este benchmark.
SWE-Bench
80.2%
SWE-Bench: Benchmark de Ingeniería de Software. Los modelos de IA intentan resolver issues reales de GitHub en proyectos Python de código abierto con verificación humana. Evalúa habilidades prácticas de ingeniería de software. Los mejores modelos pasaron de 4.4% (2023) a más del 70% (2024). MiniMax M2.5 obtuvo 80.2% en este benchmark.
HumanEval
89.6%
HumanEval: Problemas de Programación Python. 164 problemas de programación escritos a mano donde los modelos deben generar implementaciones correctas de funciones Python. Cada solución se verifica con tests unitarios. Los mejores modelos ahora logran más del 90%. MiniMax M2.5 obtuvo 89.6% en este benchmark.
LiveCodeBench
65%
LiveCodeBench: Benchmark de Codificación en Vivo. Evalúa habilidades de codificación con desafíos de programación del mundo real continuamente actualizados. A diferencia de benchmarks estáticos, usa problemas frescos para prevenir contaminación de datos. MiniMax M2.5 obtuvo 65% en este benchmark.
MMMU
68%
MMMU: Comprensión Multimodal. Benchmark de Comprensión Multimodal Multidisciplinaria Masiva que evalúa modelos de visión-lenguaje en problemas universitarios en 30 materias que requieren tanto comprensión de imágenes como conocimiento experto. MiniMax M2.5 obtuvo 68% en este benchmark.
MMMU Pro
54%
MMMU Pro: MMMU Edición Profesional. Versión mejorada de MMMU con preguntas más desafiantes y evaluación más estricta. Evalúa razonamiento multimodal avanzado a niveles profesional y experto. MiniMax M2.5 obtuvo 54% en este benchmark.
ChartQA
88%
ChartQA: Respuesta a Preguntas sobre Gráficos. Evalúa la capacidad de comprender y razonar sobre información presentada en gráficos y diagramas. Requiere extracción de datos, comparación de valores y cálculos desde representaciones visuales. MiniMax M2.5 obtuvo 88% en este benchmark.
DocVQA
93.2%
DocVQA: Q&A Visual de Documentos. Benchmark de Respuesta a Preguntas Visuales de Documentos que evalúa la capacidad de extraer y razonar sobre información de imágenes de documentos incluyendo formularios, reportes y texto escaneado. MiniMax M2.5 obtuvo 93.2% en este benchmark.
Terminal-Bench
52%
Terminal-Bench: Tareas de Terminal/CLI. Evalúa la capacidad de realizar operaciones de línea de comandos, escribir scripts de shell y navegar en entornos de terminal. Mide habilidades prácticas de administración de sistemas y flujos de trabajo de desarrollo. MiniMax M2.5 obtuvo 52% en este benchmark.
ARC-AGI
12%
ARC-AGI: Abstracción y Razonamiento. Corpus de Abstracción y Razonamiento para AGI - evalúa inteligencia fluida a través de puzzles de reconocimiento de patrones novedosos. Cada tarea requiere descubrir la regla subyacente a partir de ejemplos, midiendo capacidad de razonamiento general en lugar de memorización. MiniMax M2.5 obtuvo 12% en este benchmark.

Acerca de MiniMax M2.5

Conoce las capacidades, características y formas de uso de MiniMax M2.5.

Arquitectura de frontera eficiente

MiniMax M2.5 es un frontier model de alta eficiencia construido sobre una arquitectura Mixture-of-Experts (MoE) de 230B. Al activar solo 10 mil millones de parameters por pasada, alcanza velocidades de inference y estructuras de precios casi 20 veces más eficientes que los gigantes propietarios. Está diseñado específicamente para la inteligencia agentic, priorizando la lógica estructurada y la planificación de múltiples pasos sobre las simples conversaciones. Este diseño sparse permite al model mantener una alta inteligencia sin la enorme sobrecarga de cómputo de los modelos densos tradicionales.

Inteligencia avanzada en programación

La característica destacada del model es su Architect Mindset, que le permite visualizar estructuras lógicas y jerarquías de proyectos antes de generar código. Esto lo hace particularmente efectivo para la ingeniería de software autónoma, donde iguala el state-of-the-art con una puntuación del 80.2% en SWE-Bench Verified. Con un context window de 1 millón de tokens, puede ingerir repositorios completos, permitiendo auditorías profundas y refactorizaciones complejas que antes eran prohibitivas por su costo.

Despliegue empresarial y local

MiniMax M2.5 admite más de 10 lenguajes de programación y un throughput nativo de hasta 100 tokens por segundo en su variante lightning. Debido a que está disponible como un model de open-weights, los desarrolladores pueden desplegarlo localmente para una privacidad total de los datos, manteniendo el acceso al mismo reasoning lógico que se encuentra en la API alojada. Esta versatilidad lo convierte en una opción práctica tanto para pipelines de agentes en la nube como para herramientas de desarrollo on-premise.

MiniMax M2.5

Casos de uso de MiniMax M2.5

Descubre las diferentes formas de usar MiniMax M2.5 para lograr excelentes resultados.

Ingeniería de software autónoma

Resolución de problemas de GitHub reales y depuración multiarchivo utilizando agentes.

Pipelines de agentes empresariales

Potenciación de agentes en segundo plano 24/7 para investigación y síntesis de datos a bajo costo de API.

Modernización de código legacy

Refactorización de repositorios masivos obsoletos hacia frameworks modernos manteniendo estándares lógicos.

Revisiones de arquitectura de código

Análisis de jerarquías de proyectos para proporcionar retroalimentación lógica y sugerencias de optimización estructural.

Edición de documentos de alto volumen

Procesamiento de archivos de oficina extensos con alta fidelidad para modelos financieros y legales.

Herramientas de desarrollo de baja latencia

Impulso de extensiones de IDE y herramientas de CLI que requieren tiempos de respuesta inferiores a un segundo.

Fortalezas

Limitaciones

Rendimiento en programación state-of-the-art: Logra una puntuación del 80.2% en SWE-Bench Verified, igualando el rendimiento de modelos mucho más costosos.
Menor profundidad de reasoning: Los 10B de parameters activos de la arquitectura sparse pueden quedarse rezagados frente a modelos densos en tareas de reasoning extremadamente específicas.
Eficiencia de costos extrema: Su precio es aproximadamente 1/20 de los principales competidores, haciendo viables los despliegues de agentes a gran escala.
Enfoque centrado en texto: Carece de capacidades nativas de visión y audio en comparación con modelos multimodal como GPT-4o.
Alto throughput: La variante HighSpeed ofrece 100 tokens por segundo, el doble de velocidad que los modelos tradicionales.
Atribución de marca requerida: El uso comercial de la versión de open-weights requiere una atribución destacada a la marca MiniMax.
Disponibilidad de open-weights: Los desarrolladores pueden ejecutar el model localmente para garantizar la privacidad de los datos y el control total del stack.
Requisitos de VRAM: Ejecutar el model completo localmente requiere hardware de alta gama a menos que se utilice una cuantización significativa.

Inicio rápido de API

minimax/minimax-m2.5

Ver documentación
minimax SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.MINIMAX_API_KEY,
  baseURL: 'https://api.minimax.io/v1',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'minimax-m2.5',
    messages: [{ role: 'user', content: 'Design a microservices architecture for a fintech app.' }],
    temperature: 0.1,
  });
  console.log(response.choices[0].message.content);
}

main();

Instala el SDK y comienza a hacer llamadas API en minutos.

Lo que la gente dice sobre MiniMax M2.5

Mira lo que la comunidad piensa sobre MiniMax M2.5

El precio de MiniMax M2.5 es la verdadera noticia, lo suficientemente barato como para cambiar la arquitectura, no solo los presupuestos.
PretendAd7988
twitter
M2.5 está alcanzando números de state-of-the-art y es un model de 10B de parameters activos, lo que significa que es rápido y barato.
Low-Bread-2346
reddit
El model reduce el trabajo pesado que los usuarios tenían que hacer solo para mantener las cosas en movimiento.
JamMasterJulian
youtube
M2.5 está igualando el throughput de Claude Opus 4.6 a una fracción del costo.
Significant-Tap-7854
reddit
Ejecutar M2.5 localmente en un Mac Studio es rápido. Los 10B de parameters activos realmente marcan la diferencia.
MacCoder_X
reddit
El paso de planificación arquitectónica detecta errores de lógica antes incluso de escribir una sola línea de código.
dev_mindset
twitter

Videos sobre MiniMax M2.5

Mira tutoriales, reseñas y discusiones sobre MiniMax M2.5

Es casi 20 veces más barato que las principales opciones propietarias.

Este es un model de programación y agentic de primer nivel que es mucho más rápido y drásticamente más barato.

El rendimiento en SWE-bench verified realmente lo sitúa en la categoría de élite.

Obtienes inteligencia de nivel frontier con requisitos de hardware de open-source.

La arquitectura MoE aquí está ajustada perfectamente para tareas de programación de baja latencia.

MiniMax está ofreciendo el model al 3% del costo de Opus 4.6 en tokens de salida.

El costo de la inteligencia se acerca al costo de la electricidad en este punto.

Maneja context windows de repositorios grandes sin el típico olvido a mitad del documento.

Para herramientas de desarrollo, la velocidad de la variante lightning es una gran victoria de UX.

Es la primera vez que veo un model tan barato capaz de resolver errores lógicos complejos.

Cuesta solo $1 ejecutar el model continuamente durante una hora a 100 tokens por segundo.

El proceso de reasoning interno realmente brilla aquí porque puede corregir su curso inmediatamente.

Probándolo contra GPT-4o, consistentemente proporciona mejores refactorizaciones multiarchivo.

Las capacidades agentic están integradas, no son solo una ocurrencia tardía en el prompt.

Es esencialmente gratis para pequeños desarrolladores dados los niveles de precios de entrada.

Mas que solo prompts

Potencia tu flujo de trabajo con Automatizacion IA

Automatio combina el poder de agentes de IA, automatizacion web e integraciones inteligentes para ayudarte a lograr mas en menos tiempo.

Agentes de IA
Automatización Web
Flujos Inteligentes

Consejos Pro para MiniMax M2.5

Consejos de expertos para ayudarte a sacar el máximo provecho de MiniMax M2.5.

Adopta la mentalidad de arquitecto

Pide al model que genere una estructura de proyecto antes de solicitar el código de implementación real.

Utiliza el context window de 1M

Proporciona documentación completa o módulos enteros para asegurar una conciencia global de tu codebase.

Usa el plan HighSpeed

Selecciona el endpoint M2.5-HighSpeed para alcanzar 100 tokens por segundo constantes para agentes interactivos.

Refinamiento iterativo

Pide al model que revise su output inicial en busca de lagunas lógicas o vulnerabilidades de seguridad.

Testimonios

Lo Que Dicen Nuestros Usuarios

Unete a miles de usuarios satisfechos que han transformado su flujo de trabajo

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relacionados AI Models

deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M
google

Gemini 3.1 Pro

Google

Gemini 3.1 Pro is Google's elite multimodal model featuring the DeepThink reasoning engine, a 1M+ context window, and industry-leading ARC-AGI logic scores.

1M context
$2.00/$12.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M

Preguntas Frecuentes Sobre MiniMax M2.5

Encuentra respuestas a preguntas comunes sobre MiniMax M2.5