minimax

MiniMax M2.5

MiniMax M2.5 ist ein SOTA MoE-Modell mit 1M context window und erstklassigen agentic Coding-Fähigkeiten zu disruptiven Preisen für autonome Agenten.

Agentic AIMoE-ArchitekturCoding-SpezialistKosteneffizient
minimax logominimaxM-series12. Februar 2026
Kontext
1.0MToken
Max. Ausgabe
128KToken
Eingabepreis
$0.30/ 1M
Ausgabepreis
$1.20/ 1M
Modalität:TextImage
Fähigkeiten:VisionToolsStreamingLogik
Benchmarks
GPQA
62%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). MiniMax M2.5 erreichte 62% bei diesem Benchmark.
HLE
28%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. MiniMax M2.5 erreichte 28% bei diesem Benchmark.
MMLU
85%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. MiniMax M2.5 erreichte 85% bei diesem Benchmark.
MMLU Pro
76.5%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. MiniMax M2.5 erreichte 76.5% bei diesem Benchmark.
SimpleQA
44%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. MiniMax M2.5 erreichte 44% bei diesem Benchmark.
IFEval
87.5%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. MiniMax M2.5 erreichte 87.5% bei diesem Benchmark.
AIME 2025
45%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. MiniMax M2.5 erreichte 45% bei diesem Benchmark.
MATH
72%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. MiniMax M2.5 erreichte 72% bei diesem Benchmark.
GSM8k
95.8%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. MiniMax M2.5 erreichte 95.8% bei diesem Benchmark.
MGSM
92.4%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. MiniMax M2.5 erreichte 92.4% bei diesem Benchmark.
MathVista
65%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. MiniMax M2.5 erreichte 65% bei diesem Benchmark.
SWE-Bench
80.2%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). MiniMax M2.5 erreichte 80.2% bei diesem Benchmark.
HumanEval
89.6%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. MiniMax M2.5 erreichte 89.6% bei diesem Benchmark.
LiveCodeBench
65%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. MiniMax M2.5 erreichte 65% bei diesem Benchmark.
MMMU
68%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. MiniMax M2.5 erreichte 68% bei diesem Benchmark.
MMMU Pro
54%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. MiniMax M2.5 erreichte 54% bei diesem Benchmark.
ChartQA
88%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. MiniMax M2.5 erreichte 88% bei diesem Benchmark.
DocVQA
93.2%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. MiniMax M2.5 erreichte 93.2% bei diesem Benchmark.
Terminal-Bench
52%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. MiniMax M2.5 erreichte 52% bei diesem Benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. MiniMax M2.5 erreichte 12% bei diesem Benchmark.

Über MiniMax M2.5

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von MiniMax M2.5.

Effiziente Frontier-Architektur

MiniMax M2.5 ist ein hocheffizientes frontier model, das auf einer 230B Mixture-of-Experts (MoE) Architektur basiert. Durch die Aktivierung von nur 10 Milliarden parameters pro Forward-Pass erreicht es Inferenz-Geschwindigkeiten und Preisstrukturen, die nahezu 20-mal effizienter sind als bei proprietären Giganten. Es wurde speziell für agentic intelligence entwickelt und priorisiert strukturierte Logik und mehrstufige Planung gegenüber einfachen Chat-Antworten. Dieses Sparse-Design ermöglicht es dem Modell, hohe Intelligenz ohne den massiven Rechenaufwand herkömmlicher dichter Modelle aufrechtzuerhalten.

Fortschrittliche Coding-Intelligenz

Das herausragende Merkmal des Modells ist die Architekten-Denkweise, die es ihm ermöglicht, Logikstrukturen und Projekthierarchien zu visualisieren, bevor Code generiert wird. Dies macht es besonders effektiv für die autonome Softwareentwicklung, wo es mit einem Score von 80,2 % bei SWE-Bench Verified dem state-of-the-art entspricht. Mit einem 1-Million-token context window kann es gesamte Codebasen aufnehmen, was tiefgreifende Repository-Audits und komplexe System-Refactorings ermöglicht, die bisher kostentechnisch unerschwinglich waren.

Enterprise- und lokale Bereitstellung

MiniMax M2.5 unterstützt über 10 Programmiersprachen und einen nativen Durchsatz von bis zu 100 tokens pro Sekunde in seiner Lightning-Variante. Da es als open-weight Modell verfügbar ist, können Entwickler es lokal bereitstellen, um volle Datensicherheit zu gewährleisten, während sie gleichzeitig Zugriff auf dasselbe logikstarke Reasoning wie bei der gehosteten API haben. Diese Vielseitigkeit macht es zu einer praktischen Wahl sowohl für Cloud-basierte Agenten-Pipelines als auch für On-Premise-Entwickler-Tools.

MiniMax M2.5

Anwendungsfälle für MiniMax M2.5

Entdecken Sie die verschiedenen Möglichkeiten, MiniMax M2.5 für großartige Ergebnisse zu nutzen.

Autonome Softwareentwicklung

Lösung realer GitHub-Issues und Debugging über mehrere Dateien hinweg mittels Agenten-Frameworks.

Enterprise-Agenten-Pipelines

Betrieb von permanent aktiven Hintergrund-Agenten für Forschung und Datensynthese bei niedrigen API-Kosten.

Modernisierung von Legacy-Code

Refactoring massiver, veralteter Repositories in moderne Frameworks unter Beibehaltung logischer Standards.

Architektonische Code-Reviews

Analyse von Projekthierarchien zur Bereitstellung von Logik-Feedback und strukturellen Optimierungsvorschlägen.

Hochvolumige Dokumentenbearbeitung

Verarbeitung großer Office-Dateien mit hoher Wiedergabetreue für Finanz- und Rechtsmodellierungen.

Low-Latency Entwickler-Tools

Unterstützung von IDE-Erweiterungen und CLI-Tools, die Antwortzeiten im Sub-Sekunden-Bereich erfordern.

Stärken

Einschränkungen

State-of-the-Art Coding-Leistung: Erreicht 80,2 % bei SWE-Bench Verified und entspricht damit der Leistung wesentlich teurerer Modelle.
Geringere Reasoning-Tiefe: Die sparse 10B-Parameter-Aktivierung kann bei extrem spezialisierten Reasoning-Aufgaben gelegentlich hinter dichten Modellen zurückbleiben.
Extreme Kosteneffizienz: Die Preise liegen bei etwa einem Zwanzigstel der wichtigsten Wettbewerber, was groß angelegte Agenten-Deployments wirtschaftlich macht.
Textzentrierter Fokus: Fehlende native Vision- und Audio-Fähigkeiten im Vergleich zu multimodal Modellen wie GPT-4o.
Hoher Durchsatz: Die HighSpeed-Variante liefert 100 tokens pro Sekunde, was doppelt so schnell ist wie bei herkömmlichen Modellen.
Marken-Attribution erforderlich: Die kommerzielle Nutzung der Open-Weights-Version erfordert eine deutliche Nennung der Marke MiniMax.
Verfügbarkeit als Open-Weights: Entwickler können das Modell lokal ausführen, um Datensicherheit und volle Kontrolle über den gesamten Stack zu gewährleisten.
VRAM-Anforderungen: Die lokale Ausführung des vollständigen Modells erfordert High-End-Hardware, sofern keine signifikante Quantisierung genutzt wird.

API-Schnellstart

minimax/minimax-m2.5

Dokumentation anzeigen
minimax SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.MINIMAX_API_KEY,
  baseURL: 'https://api.minimax.io/v1',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'minimax-m2.5',
    messages: [{ role: 'user', content: 'Entwerfe eine Microservices-Architektur für eine Fintech-App.' }],
    temperature: 0.1,
  });
  console.log(response.choices[0].message.content);
}

main();

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über MiniMax M2.5 sagen

Sehen Sie, was die Community über MiniMax M2.5 denkt

Die Preisgestaltung von MiniMax M2.5 ist die eigentliche Nachricht – günstig genug, um die Architektur zu verändern, nicht nur das Budget.
PretendAd7988
twitter
M2.5 erreicht SOTA-Werte bei einem 10B aktiven Parameter-Modell, was bedeutet, dass es schnell und günstig ist.
Low-Bread-2346
reddit
Das Modell reduziert die Schwerstarbeit, die Benutzer leisten mussten, nur um Dinge am Laufen zu halten.
JamMasterJulian
youtube
M2.5 erreicht den Durchsatz von Claude Opus 4.6 zu einem Bruchteil der Kosten.
Significant-Tap-7854
reddit
M2.5 lokal auf einem Mac Studio auszuführen ist flüssig. Die 10B aktiven params machen wirklich einen Unterschied.
MacCoder_X
reddit
Der architektonische Planungsschritt erkennt logische Fehler, bevor überhaupt eine Zeile Code geschrieben wird.
dev_mindset
twitter

Videos über MiniMax M2.5

Schauen Sie Tutorials, Rezensionen und Diskussionen über MiniMax M2.5

Es ist fast 20-mal günstiger als die führenden proprietären Optionen.

Dies ist ein erstklassiges Coding- und Agentic-Modell, das viel schneller und drastisch günstiger ist.

Die Leistung bei SWE-bench verified katapultiert es wirklich in die Elite-Kategorie.

Sie erhalten frontier intelligence bei Open-Source-Hardwareanforderungen.

Die MoE-Architektur hier ist perfekt für Coding-Aufgaben mit niedriger latency abgestimmt.

MiniMax bietet das Modell zu 3 % der Kosten von Opus 4.6 bei output tokens an.

Die Kosten für Intelligenz nähern sich inzwischen tatsächlich den Kosten für Strom an.

Es verarbeitet große Repositories im context window, ohne das typische Vergessen inmitten des Dokuments.

Für Entwickler-Tools ist die Geschwindigkeit der Lightning-Variante ein riesiger UX-Gewinn.

Es ist das erste Mal, dass ich ein so günstiges Modell sehe, das tatsächlich komplexe logische Bugs löst.

Es kostet nur 1 $, das Modell kontinuierlich für eine Stunde bei 100 tokens pro Sekunde zu betreiben.

Das interne Reasoning glänzt hier besonders, da es sich sofort korrigieren kann.

Im Test gegen GPT-4o liefert es konsistent bessere Refactorings über mehrere Dateien hinweg.

Die agentic Fähigkeiten sind integriert, kein nachträglicher Einfall im prompt.

Es ist angesichts der Input-Preisstufen für kleine Entwickler im Grunde kostenlos.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für MiniMax M2.5

Expertentipps, um das Beste aus MiniMax M2.5 herauszuholen.

Verwenden Sie die Architekten-Denkweise

Bitten Sie das Modell, eine Projektstruktur zu generieren, bevor Sie den eigentlichen Implementierungscode anfordern.

Nutzen Sie das 1M-Context-Window

Stellen Sie vollständige Dokumentationen oder gesamte Module bereit, um ein globales Verständnis Ihrer Codebasis sicherzustellen.

Verwenden Sie den HighSpeed-Tarif

Wählen Sie den M2.5-HighSpeed-Endpoint, um konstante 100 tokens pro Sekunde für interaktive Agents zu erreichen.

Iterative Verfeinerung

Bitten Sie das Modell, seine anfängliche Ausgabe auf logische Lücken oder Sicherheitslücken zu überprüfen.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M
google

Gemini 3.1 Pro

Google

Gemini 3.1 Pro is Google's elite multimodal model featuring the DeepThink reasoning engine, a 1M+ context window, and industry-leading ARC-AGI logic scores.

1M context
$2.00/$12.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M

Häufig gestellte Fragen zu MiniMax M2.5

Finden Sie Antworten auf häufige Fragen zu MiniMax M2.5