moonshot

Kimi k2.6

Kimi k2.6 ist das 1T-parameter MoE model von Moonshot AI mit 256K context window, nativem Video-Input und Spitzenleistung bei autonomen agentic Coding-Aufgaben.

ReasoningMultimodalCoding AgentOpen WeightsMoE
moonshot logomoonshotKimi20. April 2026
Kontext
256KToken
Max. Ausgabe
33KToken
Eingabepreis
$0.95/ 1M
Ausgabepreis
$4.00/ 1M
Modalität:TextImageVideo
Fähigkeiten:VisionToolsStreamingLogik
Benchmarks
GPQA
90.5%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). Kimi k2.6 erreichte 90.5% bei diesem Benchmark.
HLE
54%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. Kimi k2.6 erreichte 54% bei diesem Benchmark.
MMLU
86.4%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. Kimi k2.6 erreichte 86.4% bei diesem Benchmark.
MMLU Pro
84.6%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. Kimi k2.6 erreichte 84.6% bei diesem Benchmark.
SimpleQA
43%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. Kimi k2.6 erreichte 43% bei diesem Benchmark.
IFEval
89.8%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. Kimi k2.6 erreichte 89.8% bei diesem Benchmark.
AIME 2025
97.3%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. Kimi k2.6 erreichte 97.3% bei diesem Benchmark.
MATH
98.2%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. Kimi k2.6 erreichte 98.2% bei diesem Benchmark.
GSM8k
97.3%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. Kimi k2.6 erreichte 97.3% bei diesem Benchmark.
MGSM
91.5%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. Kimi k2.6 erreichte 91.5% bei diesem Benchmark.
MathVista
67.1%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. Kimi k2.6 erreichte 67.1% bei diesem Benchmark.
SWE-Bench
80.2%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). Kimi k2.6 erreichte 80.2% bei diesem Benchmark.
HumanEval
92%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. Kimi k2.6 erreichte 92% bei diesem Benchmark.
LiveCodeBench
83.1%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. Kimi k2.6 erreichte 83.1% bei diesem Benchmark.
MMMU
77.3%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. Kimi k2.6 erreichte 77.3% bei diesem Benchmark.
MMMU Pro
75.6%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. Kimi k2.6 erreichte 75.6% bei diesem Benchmark.
ChartQA
87.4%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. Kimi k2.6 erreichte 87.4% bei diesem Benchmark.
DocVQA
94.9%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. Kimi k2.6 erreichte 94.9% bei diesem Benchmark.
Terminal-Bench
60.2%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. Kimi k2.6 erreichte 60.2% bei diesem Benchmark.
ARC-AGI
68.8%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. Kimi k2.6 erreichte 68.8% bei diesem Benchmark.

Über Kimi k2.6

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von Kimi k2.6.

Architektur und Skalierung

Kimi k2.6 ist ein multimodales Mixture-of-Experts (MoE) frontier model im Trillion-parameter-Bereich. Es verwendet 32 Milliarden aktive parameter pro token und gleicht so Recheneffizienz mit kognitiver Höchstleistung aus. Die Architektur unterstützt internes chain-of-thought reasoning, bei dem das model verborgene Denk-Schritte generiert, bevor eine endgültige Antwort ausgegeben wird. Dieses Design ermöglicht die Bewältigung komplexer, mehrstufiger Probleme, an denen standardmäßige large language models oft scheitern.

Agentic Intelligenz und Koordination

Das model ist speziell für autonome Softwareentwicklung und langfristige Aufgaben optimiert. Es kann Agent Swarms von bis zu 300 parallelen Sub-Agents verwalten, die sich bei der Refaktorierung großer Codebasen oder komplexer DevOps-Pipelines koordinieren. Durch den Einsatz von nativem tool calling und visuellem Verständnis agiert Kimi k2.6 als autonomer Agent, der GitHub-Issues über mehrere Dateien hinweg löst und bewegungsreiche Web-Interfaces anhand visueller Referenzen erstellt.

Multimodale Fähigkeiten

Die native Unterstützung für Video- und Bild-Inputs unterscheidet Kimi k2.6 von vielen open-weights-Pendants. Es verarbeitet Videodateien direkt für Szenenanalysen, Bug-Reproduktionen und die Extraktion strukturierter Daten. Das model fungiert als visueller Architekt und generiert 3D-Shader sowie komplexe Animationen mithilfe von Bibliotheken wie Three.js und GSAP, basierend auf visuellen Beschreibungen oder hochgeladenen Mockups.

Kimi k2.6

Anwendungsfälle für Kimi k2.6

Entdecken Sie die verschiedenen Möglichkeiten, Kimi k2.6 für großartige Ergebnisse zu nutzen.

Autonome Softwareentwicklung

Lösung komplexer GitHub-Issues durch Koordination von bis zu 300 parallelen Sub-Agents über 12-Stunden-Sitzungen hinweg.

Motion-Rich Frontend-Generierung

Erstellung moderner Web-Interfaces mit WebGL- und GSAP-Shadern auf Basis einfacher Text- oder Bild-prompts.

Detaillierte Videoanalyse

Analyse von Aufzeichnungen zur visuellen Reproduktion von Bugs, Szenenbeschreibung oder Extraktion strukturierter Daten.

Agentic Marktforschung

Durchführung mehrstufiger Websuchen und Tool-Aufrufe zur Synthese von Wettbewerbsanalysen aus Hunderten von Quellen.

Optimierung von Legacy-Code

Identifizierung von Performance-Flaschenhälsen in älteren Codebasen durch Analyse von CPU-Flame-Graphs und Allokationsdaten.

Wissenschaftliche Problemlösung

Beantwortung wissenschaftlicher und mathematischer Fragen auf Hochschulniveau unter Verwendung von Python-gestütztem Reasoning und Tool-Verifizierung.

Stärken

Einschränkungen

Überlegenes Agentic Coding: Erreicht 80,2 % im SWE-Bench Verified-Benchmark und zählt damit zu den leistungsfähigsten models für autonome Softwareentwicklung.
Hohe Anforderungen an lokalen VRAM: Der Betrieb des vollständigen models erfordert 600 GB VRAM, was das Self-Hosting auf spezialisierte High-End-Workstations beschränkt.
Massive Koordinationsskalierung: Verwaltet 300 parallele Sub-Agents, was die Bewältigung von Refactoring-Aufgaben auf Unternehmensebene in einem einzigen Durchlauf ermöglicht.
Regionale API-latency: Die Infrastruktur ist für Asien optimiert, was bei Nutzern in westlichen Regionen zu längeren Antwortzeiten führen kann.
Native multimodale Vielseitigkeit: Unterstützt native Video- und Bild-Inputs und ermöglicht so fortschrittliche Visual-Language-Agent-Workflows für UI/UX-Aufgaben.
Recall-Lücken bei langem Kontext: Das model kann an den äußersten Grenzen seines 256.000-token Buffers Schwierigkeiten mit der perfekten Wiedergabe haben.
Aggressiver Preisvorteil: Mit $0,95 pro Million Input-tokens ist es deutlich günstiger als proprietäre Konkurrenten wie Claude 3.7 oder GPT-4o.
Eingeschränkte kommerzielle Lizenz: Die open-weights-Veröffentlichung nutzt eine modifizierte Lizenz, die spezifische Compliance-Anforderungen für großflächige Unternehmensbereitstellungen stellt.

API-Schnellstart

moonshotai/kimi-k2.6

Dokumentation anzeigen
moonshot SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.MOONSHOT_API_KEY,
  baseURL: "https://api.moonshot.ai/v1",
});

async function main() {
  const completion = await client.chat.completions.create({
    model: "kimi-k2.6",
    messages: [
      { role: "system", content: "You are a coding expert." },
      { role: "user", content: "Optimize this Rust function for throughput." }
    ],
    extra_body: { thinking: { type: "enabled" } }
  });

  console.log(completion.choices[0].message.content);
}

main();

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über Kimi k2.6 sagen

Sehen Sie, was die Community über Kimi k2.6 denkt

Lernen Sie Kimi K2.6 kennen: Fortschritt für Open-Source-Coding. Ein prompt, 100+ Dateien. 4.000+ Tool-Aufrufe in 12 Stunden kontinuierlicher Ausführung.
@Kimi_Moonshot
twitter
Kimi 2.6 SCHLÄGT Opus 4.7 und ist das BESTE Open-Source-Model der Welt. Ein sehr gutes model zu 10-mal niedrigeren Kosten.
@bindureddy
twitter
Die Preisdifferenz ist der Punkt, den bisher niemand auf dem Schirm hat. Kimi K2.6 ist 5-mal günstiger als Sonnet 4.6. Der Benchmark-Abstand hat sich offiziell umgekehrt.
@aakashgupta
twitter
Ich habe es gegen einen Bug getestet, den ich hatte. Es hat ihn für knapp über 1 $ erfolgreich gelöst. Es war ein schwieriger Bug, an dem Sonnet zu kämpfen hatte.
@uworldhits1391
youtube
Kimi K2.6 ist transformativ, obwohl es bei extrem langen Aufgaben noch Raum für Verbesserungen beim Recall gibt. Dennoch sind 300 parallele Agents der Wahnsinn.
@Radiant-Act4707
reddit
Die Kimi K2-Serie markiert den Moment, in dem open-source frontier labs endlich mit geschlossenen Giganten konkurrieren und diese übertreffen.
@zxytim
twitter

Videos über Kimi k2.6

Schauen Sie Tutorials, Rezensionen und Diskussionen über Kimi k2.6

Kimi K2.6 wird Claude nicht zerstören, aber es WIRD die Premium-Preise geschlossener Labore zerstören.

Die Agent-Swarm-Fähigkeit, 300 Agents parallel, ist etwas, das wir bisher bei open-source noch nicht gesehen haben.

Der HLE-Score von 54,0 ist der höchste, den wir bei einem open-weights model gesehen haben.

Ein einziger prompt kann zu 12 Stunden kontinuierlicher Ausführung führen, was ein neues Zeitalter für Agents bedeutet.

Es handhabt mehrstufige Tool-Aufrufe mit einer Stabilität, die den besten proprietären models entspricht.

Das vision model unterstützt native Video-Inputs, was selbst 2026 eine seltene Funktion ist.

Es handhabt mehrstufige Tool-Aufrufe mit einem stabilen Thinking Mode, der mit der o-Serie von OpenAI konkurriert.

Für Frontend-Entwicklung sind die bewegungsreichen Generierungen deutlich besser als bei K2.5.

Das 256K context window ermöglicht das Parsen kompletter Dokumentationssätze in einem Durchgang.

Es ist eines der ersten models, das echte Autonomie in Terminal-Umgebungen zeigt.

Die Kombination von K2.6 mit dem Kimi Code CLI ermöglicht über 12-stündige autonome Coding-Sitzungen.

Es hat eine 8 Jahre alte Finanz-Engine refactored und autonom einen Durchsatzgewinn von 185 % erzielt.

Dies ist ein Trillion-parameter model, aber die aktiven parameter liegen nur bei 32B, was es schnell hält.

Die Kosteneinsparungen für Entwickler, die von Claude zu Kimi wechseln, sind astronomisch.

Es hat einen Bug in einer komplexen Rust-Library gelöst, der drei Monate lang offen war.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für Kimi k2.6

Expertentipps, um das Beste aus Kimi k2.6 herauszuholen.

Tool Use für Reasoning aktivieren

Benchmarks zeigen, dass der HLE-Score von 23,9 auf 54,0 steigt, wenn das model auf externe Such- und Rechen-Tools zugreifen darf.

Grenzen des Context-Buffers überwachen

Der Abruf ist in den ersten 200.000 tokens des 256.000-token Buffers am präzisesten.

Thinking Mode sparsam einsetzen

Deaktivieren Sie den thinking-Parameter für einfache Chat-Aufgaben, um latency und den gesamten token-Verbrauch zu reduzieren.

Standardisierung mit XML-Tags

Das model befolgt Anweisungen präziser, wenn Kontext und Aufgaben in XML-Tags eingeschlossen werden.

Native Video-Uploads nutzen

Verwenden Sie für Videos über 100 MB Datei-Upload-Methoden anstelle von base64-Kodierung, um Limitierungen der Request-Größe zu vermeiden.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
openai

GPT-5.2 Pro

OpenAI

GPT-5.2 Pro is OpenAI's 2025 flagship reasoning model featuring Extended Thinking for SOTA performance in mathematics, coding, and expert knowledge work.

400K context
$21.00/$168.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Häufig gestellte Fragen zu Kimi k2.6

Finden Sie Antworten auf häufige Fragen zu Kimi k2.6