moonshot

Kimi k2.6

Kimi k2.6 est le modèle MoE 1T de parameters de Moonshot AI, doté d'une context window de 256K, d'une entrée vidéo native et de performances d'élite en codage...

ReasoningMultimodalCoding AgentOpen WeightsMoE
moonshot logomoonshotKimi20 avril 2026
Contexte
256Ktokens
Sortie max.
33Ktokens
Prix entrée
$0.95/ 1M
Prix sortie
$4.00/ 1M
Modalité:TextImageVideo
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
90.5%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). Kimi k2.6 a obtenu 90.5% sur ce benchmark.
HLE
54%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. Kimi k2.6 a obtenu 54% sur ce benchmark.
MMLU
86.4%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. Kimi k2.6 a obtenu 86.4% sur ce benchmark.
MMLU Pro
84.6%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. Kimi k2.6 a obtenu 84.6% sur ce benchmark.
SimpleQA
43%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. Kimi k2.6 a obtenu 43% sur ce benchmark.
IFEval
89.8%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. Kimi k2.6 a obtenu 89.8% sur ce benchmark.
AIME 2025
97.3%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. Kimi k2.6 a obtenu 97.3% sur ce benchmark.
MATH
98.2%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. Kimi k2.6 a obtenu 98.2% sur ce benchmark.
GSM8k
97.3%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. Kimi k2.6 a obtenu 97.3% sur ce benchmark.
MGSM
91.5%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. Kimi k2.6 a obtenu 91.5% sur ce benchmark.
MathVista
67.1%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. Kimi k2.6 a obtenu 67.1% sur ce benchmark.
SWE-Bench
80.2%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. Kimi k2.6 a obtenu 80.2% sur ce benchmark.
HumanEval
92%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. Kimi k2.6 a obtenu 92% sur ce benchmark.
LiveCodeBench
83.1%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. Kimi k2.6 a obtenu 83.1% sur ce benchmark.
MMMU
77.3%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. Kimi k2.6 a obtenu 77.3% sur ce benchmark.
MMMU Pro
75.6%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. Kimi k2.6 a obtenu 75.6% sur ce benchmark.
ChartQA
87.4%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. Kimi k2.6 a obtenu 87.4% sur ce benchmark.
DocVQA
94.9%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. Kimi k2.6 a obtenu 94.9% sur ce benchmark.
Terminal-Bench
60.2%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. Kimi k2.6 a obtenu 60.2% sur ce benchmark.
ARC-AGI
68.8%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. Kimi k2.6 a obtenu 68.8% sur ce benchmark.

À propos de Kimi k2.6

Découvrez les capacités, fonctionnalités et façons d'utiliser Kimi k2.6.

Conception architecturale et échelle

Kimi k2.6 est un modèle multimodal de type Mixture-of-Experts (MoE) à l'échelle du trillion de parameters. Il utilise 32 milliards de parameters actifs par token, équilibrant efficacité computationnelle et performances cognitives de haut niveau. L'architecture prend en charge le raisonnement interne par chain-of-thought, où le modèle génère des étapes de réflexion masquées avant de produire une réponse finale. Cette conception lui permet de s'attaquer à des problèmes complexes en plusieurs étapes qui bloquent généralement les grands modèles de langage standards.

Intelligence et coordination agentique

Le modèle est spécifiquement optimisé pour l'ingénierie logicielle autonome et les tâches de longue haleine. Il peut gérer des Agent Swarms allant jusqu'à 300 sous-agents parallèles, qui se coordonnent pour refactoriser de vastes bases de code ou gérer des pipelines DevOps complexes. En utilisant l'appel d'outils natif et la compréhension visuelle, Kimi k2.6 opère comme un agent autonome capable de résoudre des problèmes GitHub impliquant plusieurs fichiers et de créer des interfaces web riches en mouvement à partir de références visuelles.

Capacités multimodales

La prise en charge native des entrées vidéo et images distingue Kimi k2.6 de nombreux pairs open-weights. Il traite directement les fichiers vidéo pour effectuer l'analyse de scène, la reproduction de bugs et l'extraction de données structurées. Le modèle sert d'architecte visuel, générant des shaders 3D et des animations complexes en utilisant des bibliothèques comme Three.js et GSAP basées sur des descriptions visuelles ou des maquettes téléchargées.

Kimi k2.6

Cas d'utilisation de Kimi k2.6

Découvrez les différentes façons d'utiliser Kimi k2.6 pour obtenir d'excellents résultats.

Ingénierie logicielle autonome

Résolution de problèmes GitHub complexes en coordonnant jusqu'à 300 sous-agents en parallèle sur des sessions de 12 heures.

Génération d'interfaces front-end animées

Création d'interfaces web modernes avec des shaders WebGL et GSAP à partir de simples prompts textuels ou d'images.

Analyse vidéo approfondie

Analyse d'enregistrements pour reproduire des bugs visuels, décrire des scènes ou extraire des données structurées.

Études de marché par agents

Exécution de recherches web en plusieurs étapes et appels d'outils pour synthétiser des rapports d'analyse concurrentielle à partir de centaines de sources.

Optimisation de code legacy

Identification des goulots d'étranglement dans d'anciennes bases de code en analysant les flame graphs CPU et les données d'allocation.

Résolution de problèmes scientifiques

Réponse à des questions scientifiques et mathématiques de niveau universitaire en utilisant le raisonnement assisté par Python et la vérification par outils.

Points forts

Limitations

Codage agentique supérieur: Atteint un score de 80,2 % sur SWE-Bench Verified, se plaçant parmi les modèles les plus performants pour l'ingénierie autonome.
Exigences élevées en VRAM locale: L'exécution locale nécessite 600 Go de VRAM, limitant l'auto-hébergement à des stations de travail spécialisées haut de gamme.
Échelle de coordination massive: Gère 300 sous-agents parallèles, permettant de traiter des tâches de refactoring d'entreprise en un seul passage.
Latency API régionale: L'infrastructure est optimisée pour l'Asie, ce qui peut entraîner des temps de réponse plus longs pour les utilisateurs dans les régions occidentales.
Polyvalence multimodale native: Prend en charge les entrées vidéo et images natives, permettant des flux de travail d'agents vision-langage avancés pour les tâches UI/UX.
Lacunes de restitution dans les contextes longs: Le modèle peut éprouver des difficultés à maintenir une précision parfaite aux limites extrêmes de sa buffer de 256 000 tokens.
Avantage tarifaire agressif: À 0,95 $ par million de tokens en entrée, il est nettement moins cher que les concurrents propriétaires comme Claude 3.7 ou GPT-4o.
Licence commerciale restreinte: La version open-weights utilise une licence modifiée nécessitant une conformité spécifique pour les déploiements en entreprise à grande échelle.

Démarrage rapide API

moonshotai/kimi-k2.6

Voir la documentation
moonshot SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.MOONSHOT_API_KEY,
  baseURL: "https://api.moonshot.ai/v1",
});

async function main() {
  const completion = await client.chat.completions.create({
    model: "kimi-k2.6",
    messages: [
      { role: "system", content: "You are a coding expert." },
      { role: "user", content: "Optimize this Rust function for throughput." }
    ],
    extra_body: { thinking: { type: "enabled" } }
  });

  console.log(completion.choices[0].message.content);
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de Kimi k2.6

Voyez ce que la communauté pense de Kimi k2.6

Rencontrez Kimi K2.6 : Faire progresser le codage open-source. Un prompt, plus de 100 fichiers. Plus de 4 000 appels d'outils sur 12 heures d'exécution continue.
@Kimi_Moonshot
twitter
Kimi 2.6 BAT Opus 4.7 et est le MEILLEUR modèle open-source au monde. C'est un très bon modèle à un coût 10x moindre.
@bindureddy
twitter
Le delta de prix est ce que personne n'intègre dans ses calculs. Kimi K2.6 est 5x moins cher que Sonnet 4.6. L'écart de benchmark s'est officiellement inversé.
@aakashgupta
twitter
Je l'ai testé face à un bug que j'avais. Il l'a résolu avec succès pour un peu plus de 1 $. C'était un bug difficile avec lequel Sonnet peinait.
@uworldhits1391
youtube
Kimi K2.6 est transformateur, bien qu'il ait une marge d'amélioration pour la restitution sur les tâches ultra-longues. Malgré tout, 300 agents parallèles, c'est fou.
@Radiant-Act4707
reddit
La série Kimi K2 marque le moment où les laboratoires open-source rivalisent enfin avec les géants propriétaires et les dépassent.
@zxytim
twitter

Vidéos sur Kimi k2.6

Regardez des tutoriels, critiques et discussions sur Kimi k2.6

Kimi K2.6 ne détruira pas Claude, mais il DÉTRUIRA la tarification premium des laboratoires fermés.

La capacité d'essaim d'agents, avec 300 agents en parallèle, est quelque chose que nous n'avons pas encore vu dans l'open-source.

Le score HLE de 54,0 est le plus élevé que nous ayons vu pour un modèle à open-weights.

Un seul prompt peut conduire à 12 heures d'exécution continue, ce qui représente une nouvelle frontière pour les agents.

Il gère l'invocation d'outils en plusieurs étapes avec une stabilité qui égale les meilleurs modèles propriétaires.

Le modèle de vision prend en charge l'entrée vidéo native, une fonctionnalité rare même en 2026.

Il gère l'invocation d'outils avec un mode thinking stable qui rivalise avec la série o d'OpenAI.

Pour le développement front-end, les générations riches en mouvement sont nettement meilleures que sur K2.5.

La context window de 256K permet d'analyser des ensembles de documentation entiers en une seule fois.

C'est l'un des premiers modèles à montrer une véritable autonomie dans les environnements de terminal.

Associer K2.6 au Kimi Code CLI permet des sessions de codage autonome de plus de 12 heures.

Il a refactorisé un moteur financier vieux de 8 ans et a obtenu un gain de débit de 185 % de manière autonome.

C'est un modèle à 1 trillion de parameters, mais les parameters actifs ne sont que de 32B, le gardant rapide.

Les économies de coûts pour les développeurs passant de Claude à Kimi sont astronomiques.

Il a résolu un bug dans une bibliothèque Rust complexe qui était ouvert depuis trois mois.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour Kimi k2.6

Conseils d'experts pour tirer le meilleur parti de Kimi k2.6.

Activer l'utilisation d'outils pour le Reasoning

Les benchmark montrent que le score HLE passe de 23,9 à 54,0 lorsque le modèle a accès à des outils de recherche et de calcul externes.

Surveiller les limites de la context window

La restitution (recall) est plus précise dans les 200 000 premiers tokens du tampon de 256 000 tokens.

Utiliser le mode Thinking avec parcimonie

Désactivez le paramètre thinking pour les tâches de chat simples afin de réduire la latency et la consommation totale de tokens.

Standardiser avec des balises XML

Le modèle suit les instructions avec plus de précision lorsque le contexte et les tâches sont encapsulés dans des balises XML.

Exploiter les téléchargements vidéo natifs

Utilisez les méthodes de téléchargement de fichiers plutôt que l'encodage base64 pour les vidéos de plus de 100 Mo afin d'éviter les limites de taille de requête.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
openai

GPT-5.2 Pro

OpenAI

GPT-5.2 Pro is OpenAI's 2025 flagship reasoning model featuring Extended Thinking for SOTA performance in mathematics, coding, and expert knowledge work.

400K context
$21.00/$168.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Questions Fréquentes sur Kimi k2.6

Trouvez des réponses aux questions courantes sur Kimi k2.6