alibaba

Qwen3-Coder-Next

Qwen3-Coder-Next est le model de codage d'élite Apache 2.0 d'Alibaba Cloud, doté d'une architecture MoE 80B et d'une context window de 256k pour le...

IA de codageOpen WeightsMixture of ExpertsWorkflows agenticLLM local
alibaba logoalibabaQwen33 février 2026
Contexte
256Ktokens
Sortie max.
8Ktokens
Prix entrée
$0.14/ 1M
Prix sortie
$0.42/ 1M
Modalité:Text
Capacités:OutilsStreaming
Benchmarks
GPQA
53.4%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). Qwen3-Coder-Next a obtenu 53.4% sur ce benchmark.
HLE
28.5%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. Qwen3-Coder-Next a obtenu 28.5% sur ce benchmark.
MMLU
86.2%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. Qwen3-Coder-Next a obtenu 86.2% sur ce benchmark.
MMLU Pro
78.4%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. Qwen3-Coder-Next a obtenu 78.4% sur ce benchmark.
SimpleQA
48.2%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. Qwen3-Coder-Next a obtenu 48.2% sur ce benchmark.
IFEval
89.1%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. Qwen3-Coder-Next a obtenu 89.1% sur ce benchmark.
AIME 2025
89.2%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. Qwen3-Coder-Next a obtenu 89.2% sur ce benchmark.
MATH
83.5%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. Qwen3-Coder-Next a obtenu 83.5% sur ce benchmark.
GSM8k
95.8%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. Qwen3-Coder-Next a obtenu 95.8% sur ce benchmark.
MGSM
92.5%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. Qwen3-Coder-Next a obtenu 92.5% sur ce benchmark.
MathVista
71.2%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. Qwen3-Coder-Next a obtenu 71.2% sur ce benchmark.
SWE-Bench
74.2%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. Qwen3-Coder-Next a obtenu 74.2% sur ce benchmark.
HumanEval
94.1%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. Qwen3-Coder-Next a obtenu 94.1% sur ce benchmark.
LiveCodeBench
74.5%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. Qwen3-Coder-Next a obtenu 74.5% sur ce benchmark.
MMMU
72.4%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. Qwen3-Coder-Next a obtenu 72.4% sur ce benchmark.
MMMU Pro
58.6%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. Qwen3-Coder-Next a obtenu 58.6% sur ce benchmark.
ChartQA
86.4%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. Qwen3-Coder-Next a obtenu 86.4% sur ce benchmark.
DocVQA
93.5%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. Qwen3-Coder-Next a obtenu 93.5% sur ce benchmark.
Terminal-Bench
58.2%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. Qwen3-Coder-Next a obtenu 58.2% sur ce benchmark.
ARC-AGI
12.5%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. Qwen3-Coder-Next a obtenu 12.5% sur ce benchmark.

À propos de Qwen3-Coder-Next

Découvrez les capacités, fonctionnalités et façons d'utiliser Qwen3-Coder-Next.

Architecture du model

Qwen3-Coder-Next est un model open-weight spécialisé conçu par Alibaba Cloud pour les agents d'ingénierie logicielle. Il utilise une architecture Mixture-of-Experts (MoE) avec 80 milliards de paramètres au total, mais n'active que 3 milliards de paramètres par token. Cette conception combine l'intelligence d'un model massif avec la vitesse d'inference d'un petit model. L'architecture inclut un mécanisme d'attention hybride, intégrant Gated DeltaNet avec Gated Attention standard pour traiter des contextes allant jusqu'à 262 144 tokens.

Spécialisation agentic

Le model est entraîné sur plus de 800 000 tâches de codage vérifiables et environnements exécutables. Cet entraînement met l'accent sur le reasoning à long terme et la capacité à récupérer suite à des échecs d'exécution. Il obtient 70,8 % sur SWE-Bench Verified, démontrant sa capacité à gérer des tâches de développement multi-étapes, de la planification initiale à l'exécution finale du code. Il excelle dans les frameworks d'agents autonomes comme OpenClaw et Qwen Code.

Déploiement et confidentialité

Sous licence Apache 2.0, ce model offre une alternative sécurisée pour les développeurs ayant besoin d'environnements de développement locaux et privés. Il peut fonctionner sur du matériel grand public avec suffisamment de RAM via la quantification. La grande context window permet une analyse à l'échelle du dépôt sans la dégradation des performances généralement constatée dans les modèles à contexte plus restreint.

Qwen3-Coder-Next

Cas d'utilisation de Qwen3-Coder-Next

Découvrez les différentes façons d'utiliser Qwen3-Coder-Next pour obtenir d'excellents résultats.

Agents de codage autonomes

Alimente des frameworks capables de gérer des tâches de développement complexes, de la planification à l'exécution finale.

Développement privé local

Exécute une assistance au codage d'élite sur des GPU grand public avec 16 Go de VRAM via des couches MoE quantifiées.

Analyse de dépôts à grande échelle

Traite des bases de code entières au sein de sa fenêtre de 256k pour identifier la dette technique.

Réparation et refactorisation de code

Met à jour le code legacy selon les standards modernes en fournissant un feedback d'environnement exécutable.

Scripting multilingue

Génère du code haute fidélité dans plus de 40 langages de programmation, dont Rust et Go.

Simulation 3D interactive

Construit des visualiseurs et simulations web complexes grâce à une génération rapide one-shot.

Points forts

Limitations

Efficacité MoE: Fonctionne avec 3B de paramètres actifs pour le matériel grand public tout en maintenant une intelligence de classe 80B.
Exigences en RAM système: Le nombre total de 80B de paramètres nécessite environ 45 Go de RAM totale pour une quantification 4-bit efficace.
Spécialisation agentic: Obtient un score de 70,8 % sur SWE-Bench Verified, démontrant une résolution de problèmes multi-étapes supérieure.
Limites des états récurrents: L'architecture d'attention hybride rend le self-speculative decoding non pris en charge par les moteurs d'inference courants.
Context window native massive: La fenêtre de 262 144 tokens permet une analyse à l'échelle du dépôt sans dégradation des performances.
Contraintes text-only: Manque de capacités de vision multimodale, l'empêchant de déboguer des mises en page à partir de captures d'écran.
Licence permissive: Publié sous licence Apache 2.0, permettant une utilisation commerciale illimitée et un hébergement local privé.
Physique de haute complexité: Peut éprouver des difficultés avec la génération one-shot de logique physique 3D extrême par rapport aux modèles flagship denses.

Démarrage rapide API

alibaba/qwen-3-coder-next

Voir la documentation
alibaba SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
});

async function main() {
  const completion = await client.chat.completions.create({
    model: "qwen3-coder-next",
    messages: [
      { role: "system", content: "You are a professional coding assistant." },
      { role: "user", content: "Write a React component for a sortable list." },
    ],
  });
  console.log(completion.choices[0].message.content);
}
main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de Qwen3-Coder-Next

Voyez ce que la communauté pense de Qwen3-Coder-Next

Égale presque Claude en capacités globales de codage. Bat Claude 3.5 Sonnet sur HumanEval à 92,7 %.
Philipp Schmid
twitter
L'efficacité de la version MoE est incroyable pour le matériel local. J'obtiens 26 TPS sur un système de milieu de gamme.
LocalAI_Dev
reddit
Le self-speculative decoding est mathématiquement impossible pour Qwen Coder Next à cause des états récurrents.
GodComplecs
reddit
Qwen3-Coder-Next est basé sur MoE, et bien plus fort et intelligent qu'avant !
JustinLin610
twitter
Démontre la capacité de changer de fournisseur en milieu de projet avec les nouvelles variantes de model 480B.
saveralter
reddit
La recette d'entraînement agentic sur 800k tâches se voit dans sa manière de récupérer après des erreurs de build.
TechGurus
hackernews

Vidéos sur Qwen3-Coder-Next

Regardez des tutoriels, critiques et discussions sur Qwen3-Coder-Next

Il est accessible pour ceux qui veulent expérimenter avec des agents de codage IA locaux

Ce model m'incite clairement à tester du code ouvert, ce que je vais faire

L'efficacité mémoire sur ce modèle est une victoire énorme

Il gère la logique complexe mieux que le précédent model dense de 72B

C'est le premier model ouvert qui suit correctement mes commandes de terminal

Qwen 3 coder Next n'a aussi que 3 milliards de paramètres actifs pour tourner sur une carte graphique grand public

Ça fonctionne à merveille. Je suis vraiment étonné de pouvoir obtenir ce résultat en une seule fois depuis une IA locale

80 milliards de paramètres nécessitent généralement un cluster, mais l'approche MoE change tout

Il gère 40+ langages de programmation sans perte de performance notable

L'utiliser avec OpenClaw donne l'impression d'avoir un développeur junior dans l'équipe

Un model de 3 milliards de paramètres qui rivalise avec des modèles 10 à 20 fois plus gros

Qwen 3 offre beaucoup d'avantages pour un coût moindre

Le context de 256k est bien réel, il n'a pas halluciné au milieu de mon projet

La latence est étonnamment faible compte tenu du poids total de 80B de paramètres

Il a corrigé un bug dans mon vieux dépôt Go que GPT-4o avait manqué trois fois

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour Qwen3-Coder-Next

Conseils d'experts pour tirer le meilleur parti de Qwen3-Coder-Next.

Utilisez des System Prompts longs

Fournissez au model des exemples détaillés et de la documentation pour aligner son comportement agentic.

Feedback itératif sur les erreurs

Réinjectez les logs d'erreurs de la console du navigateur dans le model pour une auto-correction à haut taux de réussite.

Optimisez le déchargement des couches

Déchargez les couches d'experts MoE spécifiques vers la RAM système pour équilibrer la vitesse d'inference et le reasoning.

Alignez les paramètres d'échantillonnage

Utilisez une température de 1,0 avec un top_p de 0,95 et un top_k de 40 pour des résultats de codage plus précis.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.15/$1.20/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M
google

Gemini 3.1 Pro

Google

Gemini 3.1 Pro is Google's elite multimodal model featuring the DeepThink reasoning engine, a 1M+ context window, and industry-leading ARC-AGI logic scores.

1M context
$2.00/$12.00/1M

Questions Fréquentes sur Qwen3-Coder-Next

Trouvez des réponses aux questions courantes sur Qwen3-Coder-Next