alibaba

Qwen3-Coder-Next

Qwen3-Coder-Next est le model de codage d'élite sous licence Apache 2.0 d'Alibaba Cloud, doté d'une architecture MoE de 80B et d'un context window de 256k pour...

IA de programmationOpen WeightsMixture of ExpertsWorkflows agenticLLM local
alibaba logoalibabaQwen3-CoderFebruary 2, 2026
Contexte
256Ktokens
Sortie max.
8Ktokens
Prix entrée
$0.14/ 1M
Prix sortie
$0.42/ 1M
Modalité:Text
Capacités:OutilsStreaming
Benchmarks
GPQA
53.4%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). Qwen3-Coder-Next a obtenu 53.4% sur ce benchmark.
HLE
28.5%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. Qwen3-Coder-Next a obtenu 28.5% sur ce benchmark.
MMLU
86.2%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. Qwen3-Coder-Next a obtenu 86.2% sur ce benchmark.
MMLU Pro
78.4%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. Qwen3-Coder-Next a obtenu 78.4% sur ce benchmark.
SimpleQA
48.2%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. Qwen3-Coder-Next a obtenu 48.2% sur ce benchmark.
IFEval
89.1%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. Qwen3-Coder-Next a obtenu 89.1% sur ce benchmark.
AIME 2025
89.2%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. Qwen3-Coder-Next a obtenu 89.2% sur ce benchmark.
MATH
83.5%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. Qwen3-Coder-Next a obtenu 83.5% sur ce benchmark.
GSM8k
95.8%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. Qwen3-Coder-Next a obtenu 95.8% sur ce benchmark.
MGSM
92.5%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. Qwen3-Coder-Next a obtenu 92.5% sur ce benchmark.
MathVista
71.2%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. Qwen3-Coder-Next a obtenu 71.2% sur ce benchmark.
SWE-Bench
74.2%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. Qwen3-Coder-Next a obtenu 74.2% sur ce benchmark.
HumanEval
94.1%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. Qwen3-Coder-Next a obtenu 94.1% sur ce benchmark.
LiveCodeBench
74.5%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. Qwen3-Coder-Next a obtenu 74.5% sur ce benchmark.
MMMU
72.4%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. Qwen3-Coder-Next a obtenu 72.4% sur ce benchmark.
MMMU Pro
58.6%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. Qwen3-Coder-Next a obtenu 58.6% sur ce benchmark.
ChartQA
86.4%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. Qwen3-Coder-Next a obtenu 86.4% sur ce benchmark.
DocVQA
93.5%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. Qwen3-Coder-Next a obtenu 93.5% sur ce benchmark.
Terminal-Bench
58.2%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. Qwen3-Coder-Next a obtenu 58.2% sur ce benchmark.
ARC-AGI
12.5%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. Qwen3-Coder-Next a obtenu 12.5% sur ce benchmark.

À propos de Qwen3-Coder-Next

Découvrez les capacités, fonctionnalités et façons d'utiliser Qwen3-Coder-Next.

Aperçu du Model

Qwen3-Coder-Next est un model de langage open-weight de pointe conçu par l'équipe Qwen d'Alibaba Cloud, spécifiquement optimisé pour les agents de codage et les environnements de développement locaux. Basé sur l'architecture Qwen3-Next-80B-A3B-Base, il utilise une conception sophistiquée de Mixture-of-Experts (MoE) avec une attention hybride (Gated DeltaNet et Gated Attention). Cela permet au model de maintenir une base de connaissances massive de 80 milliards de parameters tout en n'activant que 3 milliards de parameters par token, ce qui se traduit par un reasoning de niveau flagship avec la vitesse d'inference et l'empreinte mémoire d'un model beaucoup plus petit.

Spécialisation Agentic

Le model représente une évolution vers la mise à l'échelle des signaux d'entraînement agentic plutôt que du simple nombre brut de parameters. Il a été entraîné sur plus de 800 000 tâches de codage vérifiables associées à des environnements exécutables, lui permettant d'apprendre directement des retours de l'environnement. Cette recette d'entraînement spécialisée met l'accent sur le reasoning à long terme, l'utilisation d'outils et la capacité à récupérer après des échecs d'exécution — des capacités cruciales pour les workflows modernes de "vibe coding" et les frameworks agentic autonomes comme OpenClaw.

Performance Locale

Avec un context window natif de 256K capable d'extrapolation supplémentaire, Qwen3-Coder-Next est positionné de manière unique comme l'assistant de codage local le plus puissant disponible. Publié sous la licence Apache 2.0, il permet aux développeurs de construire, déboguer et déployer des bases de code entières dans un environnement privé et sécurisé sans dépendre d'API cloud propriétaires.

Qwen3-Coder-Next

Cas d'utilisation de Qwen3-Coder-Next

Découvrez les différentes façons d'utiliser Qwen3-Coder-Next pour obtenir d'excellents résultats.

Développement agentic local

Alimenter des agents de codage autonomes capables de planifier, d'exécuter et de déboguer des logiciels localement sans que les données sensibles ne quittent la machine.

Prototypage web complexe

Générer des applications full-stack fonctionnelles, incluant des visualisations 3D et des jeux interactifs, à partir de simples prompt en langage naturel.

Analyse de larges dépôts

Utiliser le context window de 256K pour ingérer et raisonner sur des structures de projets multi-fichiers complètes pour le refactoring et l'optimisation.

Audit de sécurité automatisé

Scanner les bases de code à la recherche de vulnérabilités complexes comme l'injection SQL et l'exposition d'identifiants en clair avec des suggestions de correction fondées.

Synthèse de recherche technique

Scraper et analyser des documentations académiques ou techniques denses pour produire des rapports HTML organisés et exploitables.

Migration de systèmes multi-langages

Traduire une logique métier complexe et des contraintes spécifiques au matériel entre différents langages de programmation avec une haute fidélité.

Points forts

Limitations

Efficacité exceptionnelle: Utilise une architecture MoE de 3B de parameters actifs pour offrir un reasoning de code de niveau flagship à des coûts d'inference 10x inférieurs.
Complexité en zero-shot: Les simulations 3D ou les tâches architecturales très complexes nécessitent souvent 2 ou 3 prompt itératifs pour atteindre une perfection fonctionnelle.
Entraînement agentic d'élite: Entraîné sur plus de 800 000 tâches vérifiables, ce qui le rend supérieur pour la planification multi-étapes et la récupération après des erreurs d'exécution.
Seuils de mémoire: L'exigence de plus de 45 GB de RAM pour des quantifications de haute qualité reste une barrière pour de nombreux ordinateurs portables de développeurs standards.
Contexte local massif: Le context window de 256K est l'un des plus grands disponibles pour les modèles locaux, permettant un reasoning sur l'ensemble d'un dépôt.
Biais esthétique minimaliste: Produit par défaut des designs d'UI extrêmement simples et sans style, à moins d'être spécifiquement sollicité pour une touche visuelle.
Licence permissive: Publié sous Apache 2.0, permettant aux développeurs de faire du fine-tuning et de déployer sans les restrictions des licences propriétaires.
Restriction de modalité: Contrairement à la série VL, le model Coder-Next est purement textuel et ne peut pas traiter directement des actifs visuels.

Démarrage rapide API

alibaba/qwen-3-coder-next

Voir la documentation
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: 'https://dashscope.aliyuncs.com/compatible-mode/v1'
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen-3-coder-next',
    messages: [{ role: 'user', content: 'Write a React hook for debouncing a value.' }],
  });

  console.log(completion.choices[0].message.content);
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de Qwen3-Coder-Next

Voyez ce que la communauté pense de Qwen3-Coder-Next

"Ce model est incroyable pour le code et se compare favorablement à la concurrence"
Becky Jane
youtube
"L'architecture permet une longueur de contexte massive sans faire exploser la RAM"
bjan
youtube
"Alibaba domine le secteur des modèles open-weights avec cette architecture MoE"
DevGuru88
reddit
"Enfin un model local qui gère un contexte de 256k sans ramer"
AI_Explorer
x
"Je vois un décodage stable de ~7,8 tok/s sur CPU, ce qui est suffisant pour un code reviewer local"
Express-Jicama-9827
reddit
"Qwen3 Coder est essentiellement l'aboutissement pour les configurations de développement locales."
TechTrend_AI
x

Vidéos sur Qwen3-Coder-Next

Regardez des tutoriels, critiques et discussions sur Qwen3-Coder-Next

Nous avons également une longueur de contexte de 256k, ce qui est très robuste, surtout pour quelque chose qui peut être exécuté localement.

Nous avons notre résultat à une vitesse de 26,17 tokens par seconde... un résultat assez long.

C'est un model très excitant... il montre un potentiel extrême pour le codage agentic.

La précision sur les tâches Python est tout simplement stupéfiante pour un model open weight.

Je pense que ce model enterre officiellement le besoin d'assistants de codage payants pour la plupart des développeurs.

Il est construit sur un model de 3 milliards de parameters actifs pour un total de 80 milliards de parameters.

Ce n'est pas seulement un model d'IA de codage avec un context window de 200k... c'est absolument intuitif.

Pour les utilisateurs quotidiens, vous pouvez simplement lui demander de scraper une page web, d'analyser le contenu et de générer un rapport propre.

La façon dont il gère les projets multi-fichiers localement change la donne pour la confidentialité.

Le function calling semble beaucoup plus réactif par rapport à la version précédente.

Écrire des histoires à 62 tokens par seconde. Boum. C'était rapide.

On bombarde là... 150 tokens par seconde avec le batching... c'est incroyable.

Ce jeu de course automobile était en fait meilleur que la version sur Claude... il faut lui accorder ça.

L'architecture MoE brille vraiment quand on regarde l'efficacité token-par-watt.

La quantification ne semble pas nuire au reasoning autant que je m'y attendais.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour Qwen3-Coder-Next

Conseils d'experts pour tirer le meilleur parti de Qwen3-Coder-Next.

Optimisation de la bande passante matérielle

Pour l'échelle 80B, assurez-vous que votre système utilise une mémoire à haut débit (canaux multiples) pour éviter les goulots d'étranglement de l'inference sur les configurations uniquement CPU.

Débogage itératif

Réinjectez les propres erreurs d'exécution du model dans le prompt ; il est spécifiquement entraîné pour reconnaître les échecs d'exécution et affiner sa logique.

Prompting riche en contexte

Maximisez le context window de 256K en fournissant les fichiers de dépendances pertinents et les schémas d'architecture pour réduire les hallucinations.

Affinage esthétique

Lors de la génération d'UI, demandez explicitement des couleurs et des transitions CSS pour passer outre la tendance naturelle du model vers des mises en page minimalistes.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.30/$1.20/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
alibaba

Qwen-Image-2.0

alibaba

Qwen-Image-2.0 is Alibaba's unified 7B model for professional infographics, photorealism, and precise image editing with native 2K resolution and 1k-token...

1K context
$0.07/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
other

PixVerse-R1

Other

PixVerse-R1 is a next-gen real-time world model by AIsphere, offering interactive 1080p video generation with instant response and physics-aware continuity.

Questions Fréquentes sur Qwen3-Coder-Next

Trouvez des réponses aux questions courantes sur Qwen3-Coder-Next