alibaba

Qwen3-Coder-Next

Qwen3-Coder-Next ist das erstklassige Apache 2.0 Coding-model von Alibaba Cloud, mit 80B MoE-Architektur und 256k context window für fortgeschrittene lokale...

Coding-AIOpen WeightsMixture of ExpertsAgentic WorkflowsLokales LLM
alibaba logoalibabaQwen33. Februar 2026
Kontext
256KToken
Max. Ausgabe
8KToken
Eingabepreis
$0.14/ 1M
Ausgabepreis
$0.42/ 1M
Modalität:Text
Fähigkeiten:ToolsStreaming
Benchmarks
GPQA
53.4%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). Qwen3-Coder-Next erreichte 53.4% bei diesem Benchmark.
HLE
28.5%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. Qwen3-Coder-Next erreichte 28.5% bei diesem Benchmark.
MMLU
86.2%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. Qwen3-Coder-Next erreichte 86.2% bei diesem Benchmark.
MMLU Pro
78.4%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. Qwen3-Coder-Next erreichte 78.4% bei diesem Benchmark.
SimpleQA
48.2%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. Qwen3-Coder-Next erreichte 48.2% bei diesem Benchmark.
IFEval
89.1%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. Qwen3-Coder-Next erreichte 89.1% bei diesem Benchmark.
AIME 2025
89.2%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. Qwen3-Coder-Next erreichte 89.2% bei diesem Benchmark.
MATH
83.5%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. Qwen3-Coder-Next erreichte 83.5% bei diesem Benchmark.
GSM8k
95.8%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. Qwen3-Coder-Next erreichte 95.8% bei diesem Benchmark.
MGSM
92.5%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. Qwen3-Coder-Next erreichte 92.5% bei diesem Benchmark.
MathVista
71.2%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. Qwen3-Coder-Next erreichte 71.2% bei diesem Benchmark.
SWE-Bench
74.2%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). Qwen3-Coder-Next erreichte 74.2% bei diesem Benchmark.
HumanEval
94.1%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. Qwen3-Coder-Next erreichte 94.1% bei diesem Benchmark.
LiveCodeBench
74.5%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. Qwen3-Coder-Next erreichte 74.5% bei diesem Benchmark.
MMMU
72.4%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. Qwen3-Coder-Next erreichte 72.4% bei diesem Benchmark.
MMMU Pro
58.6%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. Qwen3-Coder-Next erreichte 58.6% bei diesem Benchmark.
ChartQA
86.4%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. Qwen3-Coder-Next erreichte 86.4% bei diesem Benchmark.
DocVQA
93.5%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. Qwen3-Coder-Next erreichte 93.5% bei diesem Benchmark.
Terminal-Bench
58.2%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. Qwen3-Coder-Next erreichte 58.2% bei diesem Benchmark.
ARC-AGI
12.5%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. Qwen3-Coder-Next erreichte 12.5% bei diesem Benchmark.

Über Qwen3-Coder-Next

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von Qwen3-Coder-Next.

Modellarchitektur

Qwen3-Coder-Next ist ein spezialisiertes open-weight model von Alibaba Cloud für Software-Engineering-agents. Es nutzt eine Mixture-of-Experts (MoE)-Architektur mit insgesamt 80 Milliarden parameters, aktiviert jedoch nur 3 Milliarden pro token. Dieses Design kombiniert die Intelligenz eines riesigen Modells mit der inference-Geschwindigkeit eines kleinen Modells. Die Architektur umfasst einen hybriden attention-Mechanismus, der Gated DeltaNet mit standard Gated Attention kombiniert, um Kontexte von bis zu 262.144 tokens zu verarbeiten.

Agentic-Spezialisierung

Das model wurde mit über 800.000 verifizierbaren Coding-Aufgaben und in ausführbaren Umgebungen trainiert. Dieses Training legt den Schwerpunkt auf weitreichendes Reasoning und die Fähigkeit, sich von Ausführungsfehlern zu erholen. Es erzielt 70,8 % auf SWE-Bench Verified und demonstriert damit seine Kapazität, mehrstufige Entwicklungsaufgaben von der ersten Planung bis zur finalen Code-Ausführung zu bewältigen. Es ist hervorragend geeignet für autonome agentic Frameworks wie OpenClaw und Qwen Code.

Bereitstellung und Datenschutz

Lizenziert unter Apache 2.0 bietet dieses model eine sichere Alternative für Entwickler, die lokale, private Entwicklungsumgebungen benötigen. Es kann durch Quantisierung auf Consumer-Hardware mit ausreichend RAM ausgeführt werden. Das große context window ermöglicht Analysen auf Repository-Ebene ohne den Leistungsabfall, der bei Modellen mit kleinerem Kontext typisch ist.

Qwen3-Coder-Next

Anwendungsfälle für Qwen3-Coder-Next

Entdecken Sie die verschiedenen Möglichkeiten, Qwen3-Coder-Next für großartige Ergebnisse zu nutzen.

Autonome Coding-agents

Unterstützt Frameworks bei der Bewältigung mehrstufiger Entwicklungsaufgaben, von der Planung bis zur finalen Ausführung.

Lokale private Entwicklung

Führt erstklassige Coding-Unterstützung auf Consumer-GPUs mit 16GB VRAM unter Verwendung quantisierter MoE-Layer aus.

Repository-Analyse im großen Maßstab

Verarbeitet komplette Codebasen innerhalb seines 256k-Fensters, um technische Schulden zu identifizieren.

Code-Reparatur und Refactoring

Aktualisiert Legacy-Code auf moderne Standards durch Bereitstellung ausführbaren Umgebungs-Feedbacks.

Mehrsprachiges Scripting

Generiert hochpräzisen Code in über 40 Programmiersprachen, einschließlich Rust und Go.

Interaktive 3D-Simulation

Erstellt komplexe webbasierte Visualisierungen und Simulationen mittels schneller One-Shot-Generierung.

Stärken

Einschränkungen

MoE-Effizienz: Arbeitet mit 3B aktiven parameters für Consumer-Hardware bei gleichzeitiger Beibehaltung der Intelligenz einer 80B-Klasse.
System-RAM-Anforderungen: Die Gesamtzahl von 80B parameters erfordert etwa 45GB an Gesamtspeicher für eine effektive 4-Bit-Quantisierung.
Agentic-Spezialisierung: Erreicht 70,8 % bei SWE-Bench Verified und demonstriert damit überlegenes Reasoning bei Multi-Turn-Problemlösungen.
Einschränkungen durch Recurrent State: Die hybride attention-Architektur macht self-speculative decoding in gängigen inference-Engines nicht unterstützbar.
Massiver nativer Context: Das 262.144 token-Fenster unterstützt Analysen auf Repository-Ebene ohne Leistungsabfall.
Text-only-Einschränkungen: Es fehlen multimodale Vision-Fähigkeiten, was das Debugging von Layouts anhand von Screenshots verhindert.
Freizügige Lizenzierung: Veröffentlicht unter Apache 2.0, was eine uneingeschränkte kommerzielle Nutzung und privates lokales Hosting ermöglicht.
Hochkomplexe Physik: Kann bei der One-Shot-Generierung extremer 3D-Physiklogik im Vergleich zu dichten flagship-models Schwierigkeiten haben.

API-Schnellstart

alibaba/qwen-3-coder-next

Dokumentation anzeigen
alibaba SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
});

async function main() {
  const completion = await client.chat.completions.create({
    model: "qwen3-coder-next",
    messages: [
      { role: "system", content: "You are a professional coding assistant." },
      { role: "user", content: "Write a React component for a sortable list." },
    ],
  });
  console.log(completion.choices[0].message.content);
}
main();

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über Qwen3-Coder-Next sagen

Sehen Sie, was die Community über Qwen3-Coder-Next denkt

Erreicht fast Claude-Niveau bei den allgemeinen Coding-Fähigkeiten. Schlägt Claude 3.5 Sonnet bei HumanEval mit 92,7 %.
Philipp Schmid
twitter
Die Effizienz der MoE-Version ist der Wahnsinn für lokale Hardware. Ich erhalte 26 TPS auf einem Mittelklasse-System.
LocalAI_Dev
reddit
Self-speculative decoding ist für Qwen Coder Next aufgrund der recurrent states mathematisch unmöglich.
GodComplecs
reddit
Qwen3-Coder-Next basiert auf MoE und ist viel stärker und intelligenter als zuvor!
JustinLin610
twitter
Demonstriert die Fähigkeit, mitten im Projekt mit den neuen 480B-Modellvarianten den Anbieter zu wechseln.
saveralter
reddit
Das agentic Training-Rezept auf 800k Aufgaben zeigt sich darin, wie es sich von Build-Fehlern erholt.
TechGurus
hackernews

Videos über Qwen3-Coder-Next

Schauen Sie Tutorials, Rezensionen und Diskussionen über Qwen3-Coder-Next

Macht es zugänglich für Leute, die mit lokalen AI-Coding-agents experimentieren wollen

Für mich schreit das nach einem offenen Code-Test, den ich hiermit durchführen werde

Die Speichereffizienz bei diesem Modell ist ein riesiger Gewinn

Es handhabt komplexe Logik besser als das vorherige 72B dense model

Dies ist das erste open-source model, das meine Terminal-Befehle korrekt befolgt

Qwen 3 Coder Next hat auch nur 3 Milliarden aktive parameters, um auf Consumer-Grafikkarten zu laufen

Es funktioniert wunderbar. Ich bin wirklich erstaunt, dass ich dieses Ergebnis in einem Rutsch von einer lokalen AI erhalten kann

80 Milliarden parameters erfordern normalerweise einen Cluster, aber der MoE-Ansatz ändert alles

Es verarbeitet 40+ Programmiersprachen ohne spürbaren Leistungsabfall

Die Verwendung mit OpenClaw fühlt sich an, als hätte man einen Junior-Entwickler im Team

Ein 3-Milliarden-Parameter-Modell im direkten Vergleich mit Modellen, die 10- bis 20-mal so groß sind

Qwen 3 kommt mit vielen Vorteilen, aber zu geringeren Kosten

Der 256k-context ist echt, er hat nicht inmitten meines Projekts halluziniert

Die latency ist überraschend niedrig angesichts des Gesamtgewichts von 80B parameters

Es hat einen Bug in meinem alten Go-Repository behoben, den GPT-4o dreimal übersehen hat

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für Qwen3-Coder-Next

Expertentipps, um das Beste aus Qwen3-Coder-Next herauszuholen.

Verwenden Sie lange System-prompts

Geben Sie dem model detaillierte Beispiele und Dokumentationen, um sein agentic Verhalten präzise auszurichten.

Iteratives Fehler-Feedback

Füttern Sie Browser-Konsolen-Fehlerprotokolle zurück in das model für eine Selbstkorrektur mit hoher Erfolgsquote.

Optimierung des Layer-Offloadings

Lagern Sie spezifische MoE-Expert-Layer in den System-RAM aus, um inference-Geschwindigkeit und Reasoning auszubalancieren.

Sampling-parameters anpassen

Verwenden Sie eine Temperature von 1.0 mit top_p 0.95 und top_k 40 für die präzisesten Coding-Ergebnisse.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.15/$1.20/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M
google

Gemini 3.1 Pro

Google

Gemini 3.1 Pro is Google's elite multimodal model featuring the DeepThink reasoning engine, a 1M+ context window, and industry-leading ARC-AGI logic scores.

1M context
$2.00/$12.00/1M

Häufig gestellte Fragen zu Qwen3-Coder-Next

Finden Sie Antworten auf häufige Fragen zu Qwen3-Coder-Next

Qwen3-Coder-Next: Elite Coding-AI mit 256K Context für 0,12 $/M