alibaba

Qwen3.6-Max-Preview

Qwen3.6-Max-Preview ist Alibabas flagship MoE-Modell mit 1M-Kontext, nativem Thinking Mode und SOTA-Ergebnissen bei agentic Coding und Reasoning.

MoEAgentic Coding1M ContextFrontier ModelAlibaba Qwen
alibaba logoalibabaQwen 3.620. April 2026
Kontext
1.0MToken
Max. Ausgabe
8KToken
Eingabepreis
$1.25/ 1M
Ausgabepreis
$10.00/ 1M
Modalität:TextImageVideo
Fähigkeiten:VisionToolsStreamingLogik
Benchmarks
GPQA
86%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). Qwen3.6-Max-Preview erreichte 86% bei diesem Benchmark.
HLE
51%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. Qwen3.6-Max-Preview erreichte 51% bei diesem Benchmark.
MMLU
83%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. Qwen3.6-Max-Preview erreichte 83% bei diesem Benchmark.
MMLU Pro
79%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. Qwen3.6-Max-Preview erreichte 79% bei diesem Benchmark.
SimpleQA
52%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. Qwen3.6-Max-Preview erreichte 52% bei diesem Benchmark.
IFEval
75%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. Qwen3.6-Max-Preview erreichte 75% bei diesem Benchmark.
AIME 2025
93%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. Qwen3.6-Max-Preview erreichte 93% bei diesem Benchmark.
MATH
95%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. Qwen3.6-Max-Preview erreichte 95% bei diesem Benchmark.
GSM8k
98%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. Qwen3.6-Max-Preview erreichte 98% bei diesem Benchmark.
MGSM
92%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. Qwen3.6-Max-Preview erreichte 92% bei diesem Benchmark.
MathVista
86%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. Qwen3.6-Max-Preview erreichte 86% bei diesem Benchmark.
SWE-Bench
73%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). Qwen3.6-Max-Preview erreichte 73% bei diesem Benchmark.
HumanEval
91%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. Qwen3.6-Max-Preview erreichte 91% bei diesem Benchmark.
LiveCodeBench
79%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. Qwen3.6-Max-Preview erreichte 79% bei diesem Benchmark.
MMMU
82%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. Qwen3.6-Max-Preview erreichte 82% bei diesem Benchmark.
MMMU Pro
75%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. Qwen3.6-Max-Preview erreichte 75% bei diesem Benchmark.
ChartQA
85%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. Qwen3.6-Max-Preview erreichte 85% bei diesem Benchmark.
DocVQA
89%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. Qwen3.6-Max-Preview erreichte 89% bei diesem Benchmark.
Terminal-Bench
65%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. Qwen3.6-Max-Preview erreichte 65% bei diesem Benchmark.
ARC-AGI
14%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. Qwen3.6-Max-Preview erreichte 14% bei diesem Benchmark.

Über Qwen3.6-Max-Preview

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von Qwen3.6-Max-Preview.

Qwen3.6-Max-Preview ist das proprietäre flagship LLM von Alibaba und repräsentiert den nächsten Schritt in ihrer leistungsstarken AI-Serie. Unter Verwendung einer dünnbesetzten Mixture-of-Experts (MoE)-Architektur erreicht das Modell die Reasoning-Tiefe eines Billionen-Parameter-Systems bei gleichzeitig hoher betrieblicher Effizienz. Es ist speziell für agentic Coding, Weltwissen und die Befolgung komplexer Anweisungen optimiert.

Das herausragende Merkmal des Modells ist der native Thinking Mode, der es dem System ermöglicht, eine sichtbare interne chain-of-thought zu generieren, bevor eine endgültige Antwort geliefert wird. Diese Transparenz ist besonders wertvoll für Entwickler, die autonome Agenten erstellen, da sie einen klaren Einblick in die logische Planung und Fehlerkorrekturschritte bietet. In Kombination mit einem massiven 1-Million-Token-Context-Window kann das Modell komplette Projekt-Repositories oder umfangreiche Dokumentationsbibliotheken in einem einzigen Durchgang aufnehmen.

Qwen3.6-Max-Preview wird im Alibaba Cloud Model Studio gehostet, unterstützt Industriestandard-Protokolle und ist mit OpenAI-API-Spezifikationen kompatibel. Es ist als erste Wahl für Unternehmen konzipiert, die AI-Funktionen auf frontier-Niveau für multimodale Datenanalysen und robuste agentic Workflows benötigen, und bietet eine leistungsstarke Alternative zu westlichen closed-source-Modellen.

Qwen3.6-Max-Preview

Anwendungsfälle für Qwen3.6-Max-Preview

Entdecken Sie die verschiedenen Möglichkeiten, Qwen3.6-Max-Preview für großartige Ergebnisse zu nutzen.

Autonome Softwareentwicklung

Setzen Sie das Modell als Coding-Agent ein, der in der Lage ist, durch komplette Codebases zu navigieren, Architekturänderungen zu planen und Bugs über mehrere Dateien hinweg zu beheben.

Technische Analyse im großen Maßstab

Nutzen Sie das 1M-token context window, um vollständige Dokumentationssätze oder rechtliche Frameworks für tiefgreifende Analysen ohne RAG-Einschränkungen einzulesen.

Komplexes Reasoning und Planung

Nutzen Sie den nativen Thinking Mode, um hochkomplexe mathematische Probleme zu lösen, bei denen ein mehrstufiger interner Plan für die Genauigkeit erforderlich ist.

Multimodales Inhaltsverständnis

Analysieren Sie sowohl statische Bilder als auch komplexe Videosequenzen, um Daten zu extrahieren und dynamische visuelle Ereignisse zusammenzufassen.

Interaktive Terminal-Operationen

Entwickeln Sie Tools, die es der KI ermöglichen, direkt mit Shells und CLI-Umgebungen zu interagieren, und profitieren Sie von der optimierten Terminal-Bench-Leistung.

Enterprise Agentic Workflows

Integrieren Sie das Modell in komplexe Geschäftsprozesse, bei denen hohe Zuverlässigkeit bei Anweisungen und ausgefeiltes Tool-Calling für die Automatisierung erforderlich sind.

Stärken

Einschränkungen

Weltweit führende Coding-Fähigkeiten: Erreicht 57,3 % im SWE-bench Pro und übertrifft damit führende frontier models wie Claude 4.5 Opus bei autonomen Softwareaufgaben.
Closed-Source-Beschränkung: Im Gegensatz zu den Medium-Versionen von Qwen 3.6 ist das Max-Preview proprietär und kann nicht auf eigener Hardware gehostet werden.
Enormes 1M-Token-Context Window: Verarbeitet massive Datensätze und vollständige technische Bibliotheken in einem einzigen prompt, ohne den typischen Kontextverlust älterer Architekturen.
Hoher Aufpreis für Output-Tokens: Die Preisgestaltung von 10,00 $/1M output tokens stellt einen Aufschlag von 8x gegenüber dem Input-Preis dar, was lange Reasoning-Ketten teurer macht als den Input.
Transparentes natives Reasoning: Der integrierte Thinking Mode legt die interne Logik offen, was eine höhere Zuverlässigkeit bei der Problemlösung und ein einfacheres Debugging ermöglicht.
Wissens-Cutoff-Einschränkungen: Als statisches Preview-Modell fehlt ihm das Echtzeit-Wissen über Ereignisse oder Bibliotheks-Updates, die nach seinem Trainings-Cutoff Anfang 2026 liegen.
Aggressive Preisgestaltung: Mit 1,25 $ pro Million input tokens bietet es eine Performance auf frontier-Niveau zu einem Bruchteil der Kosten westlicher proprietärer Alternativen.
Regionale API-Latency: Je nach Bereitstellungsregion können internationale Nutzer im Vergleich zu hochoptimierten lokalen Varianten eine höhere latency erfahren.

API-Schnellstart

alibaba/qwen3.6-max-preview

Dokumentation anzeigen
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  base_url: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen3.6-max-preview',
    messages: [{ role: 'user', content: 'Design a system architecture for a real-time AI agent.' }],
    extra_body: { enable_thinking: true },
    stream: true
  });

  for await (const chunk of completion) {
    process.stdout.write(chunk.choices[0]?.delta?.content || '');
  }
}

main();

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über Qwen3.6-Max-Preview sagen

Sehen Sie, was die Community über Qwen3.6-Max-Preview denkt

Die Performance, die man von einem Modell auf einer riesigen Serverfarm erwartet, ist jetzt auf dem Desktop verfügbar.
softtechhubus
reddit
Qwen3.6-Max-Preview hat gerade Claude Opus 4.5 bei SWE-Bench Pro geschlagen. China holt schnell auf.
BridgeMind
twitter
Mit 1,25 $ pro Million tokens ist Qwen für die großflächige Datenaufnahme deutlich günstiger als Claude.
TechReviewer2026
reddit
Die Tatsache, dass der Thinking Mode als Standardzustand eingebaut ist, ist eine bedeutende Designentscheidung für agentic Zuverlässigkeit.
DevGuru
twitter
Qwen hat Qwen 3.6 Max Preview als neues proprietäres flagship-Modell auf höchstem Niveau veröffentlicht.
AICodeKing
youtube
Es zeigt verbessertes agentic Coding und eine bessere Zuverlässigkeit in realen Szenarien im Vergleich zum Plus-Modell.
Codedigipt
youtube

Videos über Qwen3.6-Max-Preview

Schauen Sie Tutorials, Rezensionen und Diskussionen über Qwen3.6-Max-Preview

Qwen hat Qwen 3.6 Max Preview als neues proprietäres flagship-Modell auf höchstem Niveau veröffentlicht.

Das Modell zeigt einen starken Sprung bei Coding-Agent-benchmarks wie SkillsBench und Terminal-Bench 2.0.

Qwen versucht eindeutig, bei den High-End-Modellen wie Claude 4.5 Opus ernsthaft mitzuhalten.

Dieses Modell stellt eine bedeutende Verbesserung bei Weltwissen und der Befolgung von Anweisungen dar.

Der Performance-Sprung bei SWE-bench ist das, was es wirklich von der Plus-Variante abhebt.

Die Benchmark-Story dreht sich wirklich darum, das gehostete Max Preview als etwas Eigenständiges von der open-weight-Familie zu positionieren.

Wir nutzen Qwen-Code-Seiten und Repo-Oberflächen, um die Tiefe des Ökosystems über die reinen Modell-weights hinaus zu beurteilen.

Der Thinking Mode ist überraschend schnell im Vergleich zu o1-Modellen vom letzten Jahr.

Dies ist eindeutig für Enterprise-Entwickler konzipiert, die eine zuverlässige API für agentic Aufgaben benötigen.

Die multimodale Vision-Performance holt in einigen Dokumentenanalyse-Tests zu Gemini 2 auf.

Dieses Video stellt das Qwen3.6-Max-Preview vor, einen ersten Blick auf das nächste flagship-Modell von Qwen.

Es zeigt verbessertes agentic Coding und eine bessere Zuverlässigkeit in realen Szenarien im Vergleich zum Plus-Modell.

Das 1M context window ist deutlich stabiler als das, was wir in frühen Qwen 2-Versionen gesehen haben.

Wenn Sie viel programmieren, ist Qwen 3.6 Max derzeit der benchmark-Spitzenreiter.

Die Preisgestaltung bleibt selbst für ihr proprietäres flagship-Modell sehr wettbewerbsfähig.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für Qwen3.6-Max-Preview

Expertentipps, um das Beste aus Qwen3.6-Max-Preview herauszuholen.

Internes Reasoning aktivieren

Setzen Sie den Parameter 'enable_thinking' in Ihrer API-Anfrage auf true, um die interne Logik des Modells für das Debugging komplexer Reasoning-Prozesse anzuzeigen.

Langfristige Logik bewahren

Nutzen Sie die 'preserve_thinking'-Funktion für Multi-Turn-Konversationen, um sicherzustellen, dass das Modell über die gesamte Sitzung hinweg die logische Konsistenz beibehält.

Ganze Bibliotheken einspeisen

Nutzen Sie das 1M context window, indem Sie vollständige Quellenmaterialien statt gestückelter Daten bereitstellen, um ein besseres Verständnis über Dateien hinweg zu ermöglichen.

Kompatible Endpunkte verwenden

Für globale Anwendungen sollten Sie die Endpunkte in Singapur oder US Virginia in der Alibaba Cloud nutzen, um die regionale latency für internationale Nutzer zu minimieren.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
zhipu

GLM-5.1

Zhipu (GLM)

GLM-5.1 is Zhipu AI's flagship reasoning model, featuring a 202K context window and an autonomous 8-hour execution loop for complex agentic engineering.

203K context
$1.40/$4.40/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Häufig gestellte Fragen zu Qwen3.6-Max-Preview

Finden Sie Antworten auf häufige Fragen zu Qwen3.6-Max-Preview