alibaba

Qwen3.6-Max-Preview

Qwen3.6-Max-Preview is Alibaba's flagship MoE model met 1M context, een native Thinking Mode en SOTA scores in agentic coding en redeneren.

MoEAgentic Coding1M ContextFrontier ModelAlibaba Qwen
alibaba logoalibabaQwen 3.620 april 2026
Context
1.0Mtokens
Max output
8Ktokens
Invoerprijs
$1.25/ 1M
Uitvoerprijs
$10.00/ 1M
Modaliteit:TextImageVideo
Mogelijkheden:VisieToolsStreamingRedeneren
Benchmarks
GPQA
86%
GPQA: Wetenschappelijke vragen op graduate-niveau. Een rigoureuze benchmark met 448 vragen over biologie, fysica en chemie. PhD-experts behalen slechts 65-74% nauwkeurigheid. Qwen3.6-Max-Preview scoorde 86% op deze benchmark.
HLE
51%
HLE: Expert-niveau redeneren. Test het vermogen van een model om expert-niveau redeneren te demonstreren in gespecialiseerde domeinen. Qwen3.6-Max-Preview scoorde 51% op deze benchmark.
MMLU
83%
MMLU: Massale multitask taalbegrip. Een uitgebreide benchmark met 16.000 vragen over 57 academische vakken. Qwen3.6-Max-Preview scoorde 83% op deze benchmark.
MMLU Pro
79%
MMLU Pro: MMLU Professionele editie. Een verbeterde versie van MMLU met 12.032 vragen en een moeilijker 10-optie formaat. Qwen3.6-Max-Preview scoorde 79% op deze benchmark.
SimpleQA
52%
SimpleQA: Feitelijke nauwkeurigheidsbenchmark. Test het vermogen van een model om accurate, feitelijke antwoorden te geven. Qwen3.6-Max-Preview scoorde 52% op deze benchmark.
IFEval
75%
IFEval: Instructie-opvolging evaluatie. Meet hoe goed een model specifieke instructies en beperkingen volgt. Qwen3.6-Max-Preview scoorde 75% op deze benchmark.
AIME 2025
93%
AIME 2025: Amerikaanse uitnodigingswiskunde-examen. Wiskundeproblemen op wedstrijdniveau van het prestigieuze AIME-examen. Qwen3.6-Max-Preview scoorde 93% op deze benchmark.
MATH
95%
MATH: Wiskundig probleemoplossen. Een uitgebreide wiskunde-benchmark die probleemoplossen test in algebra, meetkunde, calculus. Qwen3.6-Max-Preview scoorde 95% op deze benchmark.
GSM8k
98%
GSM8k: Basisschool wiskunde 8K. 8.500 wiskundige woordproblemen op basisschoolniveau. Qwen3.6-Max-Preview scoorde 98% op deze benchmark.
MGSM
92%
MGSM: Meertalige basisschool wiskunde. De GSM8k-benchmark vertaald naar 10 talen. Qwen3.6-Max-Preview scoorde 92% op deze benchmark.
MathVista
86%
MathVista: Wiskundig visueel redeneren. Test het vermogen om wiskundeproblemen met visuele elementen op te lossen. Qwen3.6-Max-Preview scoorde 86% op deze benchmark.
SWE-Bench
73%
SWE-Bench: Software engineering benchmark. AI-modellen proberen echte GitHub-issues op te lossen in Python-projecten. Qwen3.6-Max-Preview scoorde 73% op deze benchmark.
HumanEval
91%
HumanEval: Python programmeerproblemen. 164 programmeerproblemen waarbij modellen correcte Python-functie-implementaties moeten genereren. Qwen3.6-Max-Preview scoorde 91% op deze benchmark.
LiveCodeBench
79%
LiveCodeBench: Live codeerbenchmark. Test codeervaardigheden op continu bijgewerkte, real-world programmeeruitdagingen. Qwen3.6-Max-Preview scoorde 79% op deze benchmark.
MMMU
82%
MMMU: Multimodaal begrip. Multimodaal begripsbenchmark over 30 universitaire vakken. Qwen3.6-Max-Preview scoorde 82% op deze benchmark.
MMMU Pro
75%
MMMU Pro: MMMU Professionele editie. Verbeterde versie van MMMU met uitdagendere vragen. Qwen3.6-Max-Preview scoorde 75% op deze benchmark.
ChartQA
85%
ChartQA: Grafiek vraag-antwoord. Test het vermogen om informatie uit grafieken en diagrammen te begrijpen en te analyseren. Qwen3.6-Max-Preview scoorde 85% op deze benchmark.
DocVQA
89%
DocVQA: Document visueel vraag-antwoord. Test het vermogen om informatie uit documentafbeeldingen te extraheren. Qwen3.6-Max-Preview scoorde 89% op deze benchmark.
Terminal-Bench
65%
Terminal-Bench: Terminal/CLI-taken. Test het vermogen om command-line operaties uit te voeren. Qwen3.6-Max-Preview scoorde 65% op deze benchmark.
ARC-AGI
14%
ARC-AGI: Abstractie en redeneren. Test fluide intelligentie door nieuwe patroonherkennigspuzzels. Qwen3.6-Max-Preview scoorde 14% op deze benchmark.

Over Qwen3.6-Max-Preview

Leer over de mogelijkheden van Qwen3.6-Max-Preview, functies en hoe het je kan helpen betere resultaten te behalen.

Qwen3.6-Max-Preview is het flagship proprietary large language model van Alibaba, dat de volgende stap vertegenwoordigt in hun high-performance AI-serie. Door gebruik te maken van een sparse Mixture-of-Experts (MoE) architectuur, bereikt het model de redeneerdiepte van een systeem met biljoenen parameters, terwijl het een hoge operationele efficiëntie behoudt. Het is specifiek geoptimaliseerd voor agentic coding, wereldkennis en het opvolgen van complexe instructies.

Het opvallendste kenmerk van het model is de native Thinking Mode, die het systeem in staat stelt een zichtbare interne chain-of-thought te genereren voordat het een definitief antwoord geeft. Deze transparantie is bijzonder waardevol voor ontwikkelaars die autonome agents bouwen, omdat het een duidelijk inzicht geeft in logische planning en stappen voor foutcorrectie. Gecombineerd met een enorme 1-million-token context window kan het model volledige projectrepositories of uitgebreide documentatiebibliotheken in één keer verwerken.

Qwen3.6-Max-Preview wordt gehost op Alibaba Cloud Model Studio, ondersteunt industriestandaard protocollen en is compatibel met OpenAI-stijl API-specificaties. Het is ontworpen als de primaire keuze voor ondernemingen die AI-mogelijkheden op frontier-niveau nodig hebben voor multimodale data-analyse en robuuste agentic workflows, en biedt een krachtig alternatief voor westerse closed-source modellen.

Qwen3.6-Max-Preview

Gebruikscases voor Qwen3.6-Max-Preview

Ontdek de verschillende manieren waarop je Qwen3.6-Max-Preview kunt gebruiken voor geweldige resultaten.

Autonome software engineering

Zet het model in als een coding agent die door volledige codebases kan navigeren, architecturale wijzigingen kan plannen en bugs in meerdere bestanden tegelijk kan herstellen.

Technische analyse op grote schaal

Gebruik de 1M token context window om volledige documentatiesets of juridische kaders in te lezen voor diepgaande analyses zonder RAG-beperkingen.

Complexe redenering en planning

Maak gebruik van de native Thinking Mode om wiskundige vraagstukken op hoog niveau op te lossen waarbij een intern plan uit meerdere stappen vereist is voor nauwkeurigheid.

Multimodaal inhoudsbegrip

Analyseer zowel statische afbeeldingen als complexe videoreeksen om data te extraheren en dynamische visuele gebeurtenissen samen te vatten.

Interactieve terminaloperaties

Bouw tools waarmee de AI direct kan communiceren met shells en CLI-omgevingen, gebruikmakend van zijn geoptimaliseerde Terminal-Bench prestaties.

Enterprise agentic workflows

Integreer het model in complexe bedrijfsprocessen waar een hoge instructiebetrouwbaarheid en geavanceerde tool-calling vereist zijn voor automatisering.

Sterke punten

Beperkingen

Toonaangevend codeervermogen: Behaalt een score van 57,3% op SWE-bench Pro en overtreft daarmee belangrijke frontier models zoals Claude 4.5 Opus voor autonome softwaretaken.
Closed source beperking: In tegenstelling tot de Medium-versies van Qwen 3.6 is de Max-Preview proprietary en kan deze niet zelf worden gehost op lokale hardware.
Enorme 1M token context: Verwerkt massale datasets en volledige technische bibliotheken binnen één prompt, zonder de gebruikelijke context-degradatie van oudere architecturen.
Hoge kosten voor output tokens: De prijs van $10,00 per 1M output tokens is een opslag van 8x ten opzichte van de inputprijs, waardoor lange redeneerketens duurder zijn dan het verwerken van de input.
Transparante native redenering: De ingebouwde Thinking Mode legt de interne logica bloot, wat zorgt voor een hogere betrouwbaarheid bij complex probleemoplossend werk en eenvoudiger debuggen.
Beperkingen door kennis-cutoff: Als statisch preview-model heeft het geen real-time bewustzijn van gebeurtenissen of bibliotheekupdates na zijn trainings-cutoff begin 2026.
Agressieve prijsstelling: Met $1,25 per miljoen input tokens biedt het frontier-level prestaties voor een fractie van de kosten van westerse proprietary equivalenten.
Regionale API-latency: Afhankelijk van de implementatieregio kunnen internationale gebruikers te maken krijgen met een hogere latency vergeleken met sterk geoptimaliseerde lokale varianten.

API snelstart

alibaba/qwen3.6-max-preview

Bekijk documentatie
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  base_url: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen3.6-max-preview',
    messages: [{ role: 'user', content: 'Design a system architecture for a real-time AI agent.' }],
    extra_body: { enable_thinking: true },
    stream: true
  });

  for await (const chunk of completion) {
    process.stdout.write(chunk.choices[0]?.delta?.content || '');
  }
}

main();

Installeer de SDK en begin binnen enkele minuten met API-calls.

Wat mensen zeggen over Qwen3.6-Max-Preview

Bekijk wat de community denkt over Qwen3.6-Max-Preview

De prestaties die je verwacht van een model dat op een enorme serverfarm draait, staan nu op je eigen desktop.
softtechhubus
reddit
Qwen3.6-Max-Preview heeft zojuist Claude Opus 4.5 verslagen op SWE-Bench Pro. China haalt snel in.
BridgeMind
twitter
Met $1,25 per miljoen tokens is Qwen aanzienlijk goedkoper dan Claude voor het inlezen van grootschalige data.
TechReviewer2026
reddit
Het feit dat Thinking Mode standaard ingeschakeld is, is een betekenisvolle ontwerpkeuze voor agentic betrouwbaarheid.
DevGuru
twitter
Qwen heeft Qwen 3.6 Max Preview gelanceerd als een nieuw top-end proprietary flagship model.
AICodeKing
youtube
Het toont verbeterde agentic coding en betere betrouwbaarheid in echte agents vergeleken met het Plus-model.
Codedigipt
youtube

Video's over Qwen3.6-Max-Preview

Bekijk tutorials, reviews en discussies over Qwen3.6-Max-Preview

Qwen heeft Qwen 3.6 Max Preview gelanceerd als nieuw top-end proprietary flagship model.

Het model laat een sterke sprong zien in coding-agent benchmarks zoals SkillsBench en Terminal-Bench 2.0.

Qwen probeert duidelijk serieus te concurreren aan de top tegen modellen zoals Claude 4.5 Opus.

Dit model vertegenwoordigt een betekenisvolle verbetering in wereldkennis en het opvolgen van instructies.

De prestatiesprong op SWE-bench is wat dit model echt onderscheidt van de Plus-variant.

Het benchmark-verhaal draait erom dat de hosted Max Preview zich onderscheidt van de open-weight familie.

We gebruiken Qwen Code-pagina's en repo-surfaces om de diepgang van het ecosysteem te beoordelen, verder dan alleen de model weights.

De Thinking Mode is verrassend snel vergeleken met o1-stijl modellen van vorig jaar.

Dit is duidelijk ontworpen voor enterprise developers die een betrouwbare API nodig hebben voor agentic taken.

De multimodale vision-prestaties komen in de buurt van Gemini 2 in sommige documentanalyse-tests.

Deze video introduceert de Qwen3.6-Max-Preview, een eerste blik op het volgende flagship model van Qwen.

Het toont verbeterde agentic coding en betere betrouwbaarheid in echte agents vergeleken met het Plus-model.

De 1M context window is veel stabieler dan wat we zagen in vroege Qwen 2-versies.

Als je veel programmeert, is Qwen 3.6 Max momenteel de benchmark-leider.

De prijs blijft zeer concurrerend, zelfs voor hun flagship closed-source model.

Meer dan alleen prompts

Supercharge je workflow met AI-automatisering

Automatio combineert de kracht van AI-agents, webautomatisering en slimme integraties om je te helpen meer te bereiken in minder tijd.

AI-agents
Webautomatisering
Slimme workflows

Pro-tips voor Qwen3.6-Max-Preview

Experttips om je te helpen het maximale uit Qwen3.6-Max-Preview te halen en betere resultaten te behalen.

Activeer Internal Reasoning

Zet de 'enable_thinking' parameter op true in je API-request om de interne logica van het model te bekijken voor het debuggen van complexe redeneringen.

Behoud Long-Horizon Logica

Gebruik de 'preserve_thinking' functie voor conversaties met meerdere beurten om te garanderen dat het model logische consistentie behoudt gedurende de hele sessie.

Voer volledige bibliotheken in

Maak gebruik van de 1M context window door volledige bronmaterialen aan te leveren in plaats van data in kleine stukjes te knippen, voor een beter begrip over verschillende bestanden heen.

Gebruik compatibele endpoints

Voor wereldwijde applicaties kun je de Singapore of US Virginia endpoints in Alibaba Cloud gebruiken om de regionale latency voor internationale gebruikers te minimaliseren.

Testimonials

Wat onze gebruikers zeggen

Sluit je aan bij duizenden tevreden gebruikers die hun workflow hebben getransformeerd

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Gerelateerd AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
zhipu

GLM-5.1

Zhipu (GLM)

GLM-5.1 is Zhipu AI's flagship reasoning model, featuring a 202K context window and an autonomous 8-hour execution loop for complex agentic engineering.

203K context
$1.40/$4.40/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Veelgestelde vragen over Qwen3.6-Max-Preview

Vind antwoorden op veelvoorkomende vragen over Qwen3.6-Max-Preview