alibaba

Qwen3.6-Max-Preview

Qwen3.6-Max-Preview er Alibabas flagship MoE-model med 1M context, indbygget thinking mode og top-scores inden for agentic coding og ræsonnering.

MoEAgentic Coding1M ContextFrontier ModelAlibaba Qwen
alibaba logoalibabaQwen 3.620. april 2026
Kontekst
1.0Mtokens
Maks output
8Ktokens
Input-pris
$1.25/ 1M
Output-pris
$10.00/ 1M
Modalitet:TextImageVideo
Funktioner:VisionVærktøjerStreamingRæsonnering
Benchmarks
GPQA
86%
GPQA: Spørgsmål og svar på kandidatniveau. En streng benchmark med 448 multiple choice-spørgsmål inden for biologi, fysik og kemi skabt af domæneeksperter. PhD-eksperter opnår kun 65-74% nøjagtighed, mens ikke-eksperter scorer kun 34% selv med ubegrænset webadgang (derfor 'Google-proof'). Qwen3.6-Max-Preview scorede 86% på denne benchmark.
HLE
51%
HLE: Ekspertniveau-ræsonnering. Tester en models evne til at demonstrere ekspertniveau-ræsonnering på tværs af specialiserede domæner. Evaluerer dyb forståelse af komplekse emner, der kræver professionel viden. Qwen3.6-Max-Preview scorede 51% på denne benchmark.
MMLU
83%
MMLU: Massiv flerfaglig sprogforståelse. En omfattende benchmark med 16.000 multiple choice-spørgsmål på tværs af 57 akademiske fag, herunder matematik, filosofi, jura og medicin. Tester bred viden og ræsonneringsevner. Qwen3.6-Max-Preview scorede 83% på denne benchmark.
MMLU Pro
79%
MMLU Pro: MMLU Professionel udgave. En forbedret version af MMLU med 12.032 spørgsmål i et sværere format med 10 svarmuligheder. Dækker matematik, fysik, kemi, jura, ingeniørvidenskab, økonomi, sundhed, psykologi, business, biologi, filosofi og datalogi. Qwen3.6-Max-Preview scorede 79% på denne benchmark.
SimpleQA
52%
SimpleQA: Faktuel nøjagtighedsbenchmark. Tester en models evne til at give nøjagtige, faktuelle svar på ligetil spørgsmål. Måler pålidelighed og reducerer hallucinationer i vidensindhentningstasks. Qwen3.6-Max-Preview scorede 52% på denne benchmark.
IFEval
75%
IFEval: Instruktionsfølgningsevaluering. Måler, hvor godt en model følger specifikke instruktioner og begrænsninger. Tester evnen til at overholde formateringsregler, længdegrænser og andre eksplicitte krav. Qwen3.6-Max-Preview scorede 75% på denne benchmark.
AIME 2025
93%
AIME 2025: American Invitational Math Exam. Konkurrence-niveau matematikopgaver fra den prestigefyldte AIME-eksamen designet til talentfulde gymnasieelever. Tester avanceret matematisk problemløsning, der kræver abstrakt tænkning, ikke kun mønstergenkendelse. Qwen3.6-Max-Preview scorede 93% på denne benchmark.
MATH
95%
MATH: Matematisk problemløsning. En omfattende matematikbenchmark, der tester problemløsning inden for algebra, geometri, calculus og andre matematiske domæner. Kræver flertrinssværsonnering og formel matematisk viden. Qwen3.6-Max-Preview scorede 95% på denne benchmark.
GSM8k
98%
GSM8k: Folkeskole matematik 8K. 8.500 folkeskole-niveau matematiske tekstopgaver, der kræver flertrinssræsonnering. Tester grundlæggende aritmetik og logisk tænkning gennem virkelige scenarier som shopping eller tidsberegninger. Qwen3.6-Max-Preview scorede 98% på denne benchmark.
MGSM
92%
MGSM: Flersproget folkeskolematematik. GSM8k-benchmarken oversat til 10 sprog, herunder spansk, fransk, tysk, russisk, kinesisk og japansk. Tester matematisk ræsonnering på tværs af forskellige sprog. Qwen3.6-Max-Preview scorede 92% på denne benchmark.
MathVista
86%
MathVista: Matematisk visuel ræsonnering. Tester evnen til at løse matematikopgaver, der involverer visuelle elementer som diagrammer, grafer, geometriske figurer og videnskabelige illustrationer. Kombinerer visuel forståelse med matematisk ræsonnering. Qwen3.6-Max-Preview scorede 86% på denne benchmark.
SWE-Bench
73%
SWE-Bench: Softwareingeniør-benchmark. AI-modeller forsøger at løse rigtige GitHub-issues i open source Python-projekter med menneskelig verifikation. Tester praktiske softwareingeniørfærdigheder på produktionskodebaser. Topmodeller gik fra 4,4% i 2023 til over 70% i 2024. Qwen3.6-Max-Preview scorede 73% på denne benchmark.
HumanEval
91%
HumanEval: Python-programmeringsopgaver. 164 håndskrevne programmeringsopgaver, hvor modeller skal generere korrekte Python-funktionsimplementeringer. Hver løsning verificeres mod unit tests. Topmodeller opnår nu 90%+ nøjagtighed. Qwen3.6-Max-Preview scorede 91% på denne benchmark.
LiveCodeBench
79%
LiveCodeBench: Live kodningsbenchmark. Tester kodningsevner på løbende opdaterede, virkelige programmeringsudfordringer. I modsætning til statiske benchmarks bruger den friske problemer for at forhindre dataforurening og måle ægte kodningsevner. Qwen3.6-Max-Preview scorede 79% på denne benchmark.
MMMU
82%
MMMU: Multimodal forståelse. Massiv multi-disciplin multimodal forståelsesbenchmark, der tester vision-sprogmodeller på universitetsniveau-problemer på tværs af 30 fag, der kræver både billedforståelse og ekspertviden. Qwen3.6-Max-Preview scorede 82% på denne benchmark.
MMMU Pro
75%
MMMU Pro: MMMU Professionel udgave. Forbedret version af MMMU med mere udfordrende spørgsmål og strengere evaluering. Tester avanceret multimodal ræsonnering på professionelt og ekspertniveau. Qwen3.6-Max-Preview scorede 75% på denne benchmark.
ChartQA
85%
ChartQA: Diagram-spørgsmål og svar. Tester evnen til at forstå og ræsonnere om information præsenteret i diagrammer og grafer. Kræver udtrækning af data, sammenligning af værdier og udførelse af beregninger fra visuelle datarepræsentationer. Qwen3.6-Max-Preview scorede 85% på denne benchmark.
DocVQA
89%
DocVQA: Dokument visuel Q&A. Document Visual Question Answering benchmark, der tester evnen til at udtrække og ræsonnere om information fra dokumentbilleder, herunder formularer, rapporter og scannet tekst. Qwen3.6-Max-Preview scorede 89% på denne benchmark.
Terminal-Bench
65%
Terminal-Bench: Terminal/CLI-opgaver. Tester evnen til at udføre kommandolinjeopgaver, skrive shell-scripts og navigere i terminalmiljøer. Måler praktiske systemadministrations- og udviklingsworkflow-færdigheder. Qwen3.6-Max-Preview scorede 65% på denne benchmark.
ARC-AGI
14%
ARC-AGI: Abstraktion og ræsonnering. Abstraction and Reasoning Corpus for AGI - tester flydende intelligens gennem nye mønstergenkendelsespuslespil. Hver opgave kræver opdagelse af den underliggende regel fra eksempler, der måler generel ræsonneringsevne snarere end memorering. Qwen3.6-Max-Preview scorede 14% på denne benchmark.

Om Qwen3.6-Max-Preview

Lær om Qwen3.6-Max-Previews muligheder, funktioner og hvordan den kan hjælpe dig med at opnå bedre resultater.

Qwen3.6-Max-Preview er den proprietære flagship LLM fra Alibaba, som repræsenterer det næste skridt i deres serie af højtydende AI. Ved hjælp af en sparsom Mixture-of-Experts (MoE)-arkitektur opnår modellen den ræsonneringsdybde, man forventer af et system med billioner af parametre, samtidig med at den bevarer en høj driftseffektivitet. Den er specifikt optimeret til agentic coding, verdensviden og kompleks instruktionsfølgning.

Modellens mest fremtrædende egenskab er dens indbyggede Thinking Mode, som gør det muligt for systemet at generere en synlig intern chain-of-thought, før det leverer et endeligt svar. Denne gennemsigtighed er særligt værdifuld for udviklere, der bygger autonome agenter, da det giver et klart indblik i logisk planlægning og trin til fejlretning. Kombineret med et massivt 1-million-token context window kan modellen indlæse hele projekt-repositories eller omfattende dokumentationsbiblioteker i én arbejdsgang.

Qwen3.6-Max-Preview hostes på Alibaba Cloud Model Studio, understøtter industristandard-protokoller og er kompatibel med OpenAI-API-specifikationer. Den er designet til at være det primære valg for virksomheder, der kræver AI-kapaciteter på frontier-niveau til multimodal dataanalyse og robuste agentic-workflows, og tilbyder et højtydende alternativ til vestlige proprietære modeller.

Qwen3.6-Max-Preview

Anvendelser for Qwen3.6-Max-Preview

Opdag de forskellige måder, du kan bruge Qwen3.6-Max-Preview til at opnå gode resultater.

Autonom softwareudvikling

Implementér modellen som en kode-agent, der kan navigere i hele kodebaser, planlægge arkitektoniske ændringer og rette fejl på tværs af flere filer.

Teknisk analyse i stor skala

Udnyt 1M token context window til at indlæse komplette dokumentationssæt eller juridiske rammeværker til dybdegående analyser uden RAG-begrænsninger.

Kompleks ræsonnering og planlægning

Udnyt den indbyggede Thinking Mode til at løse komplekse matematiske problemer, hvor en intern plan i flere trin er påkrævet for at sikre nøjagtighed.

Multimodal indholdsforståelse

Analysér både statiske billeder og komplekse videosekvenser for at udtrække data og opsummere dynamiske visuelle begivenheder.

Interaktive terminaloperationer

Byg værktøjer, der lader AI'en interagere direkte med shells og CLI-miljøer, hvilket drager fordel af dens optimerede Terminal-Bench-performance.

Enterprise agentic-workflows

Integrér modellen i komplekse forretnings-pipelines, hvor høj instruktionspålidelighed og sofistikeret tool-calling er påkrævet til automatisering.

Styrker

Begrænsninger

Verdensførende kodeevner: Opnår en score på 57,3 % på SWE-bench Pro, hvilket overgår større frontier models som Claude 4.5 Opus til autonome softwareopgaver.
Lukket kildekode-begrænsning: I modsætning til Medium-versionerne af Qwen 3.6 er Max-Preview proprietær og kan ikke køres lokalt på egen hardware.
Enormt 1M token context window: Håndterer massive datasæt og komplette tekniske biblioteker inden for en enkelt prompt uden den typiske forringelse af kontekst, man ser i ældre arkitekturer.
Høj pris for output-tokens: Prisen på $10,00/1M output-tokens er et tillæg på 8x i forhold til input-prisen, hvilket gør lange ræsonnementskæder dyrere end selve indlæsningen.
Gennemsigtig indbygget ræsonnering: Den indbyggede Thinking Mode blotlægger den interne logik, hvilket giver højere pålidelighed i kompleks problemløsning og lettere debugging.
Begrænsninger i videns-cutoff: Som en statisk preview-model mangler den realtidsbevidsthed om begivenheder eller biblioteksopdateringer efter dens trænings-cutoff i starten af 2026.
Aggressiv prissætning: Til $1,25 pr. million input-tokens tilbyder den performance på frontier-niveau til en brøkdel af prisen for vestlige proprietære modstykker.
Regional API latency: Afhængigt af implementeringsregionen kan internationale brugere opleve højere latency sammenlignet med højt optimerede lokale varianter.

API hurtig start

alibaba/qwen3.6-max-preview

Se dokumentation
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  base_url: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen3.6-max-preview',
    messages: [{ role: 'user', content: 'Design a system architecture for a real-time AI agent.' }],
    extra_body: { enable_thinking: true },
    stream: true
  });

  for await (const chunk of completion) {
    process.stdout.write(chunk.choices[0]?.delta?.content || '');
  }
}

main();

Installér SDK'et og begynd at foretage API-kald på få minutter.

Hvad folk siger om Qwen3.6-Max-Preview

Se hvad fællesskabet mener om Qwen3.6-Max-Preview

Den form for performance, man ville forvente fra en model, der kører på en massiv serverfarm, sidder nu på dit skrivebord.
softtechhubus
reddit
Qwen3.6-Max-Preview har lige slået Claude Opus 4.5 på SWE-Bench Pro. Kina indhenter det forsømte hurtigt.
BridgeMind
twitter
Til $1,25 pr. million tokens er Qwen betydeligt billigere end Claude til dataindlæsning i stor skala.
TechReviewer2026
reddit
At Thinking Mode er indbygget som standard er et meningsfuldt designvalg for agentic-pålidelighed.
DevGuru
twitter
Qwen har lanceret Qwen 3.6 Max Preview som en ny proprietær top-model.
AICodeKing
youtube
Den viser forbedret agentic coding og bedre driftssikkerhed for agenter i den virkelige verden sammenlignet med Plus-modellen.
Codedigipt
youtube

Videoer om Qwen3.6-Max-Preview

Se vejledninger, anmeldelser og diskussioner om Qwen3.6-Max-Preview

Qwen har lanceret Qwen 3.6 Max Preview som en ny proprietær top-model.

Modellen viser et stærkt spring i benchmarks for kode-agenter som SkillsBench og Terminal-Bench 2.0.

Qwen forsøger tydeligvis for alvor at konkurrere i high-end segmentet mod modeller som Claude 4.5 Opus.

Denne model repræsenterer en væsentlig forbedring inden for verdensviden og instruktionsfølgning.

Performance-springet på SWE-bench er det, der virkelig adskiller denne fra Plus-varianten.

Benchmark-historien handler i virkeligheden om at positionere den hostede Max Preview som noget unikt i forhold til familien af open-weight modeller.

Vi bruger Qwen Code-sider og repo-flader til at vurdere økosystemets dybde ud over blot modellens vægte.

Thinking mode er overraskende hurtig sammenlignet med o1-lignende modeller fra sidste år.

Denne er tydeligvis designet til enterprise-udviklere, der har brug for et pålideligt API til agentic-opgaver.

Den multimodale vision-performance er ved at indhente Gemini 2 i visse dokumentanalysetests.

Denne video introducerer Qwen3.6-Max-Preview, et tidligt kig på den næste flagship-model fra Qwen.

Den viser forbedret agentic coding og bedre driftssikkerhed for agenter i den virkelige verden sammenlignet med Plus-modellen.

1M context window er langt mere stabilt end det, vi så i de tidlige Qwen 2-versioner.

Hvis du koder meget, er Qwen 3.6 Max i øjeblikket benchmark-førende.

Prissætningen er fortsat meget konkurrencedygtig, selv for deres proprietære flagship-model.

Mere end bare prompts

Supercharg din arbejdsgang med AI-automatisering

Automatio kombinerer kraften fra AI-agenter, webautomatisering og smarte integrationer for at hjælpe dig med at udrette mere på kortere tid.

AI-agenter
Webautomatisering
Smarte arbejdsgange

Pro-tips til Qwen3.6-Max-Preview

Eksperttips til at hjælpe dig med at få mest muligt ud af Qwen3.6-Max-Preview og opnå bedre resultater.

Aktivér intern ræsonnering

Indstil 'enable_thinking'-parameteren til true i din API-forespørgsel for at se modellens interne logik til debugging af komplekse ræsonnementer.

Bevar logik over lange forløb

Brug 'preserve_thinking'-funktionen til samtaler med flere interaktioner for at sikre, at modellen opretholder logisk konsistens gennem hele sessionen.

Indlæs hele biblioteker

Udnyt det 1M context window ved at levere komplette kildematerialer frem for opdelte data for at opnå en bedre forståelse på tværs af filer.

Brug kompatible endpoints

Til globale applikationer bør du bruge Singapore- eller US Virginia-endpoints i Alibaba Cloud for at minimere regional latency for internationale brugere.

Anmeldelser

Hvad vores brugere siger

Slut dig til tusindvis af tilfredse brugere, der har transformeret deres arbejdsgang

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relateret AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
zhipu

GLM-5.1

Zhipu (GLM)

GLM-5.1 is Zhipu AI's flagship reasoning model, featuring a 202K context window and an autonomous 8-hour execution loop for complex agentic engineering.

203K context
$1.40/$4.40/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Ofte stillede spørgsmål om Qwen3.6-Max-Preview

Find svar på almindelige spørgsmål om Qwen3.6-Max-Preview