alibaba

Qwen3.5-397B-A17B

Qwen3.5-397B-A17B er Alibabas flagship open-weight MoE model. Den har nativ multimodal reasoning, et 1M context window og 19x decoding throughput...

MultimodalMoEOpen-WeightsAgentic AIReasoning
alibaba logoalibabaQwen2026-02-16
Kontekst
1.0Mtokens
Maks output
8Ktokens
Input-pris
$0.60/ 1M
Output-pris
$3.60/ 1M
Modalitet:TextImageVideo
Funktioner:VisionVærktøjerStreamingRæsonnering
Benchmarks
GPQA
88.4%
GPQA: Spørgsmål og svar på kandidatniveau. En streng benchmark med 448 multiple choice-spørgsmål inden for biologi, fysik og kemi skabt af domæneeksperter. PhD-eksperter opnår kun 65-74% nøjagtighed, mens ikke-eksperter scorer kun 34% selv med ubegrænset webadgang (derfor 'Google-proof'). Qwen3.5-397B-A17B scorede 88.4% på denne benchmark.
HLE
28.7%
HLE: Ekspertniveau-ræsonnering. Tester en models evne til at demonstrere ekspertniveau-ræsonnering på tværs af specialiserede domæner. Evaluerer dyb forståelse af komplekse emner, der kræver professionel viden. Qwen3.5-397B-A17B scorede 28.7% på denne benchmark.
MMLU
88.6%
MMLU: Massiv flerfaglig sprogforståelse. En omfattende benchmark med 16.000 multiple choice-spørgsmål på tværs af 57 akademiske fag, herunder matematik, filosofi, jura og medicin. Tester bred viden og ræsonneringsevner. Qwen3.5-397B-A17B scorede 88.6% på denne benchmark.
MMLU Pro
87.8%
MMLU Pro: MMLU Professionel udgave. En forbedret version af MMLU med 12.032 spørgsmål i et sværere format med 10 svarmuligheder. Dækker matematik, fysik, kemi, jura, ingeniørvidenskab, økonomi, sundhed, psykologi, business, biologi, filosofi og datalogi. Qwen3.5-397B-A17B scorede 87.8% på denne benchmark.
SimpleQA
48%
SimpleQA: Faktuel nøjagtighedsbenchmark. Tester en models evne til at give nøjagtige, faktuelle svar på ligetil spørgsmål. Måler pålidelighed og reducerer hallucinationer i vidensindhentningstasks. Qwen3.5-397B-A17B scorede 48% på denne benchmark.
IFEval
92.6%
IFEval: Instruktionsfølgningsevaluering. Måler, hvor godt en model følger specifikke instruktioner og begrænsninger. Tester evnen til at overholde formateringsregler, længdegrænser og andre eksplicitte krav. Qwen3.5-397B-A17B scorede 92.6% på denne benchmark.
AIME 2025
91.3%
AIME 2025: American Invitational Math Exam. Konkurrence-niveau matematikopgaver fra den prestigefyldte AIME-eksamen designet til talentfulde gymnasieelever. Tester avanceret matematisk problemløsning, der kræver abstrakt tænkning, ikke kun mønstergenkendelse. Qwen3.5-397B-A17B scorede 91.3% på denne benchmark.
MATH
74.1%
MATH: Matematisk problemløsning. En omfattende matematikbenchmark, der tester problemløsning inden for algebra, geometri, calculus og andre matematiske domæner. Kræver flertrinssværsonnering og formel matematisk viden. Qwen3.5-397B-A17B scorede 74.1% på denne benchmark.
GSM8k
93.7%
GSM8k: Folkeskole matematik 8K. 8.500 folkeskole-niveau matematiske tekstopgaver, der kræver flertrinssræsonnering. Tester grundlæggende aritmetik og logisk tænkning gennem virkelige scenarier som shopping eller tidsberegninger. Qwen3.5-397B-A17B scorede 93.7% på denne benchmark.
MGSM
92.1%
MGSM: Flersproget folkeskolematematik. GSM8k-benchmarken oversat til 10 sprog, herunder spansk, fransk, tysk, russisk, kinesisk og japansk. Tester matematisk ræsonnering på tværs af forskellige sprog. Qwen3.5-397B-A17B scorede 92.1% på denne benchmark.
MathVista
90.3%
MathVista: Matematisk visuel ræsonnering. Tester evnen til at løse matematikopgaver, der involverer visuelle elementer som diagrammer, grafer, geometriske figurer og videnskabelige illustrationer. Kombinerer visuel forståelse med matematisk ræsonnering. Qwen3.5-397B-A17B scorede 90.3% på denne benchmark.
SWE-Bench
76.4%
SWE-Bench: Softwareingeniør-benchmark. AI-modeller forsøger at løse rigtige GitHub-issues i open source Python-projekter med menneskelig verifikation. Tester praktiske softwareingeniørfærdigheder på produktionskodebaser. Topmodeller gik fra 4,4% i 2023 til over 70% i 2024. Qwen3.5-397B-A17B scorede 76.4% på denne benchmark.
HumanEval
79.3%
HumanEval: Python-programmeringsopgaver. 164 håndskrevne programmeringsopgaver, hvor modeller skal generere korrekte Python-funktionsimplementeringer. Hver løsning verificeres mod unit tests. Topmodeller opnår nu 90%+ nøjagtighed. Qwen3.5-397B-A17B scorede 79.3% på denne benchmark.
LiveCodeBench
83.6%
LiveCodeBench: Live kodningsbenchmark. Tester kodningsevner på løbende opdaterede, virkelige programmeringsudfordringer. I modsætning til statiske benchmarks bruger den friske problemer for at forhindre dataforurening og måle ægte kodningsevner. Qwen3.5-397B-A17B scorede 83.6% på denne benchmark.
MMMU
85%
MMMU: Multimodal forståelse. Massiv multi-disciplin multimodal forståelsesbenchmark, der tester vision-sprogmodeller på universitetsniveau-problemer på tværs af 30 fag, der kræver både billedforståelse og ekspertviden. Qwen3.5-397B-A17B scorede 85% på denne benchmark.
MMMU Pro
79%
MMMU Pro: MMMU Professionel udgave. Forbedret version af MMMU med mere udfordrende spørgsmål og strengere evaluering. Tester avanceret multimodal ræsonnering på professionelt og ekspertniveau. Qwen3.5-397B-A17B scorede 79% på denne benchmark.
ChartQA
86.5%
ChartQA: Diagram-spørgsmål og svar. Tester evnen til at forstå og ræsonnere om information præsenteret i diagrammer og grafer. Kræver udtrækning af data, sammenligning af værdier og udførelse af beregninger fra visuelle datarepræsentationer. Qwen3.5-397B-A17B scorede 86.5% på denne benchmark.
DocVQA
93.2%
DocVQA: Dokument visuel Q&A. Document Visual Question Answering benchmark, der tester evnen til at udtrække og ræsonnere om information fra dokumentbilleder, herunder formularer, rapporter og scannet tekst. Qwen3.5-397B-A17B scorede 93.2% på denne benchmark.
Terminal-Bench
52.5%
Terminal-Bench: Terminal/CLI-opgaver. Tester evnen til at udføre kommandolinjeopgaver, skrive shell-scripts og navigere i terminalmiljøer. Måler praktiske systemadministrations- og udviklingsworkflow-færdigheder. Qwen3.5-397B-A17B scorede 52.5% på denne benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion og ræsonnering. Abstraction and Reasoning Corpus for AGI - tester flydende intelligens gennem nye mønstergenkendelsespuslespil. Hver opgave kræver opdagelse af den underliggende regel fra eksempler, der måler generel ræsonneringsevne snarere end memorering. Qwen3.5-397B-A17B scorede 12% på denne benchmark.

Om Qwen3.5-397B-A17B

Lær om Qwen3.5-397B-A17Bs muligheder, funktioner og hvordan den kan hjælpe dig med at opnå bedre resultater.

Et monumentalt spring i åben AI

Qwen3.5-397B-A17B repræsenterer et monumentalt spring i Alibaba Clouds AI-strategi, hvor de skifter fra at være en stærk open-source udfordrer til et dominerende frontier-level system designet til æraen for agentic AI. Udgivet den 16. februar 2026, er den flagship i Qwen3.5-serien og benytter en massiv 397-milliarder-parameter Mixture-of-Experts (MoE) arkitektur. Ved kun at aktivere 17 milliarder parameters per token, opnår den et hidtil uset 19x decoding throughput boost sammenlignet med forgængeren Qwen3-Max, mens den indsnævrer præstationsgabet til verdens mest avancerede lukkede modeller.

Unified Multimodal Powerhouse

Modellen er et samlet, nativt multimodal powerhouse. I modsætning til tidligere versioner, der krævede separate vision-language adaptere, har Qwen3.5 early-fusion multimodalitet trænet på billioner af multimodale tokens. Dette gør det muligt for den at se og udføre reasoning over to timers videoindhold, fungere som en GUI-agent på tværs af desktop- og mobil-interfaces og håndtere komplekse kodningsopgaver i sin specialiserede Thinking mode. Med et udvidet vokabular på 250.000 tokens, der understøtter 201 sprog, står den som det fremmeste globale valg til flersproget og multimodal automatisering.

Arkitekteret til den agentic æra

Udover simpel chat er Qwen3.5-397B optimeret til brug af værktøjer og autonome workflows. Dens høje scores i benchmarks for function-calling og instruktionsfølgelse gør den til en ideel rygrad for visuel softwareudvikling og forskning på ph.d.-niveau. Ved at tilbyde state-of-the-art ydeevne under en Apache 2.0-licens, har Alibaba givet fællesskabet et troværdigt og højeffektivt alternativ til de mest begrænsede closed-source modeller.

Qwen3.5-397B-A17B

Anvendelser for Qwen3.5-397B-A17B

Opdag de forskellige måder, du kan bruge Qwen3.5-397B-A17B til at opnå gode resultater.

Autonome GUI-agenter

Navigerer i komplekse PC- og smartphone-interfaces for at færdiggøre multi-step workflows til kontorautomatisering.

Long-Form Video Intelligence

Uddrager dyb kausal reasoning og resuméer fra kontinuerlige videofiler på op til 120 minutters varighed.

Vibe Coding & Prototyping

Oversætter UI-skitser direkte til produktionsklar React- og frontend-logik i et enkelt forsøg.

Forskning på ph.d.-niveau

Løser STEM-problemer på kandidatniveau ved hjælp af specialiseret intern chain-of-thought Thinking mode.

Multilingual global support

Engagerer brugere på tværs af 201 sprog med overlegen tokenization-effektivitet for ikke-engelske alfabeter.

Visuel softwareudvikling

Transformerer wireframes og screenshots til ren, layout-bevidst HTML, CSS og JavaScript-kode.

Styrker

Begrænsninger

Inference-effektivitet: Opnår 19x gevinst i decoding throughput ved kun at aktivere 17B parameters via sin hybride MoE-arkitektur.
Massive hardware-krav: Med 397B totale parameters kræver afvikling af ikke-kvantiserede versioner lokalt en high-end infrastruktur i server-klassen.
Nativ Video Reasoning: Behandler op til 120 minutters kontinuerlig video nativt uden behov for adaptere til frame-extraction.
Mangel på lyd-modalitet: Mangler de native lyd-input og -output egenskaber, som findes i 'omni'-modeller som GPT-4o eller Gemini.
STEM-kapacitet i topklasse: Rivaliserer med lukkede reasoning-modeller med en score på 88,4% på GPQA og 91,3% på AIME 2025 matematik-eksamener.
HLE-præstationsgab: Ligger efter de lukkede førende modeller på Humanity's Last Exam (28,7%), hvilket indikerer huller i niche-ekspertviden.
Open-Weight tilgængelighed: Leverer multimodal intelligens på frontier model-niveau under Apache 2.0-licensen til privat enterprise-implementering.
Hukommelsesforbrug: Den enorme skala kræver betydelig VRAM selv med sparsity, hvilket begrænser udbredt implementering på forbrugerniveau.

API hurtig start

alibaba/qwen-3.5-plus

Se dokumentation
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen-3.5-397b-instruct',
    messages: [{ role: 'user', content: 'Analyze this 2-hour video context.' }],
    extra_body: { enable_thinking: true },
  });
  console.log(completion.choices[0].message.content);
}

main();

Installér SDK'et og begynd at foretage API-kald på få minutter.

Hvad folk siger om Qwen3.5-397B-A17B

Se hvad fællesskabet mener om Qwen3.5-397B-A17B

Qwen3.5-397B er dybest set open-source-fællesskabets svar på GPT-4o. SVG-kapaciteten alene er vanvittig til webdesign.
u/LLM_Reviewer
reddit
De 19x throughput-boost får Qwen3.5 til at føles betydeligt mere responsiv end nogen anden model af denne størrelse, jeg har testet.
tech_enthusiast_99
reddit
Apache 2.0 til en model af denne størrelse er en total game changer for lokal AI-udvikling og privatlivsfokuserede virksomheder.
TechInnovator88
twitter
MoE-routingen i 3.5-397B-modellen er mærkbart mere intelligent end den forrige 2.5-generation; den følger faktisk logik.
DistanceSolar1449
reddit
De 1M context på en open-weight model af denne kaliber er aldrig set før i det nuværende økosystem.
dev_logic
hackernews
Video-reasoning er ikke bare frame-for-frame; det er faktisk tidslig forståelse, der føles milevidt foran nuværende vision-LLM'er.
Matthew Berman (Context)
youtube

Videoer om Qwen3.5-397B-A17B

Se vejledninger, anmeldelser og diskussioner om Qwen3.5-397B-A17B

Den slår Claude Opus 4.5 på browser-opgaver samt Gemini 3 Pro i flere multimodale opgaver.

Angiveligt 19 gange hurtigere end Qwen 3 Max, som understøtter 201 sprog og dialekter.

Den gjorde et fantastisk stykke arbejde med den fotorealistiske sommerfugl... bedre end de fleste open-source modeller.

397B-modellen er essentielt den første open-weights model, der for alvor konkurrerer ved grænsen for AGI.

Skalering med MoE fungerer tydeligvis for Alibaba, og deres seneste benchmark-resultater beviser det.

Denne model matcher hvad deres Qwen Max kunne præstere... men den kan gøre det med et hastighedsboost på op til 19x.

Tokenizeren er gået til et vokabular på 250K... hvilket matcher Gemini og Google-tokenizeren.

Man skal se Qwen-teamet som et Frontier Lab... de kaster sig over opgaver, som lukkede laboratorier fokuserer på.

Tokenization er meget mere effektiv for ikke-latinske skrifttyper sammenlignet med tidligere Llama-iterationer.

Thinking mode tilføjer betydelig latency, men gevinsten i nøjagtighed er det værd til kodning og reasoning.

Dette er en samlet vision-language model... hvor tidligere modeller havde en specifik VL-variant, har denne alt indeholdt i en enkelt model.

Videoforståelse gør det muligt for den at fange tidslige detaljer, som frame-extraction-metoder overser.

Når det kommer til kodning, føles den lige så responsiv som GPT-4o-modellen, men med bedre instruktionsfølgelse.

GUI-agent-kapacitet til desktop er den mest fremtrædende funktion her til automatisering i den virkelige verden.

Den håndterer 120 minutters video uden at miste kontekst, hvilket er massivt til analyse.

Mere end bare prompts

Supercharg din arbejdsgang med AI-automatisering

Automatio kombinerer kraften fra AI-agenter, webautomatisering og smarte integrationer for at hjælpe dig med at udrette mere på kortere tid.

AI-agenter
Webautomatisering
Smarte arbejdsgange

Pro-tips til Qwen3.5-397B-A17B

Eksperttips til at hjælpe dig med at få mest muligt ud af Qwen3.5-397B-A17B og opnå bedre resultater.

Slå Thinking Mode til/fra

Brug enable_thinking-parameteren til logiktunge opgaver for at aktivere dybe interne reasoning-stier.

Udnyt nativ søgning

Aktiver search-parameteren for at verificere fakta mod webdata i realtid og eksekvere Python-kode.

Optimer video-prompts

Angiv specifikke tidsstempel-ankre for at fokusere dit 1M token context window på de mest relevante segmenter.

Valg af regionalt endpoint

Brug dashscope-intl-endpointet for brugere uden for det kinesiske fastland for at reducere netværks-latency.

Anmeldelser

Hvad vores brugere siger

Slut dig til tusindvis af tilfredse brugere, der har transformeret deres arbejdsgang

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relateret AI Models

openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M

Ofte stillede spørgsmål om Qwen3.5-397B-A17B

Find svar på almindelige spørgsmål om Qwen3.5-397B-A17B