alibaba

Qwen3.5-397B-A17B

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. Het beschikt over native multimodal reasoning, een 1M context window en een 19x hogere decoding...

MultimodalMoEOpen-WeightsAgentic AIReasoning
alibaba logoalibabaQwen3.516 februari 2026
Context
1.0Mtokens
Max output
8Ktokens
Invoerprijs
$0.60/ 1M
Uitvoerprijs
$3.60/ 1M
Modaliteit:TextImageVideo
Mogelijkheden:VisieToolsStreamingRedeneren
Benchmarks
GPQA
88.4%
GPQA: Wetenschappelijke vragen op graduate-niveau. Een rigoureuze benchmark met 448 vragen over biologie, fysica en chemie. PhD-experts behalen slechts 65-74% nauwkeurigheid. Qwen3.5-397B-A17B scoorde 88.4% op deze benchmark.
HLE
28.7%
HLE: Expert-niveau redeneren. Test het vermogen van een model om expert-niveau redeneren te demonstreren in gespecialiseerde domeinen. Qwen3.5-397B-A17B scoorde 28.7% op deze benchmark.
MMLU
88.6%
MMLU: Massale multitask taalbegrip. Een uitgebreide benchmark met 16.000 vragen over 57 academische vakken. Qwen3.5-397B-A17B scoorde 88.6% op deze benchmark.
MMLU Pro
87.8%
MMLU Pro: MMLU Professionele editie. Een verbeterde versie van MMLU met 12.032 vragen en een moeilijker 10-optie formaat. Qwen3.5-397B-A17B scoorde 87.8% op deze benchmark.
SimpleQA
48%
SimpleQA: Feitelijke nauwkeurigheidsbenchmark. Test het vermogen van een model om accurate, feitelijke antwoorden te geven. Qwen3.5-397B-A17B scoorde 48% op deze benchmark.
IFEval
92.6%
IFEval: Instructie-opvolging evaluatie. Meet hoe goed een model specifieke instructies en beperkingen volgt. Qwen3.5-397B-A17B scoorde 92.6% op deze benchmark.
AIME 2025
91.3%
AIME 2025: Amerikaanse uitnodigingswiskunde-examen. Wiskundeproblemen op wedstrijdniveau van het prestigieuze AIME-examen. Qwen3.5-397B-A17B scoorde 91.3% op deze benchmark.
MATH
74.1%
MATH: Wiskundig probleemoplossen. Een uitgebreide wiskunde-benchmark die probleemoplossen test in algebra, meetkunde, calculus. Qwen3.5-397B-A17B scoorde 74.1% op deze benchmark.
GSM8k
93.7%
GSM8k: Basisschool wiskunde 8K. 8.500 wiskundige woordproblemen op basisschoolniveau. Qwen3.5-397B-A17B scoorde 93.7% op deze benchmark.
MGSM
92.1%
MGSM: Meertalige basisschool wiskunde. De GSM8k-benchmark vertaald naar 10 talen. Qwen3.5-397B-A17B scoorde 92.1% op deze benchmark.
MathVista
90.3%
MathVista: Wiskundig visueel redeneren. Test het vermogen om wiskundeproblemen met visuele elementen op te lossen. Qwen3.5-397B-A17B scoorde 90.3% op deze benchmark.
SWE-Bench
76.4%
SWE-Bench: Software engineering benchmark. AI-modellen proberen echte GitHub-issues op te lossen in Python-projecten. Qwen3.5-397B-A17B scoorde 76.4% op deze benchmark.
HumanEval
79.3%
HumanEval: Python programmeerproblemen. 164 programmeerproblemen waarbij modellen correcte Python-functie-implementaties moeten genereren. Qwen3.5-397B-A17B scoorde 79.3% op deze benchmark.
LiveCodeBench
83.6%
LiveCodeBench: Live codeerbenchmark. Test codeervaardigheden op continu bijgewerkte, real-world programmeeruitdagingen. Qwen3.5-397B-A17B scoorde 83.6% op deze benchmark.
MMMU
85%
MMMU: Multimodaal begrip. Multimodaal begripsbenchmark over 30 universitaire vakken. Qwen3.5-397B-A17B scoorde 85% op deze benchmark.
MMMU Pro
79%
MMMU Pro: MMMU Professionele editie. Verbeterde versie van MMMU met uitdagendere vragen. Qwen3.5-397B-A17B scoorde 79% op deze benchmark.
ChartQA
86.5%
ChartQA: Grafiek vraag-antwoord. Test het vermogen om informatie uit grafieken en diagrammen te begrijpen en te analyseren. Qwen3.5-397B-A17B scoorde 86.5% op deze benchmark.
DocVQA
93.2%
DocVQA: Document visueel vraag-antwoord. Test het vermogen om informatie uit documentafbeeldingen te extraheren. Qwen3.5-397B-A17B scoorde 93.2% op deze benchmark.
Terminal-Bench
52.5%
Terminal-Bench: Terminal/CLI-taken. Test het vermogen om command-line operaties uit te voeren. Qwen3.5-397B-A17B scoorde 52.5% op deze benchmark.
ARC-AGI
12%
ARC-AGI: Abstractie en redeneren. Test fluide intelligentie door nieuwe patroonherkennigspuzzels. Qwen3.5-397B-A17B scoorde 12% op deze benchmark.

Over Qwen3.5-397B-A17B

Leer over de mogelijkheden van Qwen3.5-397B-A17B, functies en hoe het je kan helpen betere resultaten te behalen.

High-Efficiency Mixture of Experts

Qwen3.5-397B-A17B is een flagship native multimodal model dat gebruikmaakt van een innovatieve hybride architectuur die lineaire aandacht via Gated Delta Networks combineert met een sparse Mixture-of-Experts (MoE). Hoewel het in totaal 397 miljard parameters bevat, activeert het sparse ontwerp slechts 17 miljard parameters per forward pass, wat uitzonderlijke inference-efficiëntie en snelheid oplevert zonder in te leveren op de enorme reasoning-capaciteiten. Het is geoptimaliseerd voor zowel taal- als visuele taken, ondersteunt een enorme woordenschat van 250k tokens en biedt ondersteuning voor meer dan 201 talen en dialecten.

Native multimodal agentic workflows

Het model blinkt uit als een native multimodal agent, in staat om tot één miljoen tokens aan context te verwerken, wat gelijk staat aan ongeveer twee uur video. Het introduceert een gespecialiseerde Thinking Mode voor complexe logische redeneringen en is standaard uitgerust voor agentic workflows, waaronder webontwikkeling, GUI-navigatie en ruimtelijke intelligentie in de echte wereld. De architectuur ondersteunt FP8 end-to-end training en een gedesaggregeerd training-inference framework, waardoor het een van de meest schaalbare en efficiënte modellen is voor AI-applicaties op ondernemingsniveau.

Open weights voor wereldwijde toegankelijkheid

Uitgebracht onder de Apache 2.0 licentie, biedt dit model de open-source gemeenschap frontier-level mogelijkheden die voorheen beperkt waren tot propriëtaire systemen. Het overbrugt de kloof tussen enorme parameteraantallen en praktische implementatie, waardoor organisaties state-of-the-art reasoning taken op private infrastructuur kunnen draaien met aanzienlijk lagere compute-overhead dan dense 400B alternatieven.

Qwen3.5-397B-A17B

Gebruikscases voor Qwen3.5-397B-A17B

Ontdek de verschillende manieren waarop je Qwen3.5-397B-A17B kunt gebruiken voor geweldige resultaten.

Video-analyse op lange termijn

Analyseer tot twee uur aan videocontent om logica te extraheren, code reverse-engineeren vanuit beeldmateriaal of gestructureerde samenvattingen te genereren.

STEM-onderzoek op PhD-niveau

Los wetenschappelijke vraagstukken op PhD-niveau en wiskundige problemen op olympiade-niveau op met behulp van de adaptieve deep-thinking modus.

Autonome GUI-agents

Automatiseer interacties met smartphones en computers voor kantoorworkflows en navigatie tussen mobiele apps.

Visuele software engineering

Voer 'vibe coding' uit door instructies in natuurlijke taal en UI-schetsen om te zetten in functionele frontend code.

Documentintelligentie

Verwerk complexe documenten, grafieken en handgeschreven schetsen om gestructureerde data te extraheren en lay-outs te reverse-engineeren.

Spatial AI-applicaties

Begrijp relaties op pixelniveau voor embodied AI-taken zoals analyse van autonome rijscènes en robotnavigatie.

Sterke punten

Beperkingen

Superieure video-ondersteuning: Ondersteunt 1 miljoen tokens, waardoor native verwerking van maximaal 120 minuten video mogelijk is voor agentic en coding taken.
Enorme hardwarebarrière: Volledige implementatie vereist server-grade GPU-racks met meer dan 800GB VRAM voor ongecomprimeerde 16-bit precisie.
MoE inference-efficiëntie: De architectuur met 397B totaal / 17B actief biedt een 19x hogere decoding throughput vergeleken met eerdere dense flagship models.
HLE kennisgat: Ondanks de hoge scores in wetenschap en wiskunde, scoort het slechts 28,7% op de Humanity's Last Exam (HLE), wat duidt op een tekortkoming in absolute feitelijke expertise.
State-of-the-art reasoning: Behaalt 91,3% op AIME en 88,4% op GPQA, wat concurreert met de beste closed-source modellen in wetenschap en wiskunde op PhD-niveau.
Overmoed bij tools: In scenario's met autonome agents hallucineert het model soms tool-outputs of negeert het resultaten ten gunste van interne voorspellingen.
Apache 2.0 open weights: Biedt intelligentie op frontier-niveau met de vrijheid van open weights, wat private, on-premise implementatie mogelijk maakt.
Prestaties bij terminal-taken: Scoort 52,5% op Terminal-Bench 2.0, en blijft daarmee achter bij concurrenten in complexe command-line interactietaken.

API snelstart

alibaba/qwen3.5-plus

Bekijk documentatie
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen3.5-plus',
    messages: [{ role: 'user', content: 'Analyseer de logica van deze MoE architectuur.' }],
    extra_body: { enable_thinking: true },
  });
  console.log(completion.choices[0].message.content);
}

main();

Installeer de SDK en begin binnen enkele minuten met API-calls.

Wat mensen zeggen over Qwen3.5-397B-A17B

Bekijk wat de community denkt over Qwen3.5-397B-A17B

Qwen3.5-397B is in essentie een model van GPT-5 klasse, maar dan open-weight. De DeltaNet-architectuur lost de MoE latency-problemen perfect op.
u/DeepLearningLover
reddit
Native multimodal reasoning op Qwen3.5 ziet er ongelooflijk uit. 1M context + video-analyse gaat agent workflows veranderen.
@AiDevDaily
twitter
De beslissing om FP8 end-to-end training te gebruiken terwijl BF16 behouden blijft in gevoelige lagen is een meesterwerk in stabiliteitsoptimalisaties.
cold_fusion
hackernews
Dit is de eerste keer dat ik een open model zie dat Gemini 1.5 Pro daadwerkelijk verslaat op complexe multimodale agent-taken.
AI Revolution
youtube
De 19x verbetering in decoding throughput ten opzichte van Qwen3-Max maakt dit een levensvatbaar alternatief voor agents op productieniveau.
u/ModelTester2026
reddit
Ik was verrast door hoe goed het omgaat met 4-bit kwantisatie. Het behoudt bijna al het reasoning-vermogen op een dual A100 setup.
@GlobalTechReview
twitter

Video's over Qwen3.5-397B-A17B

Bekijk tutorials, reviews en discussies over Qwen3.5-397B-A17B

Een model met 397 miljard parameters, maar met 17 miljard parameters actief.

Bij decoding op 256K is dit model 19 keer sneller dan Qwen 3 Max.

De native vision-language reasoning is wat dit model onderscheidt voor agentic workflows.

Dit verslaat de meeste closed models op de standaard wiskunde-benchmarks.

Dit lokaal draaien is zwaar, maar de gekwantiseerde versies werken op high-end Macs.

397 miljard parameter model met 17 miljard actieve parameters. Het is native multimodal.

Het is waarschijnlijk momenteel het beste open-source multimodal model.

De mogelijkheid om twee uur video native te verwerken is een enorm voordeel.

Kijk naar deze logica-scores, het bereikt consistent GPT-4o niveaus.

De Apache-licentie maakt dit zeer aantrekkelijk voor zakelijke gegevensprivacy.

OCR gestructureerde extractie. Je hebt een slordige PDF... en je moet dat omzetten naar schone JSON. Dit model blinkt daarin uit.

Je krijgt de intelligentie van een gigant met 400 miljard parameters... maar je betaalt de compute-kosten van een model met 17 miljard parameters.

Het verwerkt long-context retrieval beter dan de vorige versie.

De tool use-integratie is ingebouwd in de basistraining, geen achteraf toegevoegde functie.

Thinking mode stelt het in staat om zijn eigen logica te corrigeren voor de output.

Meer dan alleen prompts

Supercharge je workflow met AI-automatisering

Automatio combineert de kracht van AI-agents, webautomatisering en slimme integraties om je te helpen meer te bereiken in minder tijd.

AI-agents
Webautomatisering
Slimme workflows

Pro-tips voor Qwen3.5-397B-A17B

Experttips om je te helpen het maximale uit Qwen3.5-397B-A17B te halen en betere resultaten te behalen.

Schakel Thinking Mode in

Geef de parameter 'enable_thinking: true' mee in je API call om deep reasoning voor wiskunde, coding en complexe logische puzzels te activeren.

Gebruik Fast Mode

Gebruik de 'Fast' modus voor eenvoudige vragen om direct antwoorden te krijgen zonder tokens te verbruiken voor onnodige interne denkfasen.

Optimaliseer video prompts

Bij het analyseren van video kun je het model het beste vragen om zich te focussen op de uiteindelijke dynamische uitkomst in plaats van frame-voor-frame analyse, voor een betere temporele coherentie.

Maak gebruik van kwantisatie

Gebruik 4-bit of 8-bit kwantisatie (GGUF/EXL2) om het model op consumentenhardware te draaien als je over voldoende VRAM beschikt (200GB+).

Testimonials

Wat onze gebruikers zeggen

Sluit je aan bij duizenden tevreden gebruikers die hun workflow hebben getransformeerd

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Gerelateerd AI Models

openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M

Veelgestelde vragen over Qwen3.5-397B-A17B

Vind antwoorden op veelvoorkomende vragen over Qwen3.5-397B-A17B