alibaba

Qwen3.5-397B-A17B

Qwen3.5-397B-A17B ist Alibabas Open-Weights-MoE-Flaggschiff. Es bietet natives multimodales Reasoning, 1M context und 19-fachen Decoding-Durchsatz...

MultimodalMoEOpen-WeightsAgentic AIReasoning
alibaba logoalibabaQwen3.516. Februar 2026
Kontext
1.0MToken
Max. Ausgabe
8KToken
Eingabepreis
$0.60/ 1M
Ausgabepreis
$3.60/ 1M
Modalität:TextImageVideo
Fähigkeiten:VisionToolsStreamingLogik
Benchmarks
GPQA
88.4%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). Qwen3.5-397B-A17B erreichte 88.4% bei diesem Benchmark.
HLE
28.7%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. Qwen3.5-397B-A17B erreichte 28.7% bei diesem Benchmark.
MMLU
88.6%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. Qwen3.5-397B-A17B erreichte 88.6% bei diesem Benchmark.
MMLU Pro
87.8%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. Qwen3.5-397B-A17B erreichte 87.8% bei diesem Benchmark.
SimpleQA
48%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. Qwen3.5-397B-A17B erreichte 48% bei diesem Benchmark.
IFEval
92.6%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. Qwen3.5-397B-A17B erreichte 92.6% bei diesem Benchmark.
AIME 2025
91.3%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. Qwen3.5-397B-A17B erreichte 91.3% bei diesem Benchmark.
MATH
74.1%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. Qwen3.5-397B-A17B erreichte 74.1% bei diesem Benchmark.
GSM8k
93.7%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. Qwen3.5-397B-A17B erreichte 93.7% bei diesem Benchmark.
MGSM
92.1%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. Qwen3.5-397B-A17B erreichte 92.1% bei diesem Benchmark.
MathVista
90.3%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. Qwen3.5-397B-A17B erreichte 90.3% bei diesem Benchmark.
SWE-Bench
76.4%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). Qwen3.5-397B-A17B erreichte 76.4% bei diesem Benchmark.
HumanEval
79.3%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. Qwen3.5-397B-A17B erreichte 79.3% bei diesem Benchmark.
LiveCodeBench
83.6%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. Qwen3.5-397B-A17B erreichte 83.6% bei diesem Benchmark.
MMMU
85%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. Qwen3.5-397B-A17B erreichte 85% bei diesem Benchmark.
MMMU Pro
79%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. Qwen3.5-397B-A17B erreichte 79% bei diesem Benchmark.
ChartQA
86.5%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. Qwen3.5-397B-A17B erreichte 86.5% bei diesem Benchmark.
DocVQA
93.2%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. Qwen3.5-397B-A17B erreichte 93.2% bei diesem Benchmark.
Terminal-Bench
52.5%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. Qwen3.5-397B-A17B erreichte 52.5% bei diesem Benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. Qwen3.5-397B-A17B erreichte 12% bei diesem Benchmark.

Über Qwen3.5-397B-A17B

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von Qwen3.5-397B-A17B.

Hocheffiziente Mixture-of-Experts

Qwen3.5-397B-A17B ist ein natives multimodales Flaggschiff-Modell, das eine innovative hybride Architektur verwendet. Diese kombiniert lineare Attention durch Gated Delta Networks mit einer spärlichen Mixture-of-Experts (MoE). Obwohl es insgesamt 397 Milliarden parameters enthält, aktiviert das spärliche Design nur 17 Milliarden parameters pro Forward-Pass, was eine außergewöhnliche Effizienz bei der inference und Geschwindigkeit ermöglicht, ohne die umfangreichen reasoning-Fähigkeiten zu beeinträchtigen. Es ist sowohl für Sprach- als auch für visuelle Aufgaben optimiert, unterstützt einen riesigen Wortschatz von 250k tokens und bietet Unterstützung für über 201 Sprachen und Dialekte.

Native multimodale Agentic-Workflows

Das Modell zeichnet sich als nativer multimodaler Agent aus, der bis zu eine Million tokens an context verarbeiten kann, was etwa zwei Stunden Videomaterial entspricht. Es führt einen spezialisierten Thinking-Modus für komplexes logisches reasoning ein und ist von Haus aus für agentic-Workflows wie Webentwicklung, GUI-Navigation und räumliche Intelligenz ausgestattet. Die Architektur unterstützt durchgängiges FP8-Training und ein disaggregiertes Trainings- und Inferenz-Framework, was es zu einem der skalierbarsten und effizientesten Modelle für KI-Anwendungen auf Unternehmensebene macht.

Open Weights für globale Zugänglichkeit

Dieses Modell wurde unter der Apache 2.0-Lizenz veröffentlicht und bietet der Open-Source-Community Fähigkeiten auf frontier-Niveau, die zuvor proprietären Systemen vorbehalten waren. Es schlägt die Brücke zwischen riesigen Parameterzahlen und praktischem Einsatz und ermöglicht es Unternehmen, reasoning-Aufgaben auf privater Infrastruktur mit wesentlich geringerem Rechenaufwand auszuführen als bei dichten 400B-Alternativen.

Qwen3.5-397B-A17B

Anwendungsfälle für Qwen3.5-397B-A17B

Entdecken Sie die verschiedenen Möglichkeiten, Qwen3.5-397B-A17B für großartige Ergebnisse zu nutzen.

Langzeit-Videoanalyse

Analysieren Sie bis zu zwei Stunden Videomaterial, um Logik zu extrahieren, Code aus Filmmaterial zu rekonstruieren oder strukturierte Zusammenfassungen zu erstellen.

Wissenschaftliche Forschung auf PhD-Niveau

Lösen Sie wissenschaftliche Fragen auf Hochschulniveau und mathematische Probleme auf Olympiade-Niveau mithilfe des adaptiven Deep-Thinking-Modus.

Autonome GUI-Agenten

Automatisieren Sie Interaktionen mit Smartphones und Computern, um Büro-Workflows und appübergreifende mobile Navigation zu bewältigen.

Visuelle Softwareentwicklung

Nutzen Sie 'Vibe Coding', indem Sie Anweisungen in natürlicher Sprache und UI-Skizzen in funktionalen Frontend-Code umwandeln.

Dokumentenintelligenz

Verarbeiten Sie komplexe Dokumente, Diagramme und handgeschriebene Skizzen, um strukturierte Daten zu extrahieren und Layouts zu analysieren.

Räumliche KI-Anwendungen

Verstehen Sie pixelgenaue Beziehungen für verkörperte KI-Aufgaben wie die Analyse autonomer Fahrszenen und Roboter-Navigation.

Stärken

Einschränkungen

Hervorragende Video-Unterstützung: Unterstützt 1 Million tokens, was die native Verarbeitung von bis zu 120 Minuten Video für agentic und Coding-Aufgaben ermöglicht.
Massive Hardware-Hürde: Der vollständige Betrieb erfordert Server-GPU-Racks mit über 800GB VRAM für unkomprimierte 16-Bit-Präzision.
MoE-Effizienz bei der inference: Die Architektur mit 397B Gesamt- und 17B aktiven Parametern bietet eine 19-fach höhere Decoding-Durchsatzrate im Vergleich zu früheren dichten flagship models.
Wissenslücke bei HLE: Trotz hoher Punktzahlen in Wissenschaft und Mathematik erreicht es nur 28,7 % beim 'Humanity's Last Exam' (HLE), was auf eine Lücke bei absoluter Experten-Faktenkenntnis hindeutet.
State-of-the-Art Reasoning: Erreicht 91,3 % bei AIME und 88,4 % bei GPQA und konkurriert damit mit führenden closed-source models in Wissenschaft und Mathematik auf PhD-Niveau.
Übermäßiges Vertrauen in Tools: In Szenarien mit autonomen Agenten halluziniert das model gelegentlich Tool-Outputs oder ignoriert Ergebnisse zugunsten interner Vorhersagen.
Apache 2.0 Open Weights: Bietet Intelligenz auf frontier-Niveau mit der Freiheit von Open Weights, was eine private Bereitstellung on-premise ermöglicht.
Performance bei Terminal-Aufgaben: Erreicht 52,5 % im Terminal-Bench 2.0 und liegt damit hinter Wettbewerbern bei komplexen Kommandozeilen-Interaktionen zurück.

API-Schnellstart

alibaba/qwen3.5-plus

Dokumentation anzeigen
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen3.5-plus',
    messages: [{ role: 'user', content: 'Analyze the logic of this MoE architecture.' }],
    extra_body: { enable_thinking: true },
  });
  console.log(completion.choices[0].message.content);
}

main();

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über Qwen3.5-397B-A17B sagen

Sehen Sie, was die Community über Qwen3.5-397B-A17B denkt

Qwen3.5-397B ist im Grunde ein Modell der GPT-5-Klasse, aber mit Open Weights. Die DeltaNet-Architektur löst die MoE-Latenzprobleme perfekt.
u/DeepLearningLover
reddit
Das native multimodale Reasoning von Qwen3.5 sieht unglaublich aus. 1M context + Videoanalyse werden Agenten-Workflows verändern.
@AiDevDaily
twitter
Die Entscheidung für ein durchgängiges FP8-Training bei gleichzeitiger Beibehaltung von BF16 in sensiblen Schichten ist ein Meisterkurs in Stabilitätsoptimierungen.
cold_fusion
hackernews
Das ist das erste Mal, dass ich ein offenes Modell sehe, das Gemini 1.5 Pro bei komplexen multimodalen Agentenaufgaben tatsächlich schlägt.
AI Revolution
youtube
Die 19-fache Verbesserung des Decoding-Durchsatzes gegenüber Qwen3-Max macht es zu einer tragfähigen Alternative für Agenten auf Produktionsebene.
u/ModelTester2026
reddit
Ich war überrascht, wie gut es mit 4-Bit-Quantisierung umgeht. Es behält fast die gesamte Reasoning-Fähigkeit auf einem dualen A100-Setup bei.
@GlobalTechReview
twitter

Videos über Qwen3.5-397B-A17B

Schauen Sie Tutorials, Rezensionen und Diskussionen über Qwen3.5-397B-A17B

Ein Modell mit 397 Milliarden Parametern, aber nur 17 Milliarden aktiven Parametern.

Beim Decoding mit 256K ist dieses Modell 19-mal schneller als Qwen 3 Max.

Das native Vision-Language-Reasoning ist das, was es für agentic Workflows besonders macht.

Es schlägt die meisten closed models bei den Standard-Mathe-Benchmarks.

Lokal auszuführen ist schwierig, aber die quantisierten Versionen laufen auf High-End-Macs.

Modell mit 397 Milliarden Parametern und 17 Milliarden aktiven Parametern. Es ist nativ multimodal.

Es ist wahrscheinlich aktuell das beste multimodale Open-Source-Modell.

Die Fähigkeit, zwei Stunden Video nativ zu verarbeiten, ist ein massiver Vorteil.

Sehen Sie sich diese Logik-Ergebnisse an, es erreicht konstant GPT-4o-Niveau.

Die Apache-Lizenz macht es sehr attraktiv für den Datenschutz in Unternehmen.

Strukturierte OCR-Extraktion. Sie haben ein unordentliches PDF... und müssen daraus sauberes JSON machen. Hier glänzt dieses Modell.

Sie erhalten die Intelligenz eines 400-Milliarden-Parameter-Giganten... zahlen aber die Rechenkosten eines 17-Milliarden-Parameter-Modells.

Es beherrscht das Long-Context-Retrieval besser als die vorherige Version.

Die Tool-Use-Integration ist direkt in das Basistraining eingebaut, nicht als nachträgliche Erweiterung.

Der Thinking-Modus erlaubt es, die eigene Logik vor der Ausgabe zu korrigieren.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für Qwen3.5-397B-A17B

Expertentipps, um das Beste aus Qwen3.5-397B-A17B herauszuholen.

Thinking Mode aktivieren

Geben Sie den Parameter 'enable_thinking: true' in Ihrem API-Aufruf an, um tiefgehendes reasoning für Mathematik, Programmierung und komplexe logische Rätsel zu aktivieren.

Fast Mode nutzen

Verwenden Sie den 'Fast'-Modus für einfache Anfragen, um sofortige Antworten zu erhalten, ohne tokens für unnötige interne thinking-Phasen zu verbrauchen.

Video-prompts optimieren

Weisen Sie das model bei der Analyse von Videos an, sich auf das endgültige dynamische Ergebnis zu konzentrieren, anstatt auf eine Frame-für-Frame-Analyse, um eine bessere zeitliche Kohärenz zu erzielen.

Quantisierung nutzen

Verwenden Sie 4-Bit- oder 8-Bit-Quantisierung (GGUF/EXL2), um das model auf Consumer-Hardware auszuführen, sofern ausreichend VRAM (200GB+) vorhanden ist.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M

Häufig gestellte Fragen zu Qwen3.5-397B-A17B

Finden Sie Antworten auf häufige Fragen zu Qwen3.5-397B-A17B