alibaba

Qwen3.5-397B-A17B

Qwen3.5-397B-A17B est le modèle MoE open-weights phare d'Alibaba. Il propose un raisonnement multimodal natif, une context window de 1M, et un throughput de...

MultimodalMoEOpen-WeightsAgentic AIReasoning
alibaba logoalibabaQwen3.516 février 2026
Contexte
1.0Mtokens
Sortie max.
8Ktokens
Prix entrée
$0.60/ 1M
Prix sortie
$3.60/ 1M
Modalité:TextImageVideo
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
88.4%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). Qwen3.5-397B-A17B a obtenu 88.4% sur ce benchmark.
HLE
28.7%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. Qwen3.5-397B-A17B a obtenu 28.7% sur ce benchmark.
MMLU
88.6%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. Qwen3.5-397B-A17B a obtenu 88.6% sur ce benchmark.
MMLU Pro
87.8%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. Qwen3.5-397B-A17B a obtenu 87.8% sur ce benchmark.
SimpleQA
48%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. Qwen3.5-397B-A17B a obtenu 48% sur ce benchmark.
IFEval
92.6%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. Qwen3.5-397B-A17B a obtenu 92.6% sur ce benchmark.
AIME 2025
91.3%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. Qwen3.5-397B-A17B a obtenu 91.3% sur ce benchmark.
MATH
74.1%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. Qwen3.5-397B-A17B a obtenu 74.1% sur ce benchmark.
GSM8k
93.7%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. Qwen3.5-397B-A17B a obtenu 93.7% sur ce benchmark.
MGSM
92.1%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. Qwen3.5-397B-A17B a obtenu 92.1% sur ce benchmark.
MathVista
90.3%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. Qwen3.5-397B-A17B a obtenu 90.3% sur ce benchmark.
SWE-Bench
76.4%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. Qwen3.5-397B-A17B a obtenu 76.4% sur ce benchmark.
HumanEval
79.3%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. Qwen3.5-397B-A17B a obtenu 79.3% sur ce benchmark.
LiveCodeBench
83.6%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. Qwen3.5-397B-A17B a obtenu 83.6% sur ce benchmark.
MMMU
85%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. Qwen3.5-397B-A17B a obtenu 85% sur ce benchmark.
MMMU Pro
79%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. Qwen3.5-397B-A17B a obtenu 79% sur ce benchmark.
ChartQA
86.5%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. Qwen3.5-397B-A17B a obtenu 86.5% sur ce benchmark.
DocVQA
93.2%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. Qwen3.5-397B-A17B a obtenu 93.2% sur ce benchmark.
Terminal-Bench
52.5%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. Qwen3.5-397B-A17B a obtenu 52.5% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. Qwen3.5-397B-A17B a obtenu 12% sur ce benchmark.

À propos de Qwen3.5-397B-A17B

Découvrez les capacités, fonctionnalités et façons d'utiliser Qwen3.5-397B-A17B.

Mixture of Experts à haute efficacité

Qwen3.5-397B-A17B est un flagship multimodal natif qui utilise une architecture hybride innovante fusionnant l'attention linéaire via Gated Delta Networks avec une Mixture-of-Experts (MoE) sparse. Bien qu'il contienne 397 milliards de paramètres au total, sa conception sparse n'active que 17 milliards de paramètres par passage forward, atteignant une efficacité d'inférence et une vitesse exceptionnelles sans compromettre ses vastes capacités de raisonnement. Il est optimisé pour les tâches linguistiques et visuelles, prenant en charge un vocabulaire massif de 250k tokens et couvrant plus de 201 langues et dialectes.

Workflows agentic multimodaux natifs

Le modèle excelle en tant qu'agent multimodal natif, capable de traiter jusqu'à un million de tokens de contexte, soit environ deux heures de vidéo. Il introduit un Thinking Mode spécialisé pour le raisonnement logique complexe et est nativement équipé pour les workflows agentic, incluant le développement web, la navigation GUI et l'intelligence spatiale du monde réel. Son architecture prend en charge l'entraînement FP8 de bout en bout et un framework d'entraînement-inférence désagrégé, ce qui en fait l'un des modèles les plus scalables et efficaces pour les applications d'IA en entreprise.

Open Weights pour une accessibilité mondiale

Publié sous la licence Apache 2.0, ce modèle offre à la communauté open-source des capacités de pointe auparavant réservées aux systèmes propriétaires. Il comble le fossé entre le nombre massif de paramètres et le déploiement pratique, permettant aux organisations d'effectuer des tâches de raisonnement de pointe sur une infrastructure privée avec un overhead de calcul nettement inférieur aux alternatives denses de 400B.

Qwen3.5-397B-A17B

Cas d'utilisation de Qwen3.5-397B-A17B

Découvrez les différentes façons d'utiliser Qwen3.5-397B-A17B pour obtenir d'excellents résultats.

Analyse vidéo longue

Analysez jusqu'à deux heures de contenu vidéo pour extraire une logique, faire de l'ingénierie inverse sur du code à partir d'une séquence ou générer des résumés structurés.

Recherche STEM de niveau doctorat

Résolvez des problèmes scientifiques de niveau doctorat et des problèmes mathématiques complexes grâce à son mode de réflexion profonde adaptative.

Agents GUI autonomes

Automatisez les interactions avec les smartphones et les ordinateurs pour gérer les flux de travail de bureau et la navigation mobile multi-applications.

Ingénierie logicielle visuelle

Exécutez du « vibe coding » en transformant des instructions en langage naturel et des croquis d'UI en code frontend fonctionnel.

Intelligence documentaire

Traitez des documents complexes, des graphiques et des croquis manuscrits pour extraire des données structurées et analyser les mises en page.

Applications d'IA spatiale

Comprenez les relations au niveau du pixel pour des tâches d'IA incarnée comme l'analyse de scènes de conduite autonome et la navigation robotique.

Points forts

Limitations

Prise en charge vidéo supérieure: Prend en charge 1 million de tokens, permettant le traitement natif de jusqu'à 120 minutes de vidéo pour des tâches agentic et de codage.
Barrière matérielle massive: Un déploiement complet nécessite des racks de GPU de classe serveur avec plus de 800 Go de VRAM pour une précision 16-bit non compressée.
Efficacité d'inférence MoE: L'architecture 397B total / 17B actifs offre une augmentation de 19x du throughput de décodage par rapport aux modèles flagship denses précédents.
Lacunes de connaissances HLE: Malgré ses scores élevés en science et mathématiques, il n'obtient que 28,7 % au Humanity's Last Exam (HLE), indiquant un écart dans la factualité experte absolue.
Raisonnement state-of-the-art: Atteint 91,3 % sur AIME et 88,4 % sur GPQA, rivalisant avec les meilleurs modèles closed-source en science et mathématiques de haut niveau.
Excès de confiance dans les outils: Dans les scénarios d'agents autonomes, le modèle hallucine parfois des sorties d'outils ou ignore les résultats au profit de ses prédictions internes.
Open Weights sous licence Apache 2.0: Offre une intelligence de pointe avec la liberté des open weights, permettant un déploiement privé et on-premise.
Performance sur tâches de terminal: Obtient 52,5 % sur Terminal-Bench 2.0, en retrait par rapport à ses concurrents sur les tâches complexes d'interaction en ligne de commande.

Démarrage rapide API

alibaba/qwen3.5-plus

Voir la documentation
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen3.5-plus',
    messages: [{ role: 'user', content: 'Analyze the logic of this MoE architecture.' }],
    extra_body: { enable_thinking: true },
  });
  console.log(completion.choices[0].message.content);
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de Qwen3.5-397B-A17B

Voyez ce que la communauté pense de Qwen3.5-397B-A17B

Qwen3.5-397B est essentiellement un modèle de classe GPT-5 mais en open-weights. L'architecture DeltaNet résout parfaitement les problèmes de latence MoE.
u/DeepLearningLover
reddit
Le raisonnement multimodal natif sur Qwen3.5 semble incroyable. 1M de contexte + analyse vidéo va changer les flux de travail des agents.
@AiDevDaily
twitter
La décision d'utiliser l'entraînement FP8 de bout en bout tout en maintenant BF16 dans les couches sensibles est un coup de maître en matière d'optimisation de la stabilité.
cold_fusion
hackernews
C'est la première fois que je vois un modèle ouvert battre réellement Gemini 1.5 Pro sur des tâches d'agents multimodaux complexes.
AI Revolution
youtube
L'amélioration de 19x du throughput de décodage par rapport à Qwen3-Max en fait une alternative viable pour les agents de niveau production.
u/ModelTester2026
reddit
J'ai été surpris de voir à quel point il gère bien la quantification 4-bit. Il conserve presque toute la capacité de raisonnement sur une configuration double A100.
@GlobalTechReview
twitter

Vidéos sur Qwen3.5-397B-A17B

Regardez des tutoriels, critiques et discussions sur Qwen3.5-397B-A17B

Un modèle de 397 milliards de paramètres, avec 17 milliards de paramètres actifs.

Lors du décodage à 256K, ce modèle est 19 fois plus rapide que Qwen 3 Max.

Le raisonnement vision-langage natif est ce qui le distingue pour les workflows agentic.

Il bat la plupart des modèles fermés sur les benchmarks mathématiques standards.

Le faire tourner localement est difficile, mais les versions quantifiées sont utilisables sur des Mac haut de gamme.

Modèle de 397 milliards de paramètres avec 17 milliards actifs. Il est nativement multimodal.

C'est probablement le meilleur modèle multimodal open-source actuellement.

La capacité de traiter nativement deux heures de vidéo est un avantage majeur.

Regardez ces scores de logique, il atteint régulièrement les niveaux de GPT-4o.

La licence Apache rend cela très attractif pour la confidentialité des données en entreprise.

Extraction structurée OCR. Vous avez un PDF illisible... et vous devez le transformer en JSON propre. Ce modèle excelle dans ce domaine.

Vous obtenez l'intelligence d'un géant de 400 milliards de paramètres... mais vous payez le coût de calcul d'un modèle de 17 milliards.

Il gère mieux la récupération de contexte long que la version précédente.

L'intégration de l'utilisation d'outils est intégrée à l'entraînement de base, pas ajoutée après coup.

Le mode réflexion permet de corriger sa propre logique avant de générer la réponse.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour Qwen3.5-397B-A17B

Conseils d'experts pour tirer le meilleur parti de Qwen3.5-397B-A17B.

Activer le Thinking Mode

Passez le paramètre 'enable_thinking: true' dans votre appel API pour activer un raisonnement profond pour les mathématiques, le codage et les énigmes logiques complexes.

Utiliser le Fast Mode

Utilisez le mode 'Fast' pour les requêtes simples afin d'obtenir des réponses instantanées sans consommer de tokens lors des phases de réflexion interne inutiles.

Optimiser les prompts vidéo

Lors de l'analyse vidéo, demandez au modèle de se concentrer sur le résultat dynamique final plutôt que sur une analyse image par image pour une meilleure cohérence temporelle.

Exploiter la quantification

Utilisez la quantification 4-bit ou 8-bit (GGUF/EXL2) pour faire tourner le modèle sur du matériel grand public si vous disposez de suffisamment de VRAM (200 Go+).

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M

Questions Fréquentes sur Qwen3.5-397B-A17B

Trouvez des réponses aux questions courantes sur Qwen3.5-397B-A17B