alibaba

Qwen3.5-397B-A17B

Qwen3.5-397B-A17B est le flagship des models MoE open-weight d'Alibaba. Il dispose d'un reasoning multimodal natif, d'une context window de 1M et d'un...

MultimodalMoEOpen-WeightsIA agentiqueReasoning
alibaba logoalibabaQwen2026-02-16
Contexte
1.0Mtokens
Sortie max.
8Ktokens
Prix entrée
$0.60/ 1M
Prix sortie
$3.60/ 1M
Modalité:TextImageVideo
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
88.4%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). Qwen3.5-397B-A17B a obtenu 88.4% sur ce benchmark.
HLE
28.7%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. Qwen3.5-397B-A17B a obtenu 28.7% sur ce benchmark.
MMLU
88.6%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. Qwen3.5-397B-A17B a obtenu 88.6% sur ce benchmark.
MMLU Pro
87.8%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. Qwen3.5-397B-A17B a obtenu 87.8% sur ce benchmark.
SimpleQA
48%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. Qwen3.5-397B-A17B a obtenu 48% sur ce benchmark.
IFEval
92.6%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. Qwen3.5-397B-A17B a obtenu 92.6% sur ce benchmark.
AIME 2025
91.3%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. Qwen3.5-397B-A17B a obtenu 91.3% sur ce benchmark.
MATH
74.1%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. Qwen3.5-397B-A17B a obtenu 74.1% sur ce benchmark.
GSM8k
93.7%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. Qwen3.5-397B-A17B a obtenu 93.7% sur ce benchmark.
MGSM
92.1%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. Qwen3.5-397B-A17B a obtenu 92.1% sur ce benchmark.
MathVista
90.3%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. Qwen3.5-397B-A17B a obtenu 90.3% sur ce benchmark.
SWE-Bench
76.4%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. Qwen3.5-397B-A17B a obtenu 76.4% sur ce benchmark.
HumanEval
79.3%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. Qwen3.5-397B-A17B a obtenu 79.3% sur ce benchmark.
LiveCodeBench
83.6%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. Qwen3.5-397B-A17B a obtenu 83.6% sur ce benchmark.
MMMU
85%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. Qwen3.5-397B-A17B a obtenu 85% sur ce benchmark.
MMMU Pro
79%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. Qwen3.5-397B-A17B a obtenu 79% sur ce benchmark.
ChartQA
86.5%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. Qwen3.5-397B-A17B a obtenu 86.5% sur ce benchmark.
DocVQA
93.2%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. Qwen3.5-397B-A17B a obtenu 93.2% sur ce benchmark.
Terminal-Bench
52.5%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. Qwen3.5-397B-A17B a obtenu 52.5% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. Qwen3.5-397B-A17B a obtenu 12% sur ce benchmark.

À propos de Qwen3.5-397B-A17B

Découvrez les capacités, fonctionnalités et façons d'utiliser Qwen3.5-397B-A17B.

Un bond monumental pour l'IA ouverte

Qwen3.5-397B-A17B représente une avancée monumentale dans la stratégie IA d'Alibaba Cloud, passant d'un solide concurrent open-source à un système dominant de niveau frontier model conçu pour l'ère de l'agentic AI. Lancé le 16 février 2026, il est le flagship de la série Qwen3.5, utilisant une architecture massive de 397 milliards de parameters Mixture-of-Experts (MoE). En n'activant que 17 milliards de parameters par token, il atteint un boost de 19x du decoding throughput par rapport à son prédécesseur, Qwen3-Max, tout en réduisant l'écart de performance avec les models propriétaires les plus avancés au monde.

Un moteur multimodal unifié

Le model est un moteur multimodal natif et unifié. Contrairement aux versions précédentes qui nécessitaient des adaptateurs vision-langage séparés, Qwen3.5 intègre une multimodality par fusion précoce entraînée sur des milliers de milliards de tokens multimodaux. Cela lui permet de visionner et de raisonner sur plus de deux heures de contenu vidéo, de fonctionner comme un agent GUI sur des interfaces bureau et mobiles, et de gérer des tâches de code complexes dans son Thinking mode spécialisé. Avec un vocabulaire étendu de 250 000 tokens supportant 201 langues, il s'impose comme le choix mondial de premier plan pour l'automatisation multilingue et multimodal.

Conçu pour l'ère des agents

Au-delà du simple chat, Qwen3.5-397B est optimisé pour l'utilisation d'outils et les flux de travail autonomes. Ses scores élevés dans les benchmarks de function-calling et de respect des instructions en font une base idéale pour l'ingénierie logicielle visuelle et la recherche de niveau doctorat. En offrant des performances state-of-the-art sous une licence Apache 2.0, Alibaba a fourni à la communauté une alternative crédible et hautement efficace aux models closed-source les plus restreints.

Qwen3.5-397B-A17B

Cas d'utilisation de Qwen3.5-397B-A17B

Découvrez les différentes façons d'utiliser Qwen3.5-397B-A17B pour obtenir d'excellents résultats.

Agents GUI autonomes

Navigue dans des interfaces complexes sur PC et smartphone pour accomplir des flux de travail d'automatisation de bureau en plusieurs étapes.

Intelligence vidéo longue durée

Extrait des résumés et un reasoning causal approfondi à partir de fichiers vidéo continus pouvant durer jusqu'à 120 minutes.

Vibe Coding et prototypage

Traduit des croquis d'interface utilisateur directement en code React et logique frontend prête pour la production en un seul prompt.

Recherche de niveau doctorat

Résout des problèmes STEM de niveau universitaire en utilisant le mode Thinking spécialisé avec chain-of-thought interne.

Support mondial multilingue

Interagit avec les utilisateurs dans 201 langues avec une efficacité de tokenization supérieure pour les alphabets non latins.

Ingénierie logicielle visuelle

Transforme des wireframes et des captures d'écran en code HTML, CSS et JavaScript propre et respectueux de la mise en page.

Points forts

Limitations

Efficacité de l'inference: Atteint un gain de 19x sur le decoding throughput en n'activant que 17B parameters via son architecture MoE hybride.
Demande matérielle massive: Avec 397B de parameters au total, l'exécution locale des versions non quantifiées nécessite une infrastructure de serveurs haut de gamme.
Reasoning vidéo natif: Traite nativement jusqu'à 120 minutes de vidéo continue sans avoir besoin d'adaptateurs d'extraction d'images.
Absence de modalité audio: Ne possède pas les capacités natives d'entrée et de sortie audio présentes dans les models 'omni' comme GPT-4o ou Gemini.
Capacités STEM de premier plan: Rivalise avec les models de reasoning propriétaires avec un score de 88,4 % sur GPQA et 91,3 % aux examens de mathématiques AIME 2025.
Écart de performance HLE: Reste en retrait derrière les leaders propriétaires sur Humanity's Last Exam (28,7 %), indiquant des lacunes dans certaines connaissances expertes de niche.
Accessibilité des open weights: Offre une intelligence multimodal de niveau frontier model sous licence Apache 2.0 pour un déploiement privé en entreprise.
Empreinte mémoire: Son échelle massive nécessite une VRAM substantielle même avec la sparsité, limitant le déploiement généralisé au niveau grand public.

Démarrage rapide API

alibaba/qwen-3.5-plus

Voir la documentation
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen-3.5-397b-instruct',
    messages: [{ role: 'user', content: 'Analyze this 2-hour video context.' }],
    extra_body: { enable_thinking: true },
  });
  console.log(completion.choices[0].message.content);
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de Qwen3.5-397B-A17B

Voyez ce que la communauté pense de Qwen3.5-397B-A17B

Qwen3.5-397B est fondamentalement la réponse de la communauté open-source à GPT-4o. La capacité SVG à elle seule est incroyable pour le web design.
u/LLM_Reviewer
reddit
Le boost de 19x du throughput rend Qwen3.5 nettement plus réactif que n'importe quel autre model de cette taille que j'ai testé.
tech_enthusiast_99
reddit
L'Apache 2.0 pour un model de cette envergure change totalement la donne pour le développement IA local et les entreprises soucieuses de la confidentialité.
TechInnovator88
twitter
Le routage MoE dans le model 3.5-397B est notablement plus intelligent que la génération 2.5 précédente ; il suit réellement une logique.
DistanceSolar1449
reddit
La context window de 1M sur un model open-weight de ce calibre est sans précédent dans l'écosystème actuel.
dev_logic
hackernews
Le reasoning vidéo n'est pas seulement du image par image ; c'est une véritable compréhension temporelle qui semble être à des années-lumière des LLM de vision actuels.
Matthew Berman (Context)
youtube

Vidéos sur Qwen3.5-397B-A17B

Regardez des tutoriels, critiques et discussions sur Qwen3.5-397B-A17B

Il bat Claude Opus 4.5 sur la navigation web ainsi que Gemini 3 Pro dans plusieurs tâches multimodal.

Annoncé comme étant 19 fois plus rapide que le Qwen 3 Max, il supporte 201 langues et dialectes.

Il a fait un excellent travail avec le papillon photoréaliste... mieux que la plupart des models open-source.

Le model 397B est essentiellement le premier model open-weights à véritablement rivaliser au niveau de la frontière de l'AGI.

Le scaling avec MoE fonctionne clairement pour Alibaba et leurs derniers résultats de benchmark le prouvent.

Ce model égale ce que leur Qwen Max était capable de faire... mais avec un boost de vitesse allant jusqu'à 19x.

Le tokenizer est passé à un vocabulaire de 250K... s'alignant sur Gemini et le tokenizer de Google.

Il faut voir l'équipe Qwen comme un Frontier Lab... ils s'attaquent à des tâches sur lesquelles les labos propriétaires se concentrent.

La tokenization est beaucoup plus efficace pour les scripts non latins par rapport aux précédentes itérations de Llama.

Le Thinking mode ajoute une latency significative mais le gain de précision en vaut la peine pour le code et le reasoning.

C'est un model vision-langage unifié... là où les models précédents avaient une variante VL spécifique, celui-ci contient tout dans un seul model.

La compréhension vidéo lui permet de saisir des détails temporels que les méthodes d'extraction de frames ignorent.

En termes de code, il semble aussi réactif que le model GPT-4o mais avec un meilleur respect des instructions.

La capacité d'agent GUI pour bureau est la fonctionnalité phare ici pour l'automatisation réelle.

Il gère 120 minutes de vidéo sans perdre le contexte, ce qui est tout simplement massif pour l'analyse.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour Qwen3.5-397B-A17B

Conseils d'experts pour tirer le meilleur parti de Qwen3.5-397B-A17B.

Activer le Thinking Mode

Utilisez le paramètre enable_thinking pour les tâches complexes afin d'activer des chemins de reasoning interne profonds.

Exploiter la recherche native

Activez le paramètre search dans le corps de la requête pour vérifier des faits par rapport aux données du web en temps réel et exécuter du code python.

Optimiser les prompts vidéo

Fournissez des ancres temporelles spécifiques pour concentrer la context window de 1M de tokens sur les segments les plus pertinents.

Sélection de l'endpoint régional

Utilisez l'endpoint dashscope-intl pour les utilisateurs hors de Chine continentale afin de réduire la latency réseau.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M

Questions Fréquentes sur Qwen3.5-397B-A17B

Trouvez des réponses aux questions courantes sur Qwen3.5-397B-A17B