alibaba

Qwen3.6-Max-Preview

Qwen3.6-Max-Preview est le modèle MoE flagship d'Alibaba doté d'une context window de 1M, d'un Thinking Mode natif et de scores de pointe en codage et...

MoEAgentic Coding1M ContextFrontier ModelAlibaba Qwen
alibaba logoalibabaQwen 3.620 avril 2026
Contexte
1.0Mtokens
Sortie max.
8Ktokens
Prix entrée
$1.25/ 1M
Prix sortie
$10.00/ 1M
Modalité:TextImageVideo
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
86%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). Qwen3.6-Max-Preview a obtenu 86% sur ce benchmark.
HLE
51%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. Qwen3.6-Max-Preview a obtenu 51% sur ce benchmark.
MMLU
83%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. Qwen3.6-Max-Preview a obtenu 83% sur ce benchmark.
MMLU Pro
79%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. Qwen3.6-Max-Preview a obtenu 79% sur ce benchmark.
SimpleQA
52%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. Qwen3.6-Max-Preview a obtenu 52% sur ce benchmark.
IFEval
75%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. Qwen3.6-Max-Preview a obtenu 75% sur ce benchmark.
AIME 2025
93%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. Qwen3.6-Max-Preview a obtenu 93% sur ce benchmark.
MATH
95%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. Qwen3.6-Max-Preview a obtenu 95% sur ce benchmark.
GSM8k
98%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. Qwen3.6-Max-Preview a obtenu 98% sur ce benchmark.
MGSM
92%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. Qwen3.6-Max-Preview a obtenu 92% sur ce benchmark.
MathVista
86%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. Qwen3.6-Max-Preview a obtenu 86% sur ce benchmark.
SWE-Bench
73%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. Qwen3.6-Max-Preview a obtenu 73% sur ce benchmark.
HumanEval
91%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. Qwen3.6-Max-Preview a obtenu 91% sur ce benchmark.
LiveCodeBench
79%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. Qwen3.6-Max-Preview a obtenu 79% sur ce benchmark.
MMMU
82%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. Qwen3.6-Max-Preview a obtenu 82% sur ce benchmark.
MMMU Pro
75%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. Qwen3.6-Max-Preview a obtenu 75% sur ce benchmark.
ChartQA
85%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. Qwen3.6-Max-Preview a obtenu 85% sur ce benchmark.
DocVQA
89%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. Qwen3.6-Max-Preview a obtenu 89% sur ce benchmark.
Terminal-Bench
65%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. Qwen3.6-Max-Preview a obtenu 65% sur ce benchmark.
ARC-AGI
14%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. Qwen3.6-Max-Preview a obtenu 14% sur ce benchmark.

À propos de Qwen3.6-Max-Preview

Découvrez les capacités, fonctionnalités et façons d'utiliser Qwen3.6-Max-Preview.

Qwen3.6-Max-Preview est le large language model propriétaire flagship d'Alibaba, représentant la prochaine étape de leur série d'IA haute performance. Utilisant une architecture sparse Mixture-of-Experts (MoE), le modèle atteint la profondeur de raisonnement d'un système à mille milliards de paramètres tout en conservant une efficacité opérationnelle significative. Il est spécifiquement optimisé pour le codage agentic, les connaissances mondiales et le suivi d'instructions complexes.

La caractéristique marquante du modèle est son Thinking Mode natif, qui permet au système de générer une chain-of-thought interne visible avant de fournir une réponse finale. Cette transparence est particulièrement précieuse pour les développeurs qui construisent des agents autonomes, car elle offre une fenêtre claire sur la planification logique et les étapes de correction d'erreurs. Combiné avec une massive context window de 1 million de tokens, le modèle peut ingérer des dépôts de projets entiers ou des bibliothèques de documentation étendues en une seule passe.

Hébergé sur Alibaba Cloud Model Studio, Qwen3.6-Max-Preview prend en charge les protocoles standard de l'industrie et est compatible avec les spécifications API de style OpenAI. Il est conçu pour être le choix principal pour les entreprises nécessitant des capacités d'IA de niveau frontier pour l'analyse de données multimodales et des workflows agentic robustes, offrant une alternative haute performance aux modèles fermés occidentaux.

Qwen3.6-Max-Preview

Cas d'utilisation de Qwen3.6-Max-Preview

Découvrez les différentes façons d'utiliser Qwen3.6-Max-Preview pour obtenir d'excellents résultats.

Ingénierie logicielle autonome

Déployez le modèle en tant qu'agent de codage capable de naviguer dans des bases de code entières, de planifier des changements architecturaux et de corriger des bugs sur plusieurs fichiers.

Analyse technique à grande échelle

Utilisez la context window de 1M tokens pour ingérer des jeux de documentation complets ou des cadres juridiques pour une analyse approfondie sans les limitations du RAG.

Raisonnement et planification complexes

Exploitez le Thinking Mode natif pour résoudre des problèmes mathématiques de haut niveau nécessitant un plan interne en plusieurs étapes pour garantir la précision.

Compréhension de contenu multimodal

Analysez à la fois des images statiques et des séquences vidéo complexes pour extraire des données et résumer des événements visuels dynamiques.

Opérations interactives en terminal

Développez des outils permettant à l'IA d'interagir directement avec des shells et des environnements CLI, en tirant parti de ses performances optimisées sur Terminal-Bench.

Workflows agentic en entreprise

Intégrez le modèle dans des pipelines métier complexes où une fiabilité instructionnelle élevée et un tool-calling sophistiqué sont nécessaires pour l'automatisation.

Points forts

Limitations

Capacité de codage de premier plan: Atteint un score de 57,3 % sur SWE-bench Pro, surpassant les principaux frontier models comme Claude 4.5 Opus pour les tâches logicielles autonomes.
Restriction de code fermé: Contrairement aux versions Medium de Qwen 3.6, le Max-Preview est propriétaire et ne peut pas être auto-hébergé sur du matériel local.
Immense context window de 1M tokens: Gère des jeux de données massifs et des bibliothèques techniques complètes au sein d'un seul prompt, sans la dégradation de contexte typique des anciennes architectures.
Coût élevé des tokens en sortie: Le tarif de 10,00 $/1M en sortie représente une marge de 8x par rapport au prix d'entrée, rendant les longues chaînes de raisonnement plus onéreuses que l'ingestion.
Raisonnement natif transparent: Le Thinking Mode intégré expose la logique interne, permettant une fiabilité accrue dans la résolution de problèmes complexes et un débogage simplifié.
Contraintes liées à la date de coupure des connaissances: En tant que modèle preview statique, il manque de connaissance en temps réel sur les événements ou les mises à jour de bibliothèques après sa coupure d'entraînement début 2026.
Positionnement tarifaire agressif: À 1,25 $ par million de tokens en entrée, il offre des performances de frontier model pour une fraction du coût des équivalents propriétaires occidentaux.
Latency de l'API régionale: Selon la région de déploiement, les utilisateurs internationaux peuvent rencontrer une latency plus élevée par rapport aux variantes locales hautement optimisées.

Démarrage rapide API

alibaba/qwen3.6-max-preview

Voir la documentation
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  base_url: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen3.6-max-preview',
    messages: [{ role: 'user', content: 'Design a system architecture for a real-time AI agent.' }],
    extra_body: { enable_thinking: true },
    stream: true
  });

  for await (const chunk of completion) {
    process.stdout.write(chunk.choices[0]?.delta?.content || '');
  }
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de Qwen3.6-Max-Preview

Voyez ce que la communauté pense de Qwen3.6-Max-Preview

Le type de performance que vous attendriez d'un modèle tournant sur une ferme de serveurs massive est maintenant disponible sur votre ordinateur de bureau.
softtechhubus
reddit
Qwen3.6-Max-Preview vient de battre Claude Opus 4.5 sur SWE-Bench Pro. La Chine rattrape son retard rapidement.
BridgeMind
twitter
À 1,25 $ par million de tokens, Qwen est nettement moins cher que Claude pour l'ingestion de données à grande échelle.
TechReviewer2026
reddit
Le fait que le Thinking Mode soit intégré comme état par défaut est un choix de conception significatif pour la fiabilité agentic.
DevGuru
twitter
Qwen a lancé Qwen 3.6 Max Preview en tant que nouveau flagship propriétaire haut de gamme.
AICodeKing
youtube
Il montre un codage agentic amélioré et une meilleure fiabilité des agents dans le monde réel par rapport au modèle Plus.
Codedigipt
youtube

Vidéos sur Qwen3.6-Max-Preview

Regardez des tutoriels, critiques et discussions sur Qwen3.6-Max-Preview

Qwen a lancé Qwen 3.6 Max Preview en tant que nouveau flagship propriétaire haut de gamme.

Le modèle montre un bond important dans les benchmarks de codage agentic comme SkillsBench et Terminal-Bench 2.0.

Qwen tente clairement de rivaliser sérieusement sur le haut de gamme avec des modèles comme Claude 4.5 Opus.

Ce modèle représente une amélioration significative dans la connaissance du monde et le suivi d'instructions.

Le bond de performance sur SWE-bench est ce qui le distingue vraiment de la variante Plus.

L'histoire des benchmarks consiste vraiment à positionner le Max Preview hébergé comme distinct de la famille open-weight.

Nous utilisons les pages Qwen Code et les surfaces de repo pour juger la profondeur de l'écosystème au-delà des simples poids du modèle.

Le Thinking Mode est étonnamment rapide par rapport aux modèles de style o1 de l'année dernière.

Il est clairement conçu pour les développeurs d'entreprise qui ont besoin d'une API fiable pour des tâches agentic.

Les performances multimodales en vision rattrapent Gemini 2 dans certains tests d'analyse de documents.

Cette vidéo présente le Qwen3.6-Max-Preview, un premier aperçu du prochain flagship de Qwen.

Il montre un codage agentic amélioré et une meilleure fiabilité des agents dans le monde réel par rapport au modèle Plus.

La context window de 1M est beaucoup plus stable que ce que nous avons vu dans les premières versions de Qwen 2.

Si vous faites beaucoup de programmation, Qwen 3.6 Max est actuellement le leader des benchmarks.

La tarification reste très compétitive, même pour leur modèle flagship en code fermé.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour Qwen3.6-Max-Preview

Conseils d'experts pour tirer le meilleur parti de Qwen3.6-Max-Preview.

Activer le raisonnement interne

Définissez le paramètre 'enable_thinking' sur true dans votre requête API pour visualiser la logique interne du modèle et déboguer des raisonnements complexes.

Préserver la logique à long terme

Utilisez la fonctionnalité 'preserve_thinking' pour les conversations multi-tours afin de garantir que le modèle maintient une cohérence logique tout au long de la session.

Alimenter avec des bibliothèques entières

Tirez parti de la context window de 1M en fournissant des ressources sources complètes plutôt que des données fragmentées pour une meilleure compréhension inter-fichiers.

Utiliser des points de terminaison compatibles

Pour les applications mondiales, utilisez les terminaux de Singapour ou de Virginie (États-Unis) dans Alibaba Cloud afin de minimiser la latency régionale pour les utilisateurs internationaux.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
zhipu

GLM-5.1

Zhipu (GLM)

GLM-5.1 is Zhipu AI's flagship reasoning model, featuring a 202K context window and an autonomous 8-hour execution loop for complex agentic engineering.

203K context
$1.40/$4.40/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Questions Fréquentes sur Qwen3.6-Max-Preview

Trouvez des réponses aux questions courantes sur Qwen3.6-Max-Preview