alibaba

Qwen3.6-Max-Preview

Qwen3.6-Max-Previewは、1M context window、ネイティブなThinking Mode、コーディングおよび推論において最高レベルのスコアを誇るAlibabaのフラッグシップMoEモデルです。

MoEAgentic Coding1M ContextFrontier ModelAlibaba Qwen
alibaba logoalibabaQwen 3.62026年4月20日
コンテキスト
1.0Mトークン
最大出力
8Kトークン
入力価格
$1.25/ 1M
出力価格
$10.00/ 1M
モダリティ:TextImageVideo
機能:ビジョンツールストリーミング推論
ベンチマーク
GPQA
86%
GPQA: 大学院レベル科学Q&A. 生物学、物理学、化学の448問の選択問題からなる厳格なベンチマーク。博士号専門家でも65-74%の正解率。 Qwen3.6-Max-Previewはこのベンチマークで86%を記録しました。
HLE
51%
HLE: 高レベル専門推論. 専門分野でエキスパートレベルの推論を示すモデルの能力をテスト。 Qwen3.6-Max-Previewはこのベンチマークで51%を記録しました。
MMLU
83%
MMLU: 大規模多タスク言語理解. 57の学術科目にわたる16,000問の選択問題からなる包括的なベンチマーク。 Qwen3.6-Max-Previewはこのベンチマークで83%を記録しました。
MMLU Pro
79%
MMLU Pro: MMLUプロフェッショナル版. より難しい10択形式の12,032問を含むMMLUの強化版。 Qwen3.6-Max-Previewはこのベンチマークで79%を記録しました。
SimpleQA
52%
SimpleQA: 事実精度ベンチマーク. 直接的な質問に対して正確で事実に基づく回答を提供するモデルの能力をテスト。 Qwen3.6-Max-Previewはこのベンチマークで52%を記録しました。
IFEval
75%
IFEval: 指示遵守評価. モデルが特定の指示と制約にどれだけ従うかを測定。 Qwen3.6-Max-Previewはこのベンチマークで75%を記録しました。
AIME 2025
93%
AIME 2025: アメリカ招待数学試験. 名門AIME試験からの競技レベルの数学問題。 Qwen3.6-Max-Previewはこのベンチマークで93%を記録しました。
MATH
95%
MATH: 数学問題解決. 代数、幾何、微積分などの分野をテストする包括的な数学ベンチマーク。 Qwen3.6-Max-Previewはこのベンチマークで95%を記録しました。
GSM8k
98%
GSM8k: 小学校算数8K. 多段階推論を必要とする8,500問の小学校レベルの算数文章問題。 Qwen3.6-Max-Previewはこのベンチマークで98%を記録しました。
MGSM
92%
MGSM: 多言語小学校算数. GSM8kベンチマークを10言語に翻訳したもの。 Qwen3.6-Max-Previewはこのベンチマークで92%を記録しました。
MathVista
86%
MathVista: 数学的視覚推論. グラフや図などの視覚要素を含む数学問題を解く能力をテスト。 Qwen3.6-Max-Previewはこのベンチマークで86%を記録しました。
SWE-Bench
73%
SWE-Bench: ソフトウェアエンジニアリングベンチマーク. AIモデルがオープンソースPythonプロジェクトの実際のGitHub課題を解決しようとする。 Qwen3.6-Max-Previewはこのベンチマークで73%を記録しました。
HumanEval
91%
HumanEval: Pythonプログラミング問題. モデルが正しいPython関数実装を生成する必要がある164問の手書きプログラミング問題。 Qwen3.6-Max-Previewはこのベンチマークで91%を記録しました。
LiveCodeBench
79%
LiveCodeBench: ライブコーディングベンチマーク. 継続的に更新される実世界のプログラミングチャレンジでコーディング能力をテスト。 Qwen3.6-Max-Previewはこのベンチマークで79%を記録しました。
MMMU
82%
MMMU: マルチモーダル理解. 大学レベルの問題でビジョン言語モデルをテストする大規模多分野マルチモーダル理解ベンチマーク。 Qwen3.6-Max-Previewはこのベンチマークで82%を記録しました。
MMMU Pro
75%
MMMU Pro: MMMUプロフェッショナル版. より挑戦的な問題とより厳格な評価を備えたMMMUの強化版。 Qwen3.6-Max-Previewはこのベンチマークで75%を記録しました。
ChartQA
85%
ChartQA: チャート質問応答. チャートやグラフに表示された情報を理解し推論する能力をテスト。 Qwen3.6-Max-Previewはこのベンチマークで85%を記録しました。
DocVQA
89%
DocVQA: ドキュメント視覚Q&A. ドキュメント画像から情報を抽出する能力をテストするドキュメント視覚質問応答ベンチマーク。 Qwen3.6-Max-Previewはこのベンチマークで89%を記録しました。
Terminal-Bench
65%
Terminal-Bench: ターミナル/CLIタスク. コマンドライン操作を実行し、シェルスクリプトを書く能力をテスト。 Qwen3.6-Max-Previewはこのベンチマークで65%を記録しました。
ARC-AGI
14%
ARC-AGI: 抽象化と推論. AGIのための抽象化と推論コーパス - 新しいパターン認識パズルで流動的知性をテスト。 Qwen3.6-Max-Previewはこのベンチマークで14%を記録しました。

Qwen3.6-Max-Previewについて

Qwen3.6-Max-Previewの機能、特徴、そしてより良い結果を得るための方法について学びましょう。

Qwen3.6-Max-Previewは、Alibabaが提供するフラッグシップのプロプライエタリなLLMであり、高性能AIシリーズにおける次なるステップを象徴するものです。疎なMixture-of-Experts (MoE)アーキテクチャを採用することで、1兆パラメータ規模の推論の深さを実現しつつ、高い運用効率を維持しています。特にagenticなコーディング、世界知識、複雑な指示への追従のために最適化されています。

このモデルの最大の特徴は、ネイティブなThinking Modeです。これにより、システムは最終回答を出す前に可視化された内部のchain-of-thoughtを生成できます。この透明性は、自律型agentを構築する開発者にとって、論理的な計画やエラー修正のステップを明確に把握できるため、極めて重要です。さらに、100万tokenのcontext windowを組み合わせることで、プロジェクトのリポジトリ全体や膨大なドキュメントライブラリを一度のパスで読み込むことが可能です。

Alibaba Cloud Model StudioでホストされるQwen3.6-Max-Previewは、業界標準プロトコルをサポートし、OpenAIスタイルのAPI仕様と互換性があります。マルチモーダルなデータ分析や堅牢なagenticワークフローのために、frontierレベルのAI機能を必要とする企業にとって最適な選択肢となるよう設計されており、欧米のクローズドソースモデルに代わる高性能な代替案を提供します。

Qwen3.6-Max-Preview

Qwen3.6-Max-Previewのユースケース

Qwen3.6-Max-Previewを使って素晴らしい結果を得るさまざまな方法を発見してください。

自律的なソフトウェアエンジニアリング

コードベース全体を探索し、アーキテクチャの変更を計画し、複数のファイルにわたるバグを修正できるコーディングagentとしてモデルを展開します。

大規模な技術分析

1M tokenのcontext windowを活用し、RAGの制限を受けずに、ドキュメントセットや法規制フレームワーク全体を読み込ませて詳細な分析を行います。

高度な推論と計画策定

ネイティブなThinking Modeを活用し、精度向上のために複数ステップの内部計画が必要となるハイレベルな数学的問題を解決します。

マルチモーダルコンテンツの理解

静止画像と複雑な動画シーケンスの両方を分析し、データの抽出や動的な視覚イベントの要約を行います。

インタラクティブなターミナル操作

AIがシェルやCLI環境と直接対話できるようにツールを構築し、Terminal-Benchで最適化されたパフォーマンスを最大限に活用します。

エンタープライズ向けのAgenticワークフロー

指示に対する高い信頼性と、自動化に不可欠な高度なtool-callingが必要な複雑なビジネスパイプラインにモデルを統合します。

強み

制限

世界トップクラスのコーディング能力: SWE-bench Proで57.3%のスコアを達成し、自律的なソフトウェアタスクにおいてClaude 4.5 Opusなどの主要なfrontier modelを凌駕しています。
クローズドソースの制限: Qwen 3.6のMediumバージョンとは異なり、Max-Previewはプロプライエタリであり、ローカルハードウェア上でホストすることはできません。
巨大な1M tokenのcontext window: 従来のアーキテクチャで見られたようなcontextの劣化なしに、大規模なデータセットや技術ライブラリ全体を単一のpromptで処理できます。
高額な出力token単価: 出力100万tokenあたり10.00ドルの価格設定は入力価格の8倍であり、長い推論チェーンは読み込みよりもコストがかさむ場合があります。
透明性の高いネイティブ推論: 内蔵されたThinking Modeが内部ロジックを可視化するため、複雑な問題解決における信頼性が高まり、デバッグが容易になります。
知識のカットオフ時期: 静的なプレビューモデルであるため、2026年初頭のトレーニング終了後の出来事やライブラリの更新をリアルタイムで把握することはできません。
攻撃的な価格設定: 入力100万tokenあたり1.25ドルというコストは、欧米のプロプライエタリな同等モデルと比べてわずかなコストでfrontierレベルのパフォーマンスを提供します。
リージョンによるAPI latency: デプロイするリージョンによっては、高度に最適化されたローカル環境と比べて、国際的なユーザーがより高いlatencyを経験する可能性があります。

APIクイックスタート

alibaba/qwen3.6-max-preview

ドキュメントを見る
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  base_url: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen3.6-max-preview',
    messages: [{ role: 'user', content: 'Design a system architecture for a real-time AI agent.' }],
    extra_body: { enable_thinking: true },
    stream: true
  });

  for await (const chunk of completion) {
    process.stdout.write(chunk.choices[0]?.delta?.content || '');
  }
}

main();

SDKをインストールして、数分でAPIコールを開始しましょう。

Qwen3.6-Max-Previewについてのユーザーの声

Qwen3.6-Max-Previewについてコミュニティがどう思っているか見てください

大規模なサーバーファームで動作するモデルから期待されるようなパフォーマンスが、今やデスクトップで利用可能だ。
softtechhubus
reddit
Qwen3.6-Max-PreviewがSWE-Bench ProでClaude Opus 4.5を破った。中国の追い上げは速い。
BridgeMind
twitter
100万tokenあたり1.25ドルというのは、大規模データを取り込む際にClaudeよりも大幅に安い。
TechReviewer2026
reddit
Thinking Modeがデフォルト状態で組み込まれているという事実は、agenticな信頼性にとって有意義な設計上の選択だ。
DevGuru
twitter
Qwenは、新しいトップエンドのプロプライエタリなフラッグシップモデルとしてQwen 3.6 Max Previewをリリースした。
AICodeKing
youtube
Plusモデルと比較して、改善されたコーディング機能と、より優れた実環境でのagentの信頼性を示している。
Codedigipt
youtube

Qwen3.6-Max-Previewについての動画

Qwen3.6-Max-Previewについてのチュートリアル、レビュー、ディスカッションを見る

Qwenは、新しいトップエンドのプロプライエタリなフラッグシップモデルとしてQwen 3.6 Max Previewをリリースしました。

このモデルは、SkillsBenchやTerminal-Bench 2.0のようなコーディングagentのbenchmarkで強力な飛躍を見せています。

Qwenは、Claude 4.5 Opusのようなモデルに対してハイエンドで真剣に競おうとしていることは明らかです。

このモデルは、世界的な知識と指示への追従において有意義な向上を示しています。

SWE-benchでのパフォーマンス向上が、Plusバリアントとの真の違いです。

benchmarkの背景にある物語は、ホスト型のMax Previewをオープンウェイトのファミリーと明確に区別することにあります。

私たちはQwenのコードページやリポジトリのサーフェスを使用して、モデルウェイトだけでなくエコシステムの深みを評価しています。

Thinking Modeは、昨年のo1スタイルのモデルと比較して驚くほど高速です。

これは、agenticなタスクのために信頼性の高いAPIを必要とするエンタープライズ開発者向けに設計されているのは明らかです。

マルチモーダルな視覚パフォーマンスは、一部のドキュメント分析テストにおいてGemini 2に追いつきつつあります。

このビデオでは、Qwenの次期フラッグシップモデルの早期プレビュー版であるQwen3.6-Max-Previewを紹介します。

Plusモデルと比較して、改善されたコーディング機能と、より優れた実環境でのagentの信頼性を示しています。

1Mのcontext windowは、初期のQwen 2バージョンで見られたものよりもはるかに安定しています。

多くのコーディングを行う場合、Qwen 3.6 Maxは現在ベンチマークのリーダーです。

フラッグシップのクローズドソースモデルであっても、価格設定は依然として非常に競争力があります。

プロンプト以上のもの

ワークフローを強化する AI自動化

AutomatioはAIエージェント、ウェブ自動化、スマート統合のパワーを組み合わせ、より短時間でより多くのことを達成するお手伝いをします。

AIエージェント
ウェブ自動化
スマートワークフロー

Qwen3.6-Max-Previewのプロのヒント

Qwen3.6-Max-Previewを最大限に活用し、より良い結果を得るための専門家のヒント。

内部推論(Thinking Mode)の有効化

APIリクエストで 'enable_thinking' パラメータを true に設定すると、モデルの内部ロジックを確認でき、複雑な推論のデバッグに役立ちます。

長期的な論理整合性の保持

マルチターン会話では 'preserve_thinking' 機能を使用し、セッション全体を通じてモデルの論理的な一貫性を維持してください。

ライブラリ全体を読み込ませる

1Mのcontext windowを最大限に活用し、データを分割するのではなくソースコード全体を入力することで、ファイル間を跨いだ理解精度を向上させましょう。

互換性のあるエンドポイントの使用

グローバルなアプリケーション開発では、Alibaba Cloudのシンガポールまたは米国バージニアのエンドポイントを使用し、国際的なユーザーへのlatencyを最小限に抑えてください。

お客様の声

ユーザーの声

ワークフローを変革した何千人もの満足したユーザーに加わりましょう

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

関連 AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
zhipu

GLM-5.1

Zhipu (GLM)

GLM-5.1 is Zhipu AI's flagship reasoning model, featuring a 202K context window and an autonomous 8-hour execution loop for complex agentic engineering.

203K context
$1.40/$4.40/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Qwen3.6-Max-Previewについてのよくある質問

Qwen3.6-Max-Previewに関するよくある質問への回答を見つけてください