alibaba

Qwen3.6-Max-Preview

Qwen3.6-Max-Preview là mô hình MoE flagship của Alibaba với 1M context, chế độ thinking native và điểm số SOTA trong lĩnh vực lập trình và suy luận agentic.

MoEAgentic Coding1M ContextFrontier ModelAlibaba Qwen
alibaba logoalibabaQwen 3.620 tháng 4, 2026
Ngu canh
1.0Mtoken
Dau ra toi da
8Ktoken
Gia dau vao
$1.25/ 1M
Gia dau ra
$10.00/ 1M
Phuong thuc:TextImageVideo
Kha nang:Thi giacCong cuTruyen truc tiepSuy luan
Diem chuan
GPQA
86%
GPQA: Cau hoi khoa hoc cap sau dai hoc. Benchmark nghiem ngat voi 448 cau hoi ve sinh hoc, vat ly va hoa hoc. Chuyen gia PhD chi dat 65-74% do chinh xac. Qwen3.6-Max-Preview dat 86% trong benchmark nay.
HLE
51%
HLE: Suy luan cap chuyen gia. Kiem tra kha nang mo hinh the hien suy luan cap chuyen gia trong cac linh vuc chuyen mon. Qwen3.6-Max-Preview dat 51% trong benchmark nay.
MMLU
83%
MMLU: Hieu ngon ngu da nhiem voc lon. Benchmark toan dien voi 16.000 cau hoi tren 57 mon hoc. Qwen3.6-Max-Preview dat 83% trong benchmark nay.
MMLU Pro
79%
MMLU Pro: MMLU Phien ban chuyen nghiep. Phien ban nang cap cua MMLU voi 12.032 cau hoi va dinh dang 10 lua chon kho hon. Qwen3.6-Max-Preview dat 79% trong benchmark nay.
SimpleQA
52%
SimpleQA: Benchmark do chinh xac thuc te. Kiem tra kha nang mo hinh cung cap cau tra loi chinh xac, thuc te. Qwen3.6-Max-Preview dat 52% trong benchmark nay.
IFEval
75%
IFEval: Danh gia tuan theo huong dan. Do luong mo hinh tuan theo huong dan va rang buoc cu the tot nhu the nao. Qwen3.6-Max-Preview dat 75% trong benchmark nay.
AIME 2025
93%
AIME 2025: Ky thi toan hoc moi My. Bai toan toan hoc cap do thi dau tu ky thi AIME uy tin. Qwen3.6-Max-Preview dat 93% trong benchmark nay.
MATH
95%
MATH: Giai quyet van de toan hoc. Benchmark toan hoc toan dien kiem tra giai quyet van de trong dai so, hinh hoc, giai tich. Qwen3.6-Max-Preview dat 95% trong benchmark nay.
GSM8k
98%
GSM8k: Toan tieu hoc 8K. 8.500 bai toan dang van ban cap tieu hoc. Qwen3.6-Max-Preview dat 98% trong benchmark nay.
MGSM
92%
MGSM: Toan tieu hoc da ngon ngu. Benchmark GSM8k duoc dich sang 10 ngon ngu. Qwen3.6-Max-Preview dat 92% trong benchmark nay.
MathVista
86%
MathVista: Suy luan thi giac toan hoc. Kiem tra kha nang giai quyet bai toan toan hoc voi cac yeu to thi giac. Qwen3.6-Max-Preview dat 86% trong benchmark nay.
SWE-Bench
73%
SWE-Bench: Benchmark ky thuat phan mem. Cac mo hinh AI co gang giai quyet van de GitHub thuc trong cac du an Python. Qwen3.6-Max-Preview dat 73% trong benchmark nay.
HumanEval
91%
HumanEval: Bai tap lap trinh Python. 164 bai tap lap trinh yeu cau mo hinh tao ra cac trien khai ham Python dung. Qwen3.6-Max-Preview dat 91% trong benchmark nay.
LiveCodeBench
79%
LiveCodeBench: Benchmark lap trinh truc tiep. Kiem tra kha nang lap trinh tren cac thach thuc lap trinh thuc te cap nhat lien tuc. Qwen3.6-Max-Preview dat 79% trong benchmark nay.
MMMU
82%
MMMU: Hieu da phuong thuc. Benchmark hieu da phuong thuc tren 30 mon hoc dai hoc. Qwen3.6-Max-Preview dat 82% trong benchmark nay.
MMMU Pro
75%
MMMU Pro: MMMU Phien ban chuyen nghiep. Phien ban nang cap cua MMMU voi cac cau hoi kho hon. Qwen3.6-Max-Preview dat 75% trong benchmark nay.
ChartQA
85%
ChartQA: Hoi dap bieu do. Kiem tra kha nang hieu va phan tich thong tin tu bieu do va do thi. Qwen3.6-Max-Preview dat 85% trong benchmark nay.
DocVQA
89%
DocVQA: Hoi dap thi giac tai lieu. Kiem tra kha nang trich xuat thong tin tu hinh anh tai lieu. Qwen3.6-Max-Preview dat 89% trong benchmark nay.
Terminal-Bench
65%
Terminal-Bench: Tac vu terminal/CLI. Kiem tra kha nang thuc hien cac thao tac dong lenh. Qwen3.6-Max-Preview dat 65% trong benchmark nay.
ARC-AGI
14%
ARC-AGI: Truu tuong va suy luan. Kiem tra tri thong minh linh hoat thong qua cac cau do nhan dang mau moi. Qwen3.6-Max-Preview dat 14% trong benchmark nay.

Ve Qwen3.6-Max-Preview

Tim hieu ve kha nang cua Qwen3.6-Max-Preview, tinh nang va cach no co the giup ban dat ket qua tot hon.

Qwen3.6-Max-Preview là mô hình ngôn ngữ lớn (LLM) proprietary flagship từ Alibaba, đại diện cho bước tiếp theo trong dòng AI hiệu năng cao của họ. Sử dụng kiến trúc Mixture-of-Experts (MoE) thưa thớt, mô hình đạt được chiều sâu suy luận của một hệ thống hàng nghìn tỷ tham số trong khi vẫn duy trì hiệu suất vận hành đáng kể. Nó được tối ưu hóa đặc biệt cho lập trình agentic, kiến thức thế giới và khả năng tuân thủ các hướng dẫn phức tạp.

Tính năng nổi bật của mô hình là Thinking Mode native, cho phép hệ thống tạo ra một chuỗi suy luận nội bộ có thể nhìn thấy trước khi đưa ra câu trả lời cuối cùng. Sự minh bạch này đặc biệt có giá trị đối với các nhà phát triển xây dựng các tác nhân tự hành (autonomous agents), vì nó cung cấp cái nhìn rõ ràng về quá trình lập kế hoạch logic và các bước sửa lỗi. Kết hợp với context window 1 triệu token khổng lồ, mô hình có thể nạp toàn bộ kho dự án hoặc các thư viện tài liệu chuyên sâu chỉ trong một lần xử lý.

Được lưu trữ trên Alibaba Cloud Model Studio, Qwen3.6-Max-Preview hỗ trợ các giao thức chuẩn công nghiệp và tương thích với các thông số kỹ thuật API kiểu OpenAI. Nó được thiết kế để trở thành lựa chọn hàng đầu cho các doanh nghiệp yêu cầu khả năng AI frontier-level cho phân tích dữ liệu multimodal và các quy trình công việc agentic mạnh mẽ, mang đến một giải pháp thay thế hiệu năng cao so với các mô hình closed-source phương Tây.

Qwen3.6-Max-Preview

Truong hop su dung cho Qwen3.6-Max-Preview

Kham pha cac cach khac nhau ban co the su dung Qwen3.6-Max-Preview de dat ket qua tuyet voi.

Kỹ thuật phần mềm tự hành (Autonomous Software Engineering)

Triển khai mô hình như một coding agent có khả năng điều hướng toàn bộ codebase, lên kế hoạch thay đổi kiến trúc và sửa lỗi trên nhiều tệp tin.

Phân tích kỹ thuật quy mô lớn

Tận dụng context window 1M token để nạp toàn bộ bộ tài liệu hoặc khung pháp lý nhằm phân tích chuyên sâu mà không bị giới hạn bởi RAG.

Suy luận và Lập kế hoạch phức tạp

Tận dụng Thinking Mode native để giải các bài toán toán học cấp cao, nơi yêu cầu kế hoạch nội bộ gồm nhiều bước để đảm bảo độ chính xác.

Hiểu nội dung multimodal

Phân tích cả hình ảnh tĩnh và các chuỗi video phức tạp để trích xuất dữ liệu và tóm tắt các sự kiện trực quan động.

Thao tác terminal tương tác

Xây dựng các công cụ cho phép AI tương tác trực tiếp với các shell và môi trường CLI, tận dụng hiệu năng Terminal-Bench đã được tối ưu hóa.

Quy trình làm việc Agentic doanh nghiệp

Tích hợp mô hình vào các đường ống (pipelines) kinh doanh phức tạp, nơi yêu cầu độ tin cậy cao trong việc thực hiện hướng dẫn và khả năng gọi công cụ tinh vi cho tự động hóa.

Diem manh

Han che

Khả năng lập trình dẫn đầu thế giới: Đạt 57,3% trên SWE-bench Pro, vượt qua các frontier model lớn như Claude 4.5 Opus trong các tác vụ phần mềm tự hành.
Hạn chế closed-source: Khác với các phiên bản Medium của Qwen 3.6, Max-Preview là proprietary và không thể self-host trên phần cứng cục bộ.
Context window khổng lồ 1M token: Xử lý các tập dữ liệu khổng lồ và thư viện kỹ thuật hoàn chỉnh trong một prompt duy nhất mà không bị giảm chất lượng ngữ cảnh như các kiến trúc cũ.
Phí output token cao: Mức giá 10,00 USD/1M output cao gấp 8 lần so với giá input, khiến các chuỗi suy luận dài tốn kém hơn so với việc nạp dữ liệu.
Suy luận native minh bạch: Thinking Mode tích hợp sẵn phơi bày logic nội bộ, cho phép đạt độ tin cậy cao hơn trong việc giải quyết vấn đề phức tạp và debug dễ dàng hơn.
Hạn chế về Knowledge Cutoff: Là một mô hình preview tĩnh, nó thiếu sự cập nhật theo thời gian thực về các sự kiện hoặc các cập nhật thư viện sau thời điểm chốt huấn luyện đầu năm 2026.
Chiến lược giá cạnh tranh mạnh mẽ: Với mức giá 1,25 USD mỗi triệu input tokens, mô hình mang lại hiệu năng frontier-level với chi phí chỉ bằng một phần nhỏ so với các giải pháp proprietary phương Tây.
Latency API theo vùng: Tùy thuộc vào vùng triển khai, người dùng quốc tế có thể gặp phải latency cao hơn so với các biến thể địa phương đã được tối ưu hóa cao.

Bat dau nhanh API

alibaba/qwen3.6-max-preview

Xem tai lieu
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  base_url: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen3.6-max-preview',
    messages: [{ role: 'user', content: 'Design a system architecture for a real-time AI agent.' }],
    extra_body: { enable_thinking: true },
    stream: true
  });

  for await (const chunk of completion) {
    process.stdout.write(chunk.choices[0]?.delta?.content || '');
  }
}

main();

Cai dat SDK va bat dau thuc hien cac cuoc goi API trong vai phut.

Moi nguoi dang noi gi ve Qwen3.6-Max-Preview

Xem cong dong nghi gi ve Qwen3.6-Max-Preview

Hiệu năng mà bạn mong đợi từ một mô hình chạy trên một trang trại máy chủ khổng lồ giờ đây đã nằm ngay trên máy tính để bàn của bạn.
softtechhubus
reddit
Qwen3.6-Max-Preview vừa đánh bại Claude Opus 4.5 trên SWE-Bench Pro. Trung Quốc đang bắt kịp rất nhanh.
BridgeMind
twitter
Với 1,25 USD mỗi triệu token, Qwen rẻ hơn đáng kể so với Claude cho việc nạp dữ liệu quy mô lớn.
TechReviewer2026
reddit
Việc Thinking Mode được tích hợp sẵn làm trạng thái mặc định là một lựa chọn thiết kế có ý nghĩa cho độ tin cậy của agentic.
DevGuru
twitter
Qwen đã ra mắt Qwen 3.6 Max Preview như một mô hình flagship proprietary cao cấp mới.
AICodeKing
youtube
Nó cho thấy khả năng lập trình agentic cải tiến và độ tin cậy của agent thực tế tốt hơn so với mô hình Plus.
Codedigipt
youtube

Video ve Qwen3.6-Max-Preview

Xem huong dan, danh gia va thao luan ve Qwen3.6-Max-Preview

Qwen đã ra mắt Qwen 3.6 Max Preview như một mô hình flagship proprietary cao cấp mới.

Mô hình cho thấy bước nhảy vọt mạnh mẽ trong các benchmark coding-agent như SkillsBench và Terminal-Bench 2.0.

Qwen rõ ràng đang cố gắng cạnh tranh nghiêm túc ở phân khúc cao cấp với các mô hình như Claude 4.5 Opus.

Mô hình này đại diện cho sự cải thiện đáng kể về kiến thức thế giới và khả năng tuân thủ hướng dẫn.

Bước nhảy vọt về hiệu năng trên SWE-bench là điều thực sự tạo nên sự khác biệt so với phiên bản Plus.

Câu chuyện benchmark thực sự là về việc định vị bản Max Preview được lưu trữ tách biệt khỏi dòng open-weight.

Chúng tôi sử dụng các trang Qwen Code và bề mặt repo để đánh giá chiều sâu hệ sinh thái ngoài trọng số mô hình.

Thinking mode nhanh một cách đáng ngạc nhiên so với các mô hình kiểu o1 từ năm ngoái.

Mô hình này rõ ràng được thiết kế cho các nhà phát triển doanh nghiệp cần một API đáng tin cậy cho các tác vụ agentic.

Hiệu năng vision multimodal đang bắt kịp Gemini 2 trong một số bài kiểm tra phân tích tài liệu.

Video này giới thiệu Qwen3.6-Max-Preview, cái nhìn sớm về mô hình flagship tiếp theo từ Qwen.

Nó cho thấy khả năng lập trình agentic cải tiến và độ tin cậy của agent thực tế tốt hơn so với mô hình Plus.

Context window 1M ổn định hơn nhiều so với những gì chúng ta thấy trong các phiên bản Qwen 2 đầu tiên.

Nếu bạn đang lập trình nhiều, Qwen 3.6 Max hiện đang là đơn vị dẫn đầu benchmark.

Giá cả vẫn rất cạnh tranh ngay cả đối với mô hình closed-source flagship của họ.

Hon ca prompt

Tang cuong quy trinh lam viec cua ban voi Tu dong hoa AI

Automatio ket hop suc manh cua cac AI agent, tu dong hoa web va tich hop thong minh de giup ban lam duoc nhieu hon trong thoi gian ngan hon.

AI Agent
Tu dong hoa web
Quy trinh thong minh

Meo chuyen nghiep cho Qwen3.6-Max-Preview

Meo chuyen gia giup ban tan dung toi da Qwen3.6-Max-Preview va dat ket qua tot hon.

Kích hoạt Internal Reasoning

Đặt tham số 'enable_thinking' thành true trong request API của bạn để xem logic nội bộ của mô hình nhằm debug các suy luận phức tạp.

Duy trì Long-Horizon Logic

Sử dụng tính năng 'preserve_thinking' cho các hội thoại nhiều lượt để đảm bảo mô hình duy trì sự nhất quán về logic trong suốt phiên làm việc.

Nạp toàn bộ thư viện

Tận dụng context window 1M bằng cách cung cấp toàn bộ tài liệu nguồn thay vì dữ liệu được chia nhỏ (chunked) để đạt được sự hiểu biết tốt hơn giữa các tệp tin.

Sử dụng các Endpoints tương thích

Đối với các ứng dụng toàn cầu, hãy sử dụng các endpoint tại Singapore hoặc US Virginia trên Alibaba Cloud để giảm thiểu latency theo vùng cho người dùng quốc tế.

Danh gia

Nguoi dung cua chung toi noi gi

Tham gia cung hang nghin nguoi dung hai long da thay doi quy trinh lam viec cua ho

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Lien quan AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
zhipu

GLM-5.1

Zhipu (GLM)

GLM-5.1 is Zhipu AI's flagship reasoning model, featuring a 202K context window and an autonomous 8-hour execution loop for complex agentic engineering.

203K context
$1.40/$4.40/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Cau hoi thuong gap ve Qwen3.6-Max-Preview

Tim cau tra loi cho cac cau hoi thuong gap ve Qwen3.6-Max-Preview