zhipu

GLM-5.1

GLM-5.1 là model reasoning flagship của Zhipu AI, với 202K context window và vòng lặp thực thi tự chủ 8 giờ cho các tác vụ kỹ thuật agentic phức tạp.

ReasoningAgentic AIOpen WeightsCodingMultimodal
zhipu logozhipuGLM2026-04-08
Ngu canh
203Ktoken
Dau ra toi da
164Ktoken
Gia dau vao
$1.40/ 1M
Gia dau ra
$4.40/ 1M
Phuong thuc:TextImage
Kha nang:Thi giacCong cuTruyen truc tiepSuy luan
Diem chuan
GPQA
86.2%
GPQA: Cau hoi khoa hoc cap sau dai hoc. Benchmark nghiem ngat voi 448 cau hoi ve sinh hoc, vat ly va hoa hoc. Chuyen gia PhD chi dat 65-74% do chinh xac. GLM-5.1 dat 86.2% trong benchmark nay.
HLE
31%
HLE: Suy luan cap chuyen gia. Kiem tra kha nang mo hinh the hien suy luan cap chuyen gia trong cac linh vuc chuyen mon. GLM-5.1 dat 31% trong benchmark nay.
MMLU
89%
MMLU: Hieu ngon ngu da nhiem voc lon. Benchmark toan dien voi 16.000 cau hoi tren 57 mon hoc. GLM-5.1 dat 89% trong benchmark nay.
MMLU Pro
89%
MMLU Pro: MMLU Phien ban chuyen nghiep. Phien ban nang cap cua MMLU voi 12.032 cau hoi va dinh dang 10 lua chon kho hon. GLM-5.1 dat 89% trong benchmark nay.
IFEval
73%
IFEval: Danh gia tuan theo huong dan. Do luong mo hinh tuan theo huong dan va rang buoc cu the tot nhu the nao. GLM-5.1 dat 73% trong benchmark nay.
AIME 2025
95.3%
AIME 2025: Ky thi toan hoc moi My. Bai toan toan hoc cap do thi dau tu ky thi AIME uy tin. GLM-5.1 dat 95.3% trong benchmark nay.
MATH
80%
MATH: Giai quyet van de toan hoc. Benchmark toan hoc toan dien kiem tra giai quyet van de trong dai so, hinh hoc, giai tich. GLM-5.1 dat 80% trong benchmark nay.
GSM8k
96%
GSM8k: Toan tieu hoc 8K. 8.500 bai toan dang van ban cap tieu hoc. GLM-5.1 dat 96% trong benchmark nay.
MGSM
90%
MGSM: Toan tieu hoc da ngon ngu. Benchmark GSM8k duoc dich sang 10 ngon ngu. GLM-5.1 dat 90% trong benchmark nay.
MathVista
70%
MathVista: Suy luan thi giac toan hoc. Kiem tra kha nang giai quyet bai toan toan hoc voi cac yeu to thi giac. GLM-5.1 dat 70% trong benchmark nay.
SWE-Bench
58.4%
SWE-Bench: Benchmark ky thuat phan mem. Cac mo hinh AI co gang giai quyet van de GitHub thuc trong cac du an Python. GLM-5.1 dat 58.4% trong benchmark nay.
HumanEval
94.6%
HumanEval: Bai tap lap trinh Python. 164 bai tap lap trinh yeu cau mo hinh tao ra cac trien khai ham Python dung. GLM-5.1 dat 94.6% trong benchmark nay.
LiveCodeBench
68%
LiveCodeBench: Benchmark lap trinh truc tiep. Kiem tra kha nang lap trinh tren cac thach thuc lap trinh thuc te cap nhat lien tuc. GLM-5.1 dat 68% trong benchmark nay.
MMMU
73%
MMMU: Hieu da phuong thuc. Benchmark hieu da phuong thuc tren 30 mon hoc dai hoc. GLM-5.1 dat 73% trong benchmark nay.
MMMU Pro
58%
MMMU Pro: MMMU Phien ban chuyen nghiep. Phien ban nang cap cua MMMU voi cac cau hoi kho hon. GLM-5.1 dat 58% trong benchmark nay.
ChartQA
89%
ChartQA: Hoi dap bieu do. Kiem tra kha nang hieu va phan tich thong tin tu bieu do va do thi. GLM-5.1 dat 89% trong benchmark nay.
DocVQA
93%
DocVQA: Hoi dap thi giac tai lieu. Kiem tra kha nang trich xuat thong tin tu hinh anh tai lieu. GLM-5.1 dat 93% trong benchmark nay.
Terminal-Bench
63.5%
Terminal-Bench: Tac vu terminal/CLI. Kiem tra kha nang thuc hien cac thao tac dong lenh. GLM-5.1 dat 63.5% trong benchmark nay.
ARC-AGI
12%
ARC-AGI: Truu tuong va suy luan. Kiem tra tri thong minh linh hoat thong qua cac cau do nhan dang mau moi. GLM-5.1 dat 12% trong benchmark nay.

Ve GLM-5.1

Tim hieu ve kha nang cua GLM-5.1, tinh nang va cach no co the giup ban dat ket qua tot hon.

GLM-5.1 là model nền tảng flagship của Zhipu AI được thiết kế cho kỹ thuật hệ thống phức tạp và các tác vụ agentic dài hạn. Được xây dựng trên kiến trúc Mixture-of-Experts (MoE) với 744 tỷ parameters và 40 tỷ parameters hoạt động mỗi pass, nó đại diện cho một bước nhảy vọt về sức bền và khả năng giải quyết vấn đề tự chủ. Model này được thiết kế đặc biệt để vượt qua các rào cản reasoning thường thấy ở các large language model trước đây, duy trì năng suất và chất lượng code qua hàng nghìn lượt gọi công cụ và hàng trăm lần lặp. Nó tự nhận diện các điểm nghẽn, chạy thử nghiệm và điều chỉnh chiến lược của chính mình mà không cần sự can thiệp của con người.

Về mặt kỹ thuật, GLM-5.1 vượt trội với vai trò là engine reasoning chính trong các hệ thống multi-agent. Nó xử lý các quyết định kiến trúc cấp cao trong khi ủy quyền triển khai cho các model nhỏ hơn. Nó có 202K context window được hỗ trợ bởi cơ chế dynamic sparse attention, đảm bảo sự mạch lạc trên các codebase khổng lồ. Model được phát hành dưới dạng open weights theo Giấy phép MIT, cung cấp một giải pháp thay thế cục bộ khả thi cho các model frontier độc quyền đối với các tác vụ như tối ưu hóa cơ sở dữ liệu, kỹ thuật GPU kernel và phát triển ứng dụng web full-stack.

Kết quả từ KernelBench Level 3 cho thấy GLM-5.1 duy trì tốc độ vượt trội trong các workload ML agentic qua các lượt dài so với Claude Opus 4.6. Độ bền này cho phép các developer khởi chạy một tác vụ kỹ thuật vào buổi sáng và nhận lại một dịch vụ đã kiểm thử, triển khai đầy đủ vào cuối ngày. Nó xử lý toàn bộ vòng đời của một bản sửa lỗi, từ việc tái hiện vấn đề trong sandbox cho đến việc gửi pull request cuối cùng.

GLM-5.1

Truong hop su dung cho GLM-5.1

Kham pha cac cach khac nhau ban co the su dung GLM-5.1 de dat ket qua tuyet voi.

Kỹ thuật phần mềm tự chủ

Nó chạy tự chủ trong hơn 8 giờ để thiết kế, triển khai và debug các microservices mà không cần sự hướng dẫn của con người.

Tối ưu hóa cơ sở dữ liệu hiệu năng cao

Model liên tục tối ưu hóa các triển khai vector search dựa trên Rust qua hàng trăm vòng lặp.

Tối ưu hóa GPU Kernel

Nó phân tích các triển khai tham chiếu để tạo ra các GPU kernel nhanh hơn, vượt xa các compiler autotune mặc định.

Điều phối Multi-Agent

Nó đóng vai trò là lõi reasoning, điều phối các tác vụ con và lời gọi công cụ (tool-calls) trên một hệ thống gồm nhiều model nhỏ chuyên biệt.

Các tác vụ terminal phức tạp

Nó thực thi các lệnh terminal thực tế và các tác vụ quản trị hệ thống nhiều bước thông qua các CLI tool mang tính agentic.

Thiết kế web Full-Stack

Model tạo ra bố cục UI nhất quán về mặt hình ảnh và logic backend cho các môi trường desktop dựa trên trình duyệt.

Diem manh

Han che

Khả năng lặp lại trong 8 giờ: Duy trì năng suất qua hàng nghìn lượt gọi công cụ mà không gặp phải tình trạng bão hòa reasoning thường thấy ở các model khác.
Latency cao: Kiến trúc nặng về reasoning dẫn đến tốc độ tạo token chậm hơn đáng kể so với các model standard không thiên về reasoning.
Hiệu năng lập trình state-of-the-art: Đạt điểm 58.4 trên SWE-Bench Pro, vượt qua các model đóng như GPT-5.4 và Claude Opus 4.6.
Yêu cầu tài nguyên cực lớn: Bản model gốc yêu cầu 1.65TB dung lượng đĩa; ngay cả các phiên bản lượng tử hóa cũng cần 256GB VRAM/RAM hệ thống để chạy.
Truy cập Open Weights: Được phát hành theo Giấy phép MIT, cho phép triển khai cục bộ các khả năng reasoning đẳng cấp frontier cho doanh nghiệp.
Độ nhạy với prompt: Để mở khóa toàn bộ hiệu năng agentic thường đòi hỏi các system prompt cực kỳ chi tiết (hơn 300 dòng) để hướng dẫn vòng lặp reasoning.
Sự mạch lạc với context lớn: Duy trì tính ổn định và chính xác lên đến 202k token, yếu tố sống còn cho các tác vụ kỹ thuật agentic dài hạn.
API không ổn định: Người dùng báo cáo thường xuyên gặp lỗi 500 và bị giới hạn tốc độ (rate-limiting) trong giờ cao điểm Bắc Kinh trên endpoint chính thức của Z.ai.

Bat dau nhanh API

zhipu/glm-5.1

Xem tai lieu
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: 'https://api.z.ai/api/paas/v4'
});

const chat = await client.chat.completions.create({
  model: 'glm-5.1',
  messages: [{ role: 'user', content: 'Tối ưu hóa schema cơ sở dữ liệu này.' }],
  stream: true
});

for await (const chunk of chat) {
  process.stdout.write(chunk.choices[0]?.delta?.content || '');
}

Cai dat SDK va bat dau thuc hien cac cuoc goi API trong vai phut.

Moi nguoi dang noi gi ve GLM-5.1

Xem cong dong nghi gi ve GLM-5.1

GLM-5.1 chạy lặp trên một prompt suốt 8 giờ liền. Nó không bỏ cuộc như hầu hết các model khác; nó liên tục thêm tính năng và tự kiểm tra.
ziwenxu_
twitter
Tôi đã test thực tế ở 140k context không dưới 5 lần và nó vẫn rất mạch lạc. Các model state-of-the-art khác sắp có đối thủ rồi.
Sensitive_Song4219
reddit
GLM-5.1 gần như ngang ngửa với Opus trên benchmark này. Hiện nó là model mở số 1 trong Arena.
tmuxvim
hackernews
Mỗi khi thấy một NPC thực sự bị thuyết phục thông qua đối thoại không kịch bản với GLM-5.1, đó thực sự là ma thuật.
orblabs
reddit
Hiệu suất lập trình rất thực tế. Nó đã sửa được lỗi race condition trong backend Go mà GPT-4o cứ liên tục hallucinate.
DevScale_AI
twitter
Chạy model này cục bộ với Unsloth là một thay đổi cuộc chơi cho tính bảo mật dữ liệu trong tech stack pháp lý của chúng tôi.
LawyerWhoCodes
reddit

Video ve GLM-5.1

Xem huong dan, danh gia va thao luan ve GLM-5.1

GLM-5.1 đạt 45.3% trên benchmark này, một bước nhảy vọt cho dòng model này.

Đây là một model cực kỳ chậm... có lẽ họ dành phần lớn GPU để phục vụ GLM-5.

Cách nó xử lý tool calls mạnh mẽ hơn nhiều so với GLM 5 tiêu chuẩn.

Hiện tại đây là model reasoning mạnh nhất bạn có thể tải về và chạy trên phần cứng của riêng mình.

Bạn có thể thấy nó thực sự tự nhận diện lỗi sai trong log tư duy.

Nó có thể chạy tự chủ trong 8 giờ, tinh chỉnh chiến lược qua hàng nghìn lần lặp.

Nó vượt qua Gemini 3.1 Pro và Qwen 3.6 Plus trên các benchmark phổ biến về tạo code repo.

Chế độ agentic là điểm sáng của model này, nó không bao giờ bỏ cuộc với các lỗi khó.

Z.ai đã xóa bỏ rào cản cho một model frontier với 744 tỷ parameters.

Nó giải quyết hiệu quả vấn đề 'bão hòa' nơi các LLM khác mất tập trung theo thời gian.

Giảm kích thước 80% từ bản gốc 1.65 TB xuống còn 236GB trong khi vẫn duy trì chất lượng.

Sức mạnh của open-source: ngay cả trong phiên bản lượng tử hóa, nó vẫn viết code chạy tốt.

Bạn cần ít nhất 256GB RAM hệ thống để nghĩ đến việc nạp con quái vật MoE này.

Nó sử dụng cơ chế sparse attention linh hoạt để giữ cho 202k context luôn mạch lạc.

Sử dụng Unsloth giúp quy trình training và inference hiệu quả hơn đáng kể.

Hon ca prompt

Tang cuong quy trinh lam viec cua ban voi Tu dong hoa AI

Automatio ket hop suc manh cua cac AI agent, tu dong hoa web va tich hop thong minh de giup ban lam duoc nhieu hon trong thoi gian ngan hon.

AI Agent
Tu dong hoa web
Quy trinh thong minh

Meo chuyen nghiep cho GLM-5.1

Meo chuyen gia giup ban tan dung toi da GLM-5.1 va dat ket qua tot hon.

Bật chế độ Thinking

Hãy đảm bảo rằng tùy chọn 'Thinking' đã được bật trong cấu hình để mở khóa khả năng lặp lại tự chủ trong 8 giờ.

Sử dụng hạn mức giờ thấp điểm

Chạy các tác vụ kỹ thuật lớn vào giờ thấp điểm ngoài khung giờ 14:00-18:00 (giờ Bắc Kinh) để có mức giá tốt hơn.

Yêu cầu bộ nhớ cục bộ

Sử dụng lượng tử hóa Unsloth Dynamic GGUF để đưa model 1.6TB vào hệ thống có 256GB RAM phục vụ chạy cục bộ.

Lựa chọn tác vụ chiến lược

Dành GLM-5.1 cho các tác vụ reasoning kiến trúc và sử dụng GLM-4.7 cho các triển khai thông thường để tối ưu hóa chi phí.

Danh gia

Nguoi dung cua chung toi noi gi

Tham gia cung hang nghin nguoi dung hai long da thay doi quy trinh lam viec cua ho

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Lien quan AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M

Cau hoi thuong gap ve GLM-5.1

Tim cau tra loi cho cac cau hoi thuong gap ve GLM-5.1