zhipu

GLM-5

GLM-5 là siêu phẩm open-weight 744B parameters của Zhipu AI, xuất sắc trong các tác vụ agentic dài hạn, lập trình và độ chính xác dữ kiện với context window...

Open WeightsAgentic EngineeringMoEZhipu AIAI lập trình
zhipu logozhipuGLM11 tháng 2, 2026
Ngu canh
200Ktoken
Dau ra toi da
128Ktoken
Gia dau vao
$1.00/ 1M
Gia dau ra
$3.20/ 1M
Phuong thuc:Text
Kha nang:Cong cuTruyen truc tiepSuy luan
Diem chuan
GPQA
68.2%
GPQA: Cau hoi khoa hoc cap sau dai hoc. Benchmark nghiem ngat voi 448 cau hoi ve sinh hoc, vat ly va hoa hoc. Chuyen gia PhD chi dat 65-74% do chinh xac. GLM-5 dat 68.2% trong benchmark nay.
HLE
32%
HLE: Suy luan cap chuyen gia. Kiem tra kha nang mo hinh the hien suy luan cap chuyen gia trong cac linh vuc chuyen mon. GLM-5 dat 32% trong benchmark nay.
MMLU
85%
MMLU: Hieu ngon ngu da nhiem voc lon. Benchmark toan dien voi 16.000 cau hoi tren 57 mon hoc. GLM-5 dat 85% trong benchmark nay.
MMLU Pro
70.4%
MMLU Pro: MMLU Phien ban chuyen nghiep. Phien ban nang cap cua MMLU voi 12.032 cau hoi va dinh dang 10 lua chon kho hon. GLM-5 dat 70.4% trong benchmark nay.
SimpleQA
48%
SimpleQA: Benchmark do chinh xac thuc te. Kiem tra kha nang mo hinh cung cap cau tra loi chinh xac, thuc te. GLM-5 dat 48% trong benchmark nay.
IFEval
88%
IFEval: Danh gia tuan theo huong dan. Do luong mo hinh tuan theo huong dan va rang buoc cu the tot nhu the nao. GLM-5 dat 88% trong benchmark nay.
AIME 2025
84%
AIME 2025: Ky thi toan hoc moi My. Bai toan toan hoc cap do thi dau tu ky thi AIME uy tin. GLM-5 dat 84% trong benchmark nay.
MATH
88%
MATH: Giai quyet van de toan hoc. Benchmark toan hoc toan dien kiem tra giai quyet van de trong dai so, hinh hoc, giai tich. GLM-5 dat 88% trong benchmark nay.
GSM8k
97%
GSM8k: Toan tieu hoc 8K. 8.500 bai toan dang van ban cap tieu hoc. GLM-5 dat 97% trong benchmark nay.
MGSM
90%
MGSM: Toan tieu hoc da ngon ngu. Benchmark GSM8k duoc dich sang 10 ngon ngu. GLM-5 dat 90% trong benchmark nay.
MathVista
0%
MathVista: Suy luan thi giac toan hoc. Kiem tra kha nang giai quyet bai toan toan hoc voi cac yeu to thi giac. GLM-5 dat 0% trong benchmark nay.
SWE-Bench
77.8%
SWE-Bench: Benchmark ky thuat phan mem. Cac mo hinh AI co gang giai quyet van de GitHub thuc trong cac du an Python. GLM-5 dat 77.8% trong benchmark nay.
HumanEval
90%
HumanEval: Bai tap lap trinh Python. 164 bai tap lap trinh yeu cau mo hinh tao ra cac trien khai ham Python dung. GLM-5 dat 90% trong benchmark nay.
LiveCodeBench
52%
LiveCodeBench: Benchmark lap trinh truc tiep. Kiem tra kha nang lap trinh tren cac thach thuc lap trinh thuc te cap nhat lien tuc. GLM-5 dat 52% trong benchmark nay.
MMMU
0%
MMMU: Hieu da phuong thuc. Benchmark hieu da phuong thuc tren 30 mon hoc dai hoc. GLM-5 dat 0% trong benchmark nay.
MMMU Pro
0%
MMMU Pro: MMMU Phien ban chuyen nghiep. Phien ban nang cap cua MMMU voi cac cau hoi kho hon. GLM-5 dat 0% trong benchmark nay.
ChartQA
0%
ChartQA: Hoi dap bieu do. Kiem tra kha nang hieu va phan tich thong tin tu bieu do va do thi. GLM-5 dat 0% trong benchmark nay.
DocVQA
0%
DocVQA: Hoi dap thi giac tai lieu. Kiem tra kha nang trich xuat thong tin tu hinh anh tai lieu. GLM-5 dat 0% trong benchmark nay.
Terminal-Bench
56.2%
Terminal-Bench: Tac vu terminal/CLI. Kiem tra kha nang thuc hien cac thao tac dong lenh. GLM-5 dat 56.2% trong benchmark nay.
ARC-AGI
12%
ARC-AGI: Truu tuong va suy luan. Kiem tra tri thong minh linh hoat thong qua cac cau do nhan dang mau moi. GLM-5 dat 12% trong benchmark nay.

Ve GLM-5

Tim hieu ve kha nang cua GLM-5, tinh nang va cach no co the giup ban dat ket qua tot hon.

GLM-5 là flagship foundation model thế hệ tiếp theo của Zhipu AI, được thiết kế đặc biệt để định nghĩa lại tiêu chuẩn Agentic Engineering cho các hệ thống open-weight. Được xây dựng trên kiến trúc Mixture of Experts (MoE) khổng lồ 744 tỷ parameters với 40 tỷ active parameters, đây là open-weights model đầu tiên thu hẹp khoảng cách hiệu suất với các gã khổng lồ độc quyền như Claude 4.5. Model này vượt trội về mật độ logic và kỹ thuật phần mềm, đạt được bước đột phá 77,8% trên SWE-Bench Verified.

Về mặt kỹ thuật, GLM-5 tích hợp các cơ chế Multi-head Latent Attention (MLA) và Sparse Attention tiên tiến để tối ưu hóa hiệu quả token và giảm 33% chi phí bộ nhớ RAM. Được huấn luyện trên quy mô 28,5 nghìn tỷ tokens bằng cách sử dụng cụm 100.000 chip Huawei Ascend nội địa, GLM-5 chứng minh rằng khả năng reasoning cấp độ frontier hoàn toàn có thể đạt được mà không phụ thuộc vào phần cứng NVIDIA cao cấp. Với context window 200.000 tokens và 'Chế độ Thinking' chuyên dụng, nó cung cấp đầu ra mạnh mẽ, ít ảo giác cho các luồng công việc kỹ thuật yêu cầu độ chính xác cao.

Được tối ưu hóa cho độ tin cậy, GLM-5 đóng vai trò là nền tảng cho các agent kỹ thuật tự vận hành có khả năng duy trì trạng thái liên tục qua các phiên thực thi dài hạn. Giấy phép MIT thông thoáng và mức giá cạnh tranh 1,00 $ trên mỗi triệu input tokens khiến nó trở thành lựa chọn lý tưởng cho các doanh nghiệp đang tìm kiếm giải pháp triển khai cục bộ hoặc tích hợp API quy mô lớn mà không gặp phải các điều khoản hạn chế của các lựa chọn độc quyền.

GLM-5

Truong hop su dung cho GLM-5

Kham pha cac cach khac nhau ban co the su dung GLM-5 de dat ket qua tuyet voi.

Kỹ thuật hệ thống phức tạp

Thiết kế và bảo trì các kiến trúc microservice với khả năng quản lý phụ thuộc tự động.

Tác vụ Agentic dài hạn

Thực hiện các luồng công việc kỹ thuật đa bước đòi hỏi bộ nhớ duy trì trong hơn một giờ thực thi.

Di chuyển mã nguồn cũ

Refactoring toàn bộ kho lưu trữ và cập nhật các thư viện lỗi thời thông qua context window 200k tokens.

Nghiên cứu kỹ thuật ít ảo giác

Thực hiện nghiên cứu kỹ thuật với độ chính xác cao, nơi tính xác thực của thông tin và khả năng từ chối trả lời khi không chắc chắn là tối quan trọng.

Vận hành terminal tự động

Cung cấp sức mạnh cho các dev-agents có thể tự động chạy kiểm tra bảo mật và các lệnh quản trị hệ thống.

Triển khai toàn cầu song ngữ

Cung cấp khả năng reasoning hàng đầu bằng tiếng Anh và tiếng Trung cho các ứng dụng doanh nghiệp địa phương hóa ở quy mô lớn.

Diem manh

Han che

Trí tuệ Agentic ưu việt: Đạt điểm số Agentic Index cao nhất (63) trong số các open-weight models về khả năng thực thi tác vụ đa bước.
Không có Multimodality gốc: Thiếu khả năng xử lý hình ảnh, âm thanh và video như các đối thủ multimodal như GPT-4o.
Tỷ lệ ảo giác thấp: Giảm 56% hiện tượng ảo giác so với các thế hệ trước, ưu tiên tính chính xác của dữ kiện.
Yêu cầu host cực cao: Trọng lượng model 1.5TB ở định dạng BF16 khiến việc triển khai cục bộ là bất khả thi đối với hầu hết người dùng nếu không có hạ tầng cloud.
Hiệu quả MoE khổng lồ: Kiến trúc 744B parameters cung cấp mật độ logic của một flagship trong khi MLA giúp giảm 33% chi phí bộ nhớ RAM.
Latency inference cao: Thời gian phản hồi token đầu tiên (time-to-first-token) có thể cao (trên 7 giây) trên các API công cộng so với các model 'flash' nhỏ hơn.
Giấy phép MIT thông thoáng: Được phát hành dưới giấy phép mã nguồn mở thực thụ, cho phép sử dụng thương mại không giới hạn mà không có các điều khoản ràng buộc người dùng.
Sắc thái thiết kế Frontend: Mặc dù xuất sắc về logic, đôi khi nó có thể gặp khó khăn với việc tinh chỉnh thẩm mỹ CSS chi tiết so với Claude.

Bat dau nhanh API

zai/glm-5

Xem tai lieu
zhipu SDK
import { ZhipuAI } from "zhipuai-sdk";

const client = new ZhipuAI({ apiKey: "YOUR_API_KEY" });

async function main() {
  const response = await client.chat.completions.create({
    model: "glm-5",
    messages: [{ role: "user", content: "Analyze this repo for security vulnerabilities." }],
    stream: true,
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0].delta.content || "");
  }
}

main();

Cai dat SDK va bat dau thuc hien cac cuoc goi API trong vai phut.

Moi nguoi dang noi gi ve GLM-5

Xem cong dong nghi gi ve GLM-5

"GLM-5 là người dẫn đầu mới của open weights! Nó đạt 50 điểm trên Intelligence Index, một bước thu hẹp khoảng cách đáng kể."
Artificial Analysis
x
"Model này thật không thể tin được. Tôi đã chạy thành công một tác vụ kéo dài hơn một giờ... thật kinh ngạc."
Theo - t3.gg
youtube
"GLM-5 không sử dụng chip NVIDIA nào, 745B params, và chi phí 1 $ cho mỗi triệu input tokens. Đây chính là tương lai."
Legendary
x
"Tỷ lệ ảo giác thật điên rồ; nó sẵn sàng nói 'Tôi không biết' hơn là nói dối bạn."
DevUser456
reddit
"Zhipu AI vừa đưa ra lời thách thức cho các model lập trình mã nguồn mở."
AIExplorer
hackernews
"Cuối cùng, một open weight model không bị 'mất trí' giữa chừng khi thực hiện một tác vụ phức tạp."
CodeMaster
reddit

Video ve GLM-5

Xem huong dan, danh gia va thao luan ve GLM-5

Đây là open-weight model tốt nhất mà tôi từng thấy, đặc biệt là cho lập trình.

Thực tế đây là open-weight model đầu tiên mà tôi đã chạy thành công một tác vụ kéo dài hơn một giờ... nó làm tôi kinh ngạc.

Có vẻ như đây là model ít ảo giác nhất trong số các model hiện nay.

Chúng ta đang thấy một sự thay đổi lớn về những gì open-weight models thực sự có thể làm trong môi trường production.

Độ ổn định của model này trong các phiên sử dụng công cụ dài thực sự là chưa từng có.

Cảm giác lập trình ở đây rất, rất mạnh mẽ... có thể so sánh với GLM 4.7, vốn đã là một siêu phẩm.

Việc giới thiệu dynamic island trong bản mẫu UI của nó là một tính năng đặc biệt thú vị và bất ngờ.

Nó đang vượt qua hầu hết các model khác trong cùng phân khúc về logic phức tạp.

Độ sâu reasoning ở đây làm tôi nhớ đến lần đầu tiên sử dụng o1, nhưng đây là open weight.

Đối với một model chỉ có văn bản, nó xử lý logic hình ảnh trong mã nguồn tốt hơn nhiều model vision khác.

Mức sử dụng RAM đã giảm mạnh... chúng ta đạt được cải thiện bộ nhớ gấp 33 lần so với những gì chúng ta đã làm trước đây.

Nó đã vượt qua bài kiểm tra logic 'rửa xe' khi bật chế độ thinking, đánh bại cả Claude và GPT-4o.

Triển khai cái này đòi hỏi một hệ thống server rack nghiêm túc, nhưng hiệu suất trên mỗi watt là cực kỳ ấn tượng.

Nó đã xử lý việc di chuyển kho lưu trữ cũ của tôi mà không bị ảo giác bất kỳ tên thư viện nào.

Chế độ thinking không chỉ là một chiêu trò; nó thay đổi căn bản chất lượng đầu ra.

Hon ca prompt

Tang cuong quy trinh lam viec cua ban voi Tu dong hoa AI

Automatio ket hop suc manh cua cac AI agent, tu dong hoa web va tich hop thong minh de giup ban lam duoc nhieu hon trong thoi gian ngan hon.

AI Agent
Tu dong hoa web
Quy trinh thong minh

Meo chuyen nghiep cho GLM-5

Meo chuyen gia giup ban tan dung toi da GLM-5 va dat ket qua tot hon.

Kích hoạt Chế độ Thinking

GLM-5 hoạt động tốt hơn đáng kể trong các câu đố logic phức tạp như bài kiểm tra 'rửa xe' khi tính năng reasoning được bật.

Tận dụng Giấy phép MIT

Khai thác lợi thế của giấy phép thông thoáng để phát triển thương mại không giới hạn và tự host nội bộ.

Tối ưu hóa sử dụng Công cụ

Sử dụng GLM-5 cho các tác vụ đa bước vì nó được xây dựng chuyên biệt để đạt độ ổn định cao trong việc thực thi công cụ agentic.

Tận dụng Context Window

Đưa toàn bộ mã nguồn vào context window 200k để thực hiện kiểm tra bảo mật hoặc refactoring trên toàn bộ kho lưu trữ.

Danh gia

Nguoi dung cua chung toi noi gi

Tham gia cung hang nghin nguoi dung hai long da thay doi quy trinh lam viec cua ho

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Lien quan AI Models

minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.30/$1.20/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
alibaba

Qwen3-Coder-Next

alibaba

Qwen3-Coder-Next is Alibaba Cloud's elite Apache 2.0 coding model, featuring an 80B MoE architecture and 256k context window for advanced local development.

256K context
$0.14/$0.42/1M
anthropic

Claude Sonnet 4.5

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
alibaba

Qwen-Image-2.0

alibaba

Qwen-Image-2.0 is Alibaba's unified 7B model for professional infographics, photorealism, and precise image editing with native 2K resolution and 1k-token...

1K context
$0.07/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M

Cau hoi thuong gap ve GLM-5

Tim cau tra loi cho cac cau hoi thuong gap ve GLM-5