zhipu

GLM-5

GLM-5 adalah model open-weight bertenaga 744B dari Zhipu AI, yang unggul dalam tugas agentic jangka panjang, coding, dan akurasi faktual dengan context window...

Open WeightsAgentic EngineeringMoEZhipu AICoding AI
zhipu logozhipuGLM11 Februari 2026
Konteks
200Ktoken
Output maks.
128Ktoken
Harga input
$1.00/ 1M
Harga output
$3.20/ 1M
Modalitas:Text
Kemampuan:AlatStreamingPenalaran
Benchmarks
GPQA
68.2%
GPQA: Tanya Jawab Sains Tingkat Doktoral. Benchmark ketat dengan 448 pertanyaan pilihan ganda dalam biologi, fisika, dan kimia yang dibuat oleh pakar domain. Para ahli PhD hanya mencapai akurasi 65-74%, sementara non-ahli hanya mendapat 34% bahkan dengan akses web tak terbatas (sehingga disebut 'tahan Google'). GLM-5 meraih skor 68.2% pada benchmark ini.
HLE
32%
HLE: Penalaran Keahlian Tingkat Tinggi. Menguji kemampuan model untuk mendemonstrasikan penalaran tingkat ahli di domain khusus. Mengevaluasi pemahaman mendalam tentang topik kompleks yang membutuhkan pengetahuan tingkat profesional. GLM-5 meraih skor 32% pada benchmark ini.
MMLU
85%
MMLU: Pemahaman Bahasa Multitugas Masif. Benchmark komprehensif dengan 16.000 pertanyaan pilihan ganda meliputi 57 mata pelajaran akademik termasuk matematika, filsafat, hukum, dan kedokteran. Menguji pengetahuan luas dan kemampuan penalaran. GLM-5 meraih skor 85% pada benchmark ini.
MMLU Pro
70.4%
MMLU Pro: MMLU Edisi Profesional. Versi MMLU yang ditingkatkan dengan 12.032 pertanyaan menggunakan format 10 pilihan yang lebih sulit. Mencakup Matematika, Fisika, Kimia, Hukum, Teknik, Ekonomi, Kesehatan, Psikologi, Bisnis, Biologi, Filsafat, dan Ilmu Komputer. GLM-5 meraih skor 70.4% pada benchmark ini.
SimpleQA
48%
SimpleQA: Benchmark Akurasi Faktual. Menguji kemampuan model untuk memberikan respons yang akurat dan faktual terhadap pertanyaan langsung. Mengukur keandalan dan mengurangi halusinasi dalam tugas pengambilan pengetahuan. GLM-5 meraih skor 48% pada benchmark ini.
IFEval
88%
IFEval: Evaluasi Kepatuhan Instruksi. Mengukur seberapa baik model mengikuti instruksi dan batasan tertentu. Menguji kemampuan untuk mematuhi aturan format, batas panjang, dan persyaratan eksplisit lainnya. GLM-5 meraih skor 88% pada benchmark ini.
AIME 2025
84%
AIME 2025: Ujian Matematika Undangan Amerika. Soal matematika tingkat kompetisi dari ujian AIME bergengsi yang dirancang untuk siswa SMA berbakat. Menguji pemecahan masalah matematika tingkat lanjut yang membutuhkan penalaran abstrak, bukan sekadar pencocokan pola. GLM-5 meraih skor 84% pada benchmark ini.
MATH
88%
MATH: Pemecahan Masalah Matematika. Benchmark matematika komprehensif yang menguji pemecahan masalah dalam aljabar, geometri, kalkulus, dan domain matematika lainnya. Membutuhkan penalaran multi-langkah dan pengetahuan matematika formal. GLM-5 meraih skor 88% pada benchmark ini.
GSM8k
97%
GSM8k: Matematika SD 8K. 8.500 soal cerita matematika tingkat SD yang membutuhkan penalaran multi-langkah. Menguji aritmatika dasar dan pemikiran logis melalui skenario dunia nyata seperti belanja atau perhitungan waktu. GLM-5 meraih skor 97% pada benchmark ini.
MGSM
90%
MGSM: Matematika SD Multibahasa. Benchmark GSM8k yang diterjemahkan ke 10 bahasa termasuk Spanyol, Prancis, Jerman, Rusia, Cina, dan Jepang. Menguji penalaran matematika dalam berbagai bahasa. GLM-5 meraih skor 90% pada benchmark ini.
MathVista
0%
MathVista: Penalaran Matematika Visual. Menguji kemampuan untuk menyelesaikan masalah matematika yang melibatkan elemen visual seperti grafik, diagram geometri, dan figur ilmiah. Menggabungkan pemahaman visual dengan penalaran matematika. GLM-5 meraih skor 0% pada benchmark ini.
SWE-Bench
77.8%
SWE-Bench: Benchmark Rekayasa Perangkat Lunak. Model AI mencoba menyelesaikan masalah GitHub nyata dalam proyek Python open-source dengan verifikasi manusia. Menguji keterampilan rekayasa perangkat lunak praktis pada codebase produksi. Model terbaik meningkat dari 4,4% di 2023 menjadi lebih dari 70% di 2024. GLM-5 meraih skor 77.8% pada benchmark ini.
HumanEval
90%
HumanEval: Masalah Pemrograman Python. 164 masalah pemrograman yang ditulis tangan di mana model harus menghasilkan implementasi fungsi Python yang benar. Setiap solusi diverifikasi dengan unit test. Model terbaik sekarang mencapai akurasi lebih dari 90%. GLM-5 meraih skor 90% pada benchmark ini.
LiveCodeBench
52%
LiveCodeBench: Benchmark Koding Langsung. Menguji kemampuan koding pada tantangan pemrograman dunia nyata yang terus diperbarui. Berbeda dengan benchmark statis, menggunakan masalah baru untuk mencegah kontaminasi data dan mengukur keterampilan koding yang sebenarnya. GLM-5 meraih skor 52% pada benchmark ini.
MMMU
0%
MMMU: Pemahaman Multimodal. Benchmark Pemahaman Multimodal Multi-disiplin Masif yang menguji model penglihatan-bahasa pada masalah tingkat universitas di 30 mata pelajaran yang membutuhkan pemahaman gambar dan pengetahuan ahli. GLM-5 meraih skor 0% pada benchmark ini.
MMMU Pro
0%
MMMU Pro: MMMU Edisi Profesional. Versi MMMU yang ditingkatkan dengan pertanyaan lebih sulit dan evaluasi lebih ketat. Menguji penalaran multimodal tingkat lanjut di tingkat profesional dan ahli. GLM-5 meraih skor 0% pada benchmark ini.
ChartQA
0%
ChartQA: Tanya Jawab Grafik. Menguji kemampuan untuk memahami dan bernalar tentang informasi yang disajikan dalam grafik dan diagram. Membutuhkan ekstraksi data, perbandingan nilai, dan melakukan perhitungan dari representasi visual data. GLM-5 meraih skor 0% pada benchmark ini.
DocVQA
0%
DocVQA: Tanya Jawab Visual Dokumen. Benchmark Tanya Jawab Visual Dokumen yang menguji kemampuan untuk mengekstrak dan bernalar tentang informasi dari gambar dokumen termasuk formulir, laporan, dan teks yang dipindai. GLM-5 meraih skor 0% pada benchmark ini.
Terminal-Bench
56.2%
Terminal-Bench: Tugas Terminal/CLI. Menguji kemampuan untuk melakukan operasi baris perintah, menulis skrip shell, dan menavigasi lingkungan terminal. Mengukur keterampilan administrasi sistem praktis dan alur kerja pengembangan. GLM-5 meraih skor 56.2% pada benchmark ini.
ARC-AGI
12%
ARC-AGI: Abstraksi dan Penalaran. Abstraction and Reasoning Corpus untuk AGI - menguji kecerdasan fluida melalui teka-teki pengenalan pola baru. Setiap tugas membutuhkan penemuan aturan yang mendasari dari contoh, mengukur kemampuan penalaran umum daripada menghafal. GLM-5 meraih skor 12% pada benchmark ini.

Tentang GLM-5

Pelajari tentang kemampuan, fitur, dan cara menggunakan GLM-5.

GLM-5 adalah model flagship dari Zhipu AI yang dirancang untuk alur kerja agentic otonom dan rekayasa sistem yang kompleks. Model ini menggunakan arsitektur Mixture-of-Experts (MoE) 744 miliar parameter yang masif, dengan 40 miliar parameter aktif selama inference untuk menyeimbangkan performa dan kecepatan. Ini adalah sistem open-weight pertama yang menunjukkan paritas dengan model frontier proprietary dalam tugas rekayasa perangkat lunak, dengan skor 77,8% pada SWE-bench Verified.

Model ini dilatih dengan 28,5 triliun tokens menggunakan klaster domestik yang terdiri dari 100.000 chip Huawei Ascend. GLM-5 mengintegrasikan mekanisme khusus seperti Multi-head Latent Attention (MLA) dan DeepSeek Sparse Attention (DSA) untuk menjaga konsistensi logis di seluruh context window 200.000 tokens. Stack teknis ini memungkinkan GLM-5 menangani perencanaan jangka panjang dan manajemen sumber daya tanpa latency tinggi yang lazim pada model padat (dense) seukuran ini.

Zhipu AI merilis GLM-5 di bawah lisensi MIT, memungkinkan pengguna enterprise untuk men-deploy weights tersebut secara lokal guna pemrosesan data sensitif. Dengan biaya input hanya $1,00 per juta tokens, model ini menawarkan keunggulan harga 6x lipat dibanding model pesaing seperti Claude 4.5. Model ini menyertakan Thinking Mode khusus yang secara signifikan mengurangi tingkat halusinasi dibandingkan pendahulunya.

GLM-5

Kasus Penggunaan untuk GLM-5

Temukan berbagai cara menggunakan GLM-5 untuk hasil yang luar biasa.

Rekayasa Perangkat Lunak Otonom

Menyelesaikan issue GitHub yang kompleks dan melakukan refactor di seluruh repositori dengan memanfaatkan skor 77,8% pada SWE-bench Verified.

Orkestrasi Alat Perusahaan

Menjalankan alur kerja agentic multi-langkah di seluruh API internal untuk menangani otomatisasi back-office di sektor keuangan dan hukum.

Analisis Repositori Long-Context

Menggunakan context window 200.000 tokens untuk memasukkan dan menganalisis seluruh set dokumentasi atau codebase multi-file dalam satu proses.

Rekan Kerja AI Personal

Menggerakkan agen open-source seperti OpenClaw untuk mengelola email, kalender, dan tugas latar belakang 24/7 dengan reliabilitas tinggi.

Intelijen Privat On-Premise

Menjalankan model open-weight secara lokal di bawah lisensi MIT untuk memastikan privasi data penuh bagi operasi perusahaan yang sensitif.

Penskalaan Agen yang Hemat Biaya

Menjalankan sesi agentic bervolume tinggi dengan biaya 6-8x lebih rendah dibandingkan model frontier proprietary tanpa mengurangi kedalaman reasoning.

Kelebihan

Keterbatasan

Performa Coding Elite: Mencapai skor 77,8% pada SWE-bench Verified, menyaingi raksasa proprietary seperti Claude Opus untuk rekayasa perangkat lunak otonom.
Tanpa Vision Native: Model ini tidak memiliki kemampuan untuk memproses gambar atau visi secara langsung, yang membatasi penggunaannya dalam alur kerja UI/UX multimodal modern.
Keunggulan Harga 6x Lipat: Menawarkan reasoning tingkat frontier hanya dengan $1,00 per 1 juta input tokens, membuat deployment agentic skala besar menjadi layak secara ekonomi.
Lag pada Tugas Terminal: Performa pada Terminal-Bench 2.0 berada di angka 56,2%, sedikit tertinggal di belakang kompetitor proprietary papan atas.
Weights Berlisensi MIT: Ketersediaan open-weight penuh di Hugging Face memungkinkan deployment lokal privat pada perangkat keras Huawei Ascend atau NVIDIA.
Frekuensi Halusinasi: Benchmark awal menunjukkan tingkat halusinasi mendekati 30% untuk tugas reasoning kompleks tertentu dibandingkan tingkat yang lebih rendah pada kompetitor teratas.
Kapasitas Konteks Masif: Context window 200K tokens yang dipadukan dengan 128K output tokens sangat ideal untuk analisis seluruh repositori dan pembuatan konten panjang.
Variasi Perangkat Keras: Pelatihan pada perangkat keras Huawei Ascend mungkin menyebabkan sedikit variasi performa saat di-deploy pada stack perangkat lunak standar berbasis NVIDIA.

Mulai Cepat API

zai/glm-5

Lihat Dokumentasi
zhipu SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: "https://open.bigmodel.cn/api/paas/v4/",
});

const response = await client.chat.completions.create({
  model: "glm-5",
  messages: [{ role: "user", content: "Analisis struktur repo ini dan refactor ke GraphQL." }],
  stream: true,
});

for await (const chunk of response) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

Instal SDK dan mulai melakukan panggilan API dalam hitungan menit.

Apa Kata Orang Tentang GLM-5

Lihat apa yang dipikirkan komunitas tentang GLM-5

GLM-5 adalah model 744B parameters open-source yang kinerjanya mendekati level Claude Opus dalam coding... tapi perbedaan harganya sangat berarti.
Odd-Coconut-2067
reddit
Context window 200.000 tokens mengubah alur kerja Anda: Analisis 20+ file untuk satu refactor atau tinjau diff PR yang kompleks dalam sekali proses.
AskCodi
reddit
Saya beralih dari menghabiskan ~$90/bulan untuk panggilan API Claude menjadi di bawah $15 dengan GLM-5 dan tidak merasakan penurunan kualitas yang berarti.
IulianHI
reddit
Tingkat halusinasinya berada di kisaran 30% berbanding, saya tidak tahu, Gemini 3 Pro di 88%.
Sid
youtube
GLM-5 dirilis sebelum saya selesai menguji 4.7, dan peningkatan reasoning-nya benar-benar terasa dalam coding sehari-hari.
able_wong
twitter
Langkah Zhipu merilis model ini di bawah lisensi MIT adalah langkah besar bagi komunitas LLM lokal.
dev_tester
twitter

Video Tentang GLM-5

Tonton tutorial, ulasan, dan diskusi tentang GLM-5

Performanya bersaing ketat dengan model seperti codec 5.2 dan Opus 4.5.

Ini adalah model open-weight pertama di mana saya berhasil menjalankan pekerjaan yang memakan waktu lebih dari satu jam tanpa masalah.

Tingkat halusinasinya berada di kisaran 30% berbanding, saya tidak tahu, Gemini 3 Pro di 88%.

Kepadatan reasoning-nya jauh lebih tinggi daripada GLM-4.

Model ini pada dasarnya menggantikan Claude 3.5 Sonnet untuk tugas-tugas coding internal saya.

Mereka benar-benar melipatgandakan jumlah parameters... hingga mencapai 744.

Meskipun jauh lebih besar, model ini berjalan sama cepat, jika tidak lebih cepat, daripada model sebelumnya.

Koreksi diri. Jangan merendahkan. Anggap itu sebagai pertanyaan yang valid.

Mekanisme sparse attention menjaga penggunaan memori tetap rendah untuk model sebesar ini.

Ketersediaan open-weight menjadikan ini juara baru untuk hosting lokal.

Mereka menciptakan engine RL mereka sendiri yang disebut Slime.

Context window 200.000 mengubah arti dari AI perusahaan.

Model ini mencapai 77,8 pada SWE-bench verified, mengalahkan Gemini 3 Pro di 76,2.

Zhipu AI membuktikan bahwa perangkat keras domestik mampu melatih model kelas dunia.

Rekayasa agentic adalah fokus utama di sini, bukan sekadar chat sederhana.

Lebih dari sekadar prompt

Tingkatkan alur kerja Anda dengan Otomatisasi AI

Automatio menggabungkan kekuatan agen AI, otomatisasi web, dan integrasi cerdas untuk membantu Anda mencapai lebih banyak dalam waktu lebih singkat.

Agen AI
Otomasi Web
Alur Kerja Cerdas

Tips Pro untuk GLM-5

Tips ahli untuk memaksimalkan GLM-5.

Aktifkan Agentic Mode

Tentukan rencana multi-langkah dalam prompt Anda karena GLM-5 dioptimalkan untuk rekayasa otonom daripada sekadar respons chat biasa.

Alokasi Perangkat Keras Lokal

Pastikan tersedia VRAM yang memadai atau perangkat keras native Huawei Ascend dengan framework MindSpore untuk throughput yang optimal.

Implementasikan Fallback Chains

Konfigurasikan GLM-5 sebagai model reasoning utama Anda dengan GLM-4.7-Flash sebagai fallback yang hemat biaya untuk instruksi yang lebih sederhana.

Gunakan Structured Output

GLM-5 unggul dalam menghasilkan format .docx dan .xlsx yang presisi ketika diberikan persyaratan skema yang jelas untuk hasil kerja.

Testimoni

Apa Kata Pengguna Kami

Bergabunglah dengan ribuan pengguna puas yang telah mengubah alur kerja mereka

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Terkait AI Models

anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 4.5 Sonnet

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M

Pertanyaan yang Sering Diajukan tentang GLM-5

Temukan jawaban untuk pertanyaan umum tentang GLM-5