zhipu

GLM-5

GLM-5 คือขุมพลัง open-weight ขนาด 744B ของ Zhipu AI ที่โดดเด่นในงาน agentic ระยะยาว การเขียนโค้ด และความแม่นยำของข้อมูล พร้อมด้วย context window 200k

Open WeightsAgentic EngineeringMoEZhipu AICoding AI
zhipu logozhipuGLM11 กุมภาพันธ์ 2026
บริบท
200Kโทเคน
เอาต์พุตสูงสุด
128Kโทเคน
ราคาอินพุต
$1.00/ 1M
ราคาเอาต์พุต
$3.20/ 1M
โหมด:Text
ความสามารถ:เครื่องมือสตรีมมิ่งการใช้เหตุผล
เกณฑ์มาตรฐาน
GPQA
68.2%
GPQA: คำถามวิทยาศาสตร์ระดับบัณฑิตศึกษา. เกณฑ์มาตรฐานที่เข้มงวดพร้อม 448 คำถามจากชีววิทยา ฟิสิกส์ และเคมี ผู้เชี่ยวชาญ PhD ทำได้เพียง 65-74% GLM-5 ได้คะแนน 68.2% ในเกณฑ์มาตรฐานนี้
HLE
32%
HLE: การใช้เหตุผลระดับผู้เชี่ยวชาญ. ทดสอบความสามารถของโมเดลในการแสดงการใช้เหตุผลระดับผู้เชี่ยวชาญในสาขาเฉพาะทาง GLM-5 ได้คะแนน 32% ในเกณฑ์มาตรฐานนี้
MMLU
85%
MMLU: ความเข้าใจภาษาแบบมัลติทาสก์ขนาดใหญ่. เกณฑ์มาตรฐานที่ครอบคลุมพร้อม 16,000 คำถามใน 57 วิชา GLM-5 ได้คะแนน 85% ในเกณฑ์มาตรฐานนี้
MMLU Pro
70.4%
MMLU Pro: MMLU รุ่นมืออาชีพ. เวอร์ชันที่ปรับปรุงของ MMLU พร้อม 12,032 คำถามและรูปแบบ 10 ตัวเลือกที่ยากขึ้น GLM-5 ได้คะแนน 70.4% ในเกณฑ์มาตรฐานนี้
SimpleQA
48%
SimpleQA: เกณฑ์มาตรฐานความถูกต้องของข้อเท็จจริง. ทดสอบความสามารถของโมเดลในการให้คำตอบที่ถูกต้องและเป็นข้อเท็จจริง GLM-5 ได้คะแนน 48% ในเกณฑ์มาตรฐานนี้
IFEval
88%
IFEval: การประเมินการปฏิบัติตามคำสั่ง. วัดว่าโมเดลปฏิบัติตามคำสั่งและข้อจำกัดเฉพาะได้ดีเพียงใด GLM-5 ได้คะแนน 88% ในเกณฑ์มาตรฐานนี้
AIME 2025
84%
AIME 2025: การสอบคณิตศาสตร์เชิญชวนอเมริกัน. โจทย์คณิตศาสตร์ระดับการแข่งขันจากการสอบ AIME ที่มีชื่อเสียง GLM-5 ได้คะแนน 84% ในเกณฑ์มาตรฐานนี้
MATH
88%
MATH: การแก้ปัญหาคณิตศาสตร์. เกณฑ์มาตรฐานคณิตศาสตร์ที่ครอบคลุมทดสอบการแก้ปัญหาในพีชคณิต เรขาคณิต แคลคูลัส GLM-5 ได้คะแนน 88% ในเกณฑ์มาตรฐานนี้
GSM8k
97%
GSM8k: คณิตศาสตร์ประถม 8K. 8,500 โจทย์คณิตศาสตร์ระดับประถมศึกษา GLM-5 ได้คะแนน 97% ในเกณฑ์มาตรฐานนี้
MGSM
90%
MGSM: คณิตศาสตร์ประถมหลายภาษา. เกณฑ์มาตรฐาน GSM8k แปลเป็น 10 ภาษา GLM-5 ได้คะแนน 90% ในเกณฑ์มาตรฐานนี้
MathVista
0%
MathVista: การใช้เหตุผลเชิงภาพคณิตศาสตร์. ทดสอบความสามารถในการแก้ปัญหาคณิตศาสตร์ที่มีองค์ประกอบภาพ GLM-5 ได้คะแนน 0% ในเกณฑ์มาตรฐานนี้
SWE-Bench
77.8%
SWE-Bench: เกณฑ์มาตรฐานวิศวกรรมซอฟต์แวร์. โมเดล AI พยายามแก้ปัญหา GitHub จริงในโครงการ Python GLM-5 ได้คะแนน 77.8% ในเกณฑ์มาตรฐานนี้
HumanEval
90%
HumanEval: โจทย์เขียนโปรแกรม Python. 164 โจทย์เขียนโปรแกรมที่โมเดลต้องสร้างการใช้งานฟังก์ชัน Python ที่ถูกต้อง GLM-5 ได้คะแนน 90% ในเกณฑ์มาตรฐานนี้
LiveCodeBench
52%
LiveCodeBench: เกณฑ์มาตรฐานเขียนโค้ดสด. ทดสอบความสามารถในการเขียนโค้ดบนความท้าทายการเขียนโปรแกรมจริงที่อัปเดตอย่างต่อเนื่อง GLM-5 ได้คะแนน 52% ในเกณฑ์มาตรฐานนี้
MMMU
0%
MMMU: ความเข้าใจหลายโหมด. เกณฑ์มาตรฐานความเข้าใจหลายโหมดจาก 30 วิชามหาวิทยาลัย GLM-5 ได้คะแนน 0% ในเกณฑ์มาตรฐานนี้
MMMU Pro
0%
MMMU Pro: MMMU รุ่นมืออาชีพ. เวอร์ชันที่ปรับปรุงของ MMMU พร้อมคำถามที่ท้าทายมากขึ้น GLM-5 ได้คะแนน 0% ในเกณฑ์มาตรฐานนี้
ChartQA
0%
ChartQA: คำถามและคำตอบกราฟ. ทดสอบความสามารถในการเข้าใจและวิเคราะห์ข้อมูลจากกราฟและแผนภูมิ GLM-5 ได้คะแนน 0% ในเกณฑ์มาตรฐานนี้
DocVQA
0%
DocVQA: คำถามเชิงภาพเอกสาร. ทดสอบความสามารถในการสกัดข้อมูลจากภาพเอกสาร GLM-5 ได้คะแนน 0% ในเกณฑ์มาตรฐานนี้
Terminal-Bench
56.2%
Terminal-Bench: งาน Terminal/CLI. ทดสอบความสามารถในการดำเนินการ command-line GLM-5 ได้คะแนน 56.2% ในเกณฑ์มาตรฐานนี้
ARC-AGI
12%
ARC-AGI: การนามธรรมและการใช้เหตุผล. ทดสอบความฉลาดที่ยืดหยุ่นผ่านปริศนาการจดจำรูปแบบใหม่ GLM-5 ได้คะแนน 12% ในเกณฑ์มาตรฐานนี้

เกี่ยวกับ GLM-5

เรียนรู้เกี่ยวกับความสามารถของ GLM-5 คุณสมบัติ และวิธีที่จะช่วยให้คุณได้ผลลัพธ์ที่ดีขึ้น

GLM-5 คือ foundation model ระดับเรือธงของ Zhipu AI ที่ออกแบบมาสำหรับเวิร์กโฟลว์แบบ agentic อัตโนมัติและวิศวกรรมระบบที่ซับซ้อน โดยใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ขนาดใหญ่ถึง 744 พันล้าน parameters และมี parameters ที่ทำงานจริง 40 พันล้านตัวในระหว่าง inference เพื่อรักษาสมดุลระหว่างประสิทธิภาพและความเร็ว นับเป็น open-weight system ตัวแรกที่แสดงให้เห็นถึงความสามารถที่ทัดเทียมกับ frontier models ระดับปิดในงานด้านวิศวกรรมซอฟต์แวร์ ด้วยคะแนน 77.8% บน SWE-bench Verified

ตัว model ได้รับการเทรนบน 28.5 ล้านล้าน tokens โดยใช้กลุ่มประมวลผล (cluster) ของชิป Huawei Ascend จำนวน 100,000 ตัว และรวมกลไกเฉพาะทาง เช่น Multi-head Latent Attention (MLA) และ DeepSeek Sparse Attention (DSA) เพื่อรักษาความสอดคล้องเชิงตรรกะตลอดช่วง 200,000 tokens ของ context window โครงสร้างทางเทคนิคนี้ทำให้ GLM-5 สามารถจัดการการวางแผนระยะยาวและการจัดการทรัพยากรได้โดยไม่มีปัญหาเรื่อง latency สูงซึ่งมักพบใน model ขนาดใหญ่ทั่วไป

Zhipu AI เผยแพร่ GLM-5 ภายใต้ สัญญาอนุญาต MIT ช่วยให้ผู้ใช้ระดับองค์กรสามารถติดตั้ง weights ในระบบปิดเพื่อประมวลผลข้อมูลที่มีความสำคัญได้ ด้วยต้นทุน input เพียง 1.00 ดอลลาร์ต่อ 1 ล้าน tokens ทำให้ได้ข้อได้เปรียบด้านราคาถึง 6 เท่าเมื่อเทียบกับคู่แข่งอย่าง Claude 4.5 นอกจากนี้ model ยังมาพร้อมกับโหมด Thinking Mode ที่ลดอัตราการเกิด hallucination ได้อย่างมีนัยสำคัญเมื่อเทียบกับรุ่นก่อนหน้า

GLM-5

กรณีการใช้งานสำหรับ GLM-5

ค้นพบวิธีต่างๆ ที่คุณสามารถใช้ GLM-5 เพื่อได้ผลลัพธ์ที่ยอดเยี่ยม

วิศวกรรมซอฟต์แวร์อัตโนมัติ

แก้ไขปัญหาที่ซับซ้อนบน GitHub และทำ refactor โค้ดทั้ง repository โดยอาศัยคะแนน 77.8% บน SWE-bench Verified

การสั่งการเครื่องมือในองค์กร

ประมวลผลเวิร์กโฟลว์แบบ agentic หลายขั้นตอนผ่าน API ภายในเพื่อจัดการงานอัตโนมัติในกลุ่มธุรกิจการเงินและกฎหมาย

การวิเคราะห์ Repository ขนาดใหญ่

ใช้ context window ขนาด 200,000 tokens เพื่ออ่านและวิเคราะห์ชุดเอกสารทั้งหมดหรือ codebase ที่มีหลายไฟล์ได้ในการส่งคำสั่งเดียว

เพื่อนร่วมงาน AI ส่วนตัว

ขับเคลื่อน open-source agents เช่น OpenClaw เพื่อจัดการอีเมล ปฏิทิน และงานเบื้องหลังตลอด 24 ชั่วโมงด้วยความน่าเชื่อถือสูง

ระบบอัจฉริยะส่วนตัวภายในองค์กร

ติดตั้ง open-weight model ในระบบปิดด้วยสิทธิ์ MIT เพื่อรักษาความเป็นส่วนตัวของข้อมูลสำหรับการดำเนินงานที่สำคัญขององค์กร

การขยายขีดความสามารถ Agent ด้วยต้นทุนที่คุ้มค่า

รันการใช้งาน agentic ปริมาณสูงด้วยต้นทุนที่ต่ำกว่าถึง 6-8 เท่าเมื่อเทียบกับ frontier model ระดับปิด โดยที่ความลึกในการ reasoning ยังคงประสิทธิภาพไว้ได้

จุดแข็ง

ข้อจำกัด

ประสิทธิภาพด้านการเขียนโค้ดระดับแนวหน้า: ทำคะแนนได้ 77.8% บน SWE-bench Verified ซึ่งเทียบเท่ากับยักษ์ใหญ่ที่เป็นเจ้าของเทคโนโลยีแบบปิดอย่าง Claude Opus สำหรับงานวิศวกรรมซอฟต์แวร์อัตโนมัติ
ไม่มีความสามารถด้าน Vision โดยตรง: model ไม่สามารถประมวลผลรูปภาพหรือ vision ได้โดยตรง ซึ่งจำกัดการใช้งานในเวิร์กโฟลว์ UI/UX สมัยใหม่ที่เป็น multimodal
ข้อได้เปรียบด้านราคา 6 เท่า: ให้การ reasoning ระดับ frontier ในราคาเพียง 1.00 ดอลลาร์ต่อ 1 ล้าน input tokens ทำให้การใช้งานแบบ agentic ในระดับสเกลใหญ่มีความเป็นไปได้ทางเศรษฐกิจ
ความล่าช้าในงาน Terminal: ประสิทธิภาพบน Terminal-Bench 2.0 อยู่ที่ 56.2% ซึ่งตามหลังคู่แข่งระดับปิดที่อยู่ในจุดสูงสุดเพียงเล็กน้อย
Weights ภายใต้สิทธิ์ MIT: การเปิดให้ใช้งาน weights อย่างเต็มรูปแบบบน Hugging Face ช่วยให้สามารถติดตั้งแบบส่วนตัวบน Hardware Huawei Ascend หรือ NVIDIA ได้
อัตราการเกิด Hallucination: benchmark ในช่วงแรกแสดงให้เห็นว่าอัตราการเกิด hallucination อยู่ที่ใกล้ 30% สำหรับงาน reasoning ที่ซับซ้อนเฉพาะทาง เมื่อเทียบกับคู่แข่งรายอื่นที่มีอัตราต่ำกว่า
ความจุ Context มหาศาล: context window ขนาด 200K tokens รวมกับ output tokens ขนาด 128K ทำให้เหมาะสำหรับการวิเคราะห์ทั้ง repository และงานเขียนเนื้อหายาวๆ
ความแตกต่างของ Hardware: การเทรนบน Hardware Huawei Ascend อาจนำไปสู่ความแตกต่างเล็กน้อยด้านประสิทธิภาพเมื่อติดตั้งบนซอฟต์แวร์มาตรฐานที่เป็น NVIDIA-only

เริ่มต้นด่วน API

zai/glm-5

ดูเอกสาร
zhipu SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: "https://open.bigmodel.cn/api/paas/v4/",
});

const response = await client.chat.completions.create({
  model: "glm-5",
  messages: [{ role: "user", content: "Analyze this repo structure and refactor to GraphQL." }],
  stream: true,
});

for await (const chunk of response) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

ติดตั้ง SDK และเริ่มเรียก API ภายในไม่กี่นาที

ผู้คนพูดอะไรเกี่ยวกับ GLM-5

ดูว่าชุมชนคิดอย่างไรเกี่ยวกับ GLM-5

GLM-5 เป็น open-source model ขนาด 744B parameters ที่มีประสิทธิภาพระดับเดียวกับ Claude Opus ในงานเขียนโค้ด... แต่ความต่างของราคานั้นสำคัญมาก
Odd-Coconut-2067
reddit
context window ขนาด 200,000 tokens เปลี่ยนวิธีการทำงานของคุณไปเลย: วิเคราะห์ไฟล์มากกว่า 20 ไฟล์เพื่อทำ refactor เพียงครั้งเดียว หรือรีวิว PR diffs ที่ซับซ้อนได้ในการส่งคำสั่งเดียว
AskCodi
reddit
ผมเปลี่ยนจากการใช้เงินประมาณ 90 ดอลลาร์ต่อเดือนกับ Claude API มาเหลือไม่ถึง 15 ดอลลาร์กับ GLM-5 และไม่รู้สึกว่าคุณภาพลดลงเลย
IulianHI
reddit
อัตรา hallucination ของมันอยู่ที่ประมาณ 30% เทียบกับผมไม่รู้ว่า Gemini 3 Pro อยู่ที่ 88%
Sid
youtube
GLM-5 ปล่อยออกมาก่อนที่ผมจะทดสอบ 4.7 เสร็จซะอีก และการก้าวกระโดดด้านการ reasoning นั้นสัมผัสได้จริงในการเขียนโค้ดทุกวัน
able_wong
twitter
การที่ Zhipu ปล่อยตัวนี้ออกมาภายใต้สิทธิ์ MIT เป็นก้าวย่างที่สำคัญมากสำหรับชุมชน local LLM
dev_tester
twitter

วิดีโอเกี่ยวกับ GLM-5

ดูบทเรียน รีวิว และการสนทนาเกี่ยวกับ GLM-5

มันสูสีกับ model อย่าง 5.2 codecs และ Opus 4.5 มาก

มันเป็น open-weight model ตัวแรกที่ผมสามารถรันงานที่ใช้เวลามากกว่าหนึ่งชั่วโมงได้สำเร็จโดยไม่มีปัญหา

อัตรา hallucination อยู่ในช่วง 30% เมื่อเทียบกับ Gemini 3 Pro ที่อยู่ที่ 88%

ความหนาแน่นของการ reasoning สูงกว่า GLM-4 อย่างเห็นได้ชัด

มันเข้ามาแทนที่ Claude 3.5 Sonnet สำหรับงานเขียนโค้ดภายในของผมได้เลย

พวกเขาเพิ่มจำนวน parameters ขึ้นเป็นสองเท่า... สูงถึง 744 พันล้านตัว

ถึงแม้ว่ามันจะใหญ่กว่ามาก แต่มันรันได้เร็วพอๆ กับหรืออาจจะเร็วกว่า model ตัวเก่าด้วยซ้ำ

การแก้ไขตัวเอง อย่าทำตัวโอ้อวด ปฏิบัติกับมันเหมือนเป็นคำถามที่มีเหตุผล

กลไก sparse attention ช่วยให้การใช้งานหน่วยความจำต่ำแม้จะเป็น model ที่ใหญ่ขนาดนี้

การที่เปิดให้ใช้ weights ได้ทำให้ตัวนี้กลายเป็นแชมป์ใหม่สำหรับการติดตั้งแบบ local

พวกเขาสร้าง RL engine ของตัวเองขึ้นมาที่ชื่อว่า Slime

context window ขนาด 200,000 tokens เปลี่ยนความหมายของ enterprise AI ไปเลย

มันทำคะแนนได้ 77.8 บน SWE-bench Verified ซึ่งเอาชนะ Gemini 3 Pro ที่ทำได้ 76.2

Zhipu AI กำลังพิสูจน์ว่า Hardware ในประเทศสามารถเทรน model ระดับโลกได้

วิศวกรรมแบบ agentic คือหัวใจสำคัญที่นี่ ไม่ใช่แค่การแชททั่วไป

มากกว่าแค่พรอมต์

เพิ่มพลังให้เวิร์กโฟลว์ของคุณด้วย ระบบอัตโนมัติ AI

Automatio รวมพลังของ AI agents การอัตโนมัติเว็บ และการผสานรวมอัจฉริยะเพื่อช่วยให้คุณทำงานได้มากขึ้นในเวลาน้อยลง

AI Agents
การอัตโนมัติเว็บ
เวิร์กโฟลว์อัจฉริยะ

เคล็ดลับมือโปรสำหรับ GLM-5

เคล็ดลับจากผู้เชี่ยวชาญเพื่อช่วยให้คุณใช้ประโยชน์สูงสุดจาก GLM-5 และได้ผลลัพธ์ที่ดีขึ้น

เปิดใช้งานโหมด Agentic

กำหนดแผนการทำงานแบบหลายขั้นตอนใน prompt ของคุณ เนื่องจาก GLM-5 ได้รับการปรับแต่งมาเพื่อการทำวิศวกรรมแบบอัตโนมัติ ไม่ใช่แค่การตอบแชททั่วไป

การจัดสรร Hardware ในพื้นที่

ตรวจสอบให้แน่ใจว่ามี RAM บน GPU หรือ Hardware Huawei Ascend พร้อมเฟรมเวิร์ก MindSpore เพียงพอเพื่อให้ได้ throughput สูงสุด

ใช้กลยุทธ์ Fallback Chains

ตั้งค่าให้ GLM-5 เป็น model หลักสำหรับการใช้ reasoning และใช้ GLM-4.7-Flash เป็นตัวสำรองที่ประหยัดต้นทุนสำหรับคำสั่งที่ไม่ซับซ้อน

ใช้รูปแบบ Structured Output

GLM-5 โดดเด่นในการสร้างไฟล์ .docx และ .xlsx ที่มีความแม่นยำสูงเมื่อมีการกำหนดเงื่อนไข schema ที่ชัดเจนสำหรับผลลัพธ์ที่ต้องการ

คำรับรอง

ผู้ใช้ของเราพูดอย่างไร

เข้าร่วมกับผู้ใช้ที่พึงพอใจนับพันที่ได้เปลี่ยนแปลงเวิร์กโฟลว์ของพวกเขา

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

ที่เกี่ยวข้อง AI Models

anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 4.5 Sonnet

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M

คำถามที่พบบ่อยเกี่ยวกับ GLM-5

ค้นหาคำตอบสำหรับคำถามทั่วไปเกี่ยวกับ GLM-5