zhipu

GLM-5.1

GLM-5.1 คือโมเดล reasoning เรือธงของ Zhipu AI มาพร้อม 202K context window และลูปการทำงานอัตโนมัติ 8 ชั่วโมงสำหรับวิศวกรรมระดับ agentic ที่ซับซ้อน

ReasoningAgentic AIOpen WeightsCodingMultimodal
zhipu logozhipuGLM2026-04-08
บริบท
203Kโทเคน
เอาต์พุตสูงสุด
164Kโทเคน
ราคาอินพุต
$1.40/ 1M
ราคาเอาต์พุต
$4.40/ 1M
โหมด:TextImage
ความสามารถ:การมองเห็นเครื่องมือสตรีมมิ่งการใช้เหตุผล
เกณฑ์มาตรฐาน
GPQA
86.2%
GPQA: คำถามวิทยาศาสตร์ระดับบัณฑิตศึกษา. เกณฑ์มาตรฐานที่เข้มงวดพร้อม 448 คำถามจากชีววิทยา ฟิสิกส์ และเคมี ผู้เชี่ยวชาญ PhD ทำได้เพียง 65-74% GLM-5.1 ได้คะแนน 86.2% ในเกณฑ์มาตรฐานนี้
HLE
31%
HLE: การใช้เหตุผลระดับผู้เชี่ยวชาญ. ทดสอบความสามารถของโมเดลในการแสดงการใช้เหตุผลระดับผู้เชี่ยวชาญในสาขาเฉพาะทาง GLM-5.1 ได้คะแนน 31% ในเกณฑ์มาตรฐานนี้
MMLU
89%
MMLU: ความเข้าใจภาษาแบบมัลติทาสก์ขนาดใหญ่. เกณฑ์มาตรฐานที่ครอบคลุมพร้อม 16,000 คำถามใน 57 วิชา GLM-5.1 ได้คะแนน 89% ในเกณฑ์มาตรฐานนี้
MMLU Pro
89%
MMLU Pro: MMLU รุ่นมืออาชีพ. เวอร์ชันที่ปรับปรุงของ MMLU พร้อม 12,032 คำถามและรูปแบบ 10 ตัวเลือกที่ยากขึ้น GLM-5.1 ได้คะแนน 89% ในเกณฑ์มาตรฐานนี้
IFEval
73%
IFEval: การประเมินการปฏิบัติตามคำสั่ง. วัดว่าโมเดลปฏิบัติตามคำสั่งและข้อจำกัดเฉพาะได้ดีเพียงใด GLM-5.1 ได้คะแนน 73% ในเกณฑ์มาตรฐานนี้
AIME 2025
95.3%
AIME 2025: การสอบคณิตศาสตร์เชิญชวนอเมริกัน. โจทย์คณิตศาสตร์ระดับการแข่งขันจากการสอบ AIME ที่มีชื่อเสียง GLM-5.1 ได้คะแนน 95.3% ในเกณฑ์มาตรฐานนี้
MATH
80%
MATH: การแก้ปัญหาคณิตศาสตร์. เกณฑ์มาตรฐานคณิตศาสตร์ที่ครอบคลุมทดสอบการแก้ปัญหาในพีชคณิต เรขาคณิต แคลคูลัส GLM-5.1 ได้คะแนน 80% ในเกณฑ์มาตรฐานนี้
GSM8k
96%
GSM8k: คณิตศาสตร์ประถม 8K. 8,500 โจทย์คณิตศาสตร์ระดับประถมศึกษา GLM-5.1 ได้คะแนน 96% ในเกณฑ์มาตรฐานนี้
MGSM
90%
MGSM: คณิตศาสตร์ประถมหลายภาษา. เกณฑ์มาตรฐาน GSM8k แปลเป็น 10 ภาษา GLM-5.1 ได้คะแนน 90% ในเกณฑ์มาตรฐานนี้
MathVista
70%
MathVista: การใช้เหตุผลเชิงภาพคณิตศาสตร์. ทดสอบความสามารถในการแก้ปัญหาคณิตศาสตร์ที่มีองค์ประกอบภาพ GLM-5.1 ได้คะแนน 70% ในเกณฑ์มาตรฐานนี้
SWE-Bench
58.4%
SWE-Bench: เกณฑ์มาตรฐานวิศวกรรมซอฟต์แวร์. โมเดล AI พยายามแก้ปัญหา GitHub จริงในโครงการ Python GLM-5.1 ได้คะแนน 58.4% ในเกณฑ์มาตรฐานนี้
HumanEval
94.6%
HumanEval: โจทย์เขียนโปรแกรม Python. 164 โจทย์เขียนโปรแกรมที่โมเดลต้องสร้างการใช้งานฟังก์ชัน Python ที่ถูกต้อง GLM-5.1 ได้คะแนน 94.6% ในเกณฑ์มาตรฐานนี้
LiveCodeBench
68%
LiveCodeBench: เกณฑ์มาตรฐานเขียนโค้ดสด. ทดสอบความสามารถในการเขียนโค้ดบนความท้าทายการเขียนโปรแกรมจริงที่อัปเดตอย่างต่อเนื่อง GLM-5.1 ได้คะแนน 68% ในเกณฑ์มาตรฐานนี้
MMMU
73%
MMMU: ความเข้าใจหลายโหมด. เกณฑ์มาตรฐานความเข้าใจหลายโหมดจาก 30 วิชามหาวิทยาลัย GLM-5.1 ได้คะแนน 73% ในเกณฑ์มาตรฐานนี้
MMMU Pro
58%
MMMU Pro: MMMU รุ่นมืออาชีพ. เวอร์ชันที่ปรับปรุงของ MMMU พร้อมคำถามที่ท้าทายมากขึ้น GLM-5.1 ได้คะแนน 58% ในเกณฑ์มาตรฐานนี้
ChartQA
89%
ChartQA: คำถามและคำตอบกราฟ. ทดสอบความสามารถในการเข้าใจและวิเคราะห์ข้อมูลจากกราฟและแผนภูมิ GLM-5.1 ได้คะแนน 89% ในเกณฑ์มาตรฐานนี้
DocVQA
93%
DocVQA: คำถามเชิงภาพเอกสาร. ทดสอบความสามารถในการสกัดข้อมูลจากภาพเอกสาร GLM-5.1 ได้คะแนน 93% ในเกณฑ์มาตรฐานนี้
Terminal-Bench
63.5%
Terminal-Bench: งาน Terminal/CLI. ทดสอบความสามารถในการดำเนินการ command-line GLM-5.1 ได้คะแนน 63.5% ในเกณฑ์มาตรฐานนี้
ARC-AGI
12%
ARC-AGI: การนามธรรมและการใช้เหตุผล. ทดสอบความฉลาดที่ยืดหยุ่นผ่านปริศนาการจดจำรูปแบบใหม่ GLM-5.1 ได้คะแนน 12% ในเกณฑ์มาตรฐานนี้

เกี่ยวกับ GLM-5.1

เรียนรู้เกี่ยวกับความสามารถของ GLM-5.1 คุณสมบัติ และวิธีที่จะช่วยให้คุณได้ผลลัพธ์ที่ดีขึ้น

GLM-5.1 คือ foundation model เรือธงของ Zhipu AI ที่ออกแบบมาสำหรับวิศวกรรมระบบที่ซับซ้อนและงาน agentic ระยะยาว โดยสร้างขึ้นบนสถาปัตยกรรม Mixture-of-Experts (MoE) ที่มี 744 พันล้าน parameters และใช้ 40 พันล้าน active per pass ซึ่งถือเป็นการก้าวกระโดดครั้งสำคัญในด้านความอดทนและการแก้ปัญหาแบบอัตโนมัติ โมเดลนี้ได้รับการวิศวกรรมขึ้นมาเพื่อข้ามผ่านขีดจำกัด (plateau) ที่พบใน LLM รุ่นก่อนหน้า โดยสามารถรักษาประสิทธิภาพการผลิตและคุณภาพของโค้ดได้ผ่านการเรียกใช้งานหลายพันครั้งและวนลูปการทำงานหลายร้อยรอบ มันสามารถระบุปัญหา ทดลอง และปรับกลยุทธ์ของตัวเองได้โดยไม่ต้องพึ่งพามนุษย์

ในเชิงเทคนิค GLM-5.1 โดดเด่นในฐานะแกนกลางการ reasoning หลักในระบบ multi-agent โดยจัดการการตัดสินใจทางสถาปัตยกรรมระดับสูงพร้อมแบ่งงานไปให้โมเดลย่อยๆ จัดการ มี context window ขนาด 202K ที่รองรับโดยกลไก dynamic sparse attention เพื่อความต่อเนื่องใน codebases ขนาดใหญ่ โมเดลถูกปล่อยเป็น open weights ภายใต้ MIT License เพื่อเป็นทางเลือกบน local สำหรับการแทนที่โมเดลแบบปิดในงานจำพวกการปรับแต่งฐานข้อมูล, การเขียน GPU kernel, และการพัฒนาเว็บแอปพลิเคชันแบบ full-stack

ผลลัพธ์จาก KernelBench Level 3 แสดงให้เห็นว่า GLM-5.1 มีความเร็วในงาน agentic ML ที่ยาวนาน เหนือกว่า Claude Opus 4.6 อย่างมีนัยสำคัญ ความอึดนี้ช่วยให้นักพัฒนาสามารถสั่งงานวิศวกรรมทิ้งไว้ตอนเช้าแล้วรับมอบงานที่ทดสอบและ deploy เสร็จสิ้นภายในสิ้นวันได้ทันที โดยมันสามารถจัดการวงจรการแก้ไขบั๊กได้ตั้งแต่การจำลองปัญหาไปจนถึงการส่ง pull request สุดท้าย

GLM-5.1

กรณีการใช้งานสำหรับ GLM-5.1

ค้นพบวิธีต่างๆ ที่คุณสามารถใช้ GLM-5.1 เพื่อได้ผลลัพธ์ที่ยอดเยี่ยม

วิศวกรรมซอฟต์แวร์อัตโนมัติ

ทำงานแบบอัตโนมัติได้ต่อเนื่องกว่า 8 ชั่วโมงเพื่อออกแบบ พัฒนา และ debug ไมโครเซอร์วิสโดยไม่ต้องพึ่งพามนุษย์

การจูนฐานข้อมูลประสิทธิภาพสูง

โมเดลจะวนลูปปรับปรุงการทำงานของระบบ vector search ที่เขียนด้วย Rust เป็นเวลาหลายร้อยรอบ

การปรับแต่ง GPU Kernel

วิเคราะห์ reference implementations เพื่อสร้าง GPU kernels ที่ทำงานได้เร็วกว่าตัว autotune compilers แบบปกติ

การประสานงาน Multi-Agent

ทำหน้าที่เป็นแกนกลางด้านการ reasoning เพื่อจัดสรรงานย่อยและเรียกใช้เครื่องมือต่างๆ ในกลุ่มโมเดลเฉพาะทาง

งาน Terminal ที่ซับซ้อน

รันคำสั่ง terminal และจัดการระบบในระดับขั้นตอนที่ซับซ้อนผ่านเครื่องมือ CLI ระดับ agentic

การออกแบบ Full-Stack เว็บไซต์

สร้าง UI layouts ที่มีความสอดคล้องกันและจัดการ backend logic สำหรับสภาพแวดล้อมเดสก์ท็อปบนเบราว์เซอร์

จุดแข็ง

ข้อจำกัด

ช่วงการประมวลผลนานถึง 8 ชั่วโมง: รักษาประสิทธิภาพการผลิตผ่านการเรียกใช้เครื่องมือหลายพันครั้งโดยไม่เกิดปัญหา reasoning plateau เหมือนโมเดลทั่วไป
Latency สูง: ด้วยสถาปัตยกรรมที่เน้นการใช้ reasoning หนัก ส่งผลให้การสร้าง token ช้ากว่าโมเดลทั่วไปอย่างเห็นได้ชัด
ประสิทธิภาพด้าน Coding ระดับ SOTA: ทำคะแนน 58.4 บน SWE-Bench Pro เหนือกว่าโมเดลแบบปิดอย่าง GPT-5.4 และ Claude Opus 4.6
ทรัพยากรที่ต้องใช้มหาศาล: โมเดลตัวเต็มต้องการพื้นที่จัดเก็บข้อมูล 1.65TB แม้แต่เวอร์ชันที่ผ่านการทำ quantization ก็ยังต้องใช้ VRAM/RAM ถึง 256GB
เข้าถึง Open Weights ได้: เผยแพร่ภายใต้ MIT License ทำให้สามารถรันความสามารถด้าน reasoning ระดับ frontier ได้ในเครื่องขององค์กร
ความไวต่อ Prompt: การปลดล็อกประสิทธิภาพสูงสุดมักต้องใช้ system prompt ที่ละเอียดมากเกินกว่า 300 บรรทัด เพื่อควบคุม loop การทำงาน
ความต่อเนื่องของ Context ขนาดใหญ่: รักษาความเสถียรและความแม่นยำได้สูงสุดถึง 202k tokens ซึ่งสำคัญมากสำหรับงานวิศวกรรมระยะยาวของ agent
ความไม่เสถียรของ API: ผู้ใช้รายงานว่าพบ error 500 และการจำกัดอัตราการใช้งานบ่อยครั้งในช่วงเวลาพีคของปักกิ่งบน endpoint ของ Z.ai

เริ่มต้นด่วน API

zhipu/glm-5.1

ดูเอกสาร
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: 'https://api.z.ai/api/paas/v4'
});

const chat = await client.chat.completions.create({
  model: 'glm-5.1',
  messages: [{ role: 'user', content: 'Optimize this database schema.' }],
  stream: true
});

for await (const chunk of chat) {
  process.stdout.write(chunk.choices[0]?.delta?.content || '');
}

ติดตั้ง SDK และเริ่มเรียก API ภายในไม่กี่นาที

ผู้คนพูดอะไรเกี่ยวกับ GLM-5.1

ดูว่าชุมชนคิดอย่างไรเกี่ยวกับ GLM-5.1

GLM-5.1 รันลูปบน prompt เดียวต่อเนื่องนาน 8 ชั่วโมง มันไม่เลิกทำงานเหมือนโมเดลส่วนใหญ่ แต่มันกลับเพิ่มฟีเจอร์และทบทวนตัวเองไปเรื่อยๆ
ziwenxu_
twitter
ผมทดสอบการใช้งานที่ context 140k ถึง 5 ครั้ง และมันยังคงรักษาความต่อเนื่องได้ดี SOTA อาจจะมีคู่แข่งแล้ว
Sensitive_Song4219
reddit
GLM-5.1 แทบจะสูสีกับ Opus ใน benchmark นี้ มันกลายเป็นโมเดล open ที่ดีที่สุดอันดับ 1 ใน Arena แล้ว
tmuxvim
hackernews
ทุกครั้งที่เห็น NPC ยอมจำนนด้วยบทสนทนาแบบไม่ได้เขียนสคริปต์ไว้ล่วงหน้ากับ GLM-5.1 มันเหมือนเวทมนตร์จริงๆ
orblabs
reddit
ประสิทธิภาพด้าน Coding นั้นใช้ได้จริง มันแก้ไขปัญหา race condition ใน Go backend ที่ GPT-4o มักจะหลอน (hallucinate) ตลอดเวลาได้
DevScale_AI
twitter
การรันโมเดลนี้แบบ local ด้วย Unsloth คือจุดเปลี่ยนสำหรับความเป็นส่วนตัวของข้อมูลใน stack งานกฎหมายของเรา
LawyerWhoCodes
reddit

วิดีโอเกี่ยวกับ GLM-5.1

ดูบทเรียน รีวิว และการสนทนาเกี่ยวกับ GLM-5.1

GLM-5.1 ทำคะแนนได้ 45.3% บน benchmark นี้ ซึ่งเป็นการก้าวกระโดดที่สำคัญมาก

เป็นโมเดลที่ช้ามาก... ดูเหมือนพวกเขาจะยังใช้ GPU ส่วนใหญ่ไปกับการรัน GLM-5 อยู่

วิธีการเรียกใช้เครื่องมือ (tool calls) ทำได้แข็งแกร่งกว่า GLM 5 มาตรฐานมาก

นี่คือโมเดล reasoning ที่ทรงพลังที่สุดในตอนนี้ที่คุณสามารถดาวน์โหลดไปรันบนฮาร์ดแวร์ตัวเองได้

คุณจะเห็นว่ามันสามารถระบุข้อผิดพลาดของตัวเองในบันทึกความคิดได้ด้วย

สามารถทำงานแบบอัตโนมัติได้นาน 8 ชั่วโมง โดยปรับกลยุทธ์ผ่านการทำซ้ำนับพันครั้ง

ทำผลงานได้เหนือกว่า Gemini 3.1 Pro และ Qwen 3.6 Plus ใน benchmark การสร้าง repo ยอดนิยม

โหมด agentic คือจุดแข็งที่สุดของโมเดลนี้ มันไม่ถอดใจกับบั๊กยากๆ

Z.ai ได้ทำลายกำแพงของโมเดลระดับ frontier ขนาด 744B parameters ให้เข้าถึงได้แล้ว

มันจัดการปัญหา 'plateau' ที่ทำให้ LLM อื่นๆ ขาดความต่อเนื่องเมื่อเวลาผ่านไปได้เป็นอย่างดี

ลดขนาดจาก 1.65 TB เดิมลงมาเหลือ 236GB โดยยังรักษาคุณภาพไว้อยู่

พลังของ open-source: แม้จะเป็นเวอร์ชันที่ถูกบีบอัด แต่มันก็ยังเขียนโค้ดที่ใช้งานได้จริง

คุณต้องใช้ RAM อย่างน้อย 256GB ถึงจะเริ่มคิดจะโหลด MoE ยักษ์ตัวนี้ได้

มันใช้กลไก dynamic sparse attention เพื่อรักษาความต่อเนื่องของ context 202k

การใช้ Unsloth ช่วยให้กระบวนการ fine-tuning และ inference มีประสิทธิภาพขึ้นมาก

มากกว่าแค่พรอมต์

เพิ่มพลังให้เวิร์กโฟลว์ของคุณด้วย ระบบอัตโนมัติ AI

Automatio รวมพลังของ AI agents การอัตโนมัติเว็บ และการผสานรวมอัจฉริยะเพื่อช่วยให้คุณทำงานได้มากขึ้นในเวลาน้อยลง

AI Agents
การอัตโนมัติเว็บ
เวิร์กโฟลว์อัจฉริยะ

เคล็ดลับมือโปรสำหรับ GLM-5.1

เคล็ดลับจากผู้เชี่ยวชาญเพื่อช่วยให้คุณใช้ประโยชน์สูงสุดจาก GLM-5.1 และได้ผลลัพธ์ที่ดีขึ้น

เปิดโหมด Thinking

ตรวจสอบให้แน่ใจว่าเปิดใช้งานสวิตช์ 'Thinking' ในการตั้งค่า เพื่อปลดล็อกความสามารถในการทำงานอัตโนมัติแบบต่อเนื่อง 8 ชั่วโมง

ใช้โควตาช่วงนอกเวลาเร่งด่วน

รันงานวิศวกรรมชุดใหญ่ในช่วงนอกเวลาเร่งด่วน (หลัง 18:00 น. หรือก่อน 14:00 น. ตามเวลาปักกิ่ง) เพื่อราคาที่ประหยัดกว่า

ข้อกำหนดด้านหน่วยความจำสำหรับการรันแบบ local

ใช้การทำ quantization แบบ Unsloth Dynamic GGUF เพื่อบีบอัดโมเดล 1.6TB ให้ลงไปอยู่ใน RAM 256GB สำหรับการรันในเครื่อง

การเลือกงานอย่างมีกลยุทธ์

สงวนการใช้งาน GLM-5.1 ไว้สำหรับงานด้านสถาปัตยกรรมและการใช้ reasoning ขั้นสูง และใช้ GLM-4.7 สำหรับงานเขียนโค้ดทั่วไปเพื่อคุมงบประมาณ

คำรับรอง

ผู้ใช้ของเราพูดอย่างไร

เข้าร่วมกับผู้ใช้ที่พึงพอใจนับพันที่ได้เปลี่ยนแปลงเวิร์กโฟลว์ของพวกเขา

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

ที่เกี่ยวข้อง AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M

คำถามที่พบบ่อยเกี่ยวกับ GLM-5.1

ค้นหาคำตอบสำหรับคำถามทั่วไปเกี่ยวกับ GLM-5.1