zhipu

GLM-4.7

GLM-4.7 โดย Zhipu AI คือโมเดลเรือธง 358B MoE ที่มี context window ขนาด 200K ประสิทธิภาพ 73.8% บน SWE-bench และ Deep Thinking สำหรับการใช้งานแบบ agentic...

zhipu logozhipuGLM22 ธันวาคม 2025
บริบท
200Kโทเคน
เอาต์พุตสูงสุด
131Kโทเคน
ราคาอินพุต
$0.60/ 1M
ราคาเอาต์พุต
$2.20/ 1M
โหมด:TextImage
ความสามารถ:การมองเห็นเครื่องมือสตรีมมิ่งการใช้เหตุผล
เกณฑ์มาตรฐาน
GPQA
85.7%
GPQA: คำถามวิทยาศาสตร์ระดับบัณฑิตศึกษา. เกณฑ์มาตรฐานที่เข้มงวดพร้อม 448 คำถามจากชีววิทยา ฟิสิกส์ และเคมี ผู้เชี่ยวชาญ PhD ทำได้เพียง 65-74% GLM-4.7 ได้คะแนน 85.7% ในเกณฑ์มาตรฐานนี้
HLE
42.8%
HLE: การใช้เหตุผลระดับผู้เชี่ยวชาญ. ทดสอบความสามารถของโมเดลในการแสดงการใช้เหตุผลระดับผู้เชี่ยวชาญในสาขาเฉพาะทาง GLM-4.7 ได้คะแนน 42.8% ในเกณฑ์มาตรฐานนี้
MMLU
90.1%
MMLU: ความเข้าใจภาษาแบบมัลติทาสก์ขนาดใหญ่. เกณฑ์มาตรฐานที่ครอบคลุมพร้อม 16,000 คำถามใน 57 วิชา GLM-4.7 ได้คะแนน 90.1% ในเกณฑ์มาตรฐานนี้
MMLU Pro
84.3%
MMLU Pro: MMLU รุ่นมืออาชีพ. เวอร์ชันที่ปรับปรุงของ MMLU พร้อม 12,032 คำถามและรูปแบบ 10 ตัวเลือกที่ยากขึ้น GLM-4.7 ได้คะแนน 84.3% ในเกณฑ์มาตรฐานนี้
SimpleQA
46%
SimpleQA: เกณฑ์มาตรฐานความถูกต้องของข้อเท็จจริง. ทดสอบความสามารถของโมเดลในการให้คำตอบที่ถูกต้องและเป็นข้อเท็จจริง GLM-4.7 ได้คะแนน 46% ในเกณฑ์มาตรฐานนี้
IFEval
88%
IFEval: การประเมินการปฏิบัติตามคำสั่ง. วัดว่าโมเดลปฏิบัติตามคำสั่งและข้อจำกัดเฉพาะได้ดีเพียงใด GLM-4.7 ได้คะแนน 88% ในเกณฑ์มาตรฐานนี้
AIME 2025
95.7%
AIME 2025: การสอบคณิตศาสตร์เชิญชวนอเมริกัน. โจทย์คณิตศาสตร์ระดับการแข่งขันจากการสอบ AIME ที่มีชื่อเสียง GLM-4.7 ได้คะแนน 95.7% ในเกณฑ์มาตรฐานนี้
MATH
92%
MATH: การแก้ปัญหาคณิตศาสตร์. เกณฑ์มาตรฐานคณิตศาสตร์ที่ครอบคลุมทดสอบการแก้ปัญหาในพีชคณิต เรขาคณิต แคลคูลัส GLM-4.7 ได้คะแนน 92% ในเกณฑ์มาตรฐานนี้
GSM8k
98%
GSM8k: คณิตศาสตร์ประถม 8K. 8,500 โจทย์คณิตศาสตร์ระดับประถมศึกษา GLM-4.7 ได้คะแนน 98% ในเกณฑ์มาตรฐานนี้
MGSM
94%
MGSM: คณิตศาสตร์ประถมหลายภาษา. เกณฑ์มาตรฐาน GSM8k แปลเป็น 10 ภาษา GLM-4.7 ได้คะแนน 94% ในเกณฑ์มาตรฐานนี้
MathVista
74%
MathVista: การใช้เหตุผลเชิงภาพคณิตศาสตร์. ทดสอบความสามารถในการแก้ปัญหาคณิตศาสตร์ที่มีองค์ประกอบภาพ GLM-4.7 ได้คะแนน 74% ในเกณฑ์มาตรฐานนี้
SWE-Bench
73.8%
SWE-Bench: เกณฑ์มาตรฐานวิศวกรรมซอฟต์แวร์. โมเดล AI พยายามแก้ปัญหา GitHub จริงในโครงการ Python GLM-4.7 ได้คะแนน 73.8% ในเกณฑ์มาตรฐานนี้
HumanEval
94.2%
HumanEval: โจทย์เขียนโปรแกรม Python. 164 โจทย์เขียนโปรแกรมที่โมเดลต้องสร้างการใช้งานฟังก์ชัน Python ที่ถูกต้อง GLM-4.7 ได้คะแนน 94.2% ในเกณฑ์มาตรฐานนี้
LiveCodeBench
84.9%
LiveCodeBench: เกณฑ์มาตรฐานเขียนโค้ดสด. ทดสอบความสามารถในการเขียนโค้ดบนความท้าทายการเขียนโปรแกรมจริงที่อัปเดตอย่างต่อเนื่อง GLM-4.7 ได้คะแนน 84.9% ในเกณฑ์มาตรฐานนี้
MMMU
74.2%
MMMU: ความเข้าใจหลายโหมด. เกณฑ์มาตรฐานความเข้าใจหลายโหมดจาก 30 วิชามหาวิทยาลัย GLM-4.7 ได้คะแนน 74.2% ในเกณฑ์มาตรฐานนี้
MMMU Pro
58%
MMMU Pro: MMMU รุ่นมืออาชีพ. เวอร์ชันที่ปรับปรุงของ MMMU พร้อมคำถามที่ท้าทายมากขึ้น GLM-4.7 ได้คะแนน 58% ในเกณฑ์มาตรฐานนี้
ChartQA
86%
ChartQA: คำถามและคำตอบกราฟ. ทดสอบความสามารถในการเข้าใจและวิเคราะห์ข้อมูลจากกราฟและแผนภูมิ GLM-4.7 ได้คะแนน 86% ในเกณฑ์มาตรฐานนี้
DocVQA
93%
DocVQA: คำถามเชิงภาพเอกสาร. ทดสอบความสามารถในการสกัดข้อมูลจากภาพเอกสาร GLM-4.7 ได้คะแนน 93% ในเกณฑ์มาตรฐานนี้
Terminal-Bench
41%
Terminal-Bench: งาน Terminal/CLI. ทดสอบความสามารถในการดำเนินการ command-line GLM-4.7 ได้คะแนน 41% ในเกณฑ์มาตรฐานนี้
ARC-AGI
12%
ARC-AGI: การนามธรรมและการใช้เหตุผล. ทดสอบความฉลาดที่ยืดหยุ่นผ่านปริศนาการจดจำรูปแบบใหม่ GLM-4.7 ได้คะแนน 12% ในเกณฑ์มาตรฐานนี้

เกี่ยวกับ GLM-4.7

เรียนรู้เกี่ยวกับความสามารถของ GLM-4.7 คุณสมบัติ และวิธีที่จะช่วยให้คุณได้ผลลัพธ์ที่ดีขึ้น

ภาพรวมโมเดล

GLM-4.7 เป็น large language model เรือธงที่พัฒนาโดย Zhipu AI โดยใช้สถาปัตยกรรม Mixture-of-Experts (MoE) พร้อม พารามิเตอร์รวม 358 พันล้านตัว โมเดลนี้ถูกออกแบบมาเป็นพิเศษเพื่อจัดการกับงาน agentic ที่ซับซ้อนและการใช้เหตุผลในระยะยาวผ่านความสามารถเฉพาะตัวอย่าง Preserved Thinking และ Interleaved Thinking ฟีเจอร์เหล่านี้ช่วยให้โมเดลสามารถรักษาตรรกะที่มั่นคงและสถานะการใช้เหตุผลระหว่างเซสชันที่มีหลายรอบ ช่วยแก้ไขปัญหาการเสื่อมถอยของ context ที่มักพบใน autonomous workflows

ประสิทธิภาพและสถาปัตยกรรม

โมเดลนี้นำเสนอ context window ขนาด 200,000 tokens ร่วมกับ ความจุ output สูงถึง 131,072 tokens ทำให้เหมาะสำหรับการสร้างแอปพลิเคชันทั้งชุดหรือวิเคราะห์เอกสารจำนวนมากในการทำงานเพียงรอบเดียว โดยเปิดตัวภายใต้ ใบอนุญาต MIT ในฐานะโมเดล open-weight ซึ่งมอบการเขียนโค้ดและการใช้เหตุผลประสิทธิภาพสูงในราคาที่ถูกกว่าตัวเลือก proprietary อย่างมาก

การผสานรวมและการใช้งาน

โมเดลนี้รองรับการทำงานร่วมกับ OpenAI API format ได้อย่างสมบูรณ์ ทำให้การผสานรวมเข้ากับระบบซอฟต์แวร์ที่มีอยู่เป็นเรื่องง่าย นักพัฒนาใช้งานโมเดลนี้สำหรับงานวิศวกรรมซอฟต์แวร์ระดับ high-stakes ซึ่งทำคะแนนได้ถึง 73.8% บน SWE-bench Verified และความสามารถในการประมวลผลเอกสารทางเทคนิคจำนวนมากระหว่างภาษาอังกฤษและภาษาจีนด้วยความละเอียดอ่อนทางภาษาในระดับเจ้าของภาษา ทำให้มันเป็นเครื่องมือที่หลากหลายสำหรับทีมพัฒนาข้ามชาติ

GLM-4.7

กรณีการใช้งานสำหรับ GLM-4.7

ค้นพบวิธีต่างๆ ที่คุณสามารถใช้ GLM-4.7 เพื่อได้ผลลัพธ์ที่ยอดเยี่ยม

วิศวกรรมซอฟต์แวร์อัตโนมัติ

ใช้ความสามารถระดับ 73.8% บน SWE-bench เพื่อดีบั๊ก รีแฟคเตอร์ และสร้างฟีเจอร์ใหม่ใน repository ที่ซับซ้อนได้โดยอัตโนมัติ

การสังเคราะห์เอกสารความจุสูง

ใช้ประโยชน์จากขีดจำกัด output 131k เพื่อสร้างคู่มือทางเทคนิคที่ครอบคลุมหรือบทหนังสือทั้งบทจากชุดข้อมูลขนาดใหญ่

เวิร์กโฟลว์ Agentic ระยะยาว

ปรับใช้ agents ที่ใช้ Preserved Thinking เพื่อรักษาความสม่ำเสมอและตรรกะตลอดภารกิจต่อเนื่องหลายร้อยขั้นตอนโดยไม่สูญเสีย context

ระบบธุรกิจอัจฉริยะสองภาษา

ประมวลผลและวิเคราะห์เอกสารทางเทคนิคปริมาณมากระหว่างภาษาอังกฤษและภาษาจีนด้วยความละเอียดอ่อนทางภาษาในระดับเจ้าของภาษา

การสร้างโค้ด UI/UX อัตโนมัติ

สร้างสถาปัตยกรรม front-end ด้วย React หรือ Next.js แบบสมบูรณ์ พร้อมแอนิเมชันขั้นสูงและสไตล์ที่พร้อมใช้งานจริงในการสร้างครั้งเดียว

การแก้ปัญหาคณิตศาสตร์ระดับการแข่งขัน

แก้โจทย์คณิตศาสตร์ระดับโอลิมปิกและปริศนาตรรกะเชิงสัญลักษณ์โดยใช้โหมด thinking ที่เน้นการใช้เหตุผลโดยเฉพาะ

จุดแข็ง

ข้อจำกัด

ประสิทธิภาพการเขียนโค้ดระดับแนวหน้า: ทำคะแนนได้ 73.8% บน SWE-bench Verified ซึ่งเหนือกว่าโมเดล open-source เกือบทั้งหมดและเทียบเท่ากับ API ระดับ proprietary ชั้นนำ
รองรับเฉพาะ Text เท่านั้น: ต่างจาก Gemini หรือ GPT-4o ที่ GLM-4.7 ไม่มีการประมวลผลภาพหรือเสียงแบบ native จึงต้องใช้โมเดลภายนอกสำหรับงาน multimodal
เพดานการสร้างผลลัพธ์ขนาดใหญ่: ขีดจำกัด output ที่ 131,072 tokens เป็นหนึ่งในระดับที่สูงที่สุดในอุตสาหกรรม ช่วยให้สร้างแอปพลิเคชันได้ทั้งชุดในการทำงานเพียงครั้งเดียว
ความต้องการทรัพยากรเครื่องที่สูงมาก: ด้วยพารามิเตอร์ 358B การรันโมเดลในเครื่องต้องใช้ฮาร์ดแวร์ประสิทธิภาพสูง (ประมาณ 710GB VRAM) ทำให้ไม่สามารถใช้บน GPU สำหรับผู้บริโภคทั่วไปได้
สถาปัตยกรรมที่ออกแบบมาเพื่อ Agents โดยเฉพาะ: มาพร้อมกับ Preserved Thinking เพื่อรักษาความสม่ำเสมอทางตรรกะในงานระยะยาว แก้ปัญหาการเสื่อมถอยของ context ใน autonomous agents
ความหน่วง (Latency) ที่เพิ่มขึ้นเป็นครั้งคราว: ผู้ใช้งานระดับ personal API รายงานว่ามีความล่าช้าเกิดขึ้นในช่วงเวลาที่มีการใช้งานหนาแน่นเมื่อเทียบกับโครงสร้างพื้นฐานของผู้ให้บริการรายใหญ่
ความคุ้มค่าทางเศรษฐกิจสูง: มอบความฉลาดระดับ frontier ในราคาที่ถูกกว่าคู่แข่งจากตะวันตกอย่าง OpenAI หรือ Anthropic ประมาณ 4 ถึง 7 เท่า
ข้อจำกัดในการทำตามคำสั่ง: แม้ว่าจะเก่งในการใช้เหตุผล แต่โมเดลอาจละเลยข้อจำกัดเรื่องโครงสร้างไฟล์ในบางครั้งเมื่ออยู่ในเซสชันการเขียนโค้ดที่ซับซ้อนมาก

เริ่มต้นด่วน API

zai/glm-4.7

ดูเอกสาร
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'YOUR_ZAI_API_KEY',
  baseURL: 'https://api.z.ai/api/paas/v4/',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'glm-4.7',
    messages: [{ role: 'user', content: 'Design a scalable React architecture.' }],
    thinking: { type: 'enabled' }
  });
  console.log(response.choices[0].message.content);
}
main();

ติดตั้ง SDK และเริ่มเรียก API ภายในไม่กี่นาที

ผู้คนพูดอะไรเกี่ยวกับ GLM-4.7

ดูว่าชุมชนคิดอย่างไรเกี่ยวกับ GLM-4.7

GLM-4.7 จัดการกับ codebase ขนาดใหญ่ได้อย่างน่าเชื่อถือด้วย context 128k มันมีประโยชน์อย่างน่าประหลาดใจสำหรับงาน subagent เพื่อประหยัดค่าใช้จ่าย API หลัก
IulianHI
reddit
GLM-4.7 ของ Zhipu AI เทียบเท่ากับ frontier models อย่าง GPT-5.1 High ในการเขียนโค้ด ฟีเจอร์ Preserved Thinking เป็นชัยชนะครั้งใหญ่สำหรับ autonomous agents
Etienne Noumen
youtube
GLM-4.7 ยังคงเป็นโมเดล open weights ที่ฉลาดที่สุดใน Intelligence Index v4.0 โดยอยู่ในอันดับเหนือกว่า DeepSeek V3.2
Artificial Analysis
twitter
โมเดลจากจีนกำลังปิดช่องว่างเรื่องการเขียนโค้ดอย่างรวดเร็ว คะแนน 73% บน SWE-bench นี้ไม่ใช่เรื่องล้อเล่นสำหรับการปล่อยตัวแบบ open weight
Epoch AI
hackernews
ความเร็วในการใช้เหตุผลถือว่าดีมากสำหรับโมเดลขนาดเท่านี้ มันจัดการกับตรรกะที่ซับซ้อนได้ดีกว่ารุ่นก่อนหน้ามาก
Bijan Bowen
youtube
GLM-4.7 อยู่ในอันดับที่ 6 บน AI Index แซงหน้า Kimi K2 ค้นหาว่าเหตุใดโมเดลราคา $2 ตัวนี้จึงเข้ามาแทนที่ GPT-5.2 ในเวิร์กโฟลว์การเขียนโค้ด
TowardsAI
twitter

วิดีโอเกี่ยวกับ GLM-4.7

ดูบทเรียน รีวิว และการสนทนาเกี่ยวกับ GLM-4.7

Context length อยู่ที่ 200k และ output tokens สูงสุดอยู่ที่ 128k ซึ่งถือว่าทรงพลังมากจริงๆ

เอาล่ะ มันน่าประทับใจมาก ไม่มีตัวไหนที่ใส่ฟีเจอร์พิเศษที่มีระดับความซับซ้อนขนาดนี้เข้ามาเลย

ความเร็วในการใช้เหตุผลถือว่าดีมากสำหรับโมเดลขนาดเท่านี้

มันจัดการกับตรรกะที่ซับซ้อนได้ดีกว่ารุ่นก่อนหน้ามาก

โมเดลนี้ถือเป็นก้าวสำคัญในแง่ของความสอดคล้องทางตรรกะ

โมเดล GLM ได้ปรับใช้สถาปัตยกรรมที่ดีขึ้นโดยการรวม mock data ทั้งหมดไว้ในไฟล์เดียว

ตัวนี้เป็นก้าวกระโดดที่ใหญ่มาก คะแนน benchmark เหล่านั้นได้รับการยืนยันจากการทดสอบที่ผมทำ

มันเข้าใจบริบทของโปรเจกต์ทั้งหมดโดยที่ผมไม่ต้องเตือนมันเลย

ความสามารถในการเขียนโค้ดเรียกได้ว่าเทียบเท่ากับโมเดลที่ดีที่สุดในตลาด

คุณกำลังได้รับประสิทธิภาพการใช้เหตุผลระดับไฮเอนด์ในราคาเพียงเสี้ยวเดียว

มันทำคะแนนได้ 73.8% บน Swaybench verified ซึ่งเหลือเชื่อมากสำหรับโมเดล open-source

คุณสามารถเห็นได้เลยว่ามันทำงานได้จริง ในขณะที่ Gemini 3 Pro ยังสร้างผลลัพธ์ออกมาไม่ได้เลย

ความเร็วในการสร้างผลลัพธ์สำหรับความฉลาดระดับนี้ถือว่าโดดเด่นมาก

มันถูกออกแบบมาอย่างชัดเจนสำหรับนักพัฒนาที่ต้องการผลลัพธ์โค้ดที่เชื่อถือได้

Zhipu AI ทำผลงานได้อย่างยอดเยี่ยมมากด้วยการปรับจูนสถาปัตยกรรม MoE ในครั้งนี้

มากกว่าแค่พรอมต์

เพิ่มพลังให้เวิร์กโฟลว์ของคุณด้วย ระบบอัตโนมัติ AI

Automatio รวมพลังของ AI agents การอัตโนมัติเว็บ และการผสานรวมอัจฉริยะเพื่อช่วยให้คุณทำงานได้มากขึ้นในเวลาน้อยลง

AI Agents
การอัตโนมัติเว็บ
เวิร์กโฟลว์อัจฉริยะ

เคล็ดลับมือโปรสำหรับ GLM-4.7

เคล็ดลับจากผู้เชี่ยวชาญเพื่อช่วยให้คุณใช้ประโยชน์สูงสุดจาก GLM-4.7 และได้ผลลัพธ์ที่ดีขึ้น

เปิดใช้งานโหมด Thinking สำหรับตรรกะ

ตั้งค่าพารามิเตอร์ thinking เป็น enabled สำหรับงานเขียนโค้ดหรืองานคณิตศาสตร์ เพื่อใช้ประโยชน์จากกระบวนการคิดภายในของโมเดลและปรับปรุงความแม่นยำ

ใช้ SDK ที่รองรับ OpenAI

ผสานรวม GLM-4.7 เข้ากับเวิร์กโฟลว์เดิมของคุณโดยใช้ OpenAI SDK และเปลี่ยน base URL ให้เป็น endpoint ของ Z.ai

ใช้ประโยชน์จาก 131K Output ให้เต็มที่

เมื่อสร้างเนื้อหาขนาดยาว ให้จัดทำเค้าโครงโดยละเอียดก่อน เพื่อช่วยให้โมเดลรักษาความสอดคล้องของโครงสร้างภายใต้ขีดจำกัดจำนวน tokens ที่มหาศาล

ปรับแต่ง System Prompts สำหรับ Agents

กำหนดความต้องการ Preserved Thinking ใน system message เพื่อให้แน่ใจว่าโมเดลนำสถานะการใช้เหตุผลมาใช้ซ้ำในการสนทนาหลายรอบ

คำรับรอง

ผู้ใช้ของเราพูดอย่างไร

เข้าร่วมกับผู้ใช้ที่พึงพอใจนับพันที่ได้เปลี่ยนแปลงเวิร์กโฟลว์ของพวกเขา

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

ที่เกี่ยวข้อง AI Models

openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

คำถามที่พบบ่อยเกี่ยวกับ GLM-4.7

ค้นหาคำตอบสำหรับคำถามทั่วไปเกี่ยวกับ GLM-4.7