zhipu

GLM-4.7

مدل GLM-4.7 از شرکت Zhipu AI، یک flagship model با ۳۵۸ میلیارد parameter از نوع MoE، دارای ۲۰۰K context window، عملکرد فوق‌العاده ۷۳.۸٪ در SWE-bench و حالت‌های...

zhipu logozhipuGLM۲۲ دسامبر ۲۰۲۵
پنجره زمینه
200Kتوکن
حداکثر خروجی
131Kتوکن
قیمت ورودی
$0.60/ 1M
قیمت خروجی
$2.20/ 1M
حالت:TextImage
قابلیت‌ها:بیناییابزارهااستریمینگاستدلال
معیارها
GPQA
85.7%
GPQA: سوالات علمی سطح تحصیلات تکمیلی. معیار دقیق با 448 سوال از زیست‌شناسی، فیزیک و شیمی. کارشناسان دکترا فقط 65-74% دقت دارند. GLM-4.7 امتیاز 85.7% در این معیار کسب کرد.
HLE
42.8%
HLE: استدلال سطح کارشناسی. توانایی مدل در نشان دادن استدلال سطح کارشناسی در حوزه‌های تخصصی را آزمایش می‌کند. GLM-4.7 امتیاز 42.8% در این معیار کسب کرد.
MMLU
90.1%
MMLU: درک زبان چندوظیفه‌ای گسترده. معیار جامع با 16000 سوال در 57 موضوع دانشگاهی. GLM-4.7 امتیاز 90.1% در این معیار کسب کرد.
MMLU Pro
84.3%
MMLU Pro: نسخه حرفه‌ای MMLU. نسخه بهبود یافته MMLU با 12032 سوال و فرمت 10 گزینه‌ای سخت‌تر. GLM-4.7 امتیاز 84.3% در این معیار کسب کرد.
SimpleQA
46%
SimpleQA: معیار دقت واقعی. توانایی مدل در ارائه پاسخ‌های دقیق و واقعی را آزمایش می‌کند. GLM-4.7 امتیاز 46% در این معیار کسب کرد.
IFEval
88%
IFEval: ارزیابی پیروی از دستورالعمل. اندازه‌گیری می‌کند مدل چقدر خوب از دستورالعمل‌ها و محدودیت‌های خاص پیروی می‌کند. GLM-4.7 امتیاز 88% در این معیار کسب کرد.
AIME 2025
95.7%
AIME 2025: امتحان ریاضی دعوتی آمریکا. مسائل ریاضی سطح مسابقه از امتحان معتبر AIME. GLM-4.7 امتیاز 95.7% در این معیار کسب کرد.
MATH
92%
MATH: حل مسئله ریاضی. معیار جامع ریاضی که حل مسئله در جبر، هندسه، حساب دیفرانسیل را آزمایش می‌کند. GLM-4.7 امتیاز 92% در این معیار کسب کرد.
GSM8k
98%
GSM8k: ریاضی دبستان 8K. 8500 مسئله ریاضی کلامی سطح دبستان. GLM-4.7 امتیاز 98% در این معیار کسب کرد.
MGSM
94%
MGSM: ریاضی دبستان چندزبانه. معیار GSM8k ترجمه شده به 10 زبان. GLM-4.7 امتیاز 94% در این معیار کسب کرد.
MathVista
74%
MathVista: استدلال بصری ریاضی. توانایی حل مسائل ریاضی با عناصر بصری را آزمایش می‌کند. GLM-4.7 امتیاز 74% در این معیار کسب کرد.
SWE-Bench
73.8%
SWE-Bench: معیار مهندسی نرم‌افزار. مدل‌های AI سعی می‌کنند مسائل واقعی GitHub را در پروژه‌های Python حل کنند. GLM-4.7 امتیاز 73.8% در این معیار کسب کرد.
HumanEval
94.2%
HumanEval: مسائل برنامه‌نویسی Python. 164 مسئله برنامه‌نویسی که مدل‌ها باید پیاده‌سازی صحیح توابع Python تولید کنند. GLM-4.7 امتیاز 94.2% در این معیار کسب کرد.
LiveCodeBench
84.9%
LiveCodeBench: معیار کدنویسی زنده. توانایی‌های کدنویسی را در چالش‌های برنامه‌نویسی واقعی به‌روز شده آزمایش می‌کند. GLM-4.7 امتیاز 84.9% در این معیار کسب کرد.
MMMU
74.2%
MMMU: درک چندحالته. معیار درک چندحالته در 30 موضوع دانشگاهی. GLM-4.7 امتیاز 74.2% در این معیار کسب کرد.
MMMU Pro
58%
MMMU Pro: نسخه حرفه‌ای MMMU. نسخه بهبود یافته MMMU با سوالات چالش‌برانگیزتر. GLM-4.7 امتیاز 58% در این معیار کسب کرد.
ChartQA
86%
ChartQA: پرسش و پاسخ نمودار. توانایی درک و تحلیل اطلاعات از نمودارها را آزمایش می‌کند. GLM-4.7 امتیاز 86% در این معیار کسب کرد.
DocVQA
93%
DocVQA: پرسش و پاسخ بصری سند. توانایی استخراج اطلاعات از تصاویر سند را آزمایش می‌کند. GLM-4.7 امتیاز 93% در این معیار کسب کرد.
Terminal-Bench
41%
Terminal-Bench: وظایف ترمینال/CLI. توانایی انجام عملیات خط فرمان را آزمایش می‌کند. GLM-4.7 امتیاز 41% در این معیار کسب کرد.
ARC-AGI
12%
ARC-AGI: انتزاع و استدلال. هوش سیال را از طریق پازل‌های تشخیص الگوی جدید آزمایش می‌کند. GLM-4.7 امتیاز 12% در این معیار کسب کرد.

درباره GLM-4.7

درباره قابلیت‌های GLM-4.7، ویژگی‌ها و نحوه کمک به شما در دستیابی به نتایج بهتر بیاموزید.

مروری بر مدل

GLM-4.7 یک flagship large language model است که توسط Zhipu AI توسعه یافته است. این مدل از معماری Mixture-of-Experts (MoE) با مجموع ۳۵۸ میلیارد parameters استفاده می‌کند. این مدل به طور خاص طراحی شده است تا کارهای پیچیده agentic و استدلال با context طولانی را از طریق قابلیت‌های منحصربه‌فرد Preserved Thinking و Interleaved Thinking انجام دهد. این ویژگی‌ها به model اجازه می‌دهند تا منطق پایدار و وضعیت‌های استدلالی میانی را در جلسات چند‌نوبتی حفظ کند و مشکل فروپاشی context که در جریان‌های کاری خودمختار رایج است را برطرف نماید.

عملکرد و معماری

این model یک context window با ظرفیت ۲۰۰,۰۰۰ token را در کنار ظرفیت خروجی عظیم ۱۳۱,۰۷۲ token ارائه می‌دهد. این ویژگی باعث می‌شود که برای تولید برنامه‌های کامل یا تحلیل مستندات گسترده در یک مرحله مناسب باشد. این مدل که تحت مجوز MIT به عنوان یک open-weight model منتشر شده است، کدنویسی و استدلال با عملکرد بالا را با کسری از هزینه جایگزین‌های اختصاصی ارائه می‌دهد.

ادغام و استفاده

این مدل کاملاً با فرمت OpenAI API سازگار است که ادغام در اکوسیستم‌های نرم‌افزاری موجود را ساده می‌کند. توسعه‌دهندگان از آن برای کارهای مهندسی نرم‌افزار حساس استفاده می‌کنند، جایی که امتیاز ۷۳.۸٪ در SWE-bench Verified را کسب کرده است. توانایی آن در پردازش و تحلیل حجم بالایی از مستندات فنی بین انگلیسی و چینی با ظرافت‌های زبانی در سطح بومی، آن را به ابزاری همه‌کاره برای تیم‌های توسعه بین‌المللی تبدیل کرده است.

GLM-4.7

موارد استفاده برای GLM-4.7

روش‌های مختلف استفاده از GLM-4.7 برای دستیابی به نتایج عالی را کشف کنید.

مهندسی نرم‌افزار خودمختار

استفاده از توانایی ۷۳.۸٪ در SWE-bench برای دیباگ، refactor و پیاده‌سازی خودکار ویژگی‌های جدید در مخازن (repositories) پیچیده.

سنتز اسناد با ظرفیت بالا

استفاده از محدودیت خروجی ۱۳۱k برای تولید کتابچه‌های فنی جامع یا فصل‌های کامل کتاب از مجموعه‌ داده‌های بزرگ.

جریان‌های کاری agentic طولانی‌مدت

استقرار agentهایی که از Preserved Thinking استفاده می‌کنند تا ثبات و منطق را در صدها کار متوالی بدون از دست دادن context حفظ کنند.

هوش تجاری دو زبانه

پردازش و تحلیل حجم بالایی از مستندات فنی بین انگلیسی و چینی با ظرافت‌های زبانی در سطح بومی.

تولید خودکار کد UI/UX

تولید معماری‌های کامل فرانت‌اند React یا Next.js با انیمیشن‌های پیشرفته و استایل‌های آماده برای تولید در یک مرحله.

حل مسائل ریاضی در سطح المپیاد

حل مسائل پیچیده ریاضی در سطح المپیاد و پازل‌های منطق نمادین با استفاده از حالت مخصوص استدلال سنگین (thinking mode).

نقاط قوت

محدودیت‌ها

عملکرد کدنویسی سطح بالا: کسب امتیاز ۷۳.۸٪ در SWE-bench Verified که از تقریباً تمام مدل‌های open-source پیشی گرفته و با برترین APIهای اختصاصی برابری می‌کند.
محدودیت فقط-متنی: برخلاف Gemini یا GPT-4o، مدل GLM-4.7 فاقد پردازش بومی بینایی یا صوتی است و برای کارهای multimodal به مدل‌های خارجی نیاز دارد.
سقف خروجی عظیم: محدودیت خروجی ۱۳۱,۰۷۲ token یکی از بالاترین‌ها در صنعت است که امکان تولید برنامه‌های کامل را در یک نوبت فراهم می‌کند.
نیازهای سخت‌افزاری عظیم محلی: با ۳۵۸ میلیارد parameters، اجرای محلی این model نیازمند سخت‌افزار قابل توجهی (تقریباً ۷۱۰ گیگابایت VRAM) است که آن را برای GPUهای مصرف‌کننده غیرقابل دسترس می‌کند.
معماری Agent-First: دارای Preserved Thinking برای حفظ ثبات منطقی در کارهای طولانی‌مدت و حل مشکل فروپاشی context در agentهای خودمختار.
افزایش گاه‌به‌گاه Latency: کاربران در سطح API شخصی، گزارش‌هایی از کندی‌های دوره‌ای در ساعات اوج مصرف در مقایسه با زیرساخت ارائه‌دهندگان بزرگ‌تر ثبت کرده‌اند.
ارزش اقتصادی بالا: ارائه هوش در سطح frontier با هزینه‌ای تقریباً ۴ تا ۷ برابر کمتر از رقبای غربی مانند OpenAI یا Anthropic.
نکات خاص در پایبندی به دستورالعمل‌ها: اگرچه در استدلال قوی است، اما این model گاهی اوقات محدودیت‌های ساختار فایل خاص را در جلسات کدنویسی بسیار پیچیده نادیده می‌گیرد.

شروع سریع API

zai/glm-4.7

مشاهده مستندات
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'YOUR_ZAI_API_KEY',
  baseURL: 'https://api.z.ai/api/paas/v4/',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'glm-4.7',
    messages: [{ role: 'user', content: 'Design a scalable React architecture.' }],
    thinking: { type: 'enabled' }
  });
  console.log(response.choices[0].message.content);
}
main();

SDK را نصب کنید و در عرض چند دقیقه شروع به فراخوانی API کنید.

مردم درباره GLM-4.7 چه می‌گویند

ببینید جامعه درباره GLM-4.7 چه فکر می‌کند

GLM-4.7 به دلیل داشتن ۱۲۸k context، کدهای حجیم را به خوبی مدیریت می‌کند. برای کارهای فرعی جهت صرفه‌جویی در هزینه‌های API اصلی، به طرز شگفت‌انگیزی مفید بوده است.
IulianHI
reddit
مدل GLM-4.7 شرکت Zhipu AI در کدنویسی با proprietary frontier modelهایی مانند GPT-5.1 High برابری می‌کند. قابلیت Preserved Thinking یک پیروزی بزرگ برای autonomous agentها است.
Etienne Noumen
youtube
مدل GLM-4.7 همچنان هوشمندترین open weights model در Intelligence Index v4.0 است و بالاتر از DeepSeek V3.2 قرار دارد.
Artificial Analysis
twitter
مدل‌های چینی در زمینه ابزارهای کدنویسی به سرعت در حال کاهش فاصله هستند. این امتیاز ۷۳٪ در SWE-bench برای یک open weight release شوخی نیست.
Epoch AI
hackernews
سرعت استدلال برای مدلی با این اندازه در واقع بسیار مناسب است. این مدل منطق پیچیده را بسیار بهتر از نسخه‌های قبلی مدیریت می‌کند.
Bijan Bowen
youtube
مدل GLM-4.7 در رتبه ۶ AI Index قرار می‌گیرد و از Kimi K2 پیشی می‌گیرد. کشف کنید که چرا این مدل ۲ دلاری در حال جایگزینی GPT-5.2 در جریان‌های کاری کدنویسی است.
TowardsAI
twitter

ویدیوهای درباره GLM-4.7

آموزش‌ها، بررسی‌ها و بحث‌های درباره GLM-4.7 را تماشا کنید

طول context در اینجا ۲۰۰k است و حداکثر token خروجی ۱۲۸k است که در واقع بسیار قدرتمند است.

بسیار خب، این واقعاً چشمگیر است. هیچ‌کدام از آن‌ها ویژگی خاصی با این سطح از پیچیدگی ارائه نداده‌اند.

سرعت استدلال برای مدلی با این اندازه در واقع بسیار مناسب است.

این مدل منطق پیچیده را بسیار بهتر از نسخه‌های قبلی مدیریت می‌کند.

این مدل از نظر ثبات منطقی گام مهمی به جلو است.

مدل GLM در واقع با قرار دادن تمام داده‌های آزمایشی (mock data) در یک فایل، معماری بهتری پیاده‌سازی کرد.

این مدل قطعاً یک جهش بزرگ است. آن benchmarkها با تست‌هایی که انجام داده‌ام توجیه می‌شوند.

بدون اینکه نیاز باشد یادآوری کنم، context کل پروژه را درک کرد.

توانایی کدنویسی آن به جرأت با بهترین مدل‌های موجود برابری می‌کند.

شما در حال دریافت استدلال سطح بالا با کسری از هزینه هستید.

این مدل امتیاز ۷۳.۸٪ را در Swaybench verified کسب کرد که برای یک open-source model فوق‌العاده است.

شما واقعاً می‌توانید ببینید که کار می‌کند. در حالی که تولید Gemini 3 Pro اصلاً کار نمی‌کند.

سرعت تولید برای این سطح از هوش قابل توجه است.

این مدل به وضوح برای توسعه‌دهندگانی طراحی شده که به خروجی کد قابل اعتماد نیاز دارند.

شرکت Zhipu AI واقعاً با تنظیم معماری MoE در اینجا شاهکار کرده است.

بیشتر از فقط پرامپت

گردش کار خود را با اتوماسیون AI

Automatio قدرت عامل‌های AI، اتوماسیون وب و ادغام‌های هوشمند را ترکیب می‌کند تا به شما کمک کند در زمان کمتر بیشتر انجام دهید.

عامل‌های AI
اتوماسیون وب
گردش‌کارهای هوشمند

نکات حرفه‌ای برای GLM-4.7

نکات تخصصی برای کمک به شما در استفاده حداکثری از GLM-4.7 و دستیابی به نتایج بهتر.

فعال‌سازی Thinking Mode برای منطق

پارامتر thinking را برای کارهای کدنویسی یا ریاضی بر روی enabled قرار دهید تا از زنجیره‌های استدلالی (reasoning traces) داخلی model استفاده کرده و دقت را بهبود بخشید.

استفاده از SDKهای سازگار با OpenAI

با استفاده از OpenAI SDK و تغییر base URL به endpoint مربوط به Z.ai، مدل GLM-4.7 را در جریان‌های کاری فعلی خود ادغام کنید.

به حداکثر رساندن خروجی ۱۳۱K

هنگام تولید محتوای طولانی، ابتدا یک طرح کلی دقیق ارائه دهید تا به model کمک کنید انسجام ساختاری خود را در محدودیت عظیم token حفظ کند.

بهینه‌سازی System Prompts برای agentها

الزامات Preserved Thinking را در پیام سیستمی تعریف کنید تا مطمئن شوید model از وضعیت‌های استدلالی در جلسات چند‌نوبتی دوباره استفاده می‌کند.

نظرات

کاربران ما چه می‌گویند

به هزاران کاربر راضی که گردش کار خود را متحول کرده‌اند بپیوندید

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

مرتبط AI Models

openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

سوالات متداول درباره GLM-4.7

پاسخ سوالات رایج درباره GLM-4.7 را بیابید