zhipu

GLM-5

يعد GLM-5 قوة ضاربة من Zhipu AI بـ 744 مليار parameter و open-weight، وهو يتفوق في مهام الـ agentic طويلة الأمد، والبرمجة، والدقة الواقعية مع context window...

Open WeightsAgentic EngineeringMoEZhipu AICoding AI
zhipu logozhipuGLMFebruary 11, 2026
نافذة السياق
200Kرموز
أقصى مخرج
128Kرموز
سعر الإدخال
$1.00/ 1M
سعر الإخراج
$3.20/ 1M
الوضع:Text
القدرات:الأدواتالبثالاستدلال
المعايير
GPQA
68.2%
GPQA: أسئلة علمية مستوى الدراسات العليا. معيار صارم مع 448 سؤالاً من الأحياء والفيزياء والكيمياء. خبراء الدكتوراه يحققون فقط 65-74% دقة. حقق GLM-5 درجة 68.2% في هذا المعيار.
HLE
32%
HLE: استدلال مستوى الخبير. يختبر قدرة النموذج على إظهار استدلال مستوى الخبير في المجالات المتخصصة. حقق GLM-5 درجة 32% في هذا المعيار.
MMLU
85%
MMLU: فهم اللغة متعدد المهام الضخم. معيار شامل مع 16,000 سؤال في 57 مادة أكاديمية. حقق GLM-5 درجة 85% في هذا المعيار.
MMLU Pro
70.4%
MMLU Pro: MMLU النسخة المهنية. نسخة محسنة من MMLU مع 12,032 سؤالاً وتنسيق 10 خيارات أصعب. حقق GLM-5 درجة 70.4% في هذا المعيار.
SimpleQA
48%
SimpleQA: معيار الدقة الواقعية. يختبر قدرة النموذج على تقديم إجابات دقيقة وواقعية. حقق GLM-5 درجة 48% في هذا المعيار.
IFEval
88%
IFEval: تقييم اتباع التعليمات. يقيس مدى جودة اتباع النموذج للتعليمات والقيود المحددة. حقق GLM-5 درجة 88% في هذا المعيار.
AIME 2025
84%
AIME 2025: امتحان الرياضيات الأمريكي بالدعوة. مسائل رياضيات مستوى المنافسة من امتحان AIME المرموق. حقق GLM-5 درجة 84% في هذا المعيار.
MATH
88%
MATH: حل المسائل الرياضية. معيار رياضيات شامل يختبر حل المسائل في الجبر والهندسة والتفاضل والتكامل. حقق GLM-5 درجة 88% في هذا المعيار.
GSM8k
97%
GSM8k: رياضيات المدرسة الابتدائية 8K. 8,500 مسألة رياضية كلامية مستوى المدرسة الابتدائية. حقق GLM-5 درجة 97% في هذا المعيار.
MGSM
90%
MGSM: رياضيات ابتدائية متعددة اللغات. معيار GSM8k مترجم إلى 10 لغات. حقق GLM-5 درجة 90% في هذا المعيار.
MathVista
0%
MathVista: الاستدلال البصري الرياضي. يختبر القدرة على حل المسائل الرياضية مع عناصر بصرية. حقق GLM-5 درجة 0% في هذا المعيار.
SWE-Bench
77.8%
SWE-Bench: معيار هندسة البرمجيات. نماذج الذكاء الاصطناعي تحاول حل مشكلات GitHub حقيقية في مشاريع Python. حقق GLM-5 درجة 77.8% في هذا المعيار.
HumanEval
90%
HumanEval: مسائل برمجة Python. 164 مسألة برمجة حيث يجب على النماذج إنشاء تنفيذات صحيحة لدوال Python. حقق GLM-5 درجة 90% في هذا المعيار.
LiveCodeBench
52%
LiveCodeBench: معيار البرمجة المباشرة. يختبر قدرات البرمجة على تحديات برمجة واقعية محدثة باستمرار. حقق GLM-5 درجة 52% في هذا المعيار.
MMMU
0%
MMMU: الفهم متعدد الوسائط. معيار الفهم متعدد الوسائط من 30 مادة جامعية. حقق GLM-5 درجة 0% في هذا المعيار.
MMMU Pro
0%
MMMU Pro: MMMU النسخة المهنية. نسخة محسنة من MMMU مع أسئلة أكثر تحدياً. حقق GLM-5 درجة 0% في هذا المعيار.
ChartQA
0%
ChartQA: أسئلة وأجوبة الرسوم البيانية. يختبر القدرة على فهم وتحليل المعلومات من الرسوم البيانية والمخططات. حقق GLM-5 درجة 0% في هذا المعيار.
DocVQA
0%
DocVQA: أسئلة بصرية للمستندات. يختبر القدرة على استخراج المعلومات من صور المستندات. حقق GLM-5 درجة 0% في هذا المعيار.
Terminal-Bench
56.2%
Terminal-Bench: مهام Terminal/CLI. يختبر القدرة على تنفيذ عمليات سطر الأوامر. حقق GLM-5 درجة 56.2% في هذا المعيار.
ARC-AGI
12%
ARC-AGI: التجريد والاستدلال. يختبر الذكاء المرن من خلال ألغاز جديدة للتعرف على الأنماط. حقق GLM-5 درجة 12% في هذا المعيار.

حول GLM-5

تعرف على قدرات GLM-5 والميزات وكيف يمكن أن يساعدك في تحقيق نتائج أفضل.

يُعد GLM-5 الـ flagship foundation model من الجيل التالي لشركة Zhipu AI، والمصمم خصيصاً لإعادة تعريف حالة الـ Agentic Engineering لأنظمة الـ open-weight. يعتمد الـ model على بنية Mixture of Experts (MoE) هائلة تضم 744 مليار parameter مع 40 مليار active parameters، وهو أول open-weights model يسد فجوة الأداء مع العمالقة الـ proprietary مثل Claude 4.5. يتميز هذا الـ model بكثافة المنطق وهندسة البرمجيات، محققاً إنجازاً بنسبة 77.8% في SWE-Bench Verified.

من الناحية التقنية، يدمج GLM-5 تقنيات Multi-head Latent Attention (MLA) وآليات Sparse Attention لتحسين كفاءة الـ tokens وتقليل استهلاك الـ RAM بنسبة 33%. تم تدريبه على نطاق 28.5 تريليون tokens باستخدام تجمعات خوادم محلية مكونة من 100,000 شريحة Huawei Ascend، مما يثبت أن الـ frontier reasoning ممكن دون الاعتماد على أجهزة NVIDIA المتطورة. مع context window بحجم 200,000 tokens و 'Thinking Mode' متخصص، فإنه يوفر مخرجات قوية ومنخفضة الهلوسة لتدفقات العمل التقنية عالية الدقة.

تم تحسين GLM-5 من أجل الموثوقية، وهو يعمل كأساس للـ autonomous technical agents القادرة على الحفاظ على حالة مستمرة عبر عمليات تنفيذ طويلة الأمد. إن ترخيصه المرن (MIT) وتسعيره التنافسي البالغ 1.00 دولار لكل مليون input tokens يجعله خياراً مثالياً للمؤسسات التي تسعى للنشر المحلي أو تكامل الـ API واسع النطاق دون القيود المفروضة من البدائل الـ proprietary.

GLM-5

حالات استخدام GLM-5

اكتشف الطرق المختلفة لاستخدام GLM-5 لتحقيق نتائج رائعة.

هندسة الأنظمة المعقدة

تصميم وصيانة معماريات الـ microservice مع إدارة آلية ومستقلة للتبعيات.

مهام Agentic طويلة الأمد

تنفيذ تدفقات عمل تقنية متعددة الخطوات تتطلب ذاكرة مستمرة لأكثر من ساعة من التنفيذ.

ترحيل قواعد الكود القديمة (Legacy Codebase)

إعادة هيكلة (refactoring) المستودعات بالكامل وتحديث التبعيات القديمة عبر context window تبلغ 200k token.

أبحاث تقنية منخفضة الهلوسة

إجراء أبحاث تقنية عالية الدقة حيث تكون الدقة الواقعية والامتناع عن الإجابة الخاطئة أمراً بالغ الأهمية.

عمليات الـ Terminal المستقلة

تشغيل dev-agents يمكنها إجراء عمليات التدقيق الأمني وأوامر إدارة النظام بشكل مستقل.

النشر العالمي ثنائي اللغة

توفير reasoning من الدرجة الأولى باللغتين الإنجليزية والصينية لتطبيقات المؤسسات المحلية على نطاق واسع.

نقاط القوة

القيود

ذكاء Agentic نخبة: يحقق أعلى درجات Agentic Index (63) بين الـ open-weight models في تنفيذ المهام متعددة الخطوات.
غياب الـ Multimodality الأصلية: يفتقر إلى قدرات معالجة الـ vision والصوت والفيديو الموجودة في المنافسين الـ multimodal مثل GPT-4o.
معدل هلوسة منخفض: يظهر انخفاضاً بنسبة 56% في الهلوسة مقارنة بالأجيال السابقة، مع إعطاء الأولوية للدقة الواقعية.
متطلبات استضافة فائقة: أوزان الـ BF16 بحجم 1.5 تيرابايت تجعل النشر المحلي مستحيلاً لجميع المستخدمين تقريباً دون بنية تحتية سحابية.
كفاءة MoE هائلة: توفر بنية الـ 744B parameter كثافة منطقية flagship بينما يقلل الـ MLA من استهلاك الـ RAM بنسبة 33%.
زمن استجابة (latency) عالٍ: يمكن أن يكون وقت الاستجابة للـ token الأول (time-to-first-token) مرتفعاً (أكثر من 7 ثوانٍ) في الـ APIs العامة مقارنة بالـ 'flash' models الأصغر.
ترخيص MIT مرن: تم إصداره بموجب ترخيص open-source حقيقي، مما يسمح بالاستخدام التجاري غير المقيد دون شروط استثنائية.
دقة تصميم الـ Frontend: رغم تميزه في المنطق، قد يواجه أحياناً صعوبة في اللمسات الجمالية الدقيقة لـ CSS مقارنة بـ Claude.

البدء السريع API

zai/glm-5

عرض التوثيق
zhipu SDK
import { ZhipuAI } from "zhipuai-sdk";

const client = new ZhipuAI({ apiKey: "YOUR_API_KEY" });

async function main() {
  const response = await client.chat.completions.create({
    model: "glm-5",
    messages: [{ role: "user", content: "Analyze this repo for security vulnerabilities." }],
    stream: true,
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0].delta.content || "");
  }
}

main();

ثبت SDK وابدأ في إجراء استدعاءات API في دقائق.

ماذا يقول الناس عن GLM-5

شاهد رأي المجتمع في GLM-5

"GLM-5 هو القائد الجديد للـ open weights! لقد سجل 50 درجة في Intelligence Index، وهو ما يقلص الفجوة بشكل كبير."
Artificial Analysis
x
"هذا الـ model لا يصدق. لقد نجحت في تشغيل مهمة استغرقت أكثر من ساعة... لقد أبهرني."
Theo - t3.gg
youtube
"استخدم GLM-5 صفر من رقائق NVIDIA، وبـ 745B params، وتكلفة 1 دولار لكل مليون input tokens. هذا هو المستقبل."
Legendary
x
"معدل الهلوسة مذهل؛ إنه مستعد تماماً لقول 'لا أعرف' بدلاً من الكذب عليك."
DevUser456
reddit
"Zhipu AI أطلقت التحدي الحقيقي للـ open source coding models."
AIExplorer
hackernews
"أخيراً، open weight model لا يفقد تركيزه في منتصف مهمة معقدة."
CodeMaster
reddit

فيديوهات عن GLM-5

شاهد الدروس والمراجعات والنقاشات عن GLM-5

إنه أفضل open-weight model رأيته حتى الآن، خاصة في المهام المتعلقة بالـ code.

حقيقة أن هذا هو أول open-weight model أتمكن من تشغيل مهمة استغرقت أكثر من ساعة عليه... أمر أبهرني حقاً.

يبدو أنه الـ model الأقل هلوسة من بين جميع الـ models حتى الآن.

نحن نشهد تحولاً هائلاً فيما يمكن أن تفعله الـ open weight models فعلياً في بيئة الإنتاج.

إن استقرار هذا الـ model خلال جلسات استخدام الأدوات الطويلة غير مسبوق حقاً.

تجربة الـ coding هنا قوية جداً... تقارن بـ GLM 4.7 الذي كان بالفعل استثنائياً.

كان تقديم الـ dynamic island في نموذج واجهة المستخدم الخاص به ميزة خاصة رائعة وغير متوقعة.

إنه يتفوق على كل الـ models الأخرى في فئته تقريباً من حيث المنطق المعقد.

عمق الـ reasoning هنا يذكرني بأول مرة استخدمت فيها o1، لكنه open weight.

بالنسبة لـ text-only model، فإنه يتعامل مع المنطق البصري في الكود بشكل أفضل من العديد من الـ vision models.

استخدام الـ RAM انخفض بشكل كبير... حصلنا على تحسينات في الـ RAM بمقدار 33 ضعفاً مقارنة بما كنا نفعله سابقاً.

لقد اجتاز اختبار منطق غسيل السيارات مع تفعيل الـ thinking، متفوقاً على Claude و GPT-4o.

يتطلب نشره خوادم قوية جداً، لكن الأداء مقابل استهلاك الطاقة مذهل.

لقد تعامل مع عملية ترحيل مستودع قديم (legacy repo) دون هلوسة اسم مكتبة واحدة.

وضع الـ thinking ليس مجرد خدعة؛ إنه يغير جودة المخرجات بشكل جذري.

أكثر من مجرد برومبتات

عزز سير عملك مع أتمتة الذكاء الاصطناعي

يجمع Automatio بين قوة وكلاء الذكاء الاصطناعي وأتمتة الويب والتكاملات الذكية لمساعدتك على إنجاز المزيد في وقت أقل.

وكلاء الذكاء الاصطناعي
أتمتة الويب
سير عمل ذكي

نصائح احترافية لـ GLM-5

نصائح الخبراء لمساعدتك على تحقيق أقصى استفادة من GLM-5 وتحقيق نتائج أفضل.

تفعيل Thinking Mode

يؤدي GLM-5 أداءً أفضل بكثير في الألغاز المنطقية المعقدة مثل اختبار 'غسيل السيارات' عند تفعيل الـ reasoning.

الاستفادة من ترخيص MIT

استغل الترخيص المرن للتطوير التجاري غير المقيد والاستضافة الداخلية.

تحسين استخدام الأدوات (Tool Use)

استخدم GLM-5 للمهام متعددة الخطوات حيث تم بناؤه خصيصاً لتحقيق استقرار عالٍ في تنفيذ الـ agentic tools.

استغلال الـ Context Window

أدخل قواعد الكود البرمجي بالكامل في نافذة الـ 200k لإجراء عمليات تدقيق أمني أو refactoring للمستودع بالكامل.

الشهادات

ماذا يقول مستخدمونا

انضم إلى الآلاف من المستخدمين الراضين الذين حولوا سير عملهم

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

ذو صلة AI Models

minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.30/$1.20/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
alibaba

Qwen3-Coder-Next

alibaba

Qwen3-Coder-Next is Alibaba Cloud's elite Apache 2.0 coding model, featuring an 80B MoE architecture and 256k context window for advanced local development.

256K context
$0.14/$0.42/1M
anthropic

Claude Sonnet 4.5

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
alibaba

Qwen-Image-2.0

alibaba

Qwen-Image-2.0 is Alibaba's unified 7B model for professional infographics, photorealism, and precise image editing with native 2K resolution and 1k-token...

1K context
$0.07/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M

الأسئلة الشائعة حول GLM-5

ابحث عن إجابات للأسئلة الشائعة حول GLM-5