zhipu

GLM-5

GLM-5 — это мощная open-weight модель Zhipu AI на 744B parameters, превосходящая конкурентов в долгосрочных агентных задачах, кодинге и фактической точности...

Open WeightsAgentic EngineeringMoEZhipu AICoding AI
zhipu logozhipuGLM11 февраля 2026 г.
Контекст
200Kтокенов
Макс. вывод
128Kтокенов
Цена ввода
$1.00/ 1M
Цена вывода
$3.20/ 1M
Модальность:Text
Возможности:ИнструментыПотоковая передачаРассуждение
Бенчмарки
GPQA
68.2%
GPQA: Научные вопросы уровня докторантуры. Строгий бенчмарк с 448 вопросами с множественным выбором по биологии, физике и химии, созданными экспертами в данных областях. Эксперты с PhD достигают лишь 65-74% точности, в то время как неспециалисты набирают только 34% даже при неограниченном доступе в интернет (отсюда название 'устойчивый к Google'). GLM-5 набрал 68.2% в этом бенчмарке.
HLE
32%
HLE: Рассуждение высокого уровня экспертизы. Тестирует способность модели демонстрировать рассуждения экспертного уровня в специализированных областях. Оценивает глубокое понимание сложных тем, требующих знаний профессионального уровня. GLM-5 набрал 32% в этом бенчмарке.
MMLU
85%
MMLU: Массовое многозадачное языковое понимание. Комплексный бенчмарк с 16 000 вопросами с множественным выбором по 57 академическим предметам, включая математику, философию, право и медицину. Тестирует широкие знания и способности к рассуждению. GLM-5 набрал 85% в этом бенчмарке.
MMLU Pro
70.4%
MMLU Pro: MMLU профессиональная версия. Улучшенная версия MMLU с 12 032 вопросами в более сложном формате с 10 вариантами ответа. Охватывает математику, физику, химию, право, инженерию, экономику, здравоохранение, психологию, бизнес, биологию, философию и информатику. GLM-5 набрал 70.4% в этом бенчмарке.
SimpleQA
48%
SimpleQA: Бенчмарк фактической точности. Тестирует способность модели давать точные, фактические ответы на прямые вопросы. Измеряет надежность и снижает галлюцинации в задачах извлечения знаний. GLM-5 набрал 48% в этом бенчмарке.
IFEval
88%
IFEval: Оценка следования инструкциям. Измеряет, насколько хорошо модель следует конкретным инструкциям и ограничениям. Тестирует способность соблюдать правила форматирования, ограничения длины и другие явные требования. GLM-5 набрал 88% в этом бенчмарке.
AIME 2025
84%
AIME 2025: Американский пригласительный математический экзамен. Математические задачи соревновательного уровня с престижного экзамена AIME, предназначенного для талантливых старшеклассников. Тестирует продвинутое математическое решение задач, требующее абстрактного мышления, а не просто сопоставления паттернов. GLM-5 набрал 84% в этом бенчмарке.
MATH
88%
MATH: Решение математических задач. Комплексный математический бенчмарк, тестирующий решение задач по алгебре, геометрии, анализу и другим математическим областям. Требует многошагового рассуждения и формальных математических знаний. GLM-5 набрал 88% в этом бенчмарке.
GSM8k
97%
GSM8k: Математика начальной школы 8K. 8 500 математических задач уровня начальной школы, требующих многошагового рассуждения. Тестирует базовую арифметику и логическое мышление через жизненные сценарии, такие как покупки или расчет времени. GLM-5 набрал 97% в этом бенчмарке.
MGSM
90%
MGSM: Многоязычная математика начальной школы. Бенчмарк GSM8k, переведенный на 10 языков, включая испанский, французский, немецкий, русский, китайский и японский. Тестирует математическое рассуждение на разных языках. GLM-5 набрал 90% в этом бенчмарке.
MathVista
0%
MathVista: Математическое визуальное рассуждение. Тестирует способность решать математические задачи, включающие визуальные элементы, такие как графики, геометрические диаграммы и научные рисунки. Сочетает визуальное понимание с математическим рассуждением. GLM-5 набрал 0% в этом бенчмарке.
SWE-Bench
77.8%
SWE-Bench: Бенчмарк программной инженерии. ИИ-модели пытаются решить реальные проблемы GitHub в проектах Python с открытым исходным кодом с человеческой верификацией. Тестирует практические навыки программной инженерии на производственных кодовых базах. Лучшие модели улучшились с 4,4% в 2023 до более 70% в 2024. GLM-5 набрал 77.8% в этом бенчмарке.
HumanEval
90%
HumanEval: Задачи программирования на Python. 164 вручную написанные задачи программирования, где модели должны генерировать правильные реализации функций Python. Каждое решение проверяется юнит-тестами. Лучшие модели теперь достигают более 90% точности. GLM-5 набрал 90% в этом бенчмарке.
LiveCodeBench
52%
LiveCodeBench: Бенчмарк живого кодирования. Тестирует навыки программирования на постоянно обновляемых задачах из реального мира. В отличие от статических бенчмарков, использует свежие задачи для предотвращения загрязнения данных и измерения реальных навыков кодирования. GLM-5 набрал 52% в этом бенчмарке.
MMMU
0%
MMMU: Мультимодальное понимание. Массовый мультидисциплинарный мультимодальный бенчмарк понимания, тестирующий модели зрения и языка на задачах университетского уровня по 30 предметам, требующим понимания изображений и экспертных знаний. GLM-5 набрал 0% в этом бенчмарке.
MMMU Pro
0%
MMMU Pro: MMMU профессиональная версия. Улучшенная версия MMMU с более сложными вопросами и строгой оценкой. Тестирует продвинутое мультимодальное рассуждение на профессиональном и экспертном уровнях. GLM-5 набрал 0% в этом бенчмарке.
ChartQA
0%
ChartQA: Вопросы и ответы по диаграммам. Тестирует способность понимать и рассуждать об информации, представленной в диаграммах и графиках. Требует извлечения данных, сравнения значений и выполнения вычислений из визуальных представлений данных. GLM-5 набрал 0% в этом бенчмарке.
DocVQA
0%
DocVQA: Визуальные Q&A по документам. Бенчмарк визуальных вопросов и ответов по документам, тестирующий способность извлекать и рассуждать об информации из изображений документов, включая формы, отчеты и отсканированный текст. GLM-5 набрал 0% в этом бенчмарке.
Terminal-Bench
56.2%
Terminal-Bench: Задачи Terminal/CLI. Тестирует способность выполнять операции командной строки, писать shell-скрипты и работать в терминальных средах. Измеряет практические навыки системного администрирования и рабочих процессов разработки. GLM-5 набрал 56.2% в этом бенчмарке.
ARC-AGI
12%
ARC-AGI: Абстракция и рассуждение. Корпус абстракции и рассуждения для AGI - тестирует флюидный интеллект через новые головоломки распознавания паттернов. Каждая задача требует обнаружения базового правила из примеров, измеряя общую способность к рассуждению, а не запоминание. GLM-5 набрал 12% в этом бенчмарке.

О модели GLM-5

Узнайте о возможностях, функциях и способах использования GLM-5.

GLM-5, это флагманская базовая модель от Zhipu AI, разработанная для автономных agentic рабочих процессов и проектирования сложных систем. Она использует архитектуру Mixture-of-Experts (MoE) с колоссальными 744 миллиардами parameters, из которых 40 миллиардов параметров активны во время inference, что позволяет сбалансировать производительность и скорость. Это первая open-weight система, демонстрирующая паритет с проприетарными frontier моделями в задачах разработки ПО, набирающая 77.8% в SWE-bench Verified.

Модель была обучена на 28.5 триллионах tokens с использованием отечественного кластера из 100 000 чипов Huawei Ascend. Она включает в себя специализированные механизмы, такие как Multi-head Latent Attention (MLA) и DeepSeek Sparse Attention (DSA), для поддержания логической согласованности на протяжении всего context window в 200 000 tokens. Этот технический стек позволяет GLM-5 эффективно справляться с долгосрочным планированием и управлением ресурсами без высокой latency, типичной для dense-моделей такого размера.

Zhipu AI выпустила GLM-5 под лицензией MIT, позволяя корпоративным пользователям развертывать веса локально для обработки чувствительных данных. При стоимости входных данных всего $1.00 за миллион tokens она предлагает 6-кратное ценовое преимущество перед такими моделями, как Claude 4.5. В модель встроен специальный режим Thinking Mode, который значительно снижает уровень галлюцинаций по сравнению с предыдущими версиями.

GLM-5

Варианты использования GLM-5

Откройте для себя различные способы использования GLM-5 для достижения отличных результатов.

Автономная разработка ПО

Решение сложных проблем на GitHub и проведение рефакторинга всего репозитория с использованием показателя 77.8% в SWE-bench Verified.

Оркестрация корпоративных инструментов

Выполнение многошаговых agentic рабочих процессов через внутренние API для автоматизации бэк-офиса в финансовом и юридическом секторах.

Анализ репозиториев с длинным контекстом

Использование окна в 200 000 tokens для загрузки и анализа целых наборов документации или многофайловых кодовых баз за один проход.

Персональные AI-помощники

Поддержка open-source агентов, таких как OpenClaw, для управления электронной почтой, календарями и фоновыми задачами в режиме 24/7 с высокой надежностью.

Локальный Private AI

Развертывание open-weight модели локально под лицензией MIT для обеспечения полной конфиденциальности данных при работе с критически важными корпоративными операциями.

Экономичное масштабирование агентов

Запуск большого количества agentic сессий с затратами в 6-8 раз ниже по сравнению с проприетарными frontier моделями без потери глубины reasoning.

Преимущества

Ограничения

Элитная производительность в кодинге: Достигает 77.8% в SWE-bench Verified, что соответствует уровню проприетарных гигантов вроде Claude Opus в задачах автономного программирования.
Отсутствие нативной поддержки Vision: Модель не обладает способностью напрямую обрабатывать изображения, что ограничивает её использование в современных мультимодальных UI/UX рабочих процессах.
Ценовое преимущество 6x: Предлагает reasoning уровня frontier по цене всего $1.00 за 1 млн входных tokens, что делает крупномасштабное агентное развертывание экономически выгодным.
Задержки в терминальных задачах: Результаты на Terminal-Bench 2.0 составляют 56.2%, что немного отстает от лидеров среди топовых проприетарных конкурентов.
Веса под лицензией MIT: Полная доступность open-weight на Hugging Face позволяет выполнять частное локальное развертывание на оборудовании Huawei Ascend или NVIDIA.
Частота галлюцинаций: Ранние benchmark показывают уровень галлюцинаций около 30% для специфических задач со сложным reasoning, что выше, чем у некоторых топовых конкурентов.
Огромная вместимость контекста: Context window в 200 тысяч tokens в сочетании с 128 тысячами выходных tokens идеально подходит для анализа репозиториев и генерации длинных текстов.
Аппаратные различия: Обучение на оборудовании Huawei Ascend может приводить к незначительным отклонениям в производительности при развертывании в стандартных программных стеках, ориентированных на NVIDIA.

Быстрый старт API

zai/glm-5

Посмотреть документацию
zhipu SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: "https://open.bigmodel.cn/api/paas/v4/",
});

const response = await client.chat.completions.create({
  model: "glm-5",
  messages: [{ role: "user", content: "Analyze this repo structure and refactor to GraphQL." }],
  stream: true,
});

for await (const chunk of response) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

Установите SDK и начните делать API-запросы за несколько минут.

Что люди говорят о GLM-5

Посмотрите, что думает сообщество о GLM-5

GLM-5, это open-source модель на 744B parameters, которая по уровню кодинга близка к Claude Opus... но разница в цене имеет значение.
Odd-Coconut-2067
reddit
Окно в 200 000 tokens меняет ваш рабочий процесс: анализируйте более 20 файлов для одного рефакторинга или проверяйте сложные PR-диффы за один проход.
AskCodi
reddit
Я перестал тратить ~$90 в месяц на Claude API и теперь трачу менее $15 с GLM-5, при этом не заметив существенного снижения качества.
IulianHI
reddit
Уровень её галлюцинаций находится в пределах 30% против, не знаю, 88% у Gemini 3 Pro.
Sid
youtube
GLM-5 вышла до того, как я успел протестировать 4.7, и скачок в способностях reasoning действительно заметен в повседневном программировании.
able_wong
twitter
То, что Zhipu выпустили её под лицензией MIT, это огромный шаг для сообщества локальных LLM.
dev_tester
twitter

Видео о GLM-5

Смотрите обучающие материалы, обзоры и обсуждения о GLM-5

Идет вровень с моделями уровня 5.2 и Opus 4.5.

Это первая open-weight модель, на которой я успешно выполнил задачу, занявшую более часа, без каких-либо проблем.

Уровень галлюцинаций находится в районе 30% против, не знаю, 88% у Gemini 3 Pro.

Плотность reasoning значительно выше, чем у GLM-4.

Для моих внутренних задач по программированию она практически заменила Claude 3.5 Sonnet.

Они буквально удвоили, почти удвоили количество parameters... до 744.

Несмотря на то, что модель намного больше, она работает почти так же быстро или даже быстрее, чем старая версия.

Самокоррекция. Не будьте снисходительны. Относитесь к этому как к валидному вопросу.

Механизм sparse attention позволяет поддерживать низкое использование памяти для такой большой модели.

Доступность open-weight делает её новым чемпионом для локального хостинга.

Они создали свой собственный RL-движок под названием Slime.

Context window в 200 000 tokens меняет само понимание того, что такое корпоративный AI.

Она набирает 77.8 баллов в SWE-bench verified, обгоняя Gemini 3 Pro с его 76.2.

Zhipu AI доказывает, что на отечественном оборудовании можно обучать модели мирового уровня.

Основной акцент сделан на агентную инженерию, а не просто на чат.

Больше чем просто промпты

Улучшите свой рабочий процесс с ИИ-Автоматизацией

Automatio объединяет мощь ИИ-агентов, веб-автоматизации и умных интеграций, чтобы помочь вам достигать большего за меньшее время.

ИИ Агенты
Веб Автоматизация
Умные Процессы

Советы для GLM-5

Экспертные советы для максимальной эффективности GLM-5.

Активация Agentic Mode

Формулируйте многошаговые планы в своих prompt, так как GLM-5 оптимизирована для автономной инженерной работы, а не просто для общения в чате.

Выделение локальных аппаратных ресурсов

Убедитесь, что у вас есть достаточный объем VRAM или используется нативное оборудование Huawei Ascend с фреймворком MindSpore для обеспечения оптимальной пропускной способности (throughput).

Настройка цепочек резервирования

Настройте GLM-5 как основную модель для reasoning, а GLM-4.7-Flash используйте как экономичную альтернативу для более простых инструкций.

Использование Structured Output

GLM-5 отлично справляется с генерацией точных форматов .docx и .xlsx при условии четких требований к структуре данных.

Отзывы

Что Говорят Наши Пользователи

Присоединяйтесь к тысячам довольных пользователей, которые трансформировали свой рабочий процесс

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Похожие AI Models

anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 4.5 Sonnet

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M

Часто задаваемые вопросы о GLM-5

Найдите ответы на частые вопросы о GLM-5