zhipu

GLM-5.1

GLM-5.1はZhipu AIの旗艦となるreasoningモデルです。202Kのcontext windowを備え、複雑なagenticエンジニアリングのための8時間の自律実行ループを特徴とします。

ReasoningAgentic AIOpen WeightsCodingMultimodal
zhipu logozhipuGLM2026-04-08
コンテキスト
203Kトークン
最大出力
164Kトークン
入力価格
$1.40/ 1M
出力価格
$4.40/ 1M
モダリティ:TextImage
機能:ビジョンツールストリーミング推論
ベンチマーク
GPQA
86.2%
GPQA: 大学院レベル科学Q&A. 生物学、物理学、化学の448問の選択問題からなる厳格なベンチマーク。博士号専門家でも65-74%の正解率。 GLM-5.1はこのベンチマークで86.2%を記録しました。
HLE
31%
HLE: 高レベル専門推論. 専門分野でエキスパートレベルの推論を示すモデルの能力をテスト。 GLM-5.1はこのベンチマークで31%を記録しました。
MMLU
89%
MMLU: 大規模多タスク言語理解. 57の学術科目にわたる16,000問の選択問題からなる包括的なベンチマーク。 GLM-5.1はこのベンチマークで89%を記録しました。
MMLU Pro
89%
MMLU Pro: MMLUプロフェッショナル版. より難しい10択形式の12,032問を含むMMLUの強化版。 GLM-5.1はこのベンチマークで89%を記録しました。
IFEval
73%
IFEval: 指示遵守評価. モデルが特定の指示と制約にどれだけ従うかを測定。 GLM-5.1はこのベンチマークで73%を記録しました。
AIME 2025
95.3%
AIME 2025: アメリカ招待数学試験. 名門AIME試験からの競技レベルの数学問題。 GLM-5.1はこのベンチマークで95.3%を記録しました。
MATH
80%
MATH: 数学問題解決. 代数、幾何、微積分などの分野をテストする包括的な数学ベンチマーク。 GLM-5.1はこのベンチマークで80%を記録しました。
GSM8k
96%
GSM8k: 小学校算数8K. 多段階推論を必要とする8,500問の小学校レベルの算数文章問題。 GLM-5.1はこのベンチマークで96%を記録しました。
MGSM
90%
MGSM: 多言語小学校算数. GSM8kベンチマークを10言語に翻訳したもの。 GLM-5.1はこのベンチマークで90%を記録しました。
MathVista
70%
MathVista: 数学的視覚推論. グラフや図などの視覚要素を含む数学問題を解く能力をテスト。 GLM-5.1はこのベンチマークで70%を記録しました。
SWE-Bench
58.4%
SWE-Bench: ソフトウェアエンジニアリングベンチマーク. AIモデルがオープンソースPythonプロジェクトの実際のGitHub課題を解決しようとする。 GLM-5.1はこのベンチマークで58.4%を記録しました。
HumanEval
94.6%
HumanEval: Pythonプログラミング問題. モデルが正しいPython関数実装を生成する必要がある164問の手書きプログラミング問題。 GLM-5.1はこのベンチマークで94.6%を記録しました。
LiveCodeBench
68%
LiveCodeBench: ライブコーディングベンチマーク. 継続的に更新される実世界のプログラミングチャレンジでコーディング能力をテスト。 GLM-5.1はこのベンチマークで68%を記録しました。
MMMU
73%
MMMU: マルチモーダル理解. 大学レベルの問題でビジョン言語モデルをテストする大規模多分野マルチモーダル理解ベンチマーク。 GLM-5.1はこのベンチマークで73%を記録しました。
MMMU Pro
58%
MMMU Pro: MMMUプロフェッショナル版. より挑戦的な問題とより厳格な評価を備えたMMMUの強化版。 GLM-5.1はこのベンチマークで58%を記録しました。
ChartQA
89%
ChartQA: チャート質問応答. チャートやグラフに表示された情報を理解し推論する能力をテスト。 GLM-5.1はこのベンチマークで89%を記録しました。
DocVQA
93%
DocVQA: ドキュメント視覚Q&A. ドキュメント画像から情報を抽出する能力をテストするドキュメント視覚質問応答ベンチマーク。 GLM-5.1はこのベンチマークで93%を記録しました。
Terminal-Bench
63.5%
Terminal-Bench: ターミナル/CLIタスク. コマンドライン操作を実行し、シェルスクリプトを書く能力をテスト。 GLM-5.1はこのベンチマークで63.5%を記録しました。
ARC-AGI
12%
ARC-AGI: 抽象化と推論. AGIのための抽象化と推論コーパス - 新しいパターン認識パズルで流動的知性をテスト。 GLM-5.1はこのベンチマークで12%を記録しました。

GLM-5.1について

GLM-5.1の機能、特徴、そしてより良い結果を得るための方法について学びましょう。

GLM-5.1は、複雑なシステムエンジニアリングと長期的なagenticタスクのために設計されたZhipu AIの旗艦foundation modelです。7440億のparametersを持ち、パスごとに400億がアクティブになるMixture-of-Experts (MoE) アーキテクチャに基づいて構築されており、耐久性と自律的な問題解決において大きな飛躍を遂げました。このモデルは、初期のLLMに見られたreasoningの停滞を克服するように特別に設計されており、数千回のtool-callや何百回もの反復を通じて生産性とコード品質を維持します。人間の介入なしにブロッカーを特定し、実験を実行し、独自の戦略を調整します。

技術的には、GLM-5.1はマルチagentシステムにおける主要なreasoningエンジンとして優れています。高レベルのアーキテクチャ決定を処理しながら、実装を小規模なモデルに委任します。動的なsparse attentionメカニズムによってサポートされる202Kのcontext windowを備え、膨大なコードベース全体で一貫性を確保します。このモデルはMIT Licenseの下でopen weightsとしてリリースされており、データベース最適化、GPUカーネルエンジニアリング、フルスタックWebアプリケーション開発などのタスクにおいて、プロプライエタリなfrontier modelのローカルな代替手段となります。

KernelBench Level 3の結果によると、GLM-5.1はagenticなMLワークロードにおいて、Claude Opus 4.6と比較して長時間のターンで大幅な高速化を維持しています。この耐久性により、開発者は朝にエンジニアリングタスクを開始し、その日の終わりまでに完全にテストされデプロイされたサービスを受け取ることができます。サンドボックスでの問題再現から最終的なプルリクエストの提出まで、バグ修正のライフサイクル全体を処理します。

GLM-5.1

GLM-5.1のユースケース

GLM-5.1を使って素晴らしい結果を得るさまざまな方法を発見してください。

自律型ソフトウェアエンジニアリング

人間の介入なしに8時間以上自律的に動作し、マイクロサービスの設計、実装、デバッグを行います。

高性能データベースチューニング

Rustベースのvector検索実装を何百回ものラウンドを経て反復的に最適化します。

GPUカーネル最適化

参照実装を分析し、デフォルトのautotuneコンパイラを上回る高速なGPUカーネルを生成します。

マルチagentオーケストレーション

専門化された小規模モデル群の間でサブタスクやtool-callを調整するreasoningの核心として機能します。

複雑なターミナルタスク

agenticなCLIツールを介して、現実世界のターミナル操作や多段階のシステム管理を実行します。

フルスタックWebデザイン

ブラウザベースのデスクトップ環境向けに、視覚的に一貫性のあるUIレイアウトとバックエンドロジックを生成します。

強み

制限

8時間の反復ホライゾン: 他のmodelに見られるreasoningの停滞に陥ることなく、数千回のtool-callを通じて生産性を維持します。
高いlatency: reasoningを重視したアーキテクチャのため、標準的な非reasoning modelと比較してtoken生成速度が著しく遅くなります。
SOTAコーディング性能: SWE-Bench Proで58.4というスコアを達成し、GPT-5.4やClaude Opus 4.6などのプロプライエタリなmodelを凌駕しています。
極端なリソース要求: 生のモデルでディスク容量が1.65TB必要です。量子化バージョンであっても、実行には256GBのVRAM/システムメモリが必要です。
Open Weightsアクセス: MIT Licenseでリリースされており、企業利用向けにfrontier modelレベルのreasoning能力をローカルでデプロイ可能です。
プロンプトの敏感さ: 最大限のagenticなパフォーマンスを引き出すには、reasoningループを誘導するために300行を超える非常に詳細なsystem promptが必要です。
大規模コンテキストの一貫性: 最大202k tokensまで安定性と精度を維持し、長期間のagenticエンジニアリングタスクにおいて不可欠です。
APIの不安定さ: 公式のZ.aiエンドポイントでは、北京時間のピーク時に500エラーやレート制限が頻発するという報告があります。

APIクイックスタート

zhipu/glm-5.1

ドキュメントを見る
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: 'https://api.z.ai/api/paas/v4'
});

const chat = await client.chat.completions.create({
  model: 'glm-5.1',
  messages: [{ role: 'user', content: 'Optimize this database schema.' }],
  stream: true
});

for await (const chunk of chat) {
  process.stdout.write(chunk.choices[0]?.delta?.content || '');
}

SDKをインストールして、数分でAPIコールを開始しましょう。

GLM-5.1についてのユーザーの声

GLM-5.1についてコミュニティがどう思っているか見てください

GLM-5.1は1つのプロンプトで8時間連続ループしました。他のモデルのように途中で終わらず、機能を追加し、自己評価し続けました。
ziwenxu_
twitter
140kのコンテキストで5回以上負荷テストを行いましたが、一貫性を保ちました。SOTAに挑戦者が現れたかもしれません。
Sensitive_Song4219
reddit
GLM-5.1はこのbenchmarkではOpusとほぼ互角です。今やArenaでNo.1のopen modelです。
tmuxvim
hackernews
GLM-5.1との台本なしの対話でNPCが心から納得させられるのを見るたび、純粋な魔法のように感じます。
orblabs
reddit
コーディング性能は本物です。GPT-4oが幻覚を起こし続けていたGoバックエンドの競合状態を修正しました。
DevScale_AI
twitter
Unslothを使ってこれをローカルで実行することは、私たちのリーガルテックスタックにおけるデータプライバシーの面でゲームチェンジャーです。
LawyerWhoCodes
reddit

GLM-5.1についての動画

GLM-5.1についてのチュートリアル、レビュー、ディスカッションを見る

GLM-5.1はこのbenchmarkで45.3%を記録し、ファミリーにとって大きな飛躍です。

信じられないほど遅いモデルです…おそらくGPUの多くをまだGLM-5の提供に使っているのでしょう。

tool-callの扱いは標準のGLM 5よりもはるかに堅牢です。

現時点でダウンロードして自分のハードウェアで実行できる最強のreasoningモデルです。

Thinkingログの中で、モデル自身が自分の間違いを特定しているのがわかります。

8時間自律的に実行し、何千回もの反復を通じて戦略を洗練させます。

一般的なリポジトリ生成のbenchmarkにおいてGemini 3.1 ProやQwen 3.6 Plusを上回ります。

このモデルが真に輝くのはagenticモードであり、難しいバグでも諦めません。

Z.aiは、744B parametersのfrontierレベルモデルの壁を実質的に撤廃しました。

他のLLMが時間とともに集中力を失う'停滞'問題を効果的に管理しています。

元の1.65TBから236GBへの80%サイズ削減を実現しながら、品質を維持しています。

open-sourceの力:量子化バージョンであっても、花火のための動作コードを書きました。

このMoEの巨人を読み込むには、少なくとも256GBのシステムRAMが必要です。

動的なsparse attentionメカニズムを使用して、202kのコンテキストを維持しています。

Unslothを使用することで、学習とinferenceのプロセスが大幅に効率化されます。

プロンプト以上のもの

ワークフローを強化する AI自動化

AutomatioはAIエージェント、ウェブ自動化、スマート統合のパワーを組み合わせ、より短時間でより多くのことを達成するお手伝いをします。

AIエージェント
ウェブ自動化
スマートワークフロー

GLM-5.1のプロのヒント

GLM-5.1を最大限に活用し、より良い結果を得るための専門家のヒント。

Thinking Modeの切り替え

8時間の自律反復機能を解放するには、構成で'Thinking'トグルが有効になっていることを確認してください。

オフピーク時利用枠の活用

北京時間の14:00〜18:00以外の時間帯に大規模なエンジニアリングバッチを実行すると、より有利な料金で利用できます。

ローカルメモリ要件

Unsloth Dynamic GGUF量子化を使用して、1.6TBのモデルを256GBのシステムメモリに収めてローカルで実行してください。

戦略的なタスク選択

GLM-5.1はアーキテクチャのreasoning用に確保し、ルーチン実装にはGLM-4.7を使用してコストを管理してください。

お客様の声

ユーザーの声

ワークフローを変革した何千人もの満足したユーザーに加わりましょう

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

関連 AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M

GLM-5.1についてのよくある質問

GLM-5.1に関するよくある質問への回答を見つけてください