zhipu

GLM-5

GLM-5 ist das 744B parameter Open-Weight-Kraftpaket von Zhipu AI, das bei agentic Aufgaben, Coding und faktischer Genauigkeit mit einem 200k-context window...

Open WeightsAgentic EngineeringMoEZhipu AICoding AI
zhipu logozhipuGLM11. Februar 2026
Kontext
200KToken
Max. Ausgabe
128KToken
Eingabepreis
$1.00/ 1M
Ausgabepreis
$3.20/ 1M
Modalität:Text
Fähigkeiten:ToolsStreamingLogik
Benchmarks
GPQA
68.2%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). GLM-5 erreichte 68.2% bei diesem Benchmark.
HLE
32%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. GLM-5 erreichte 32% bei diesem Benchmark.
MMLU
85%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. GLM-5 erreichte 85% bei diesem Benchmark.
MMLU Pro
70.4%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. GLM-5 erreichte 70.4% bei diesem Benchmark.
SimpleQA
48%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. GLM-5 erreichte 48% bei diesem Benchmark.
IFEval
88%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. GLM-5 erreichte 88% bei diesem Benchmark.
AIME 2025
84%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. GLM-5 erreichte 84% bei diesem Benchmark.
MATH
88%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. GLM-5 erreichte 88% bei diesem Benchmark.
GSM8k
97%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. GLM-5 erreichte 97% bei diesem Benchmark.
MGSM
90%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. GLM-5 erreichte 90% bei diesem Benchmark.
MathVista
0%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. GLM-5 erreichte 0% bei diesem Benchmark.
SWE-Bench
77.8%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). GLM-5 erreichte 77.8% bei diesem Benchmark.
HumanEval
90%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. GLM-5 erreichte 90% bei diesem Benchmark.
LiveCodeBench
52%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. GLM-5 erreichte 52% bei diesem Benchmark.
MMMU
0%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. GLM-5 erreichte 0% bei diesem Benchmark.
MMMU Pro
0%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. GLM-5 erreichte 0% bei diesem Benchmark.
ChartQA
0%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. GLM-5 erreichte 0% bei diesem Benchmark.
DocVQA
0%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. GLM-5 erreichte 0% bei diesem Benchmark.
Terminal-Bench
56.2%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. GLM-5 erreichte 56.2% bei diesem Benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. GLM-5 erreichte 12% bei diesem Benchmark.

Über GLM-5

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von GLM-5.

GLM-5 ist das flagship foundation model von Zhipu AI, entwickelt für autonome agentic Workflows und komplexe Systemtechnik. Es nutzt eine massive 744 Milliarden parameter Mixture-of-Experts (MoE)-Architektur, bei der während der inference 40 Milliarden parameters aktiv sind, um Leistung und Geschwindigkeit auszubalancieren. Das model ist das erste Open-Weight-System, das auf Software-Engineering-Aufgaben Parität mit proprietären frontier models zeigt und 77,8 % im SWE-bench Verified erzielt.

Das model wurde auf 28,5 Billionen tokens unter Verwendung eines heimischen Clusters aus 100.000 Huawei Ascend-Chips trainiert. Es integriert spezialisierte Mechanismen wie Multi-head Latent Attention (MLA) und DeepSeek Sparse Attention (DSA), um die logische Konsistenz über sein 200.000-token-context window hinweg zu wahren. Dieser technologische Stack ermöglicht es GLM-5, Langzeitplanung und Ressourcenmanagement ohne die hohe Latenz zu bewältigen, die für dichte models dieser Größe typisch ist.

Zhipu AI hat GLM-5 unter der MIT-Lizenz veröffentlicht, wodurch Unternehmenskunden die Gewichte lokal für die Verarbeitung sensibler Daten bereitstellen können. Mit Eingabekosten von nur 1,00 $ pro Million tokens bietet es einen 6-fachen Preisvorteil gegenüber konkurrierenden models wie Claude 4.5. Das model enthält einen dedizierten Thinking-Modus, der die Halluzinationsraten im Vergleich zu seinen Vorgängern deutlich reduziert.

GLM-5

Anwendungsfälle für GLM-5

Entdecken Sie die verschiedenen Möglichkeiten, GLM-5 für großartige Ergebnisse zu nutzen.

Autonome Softwareentwicklung

Lösung komplexer GitHub-Issues und Durchführung von repository-weiten Refactorings dank des 77,8 %-Scores in SWE-bench Verified.

Unternehmensweite Tool-Orchestrierung

Ausführung von mehrstufigen agentic Workflows über interne APIs zur Abwicklung von Back-Office-Automatisierungen im Finanz- und Rechtssektor.

Analyse langer Repository-Kontexte

Nutzung des 200.000-token-window, um komplette Dokumentationen oder Codebases mit mehreren Dateien in einem Durchgang zu erfassen und zu analysieren.

Persönliche KI-Mitarbeiter

Unterstützung von open-source-Agents wie OpenClaw zur Verwaltung von E-Mails, Kalendern und Hintergrundaufgaben rund um die Uhr mit hoher Zuverlässigkeit.

Private On-Premise-Intelligenz

Lokale Bereitstellung des Open-Weight-models unter der MIT-Lizenz zur Gewährleistung vollständiger Datensouveränität bei sensiblen Unternehmensvorgängen.

Kosteneffiziente Agent-Skalierung

Durchführung von agentic Sitzungen mit hohem Volumen zu 6- bis 8-mal geringeren Kosten als bei proprietären frontier models, ohne Einbußen bei der reasoning-Tiefe.

Stärken

Einschränkungen

Herausragende Coding-Leistung: Erreicht 77,8 % in SWE-bench Verified und zieht mit proprietären Größen wie Claude Opus für autonomes Software-Engineering gleich.
Keine native Vision-Unterstützung: Das model kann Bilder oder visuelle Daten nicht direkt verarbeiten, was seinen Einsatz in modernen, multimodalen UI/UX-Workflows einschränkt.
6-facher Preisvorteil: Bietet reasoning auf frontier-Niveau für nur 1,00 $ pro 1 Million Eingabe-tokens, was groß angelegte agentic Deployments wirtschaftlich sinnvoll macht.
Terminal-Task-Verzögerung: Die Leistung im Terminal-Bench 2.0 liegt bei 56,2 % und bleibt damit leicht hinter den absoluten Spitzenreitern der proprietären Konkurrenz zurück.
MIT-lizenzierte Gewichte: Die vollständige Verfügbarkeit der Open-Weight-Daten auf Hugging Face ermöglicht eine private lokale Bereitstellung auf Huawei Ascend- oder NVIDIA-Hardware.
Häufigkeit von Halluzinationen: Erste benchmarks zeigen Halluzinationsraten von nahe 30 % bei spezifischen, komplexen reasoning-Aufgaben im Vergleich zu niedrigeren Werten bei Top-Konkurrenten.
Massive Kontextkapazität: Das 200K-token-window in Verbindung mit 128K Ausgabe-tokens ist ideal für repository-weite Analysen und langformatige Generierungen.
Hardware-Varianz: Das Training auf Huawei Ascend-Hardware kann bei der Bereitstellung auf standardmäßigen, NVIDIA-basierten Software-Stacks zu geringfügigen Leistungsunterschieden führen.

API-Schnellstart

zai/glm-5

Dokumentation anzeigen
zhipu SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: "https://open.bigmodel.cn/api/paas/v4/",
});

const response = await client.chat.completions.create({
  model: "glm-5",
  messages: [{ role: "user", content: "Analysiere diese Repository-Struktur und refactore sie zu GraphQL." }],
  stream: true,
});

for await (const chunk of response) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über GLM-5 sagen

Sehen Sie, was die Community über GLM-5 denkt

GLM-5 ist ein open-source 744B parameter-model, das beim Coding fast Claude Opus-Niveau erreicht... aber der Preisunterschied ist entscheidend.
Odd-Coconut-2067
reddit
Das 200.000-token-window verändert den Workflow: Analysieren Sie 20+ Dateien für ein Refactor oder prüfen Sie komplexe PR-Diffs in einem Durchgang.
AskCodi
reddit
Ich habe meine Kosten für Claude API-Aufrufe von ca. 90 $/Monat auf unter 15 $ mit GLM-5 gesenkt und keinen nennenswerten Qualitätsabfall bemerkt.
IulianHI
reddit
Die Halluzinationsrate liegt im 30%-Bereich, im Vergleich zu, ich weiß nicht, Gemini 3 Pro bei 88 %.
Sid
youtube
GLM-5 wurde veröffentlicht, bevor ich 4.7 fertig testen konnte, und der Sprung beim reasoning ist im täglichen Coding tatsächlich spürbar.
able_wong
twitter
Dass Zhipu dies unter MIT-Lizenz veröffentlicht, ist ein riesiger Schritt für die lokale LLM-Community.
dev_tester
twitter

Videos über GLM-5

Schauen Sie Tutorials, Rezensionen und Diskussionen über GLM-5

Es ist Kopf-an-Kopf mit models wie 5.2 codecs und Opus 4.5.

Es ist das erste Open-Weight-model, mit dem ich erfolgreich einen Job ausgeführt habe, der über eine Stunde dauerte, ohne Probleme.

Die Halluzinationsrate liegt im 30%-Bereich, im Vergleich zu, ich weiß nicht, Gemini 3 Pro bei 88 %.

Die reasoning-Dichte ist deutlich höher als bei GLM-4.

Es ersetzt bei mir im Grunde Claude 3.5 Sonnet für meine internen Coding-Aufgaben.

Sie haben die Anzahl der parameters buchstäblich verdoppelt... auf 744 Milliarden.

Obwohl es viel größer ist, läuft es so schnell wie das ältere model, wenn nicht sogar schneller.

Selbstkorrektur. Sei nicht herablassend. Behandle es wie eine valide Frage.

Der Sparse-Attention-Mechanismus hält den Speicherverbrauch für so ein großes model niedrig.

Die Open-Weight-Verfügbarkeit macht dies zum neuen Champion für lokales Hosting.

Sie haben ihre eigene RL-Engine namens Slime entwickelt.

Ein 200.000-token-window verändert, was Unternehmens-KI überhaupt bedeutet.

Es erreicht 77,8 im SWE-bench Verified und schlägt Gemini 3 Pro mit 76,2.

Zhipu AI beweist, dass heimische Hardware world-class models trainieren kann.

Der Fokus liegt hier auf agentic Engineering, nicht nur auf einfachem Chat.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für GLM-5

Expertentipps, um das Beste aus GLM-5 herauszuholen.

Agentic-Modus aktivieren

Definieren Sie mehrstufige Pläne in Ihren prompts, da GLM-5 für autonomes Engineering optimiert ist und nicht nur für einfache Chat-Antworten.

Lokale Hardware-Zuweisung

Stellen Sie sicher, dass für einen optimalen throughput ausreichend VRAM oder native Huawei Ascend-Hardware mit dem MindSpore-Framework zur Verfügung steht.

Fallback-Ketten implementieren

Konfigurieren Sie GLM-5 als primäres reasoning-model und nutzen Sie GLM-4.7-Flash als kosteneffizienten Fallback für einfachere Anweisungen.

Strukturierte Ausgabe verwenden

GLM-5 ist hervorragend darin, präzise .docx- und .xlsx-Formate zu generieren, wenn klare Schema-Anforderungen für die Ergebnisse vorgegeben werden.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 4.5 Sonnet

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M

Häufig gestellte Fragen zu GLM-5

Finden Sie Antworten auf häufige Fragen zu GLM-5