zhipu

GLM-5

GLM-5 ist das 744B-parameter-Kraftpaket von Zhipu AI mit open weights, das bei agentic tasks mit langem Zeithorizont, Coding und faktischer Genauigkeit mit...

Open WeightsAgentic EngineeringMoEZhipu AICoding AI
zhipu logozhipuGLM11. Februar 2026
Kontext
200KToken
Max. Ausgabe
128KToken
Eingabepreis
$1.00/ 1M
Ausgabepreis
$3.20/ 1M
Modalität:Text
Fähigkeiten:ToolsStreamingLogik
Benchmarks
GPQA
68.2%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). GLM-5 erreichte 68.2% bei diesem Benchmark.
HLE
32%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. GLM-5 erreichte 32% bei diesem Benchmark.
MMLU
85%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. GLM-5 erreichte 85% bei diesem Benchmark.
MMLU Pro
70.4%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. GLM-5 erreichte 70.4% bei diesem Benchmark.
SimpleQA
48%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. GLM-5 erreichte 48% bei diesem Benchmark.
IFEval
88%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. GLM-5 erreichte 88% bei diesem Benchmark.
AIME 2025
84%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. GLM-5 erreichte 84% bei diesem Benchmark.
MATH
88%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. GLM-5 erreichte 88% bei diesem Benchmark.
GSM8k
97%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. GLM-5 erreichte 97% bei diesem Benchmark.
MGSM
90%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. GLM-5 erreichte 90% bei diesem Benchmark.
MathVista
0%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. GLM-5 erreichte 0% bei diesem Benchmark.
SWE-Bench
77.8%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). GLM-5 erreichte 77.8% bei diesem Benchmark.
HumanEval
90%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. GLM-5 erreichte 90% bei diesem Benchmark.
LiveCodeBench
52%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. GLM-5 erreichte 52% bei diesem Benchmark.
MMMU
0%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. GLM-5 erreichte 0% bei diesem Benchmark.
MMMU Pro
0%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. GLM-5 erreichte 0% bei diesem Benchmark.
ChartQA
0%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. GLM-5 erreichte 0% bei diesem Benchmark.
DocVQA
0%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. GLM-5 erreichte 0% bei diesem Benchmark.
Terminal-Bench
56.2%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. GLM-5 erreichte 56.2% bei diesem Benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. GLM-5 erreichte 12% bei diesem Benchmark.

Über GLM-5

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von GLM-5.

GLM-5 ist das flagship foundation model der nächsten Generation von Zhipu AI, das speziell entwickelt wurde, um den Stand des Agentic Engineering für open-weight-Systeme neu zu definieren. Basierend auf einer massiven 744-Milliarden-Parameter Mixture of Experts (MoE) Architektur mit 40 Milliarden aktiven parameters, ist es das erste open-weights model, das die Leistungslücke zu proprietären Giganten wie Claude 4.5 schließt. Dieses model glänzt durch Logikdichte und Software-Engineering und erzielt bahnbrechende 77,8 % auf SWE-Bench Verified.

Technisch integriert GLM-5 fortschrittliche Multi-head Latent Attention (MLA) und Sparse-Attention-Mechanismen, um die token-Effizienz zu optimieren und den Memory-Overhead um 33 % zu senken. Trainiert mit 28,5 Billionen tokens auf einem rein einheimischen Cluster aus 100.000 Huawei Ascend Chips, beweist GLM-5, dass frontier-level reasoning ohne Abhängigkeit von High-End-NVIDIA-Hardware möglich ist. Mit seinem 200.000 tokens umfassenden context window und dem spezialisierten 'Thinking Mode' liefert es robuste, halluzinationsarme Ergebnisse für hochpräzise technische Workflows.

Optimiert für Zuverlässigkeit, dient GLM-5 als Basis für autonome technische Agenten, die in der Lage sind, einen persistenten Status über lange Ausführungszeiträume hinweg beizubehalten. Die permissive MIT-Lizenzierung und die wettbewerbsfähigen Preise von 1,00 $ pro Million input tokens machen es zur idealen Wahl für Unternehmen, die ein lokales Deployment oder eine hochskalierbare API-Integration ohne die restriktiven Bedingungen proprietärer Alternativen suchen.

GLM-5

Anwendungsfälle für GLM-5

Entdecken Sie die verschiedenen Möglichkeiten, GLM-5 für großartige Ergebnisse zu nutzen.

Complex Systems Engineering

Design und Wartung von Microservice-Architekturen mit autonomem Dependency-Management.

Long-Horizon Agentic Tasks

Ausführung mehrstufiger technischer Workflows, die ein persistentes Gedächtnis über mehr als eine Stunde Ausführungszeit erfordern.

Legacy Codebase Migration

Refactoring ganzer Repositories und Aktualisierung veralteter Abhängigkeiten über ein context window von 200k tokens.

Low-Hallucination Technical Research

Durchführung hochpräziser technischer Forschung, bei der faktische Genauigkeit und das Unterlassen von Falschaussagen oberste Priorität haben.

Autonomous Terminal Operations

Betrieb von dev-agents, die autonom Sicherheitsaudits und Systemadministrationsbefehle ausführen können.

Bilingual Global Deployment

Bereitstellung von erstklassigem englischem und chinesischem reasoning für lokalisierte Unternehmensanwendungen in großem Maßstab.

Stärken

Einschränkungen

Elite Agentic Intelligence: Erzielt den höchsten Agentic Index Score (63) unter den open-weight models bei der Ausführung mehrstufiger Aufgaben.
Keine native Multimodalität: Es fehlen die Funktionen zur Verarbeitung von Vision, Audio und Video, die in multimodal-Konkurrenten wie GPT-4o zu finden sind.
Niedrige Halluzinationsrate: Zeigt eine Reduzierung der Halluzinationen um 56 % im Vergleich zu früheren Generationen und priorisiert faktische Genauigkeit.
Extreme Hosting-Anforderungen: Die 1,5 TB BF16-Gewichte machen ein lokales Deployment für fast alle Nutzer ohne Cloud-Infrastruktur unmöglich.
Massive MoE-Effizienz: Die 744B-parameter-Architektur bietet flagship-Logikdichte, während MLA den Memory-Overhead um 33 % reduziert.
Hohe Inference-Latency: Die Zeit bis zum ersten token (time-to-first-token) kann bei öffentlichen APIs im Vergleich zu kleineren 'Flash'-models hoch sein (über 7 Sekunden).
Permissive MIT-Lizenz: Veröffentlicht unter einer echten open-source-Lizenz, die eine uneingeschränkte kommerzielle Nutzung ohne restriktive Klauseln ermöglicht.
Nuancen im Frontend-Design: Während es in der Logik exzellent ist, kann es gelegentlich Schwierigkeiten mit feingliedrigem CSS-Design-Feinschliff im Vergleich zu Claude haben.

API-Schnellstart

zai/glm-5

Dokumentation anzeigen
zhipu SDK
import { ZhipuAI } from "zhipuai-sdk";

const client = new ZhipuAI({ apiKey: "YOUR_API_KEY" });

async function main() {
  const response = await client.chat.completions.create({
    model: "glm-5",
    messages: [{ role: "user", content: "Analyze this repo for security vulnerabilities." }],
    stream: true,
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0].delta.content || "");
  }
}

main();

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über GLM-5 sagen

Sehen Sie, was die Community über GLM-5 denkt

"GLM-5 ist der neue Spitzenreiter bei open weights! Es erreicht 50 Punkte auf dem Intelligence Index, ein signifikanter Sprung."
Artificial Analysis
x
"Dieses model ist unglaublich. Ich habe erfolgreich einen Job ausgeführt, der über eine Stunde dauerte... absolut beeindruckend."
Theo - t3.gg
youtube
"GLM-5 nutzt null NVIDIA-Chips, hat 745B params und kostet 1 $ pro Million input tokens. Das ist die Zukunft."
Legendary
x
"Die Halluzinationsrate ist wahnsinnig niedrig; es sagt viel eher 'Ich weiß es nicht', als einen anzulügen."
DevUser456
reddit
"Zhipu AI hat gerade den Kampf um die besten open-source Coding-models neu eröffnet."
AIExplorer
hackernews
"Endlich ein open-weight model, das nicht mitten in einer komplexen Aufgabe den Faden verliert."
CodeMaster
reddit

Videos über GLM-5

Schauen Sie Tutorials, Rezensionen und Diskussionen über GLM-5

Es ist mit Abstand das beste open-weight model, das ich je gesehen habe, besonders für Coding-Aufgaben.

Die Tatsache, dass dies das erste open-weight model ist, mit dem ich erfolgreich einen Job ausgeführt habe, der über eine Stunde dauerte... hat mich umgehauen.

Es scheint das model zu sein, das von allen bisherigen am wenigsten halluziniert.

Wir erleben eine massive Verschiebung dessen, was open-weight models in der Produktion tatsächlich leisten können.

Die Stabilität dieses models während langer tool-use-Sitzungen ist wirklich beispiellos.

Das Coding-Gefühl hier ist sehr, sehr stark... vergleichbar mit GLM 4.7, was bereits ein Ausnahmetalent war.

Die Einführung der Dynamic Island im UI-Mockup war ein sehr cooles, unerwartetes Feature.

Es übertrifft fast jedes andere model seiner Klasse bei komplexer Logik.

Die Tiefe des reasoning erinnert mich an das erste Mal, als ich o1 benutzt habe, aber es ist open-weight.

Für ein reines Text-model beherrscht es visuelle Logik in Code besser als viele vision models.

Die Speichernutzung ist massiv gesunken... wir haben 33-fache Speicherverbesserungen gegenüber früheren Versionen erzielt.

Es hat den Car-Wash-Logiktest mit aktiviertem thinking bestanden und dabei Claude und GPT-4o geschlagen.

Das Deployment erfordert ein ernsthaftes Server-Rack, aber die Performance pro Watt ist wahnsinnig.

Es hat meine Migration eines Legacy-Repos ohne einen einzigen halluzinierten Library-Namen gemeistert.

Der Thinking-Modus ist kein bloßes Gimmick; er verändert die Output-Qualität grundlegend.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für GLM-5

Expertentipps, um das Beste aus GLM-5 herauszuholen.

Thinking Mode aktivieren

GLM-5 schneidet bei komplexen Logikrätseln wie dem 'Car Wash'-Test deutlich besser ab, wenn reasoning aktiviert ist.

Nutzen Sie die MIT-Lizenz

Profitieren Sie von der permissiven Lizenzierung für uneingeschränkte kommerzielle Entwicklung und internes Hosting.

Tool Use Optimierung

Verwenden Sie GLM-5 für mehrstufige Aufgaben, da es speziell für hohe Stabilität bei der agentic tool-Ausführung entwickelt wurde.

Context Window ausschöpfen

Laden Sie ganze Codebases in das 200k-Fenster, um repository-weite Sicherheitsaudits oder Refactorings durchzuführen.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.30/$1.20/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
alibaba

Qwen3-Coder-Next

alibaba

Qwen3-Coder-Next is Alibaba Cloud's elite Apache 2.0 coding model, featuring an 80B MoE architecture and 256k context window for advanced local development.

256K context
$0.14/$0.42/1M
anthropic

Claude Sonnet 4.5

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
alibaba

Qwen-Image-2.0

alibaba

Qwen-Image-2.0 is Alibaba's unified 7B model for professional infographics, photorealism, and precise image editing with native 2K resolution and 1k-token...

1K context
$0.07/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M

Häufig gestellte Fragen zu GLM-5

Finden Sie Antworten auf häufige Fragen zu GLM-5