zhipu

GLM-5

GLM-5 is de 744B parameter open-weight krachtpatser van Zhipu AI, uitblinkend in long-horizon agentic taken, programmeren en feitelijke nauwkeurigheid met een...

Open WeightsAgentic EngineeringMoEZhipu AICoding AI
zhipu logozhipuGLM11 februari 2026
Context
200Ktokens
Max output
128Ktokens
Invoerprijs
$1.00/ 1M
Uitvoerprijs
$3.20/ 1M
Modaliteit:Text
Mogelijkheden:ToolsStreamingRedeneren
Benchmarks
GPQA
68.2%
GPQA: Wetenschappelijke vragen op graduate-niveau. Een rigoureuze benchmark met 448 vragen over biologie, fysica en chemie. PhD-experts behalen slechts 65-74% nauwkeurigheid. GLM-5 scoorde 68.2% op deze benchmark.
HLE
32%
HLE: Expert-niveau redeneren. Test het vermogen van een model om expert-niveau redeneren te demonstreren in gespecialiseerde domeinen. GLM-5 scoorde 32% op deze benchmark.
MMLU
85%
MMLU: Massale multitask taalbegrip. Een uitgebreide benchmark met 16.000 vragen over 57 academische vakken. GLM-5 scoorde 85% op deze benchmark.
MMLU Pro
70.4%
MMLU Pro: MMLU Professionele editie. Een verbeterde versie van MMLU met 12.032 vragen en een moeilijker 10-optie formaat. GLM-5 scoorde 70.4% op deze benchmark.
SimpleQA
48%
SimpleQA: Feitelijke nauwkeurigheidsbenchmark. Test het vermogen van een model om accurate, feitelijke antwoorden te geven. GLM-5 scoorde 48% op deze benchmark.
IFEval
88%
IFEval: Instructie-opvolging evaluatie. Meet hoe goed een model specifieke instructies en beperkingen volgt. GLM-5 scoorde 88% op deze benchmark.
AIME 2025
84%
AIME 2025: Amerikaanse uitnodigingswiskunde-examen. Wiskundeproblemen op wedstrijdniveau van het prestigieuze AIME-examen. GLM-5 scoorde 84% op deze benchmark.
MATH
88%
MATH: Wiskundig probleemoplossen. Een uitgebreide wiskunde-benchmark die probleemoplossen test in algebra, meetkunde, calculus. GLM-5 scoorde 88% op deze benchmark.
GSM8k
97%
GSM8k: Basisschool wiskunde 8K. 8.500 wiskundige woordproblemen op basisschoolniveau. GLM-5 scoorde 97% op deze benchmark.
MGSM
90%
MGSM: Meertalige basisschool wiskunde. De GSM8k-benchmark vertaald naar 10 talen. GLM-5 scoorde 90% op deze benchmark.
MathVista
0%
MathVista: Wiskundig visueel redeneren. Test het vermogen om wiskundeproblemen met visuele elementen op te lossen. GLM-5 scoorde 0% op deze benchmark.
SWE-Bench
77.8%
SWE-Bench: Software engineering benchmark. AI-modellen proberen echte GitHub-issues op te lossen in Python-projecten. GLM-5 scoorde 77.8% op deze benchmark.
HumanEval
90%
HumanEval: Python programmeerproblemen. 164 programmeerproblemen waarbij modellen correcte Python-functie-implementaties moeten genereren. GLM-5 scoorde 90% op deze benchmark.
LiveCodeBench
52%
LiveCodeBench: Live codeerbenchmark. Test codeervaardigheden op continu bijgewerkte, real-world programmeeruitdagingen. GLM-5 scoorde 52% op deze benchmark.
MMMU
0%
MMMU: Multimodaal begrip. Multimodaal begripsbenchmark over 30 universitaire vakken. GLM-5 scoorde 0% op deze benchmark.
MMMU Pro
0%
MMMU Pro: MMMU Professionele editie. Verbeterde versie van MMMU met uitdagendere vragen. GLM-5 scoorde 0% op deze benchmark.
ChartQA
0%
ChartQA: Grafiek vraag-antwoord. Test het vermogen om informatie uit grafieken en diagrammen te begrijpen en te analyseren. GLM-5 scoorde 0% op deze benchmark.
DocVQA
0%
DocVQA: Document visueel vraag-antwoord. Test het vermogen om informatie uit documentafbeeldingen te extraheren. GLM-5 scoorde 0% op deze benchmark.
Terminal-Bench
56.2%
Terminal-Bench: Terminal/CLI-taken. Test het vermogen om command-line operaties uit te voeren. GLM-5 scoorde 56.2% op deze benchmark.
ARC-AGI
12%
ARC-AGI: Abstractie en redeneren. Test fluide intelligentie door nieuwe patroonherkennigspuzzels. GLM-5 scoorde 12% op deze benchmark.

Over GLM-5

Leer over de mogelijkheden van GLM-5, functies en hoe het je kan helpen betere resultaten te behalen.

GLM-5 is het flagship foundation model van Zhipu AI, ontworpen voor autonome agentic workflows en complexe systems engineering. Het maakt gebruik van een enorme 744 miljard parameters Mixture-of-Experts (MoE) architectuur, waarbij 40 miljard parameters actief zijn tijdens inference om prestaties en snelheid in balans te houden. Het model is het eerste open-weight systeem dat gelijkwaardigheid aantoont met propriëtaire frontier models bij software engineering taken, met een score van 77,8% op SWE-bench Verified.

Het model is getraind op 28,5 biljoen tokens met gebruik van een inlands cluster van 100.000 Huawei Ascend chips. Het integreert gespecialiseerde mechanismen zoals Multi-head Latent Attention (MLA) en DeepSeek Sparse Attention (DSA) om de logische consistentie te behouden over zijn 200.000 token context window. Deze technische stack stelt GLM-5 in staat om long-horizon planning en resource management uit te voeren zonder de hoge latency die typisch is voor dense modellen van deze omvang.

Zhipu AI heeft GLM-5 uitgebracht onder de MIT-licentie, waardoor zakelijke gebruikers de weights lokaal kunnen implementeren voor gevoelige dataverwerking. Met inputkosten van slechts $1,00 per miljoen tokens biedt het een 6x prijsvoordeel ten opzichte van rivaliserende modellen zoals Claude 4.5. Het model bevat een speciale Thinking Mode die de hallucinatiepercentages aanzienlijk verlaagt in vergelijking met zijn voorgangers.

GLM-5

Gebruikscases voor GLM-5

Ontdek de verschillende manieren waarop je GLM-5 kunt gebruiken voor geweldige resultaten.

Autonome Software Engineering

Het oplossen van complexe GitHub-issues en het uitvoeren van refactors over de gehele repository door gebruik te maken van de score van 77,8% op SWE-bench Verified.

Enterprise Tool Orchestration

Het uitvoeren van agentic workflows in meerdere stappen via interne API's voor automatisering in de financiële en juridische sector.

Long-Context Repository Analyse

Het gebruik van de 200.000 token context window om volledige documentatiesets of codebases met meerdere bestanden in één pass te analyseren.

Persoonlijke AI-collega's

Het aansturen van open-source agents zoals OpenClaw om e-mails, agenda's en achtergrondtaken 24/7 betrouwbaar te beheren.

On-Premise Private Intelligence

Het lokaal implementeren van het open-weight model onder de MIT-licentie om volledige dataprivacy voor gevoelige bedrijfsactiviteiten te garanderen.

Kostenefficiënte Agent Scaling

Het draaien van grootschalige agentic sessies tegen 6-8x lagere kosten in vergelijking met propriëtaire frontier models, zonder in te leveren op reasoning diepgang.

Sterke punten

Beperkingen

Elite programmeerprestaties: Behaalt een score van 77,8% op SWE-bench Verified, wat gelijkstaat aan propriëtaire grootmachten zoals Claude Opus voor autonome software engineering.
Geen native vision: Het model mist de mogelijkheid om afbeeldingen of visuele data direct te verwerken, wat het gebruik in moderne multimodale UI/UX-workflows beperkt.
6x Prijsvoordeel: Biedt reasoning op frontier-niveau voor slechts $1,00 per 1M input tokens, waardoor grootschalige agentic implementaties economisch haalbaar zijn.
Terminal Task vertraging: De prestaties op Terminal-Bench 2.0 liggen op 56,2%, net achter de absolute top van de propriëtaire concurrentie.
MIT-gelicentieerde weights: Volledige open-weight beschikbaarheid op Hugging Face voor private lokale implementatie op Huawei Ascend of NVIDIA hardware.
Hallucinatiefrequentie: Vroege benchmarks tonen hallucinatiepercentages van rond de 30% bij specifieke complexe reasoning taken in vergelijking met lagere percentages bij top-rivalen.
Enorme contextcapaciteit: De 200K token context window in combinatie met 128K output tokens is ideaal voor repository-brede analyses en het genereren van lange teksten.
Hardware-variaties: Training op Huawei Ascend hardware kan leiden tot kleine prestatieverschillen bij implementatie op standaard NVIDIA-software stacks.

API snelstart

zai/glm-5

Bekijk documentatie
zhipu SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: "https://open.bigmodel.cn/api/paas/v4/",
});

const response = await client.chat.completions.create({
  model: "glm-5",
  messages: [{ role: "user", content: "Analyseer deze repo-structuur en refactor naar GraphQL." }],
  stream: true,
});

for await (const chunk of response) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

Installeer de SDK en begin binnen enkele minuten met API-calls.

Wat mensen zeggen over GLM-5

Bekijk wat de community denkt over GLM-5

GLM-5 is een open-source 744B parameter model dat op programmeervlak dicht bij het niveau van Claude Opus presteert... maar het prijsverschil is doorslaggevend.
Odd-Coconut-2067
reddit
De 200.000 token window verandert je workflow: analyseer 20+ bestanden voor een enkele refactor of bekijk complexe PR diffs in één pass.
AskCodi
reddit
Ik ging van ~$90/maand aan Claude API-kosten naar minder dan $15 met GLM-5 en merkte geen merkbare daling in kwaliteit.
IulianHI
reddit
Het hallucinatiepercentage ligt in de range van 30% tegenover, ik weet niet, Gemini 3 Pro op 88%.
Sid
youtube
GLM-5 kwam uit voordat ik klaar was met het testen van 4.7, en de sprong in reasoning is daadwerkelijk merkbaar in het dagelijks programmeren.
able_wong
twitter
Dat Zhipu dit uitbrengt onder MIT is een enorme stap voor de lokale LLM-community.
dev_tester
twitter

Video's over GLM-5

Bekijk tutorials, reviews en discussies over GLM-5

Het ligt nek-aan-nek met modellen zoals 5.2 codecs en Opus 4.5.

Het is het eerste open-weight model waarmee ik een taak van meer dan een uur zonder problemen heb kunnen draaien.

Het hallucinatiepercentage ligt in de range van 30% tegenover, ik weet niet, Gemini 3 Pro op 88%.

De dichtheid van reasoning is aanzienlijk hoger dan bij GLM-4.

Het vervangt in feite Claude 3.5 Sonnet voor mijn interne programmeertaken.

Ze hebben het aantal parameters letterlijk verdubbeld... helemaal tot 744.

Hoewel het veel groter is, draait het nagenoeg even snel of sneller dan het oudere model.

Zelfcorrectie. Wees niet neerbuigend. Behandel het als een geldige vraag.

Het sparse attention mechanisme houdt het geheugengebruik laag voor zo'n groot model.

De open-weight beschikbaarheid maakt dit de nieuwe kampioen voor lokale hosting.

Ze hebben hun eigen RL-engine genaamd Slime gecreëerd.

Een 200.000 token context window verandert de betekenis van enterprise AI.

Het haalt 77,8 op SWE-bench verified en verslaat Gemini 3 Pro met 76,2.

Zhipu AI bewijst dat inheemse hardware modellen van wereldklasse kan trainen.

Agentic engineering is hier de focus, niet alleen simpele chat.

Meer dan alleen prompts

Supercharge je workflow met AI-automatisering

Automatio combineert de kracht van AI-agents, webautomatisering en slimme integraties om je te helpen meer te bereiken in minder tijd.

AI-agents
Webautomatisering
Slimme workflows

Pro-tips voor GLM-5

Experttips om je te helpen het maximale uit GLM-5 te halen en betere resultaten te behalen.

Activeer de Agentic Mode

Definieer stapsgewijze plannen in je prompts, aangezien GLM-5 is geoptimaliseerd voor autonoom engineeringswerk in plaats van eenvoudige chatberichten.

Lokale hardwaretoewijzing

Zorg voor voldoende RAM of inheemse Huawei Ascend hardware met het MindSpore framework voor een optimale throughput.

Implementeer fallback-ketens

Configureer GLM-5 als je primaire reasoning model met GLM-4.7-Flash als kosteneffectieve fallback voor eenvoudigere instructies.

Gebruik gestructureerde output

GLM-5 blinkt uit in het genereren van precieze .docx- en .xlsx-formaten wanneer duidelijke schemavereisten worden meegegeven.

Testimonials

Wat onze gebruikers zeggen

Sluit je aan bij duizenden tevreden gebruikers die hun workflow hebben getransformeerd

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Gerelateerd AI Models

anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 4.5 Sonnet

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M

Veelgestelde vragen over GLM-5

Vind antwoorden op veelvoorkomende vragen over GLM-5