zhipu

GLM-5

GLM-5 is de open-weight krachtpatser van Zhipu AI met 744B parameters, die uitblinkt in long-horizon agentic tasks, coding en feitelijke nauwkeurigheid met een...

Open WeightsAgentic EngineeringMoEZhipu AICoding AI
zhipu logozhipuGLMFebruary 11, 2026
Context
200Ktokens
Max output
128Ktokens
Invoerprijs
$1.00/ 1M
Uitvoerprijs
$3.20/ 1M
Modaliteit:Text
Mogelijkheden:ToolsStreamingRedeneren
Benchmarks
GPQA
68.2%
GPQA: Wetenschappelijke vragen op graduate-niveau. Een rigoureuze benchmark met 448 vragen over biologie, fysica en chemie. PhD-experts behalen slechts 65-74% nauwkeurigheid. GLM-5 scoorde 68.2% op deze benchmark.
HLE
32%
HLE: Expert-niveau redeneren. Test het vermogen van een model om expert-niveau redeneren te demonstreren in gespecialiseerde domeinen. GLM-5 scoorde 32% op deze benchmark.
MMLU
85%
MMLU: Massale multitask taalbegrip. Een uitgebreide benchmark met 16.000 vragen over 57 academische vakken. GLM-5 scoorde 85% op deze benchmark.
MMLU Pro
70.4%
MMLU Pro: MMLU Professionele editie. Een verbeterde versie van MMLU met 12.032 vragen en een moeilijker 10-optie formaat. GLM-5 scoorde 70.4% op deze benchmark.
SimpleQA
48%
SimpleQA: Feitelijke nauwkeurigheidsbenchmark. Test het vermogen van een model om accurate, feitelijke antwoorden te geven. GLM-5 scoorde 48% op deze benchmark.
IFEval
88%
IFEval: Instructie-opvolging evaluatie. Meet hoe goed een model specifieke instructies en beperkingen volgt. GLM-5 scoorde 88% op deze benchmark.
AIME 2025
84%
AIME 2025: Amerikaanse uitnodigingswiskunde-examen. Wiskundeproblemen op wedstrijdniveau van het prestigieuze AIME-examen. GLM-5 scoorde 84% op deze benchmark.
MATH
88%
MATH: Wiskundig probleemoplossen. Een uitgebreide wiskunde-benchmark die probleemoplossen test in algebra, meetkunde, calculus. GLM-5 scoorde 88% op deze benchmark.
GSM8k
97%
GSM8k: Basisschool wiskunde 8K. 8.500 wiskundige woordproblemen op basisschoolniveau. GLM-5 scoorde 97% op deze benchmark.
MGSM
90%
MGSM: Meertalige basisschool wiskunde. De GSM8k-benchmark vertaald naar 10 talen. GLM-5 scoorde 90% op deze benchmark.
MathVista
0%
MathVista: Wiskundig visueel redeneren. Test het vermogen om wiskundeproblemen met visuele elementen op te lossen. GLM-5 scoorde 0% op deze benchmark.
SWE-Bench
77.8%
SWE-Bench: Software engineering benchmark. AI-modellen proberen echte GitHub-issues op te lossen in Python-projecten. GLM-5 scoorde 77.8% op deze benchmark.
HumanEval
90%
HumanEval: Python programmeerproblemen. 164 programmeerproblemen waarbij modellen correcte Python-functie-implementaties moeten genereren. GLM-5 scoorde 90% op deze benchmark.
LiveCodeBench
52%
LiveCodeBench: Live codeerbenchmark. Test codeervaardigheden op continu bijgewerkte, real-world programmeeruitdagingen. GLM-5 scoorde 52% op deze benchmark.
MMMU
0%
MMMU: Multimodaal begrip. Multimodaal begripsbenchmark over 30 universitaire vakken. GLM-5 scoorde 0% op deze benchmark.
MMMU Pro
0%
MMMU Pro: MMMU Professionele editie. Verbeterde versie van MMMU met uitdagendere vragen. GLM-5 scoorde 0% op deze benchmark.
ChartQA
0%
ChartQA: Grafiek vraag-antwoord. Test het vermogen om informatie uit grafieken en diagrammen te begrijpen en te analyseren. GLM-5 scoorde 0% op deze benchmark.
DocVQA
0%
DocVQA: Document visueel vraag-antwoord. Test het vermogen om informatie uit documentafbeeldingen te extraheren. GLM-5 scoorde 0% op deze benchmark.
Terminal-Bench
56.2%
Terminal-Bench: Terminal/CLI-taken. Test het vermogen om command-line operaties uit te voeren. GLM-5 scoorde 56.2% op deze benchmark.
ARC-AGI
12%
ARC-AGI: Abstractie en redeneren. Test fluide intelligentie door nieuwe patroonherkennigspuzzels. GLM-5 scoorde 12% op deze benchmark.

Over GLM-5

Leer over de mogelijkheden van GLM-5, functies en hoe het je kan helpen betere resultaten te behalen.

GLM-5 is het flagship foundation model van de volgende generatie van Zhipu AI, specifiek ontwikkeld om de standaard van Agentic Engineering voor open-weight systemen opnieuw te definiëren. Gebouwd op een massale Mixture of Experts (MoE) architectuur van 744 miljard parameters met 40 miljard actieve parameters, is het het eerste open-weights model dat de prestatiekloof met proprietary giganten zoals Claude 4.5 overbrugt. Dit model blinkt uit in logische dichtheid en software engineering, met een baanbrekende score van 77,8% op SWE-Bench Verified.

Technisch gezien integreert GLM-5 geavanceerde Multi-head Latent Attention (MLA) en Sparse Attention-mechanismen om de token-efficiëntie te optimaliseren en de geheugenoverhead met 33% te verminderen. Getraind op een schaal van 28,5 biljoen tokens met behulp van een puur lokaal cluster van 100.000 Huawei Ascend-chips, toont GLM-5 aan dat frontier-level reasoning mogelijk is zonder afhankelijkheid van hoogwaardige NVIDIA-hardware. Met zijn context window van 200.000 tokens en gespecialiseerde 'Thinking Mode' biedt het robuuste, low-hallucination outputs voor uiterst nauwkeurige technische workflows.

GLM-5 is geoptimaliseerd voor betrouwbaarheid en dient als basis voor autonome technische agents die in staat zijn om een persistente status te behouden tijdens langdurige uitvoeringen. De tolerante MIT-licentie en competitieve prijzen van $1,00 per miljoen input tokens maken het een ideale keuze voor ondernemingen die op zoek zijn naar lokale implementatie of grootschalige API-integratie zonder de beperkende voorwaarden van proprietary alternatieven.

GLM-5

Gebruikscases voor GLM-5

Ontdek de verschillende manieren waarop je GLM-5 kunt gebruiken voor geweldige resultaten.

Complex Systems Engineering

Het ontwerpen en onderhouden van microservice-architecturen met autonoom afhankelijkheidsbeheer.

Long-Horizon Agentic Tasks

Het uitvoeren van technische workflows in meerdere stappen die een persistent geheugen vereisen voor meer dan een uur aan uitvoering.

Legacy Codebase Migratie

Het refactoren van volledige repositories en het bijwerken van verouderde afhankelijkheden binnen een 200k token window.

Low-Hallucination Technisch Onderzoek

Het uitvoeren van uiterst nauwkeurig technisch onderzoek waarbij feitelijke juistheid en het vermijden van hallucinaties essentieel zijn.

Autonome Terminal-operaties

Het aandrijven van dev-agents die autonoom beveiligingsaudits en systeembeheeropdrachten kunnen uitvoeren.

Tweetalige Wereldwijde Implementatie

Het leveren van hoogwaardige Engelse en Chinese reasoning voor gelokaliseerde bedrijfsapplicaties op schaal.

Sterke punten

Beperkingen

Elite Agentic Intelligence: Behaalt de hoogste Agentic Index-score (63) onder open-weight models voor de uitvoering van taken met meerdere stappen.
Geen Native Multimodality: Ontbeert de vision-, audio- en videoverwerkingsmogelijkheden die wel te vinden zijn in multimodal concurrenten zoals GPT-4o.
Lage Hallucinatiegraad: Vertoont een vermindering van 56% in hallucinaties vergeleken met vorige generaties, met een prioriteit op feitelijke nauwkeurigheid.
Extreme Hostingvereisten: De 1,5 TB BF16 weights maken lokale implementatie onmogelijk voor bijna alle gebruikers zonder cloud-infrastructuur.
Massale MoE-efficiëntie: De 744B parameter-architectuur biedt een flagship logische dichtheid, terwijl MLA de geheugenoverhead met 33% vermindert.
Hoge Inference Latency: De initiële time-to-first-token kan hoog zijn (meer dan 7 seconden) op publieke API's vergeleken met kleinere 'flash'-modellen.
Tolerante MIT-licentie: Uitgebracht onder een echte open-source licentie, waardoor onbeperkt commercieel gebruik mogelijk is zonder beperkende gebruikersvoorwaarden.
Nuances in Frontend-ontwerp: Hoewel het uitblinkt in logica, kan het soms moeite hebben met gedetailleerde CSS-esthetiek vergeleken met Claude.

API snelstart

zai/glm-5

Bekijk documentatie
zhipu SDK
import { ZhipuAI } from "zhipuai-sdk";

const client = new ZhipuAI({ apiKey: "YOUR_API_KEY" });

async function main() {
  const response = await client.chat.completions.create({
    model: "glm-5",
    messages: [{ role: "user", content: "Analyze this repo for security vulnerabilities." }],
    stream: true,
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0].delta.content || "");
  }
}

main();

Installeer de SDK en begin binnen enkele minuten met API-calls.

Wat mensen zeggen over GLM-5

Bekijk wat de community denkt over GLM-5

"GLM-5 is de nieuwe leider in open weights! Het scoort 50 op de Intelligence Index, een aanzienlijke verkleining van de kloof."
Artificial Analysis
x
"Dit model is ongelooflijk. Ik heb succesvol een taak uitgevoerd die langer dan een uur duurde... ik was sprakeloos."
Theo - t3.gg
youtube
"GLM-5 gebruikte nul NVIDIA-chips, 745B parameters, en kost $1 per miljoen input tokens. Dit is de toekomst."
Legendary
x
"De hallucinatiegraad is waanzinnig; het is veel eerder bereid om 'Ik weet het niet' te zeggen dan tegen je te liegen."
DevUser456
reddit
"Zhipu AI heeft zojuist de handschoen opgepakt voor open-source coding-modellen."
AIExplorer
hackernews
"Eindelijk een open-weight model dat niet de kluts kwijtraakt halverwege een complexe taak."
CodeMaster
reddit

Video's over GLM-5

Bekijk tutorials, reviews en discussies over GLM-5

Het is veruit het beste open-weight model dat ik heb gezien, vooral voor code-gerelateerde zaken.

Het feit dat dit het eerste open-weight model is waarmee ik succesvol een taak heb uitgevoerd die langer dan een uur duurde... ik was sprakeloos.

Het lijkt het model te zijn dat tot nu toe het minst hallucineert.

We zien een enorme verschuiving in wat open-weight models daadwerkelijk kunnen betekenen in productie.

De stabiliteit van dit model tijdens lange tool-use sessies is werkelijk ongekend.

Het gevoel bij het coderen is hier heel erg krachtig... vergelijkbaar met GLM 4.7, wat al een unicum was.

De introductie van het 'dynamic island' in de UI-mockup was een erg coole, onverwachte extra feature.

Het presteert beter dan bijna elk ander model in zijn klasse voor complexe logica.

De diepgang in reasoning doet me denken aan de eerste keer dat ik o1 gebruikte, maar dan als open-weight.

Voor een text-only model gaat het beter om met visuele logica in code dan veel vision-modellen.

Het geheugengebruik is gekelderd... we hebben 33x geheugenverbeteringen behaald vergeleken met wat we voorheen deden.

Het slaagde voor de 'car wash' logica-test met reasoning ingeschakeld, en versloeg daarmee Claude en GPT-4o.

Het implementeren hiervan vereist een serieus serverrack, maar de prestaties per watt zijn krankzinnig.

Het handelde de migratie van mijn legacy repo af zonder ook maar één gehallucineerde bibliotheeknaam.

De thinking mode is niet zomaar een gimmick; het verandert de kwaliteit van de output fundamenteel.

Meer dan alleen prompts

Supercharge je workflow met AI-automatisering

Automatio combineert de kracht van AI-agents, webautomatisering en slimme integraties om je te helpen meer te bereiken in minder tijd.

AI-agents
Webautomatisering
Slimme workflows

Pro-tips voor GLM-5

Experttips om je te helpen het maximale uit GLM-5 te halen en betere resultaten te behalen.

Schakel Thinking Mode in

GLM-5 presteert aanzienlijk beter op complexe logische puzzels zoals de 'car wash'-test wanneer reasoning is ingeschakeld.

Benut de MIT-licentie

Maak gebruik van de tolerante licentie voor onbeperkte commerciële ontwikkeling en interne hosting.

Optimalisatie van toolgebruik

Gebruik GLM-5 voor meerstaps taken, aangezien het specifiek is gebouwd voor hoge stabiliteit bij agentic tool-uitvoering.

Context window benutting

Voer volledige codebases in het 200k window in om beveiligingsaudits of refactoring over de gehele repository uit te voeren.

Testimonials

Wat onze gebruikers zeggen

Sluit je aan bij duizenden tevreden gebruikers die hun workflow hebben getransformeerd

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Gerelateerd AI Models

minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.30/$1.20/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
alibaba

Qwen3-Coder-Next

alibaba

Qwen3-Coder-Next is Alibaba Cloud's elite Apache 2.0 coding model, featuring an 80B MoE architecture and 256k context window for advanced local development.

256K context
$0.14/$0.42/1M
anthropic

Claude Sonnet 4.5

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
alibaba

Qwen-Image-2.0

alibaba

Qwen-Image-2.0 is Alibaba's unified 7B model for professional infographics, photorealism, and precise image editing with native 2K resolution and 1k-token...

1K context
$0.07/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M

Veelgestelde vragen over GLM-5

Vind antwoorden op veelvoorkomende vragen over GLM-5