zhipu

GLM-5.1

GLM-5.1 er Zhipu AI's flagship reasoning-model med et 202K context window og et autonomt 8-timers eksekveringsloop til kompleks agentic engineering.

ReasoningAgentic AIOpen WeightsCodingMultimodal
zhipu logozhipuGLM2026-04-08
Kontekst
203Ktokens
Maks output
164Ktokens
Input-pris
$1.40/ 1M
Output-pris
$4.40/ 1M
Modalitet:TextImage
Funktioner:VisionVærktøjerStreamingRæsonnering
Benchmarks
GPQA
86.2%
GPQA: Spørgsmål og svar på kandidatniveau. En streng benchmark med 448 multiple choice-spørgsmål inden for biologi, fysik og kemi skabt af domæneeksperter. PhD-eksperter opnår kun 65-74% nøjagtighed, mens ikke-eksperter scorer kun 34% selv med ubegrænset webadgang (derfor 'Google-proof'). GLM-5.1 scorede 86.2% på denne benchmark.
HLE
31%
HLE: Ekspertniveau-ræsonnering. Tester en models evne til at demonstrere ekspertniveau-ræsonnering på tværs af specialiserede domæner. Evaluerer dyb forståelse af komplekse emner, der kræver professionel viden. GLM-5.1 scorede 31% på denne benchmark.
MMLU
89%
MMLU: Massiv flerfaglig sprogforståelse. En omfattende benchmark med 16.000 multiple choice-spørgsmål på tværs af 57 akademiske fag, herunder matematik, filosofi, jura og medicin. Tester bred viden og ræsonneringsevner. GLM-5.1 scorede 89% på denne benchmark.
MMLU Pro
89%
MMLU Pro: MMLU Professionel udgave. En forbedret version af MMLU med 12.032 spørgsmål i et sværere format med 10 svarmuligheder. Dækker matematik, fysik, kemi, jura, ingeniørvidenskab, økonomi, sundhed, psykologi, business, biologi, filosofi og datalogi. GLM-5.1 scorede 89% på denne benchmark.
IFEval
73%
IFEval: Instruktionsfølgningsevaluering. Måler, hvor godt en model følger specifikke instruktioner og begrænsninger. Tester evnen til at overholde formateringsregler, længdegrænser og andre eksplicitte krav. GLM-5.1 scorede 73% på denne benchmark.
AIME 2025
95.3%
AIME 2025: American Invitational Math Exam. Konkurrence-niveau matematikopgaver fra den prestigefyldte AIME-eksamen designet til talentfulde gymnasieelever. Tester avanceret matematisk problemløsning, der kræver abstrakt tænkning, ikke kun mønstergenkendelse. GLM-5.1 scorede 95.3% på denne benchmark.
MATH
80%
MATH: Matematisk problemløsning. En omfattende matematikbenchmark, der tester problemløsning inden for algebra, geometri, calculus og andre matematiske domæner. Kræver flertrinssværsonnering og formel matematisk viden. GLM-5.1 scorede 80% på denne benchmark.
GSM8k
96%
GSM8k: Folkeskole matematik 8K. 8.500 folkeskole-niveau matematiske tekstopgaver, der kræver flertrinssræsonnering. Tester grundlæggende aritmetik og logisk tænkning gennem virkelige scenarier som shopping eller tidsberegninger. GLM-5.1 scorede 96% på denne benchmark.
MGSM
90%
MGSM: Flersproget folkeskolematematik. GSM8k-benchmarken oversat til 10 sprog, herunder spansk, fransk, tysk, russisk, kinesisk og japansk. Tester matematisk ræsonnering på tværs af forskellige sprog. GLM-5.1 scorede 90% på denne benchmark.
MathVista
70%
MathVista: Matematisk visuel ræsonnering. Tester evnen til at løse matematikopgaver, der involverer visuelle elementer som diagrammer, grafer, geometriske figurer og videnskabelige illustrationer. Kombinerer visuel forståelse med matematisk ræsonnering. GLM-5.1 scorede 70% på denne benchmark.
SWE-Bench
58.4%
SWE-Bench: Softwareingeniør-benchmark. AI-modeller forsøger at løse rigtige GitHub-issues i open source Python-projekter med menneskelig verifikation. Tester praktiske softwareingeniørfærdigheder på produktionskodebaser. Topmodeller gik fra 4,4% i 2023 til over 70% i 2024. GLM-5.1 scorede 58.4% på denne benchmark.
HumanEval
94.6%
HumanEval: Python-programmeringsopgaver. 164 håndskrevne programmeringsopgaver, hvor modeller skal generere korrekte Python-funktionsimplementeringer. Hver løsning verificeres mod unit tests. Topmodeller opnår nu 90%+ nøjagtighed. GLM-5.1 scorede 94.6% på denne benchmark.
LiveCodeBench
68%
LiveCodeBench: Live kodningsbenchmark. Tester kodningsevner på løbende opdaterede, virkelige programmeringsudfordringer. I modsætning til statiske benchmarks bruger den friske problemer for at forhindre dataforurening og måle ægte kodningsevner. GLM-5.1 scorede 68% på denne benchmark.
MMMU
73%
MMMU: Multimodal forståelse. Massiv multi-disciplin multimodal forståelsesbenchmark, der tester vision-sprogmodeller på universitetsniveau-problemer på tværs af 30 fag, der kræver både billedforståelse og ekspertviden. GLM-5.1 scorede 73% på denne benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Professionel udgave. Forbedret version af MMMU med mere udfordrende spørgsmål og strengere evaluering. Tester avanceret multimodal ræsonnering på professionelt og ekspertniveau. GLM-5.1 scorede 58% på denne benchmark.
ChartQA
89%
ChartQA: Diagram-spørgsmål og svar. Tester evnen til at forstå og ræsonnere om information præsenteret i diagrammer og grafer. Kræver udtrækning af data, sammenligning af værdier og udførelse af beregninger fra visuelle datarepræsentationer. GLM-5.1 scorede 89% på denne benchmark.
DocVQA
93%
DocVQA: Dokument visuel Q&A. Document Visual Question Answering benchmark, der tester evnen til at udtrække og ræsonnere om information fra dokumentbilleder, herunder formularer, rapporter og scannet tekst. GLM-5.1 scorede 93% på denne benchmark.
Terminal-Bench
63.5%
Terminal-Bench: Terminal/CLI-opgaver. Tester evnen til at udføre kommandolinjeopgaver, skrive shell-scripts og navigere i terminalmiljøer. Måler praktiske systemadministrations- og udviklingsworkflow-færdigheder. GLM-5.1 scorede 63.5% på denne benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion og ræsonnering. Abstraction and Reasoning Corpus for AGI - tester flydende intelligens gennem nye mønstergenkendelsespuslespil. Hver opgave kræver opdagelse af den underliggende regel fra eksempler, der måler generel ræsonneringsevne snarere end memorering. GLM-5.1 scorede 12% på denne benchmark.

Om GLM-5.1

Lær om GLM-5.1s muligheder, funktioner og hvordan den kan hjælpe dig med at opnå bedre resultater.

GLM-5.1 er Zhipu AI's flagship foundation-model designet til kompleks systemudvikling og langvarige agentic opgaver. Bygget på en Mixture-of-Experts (MoE)-arkitektur med 744 milliarder parametre og 40 milliarder aktive pr. gennemløb, repræsenterer den et betydeligt spring i udholdenhed og autonom problemløsning. Modellen er specifikt designet til at overvinde de reasoning-plateauer, man ser i tidligere store sprogmodeller, og opretholder produktivitet og kodekvalitet over tusindvis af tool-calls og hundredvis af iterationer. Den identificerer blokeringer, kører eksperimenter og justerer sin egen strategi uden menneskelig indgriben.

Teknisk set udmærker GLM-5.1 sig som en primær reasoning-motor i multi-agent systemer. Den håndterer arkitektoniske beslutninger på højt niveau, mens den uddelegerer implementering til mindre modeller. Den har et 202K context window understøttet af en dynamisk sparse attention-mekanisme, der sikrer sammenhæng på tværs af massive kodebaser. Modellen udgives som open weights under MIT-licensen og tilbyder et levedygtigt lokalt alternativ til proprietære frontier-modeller til opgaver som databaseoptimering, GPU-kerneludvikling og full-stack webudvikling.

KernelBench Level 3-resultater viser, at GLM-5.1 opretholder en væsentlig acceleration i agentic ML-workloads over lange forløb sammenlignet med Claude Opus 4.6. Denne udholdenhed giver udviklere mulighed for at starte en udviklingsopgave om morgenen og modtage en fuldt testet, implementeret service ved dagens afslutning. Den håndterer hele livscyklussen for en fejlrettelse, fra genskabelse af problemet i et sandbox-miljø til indsendelse af det endelige pull request.

GLM-5.1

Anvendelser for GLM-5.1

Opdag de forskellige måder, du kan bruge GLM-5.1 til at opnå gode resultater.

Autonom softwareudvikling

Den kører autonomt i over 8 timer for at designe, implementere og debugge microservices uden menneskelig vejledning.

Database-optimering med høj performance

Modellen optimerer iterativt Rust-baserede vector search-implementeringer over hundredvis af runder.

GPU-kerneloptimering

Den analyserer referenceimplementeringer for at producere hurtigere GPU-kernels, der udkonkurrerer standard autotune-kompilatorer.

Multi-agent orkestrering

Den fungerer som en reasoning-kerne, der koordinerer delopgaver og tool-calls på tværs af en sværm af specialiserede mindre modeller.

Komplekse terminalopgaver

Den udfører virkelige terminalhandlinger og systemadministration i flere trin via agentic CLI-værktøjer.

Full-stack webdesign

Modellen genererer visuelt konsistente UI-layouts og backend-logik til browserbaserede desktop-miljøer.

Styrker

Begrænsninger

8-timers itereringshorisont: Bevarer produktiviteten over tusindvis af tool-calls uden at ramme de reasoning-plateauer, der er almindelige i andre modeller.
Høj latency: Den tunge reasoning-arkitektur resulterer i en væsentligt langsommere token-generering sammenlignet med standardmodeller uden reasoning.
SOTA coding-performance: Opnår en score på 58,4 i SWE-Bench Pro, hvilket overgår proprietære modeller som GPT-5.4 og Claude Opus 4.6.
Ekstreme ressourcekrav: Den rå model kræver 1,65 TB diskplads; selv kvantiserede versioner kræver 256 GB VRAM/systemhukommelse for at køre.
Adgang til Open Weights: Udgivet under MIT-licensen, hvilket muliggør lokal implementering af frontier-level reasoning-kapabiliteter til erhvervsbrug.
Følsomhed over for prompts: At låse op for fuld agentic performance kræver ofte ekstremt detaljerede systemprompts på 300+ linjer for at guide reasoning-loopet.
Stor sammenhængskraft i lang kontekst: Bevarer stabilitet og præcision op til 202k tokens, hvilket er kritisk for langvarige agentic engineering-opgaver.
API-ustabilitet: Brugere rapporterer hyppige 500-fejl og hastighedsbegrænsninger under spidsbelastningstimer i Beijing på det officielle Z.ai-endpoint.

API hurtig start

zhipu/glm-5.1

Se dokumentation
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: 'https://api.z.ai/api/paas/v4'
});

const chat = await client.chat.completions.create({
  model: 'glm-5.1',
  messages: [{ role: 'user', content: 'Optimér dette databaseskema.' }],
  stream: true
});

for await (const chunk of chat) {
  process.stdout.write(chunk.choices[0]?.delta?.content || '');
}

Installér SDK'et og begynd at foretage API-kald på få minutter.

Hvad folk siger om GLM-5.1

Se hvad fællesskabet mener om GLM-5.1

GLM-5.1 loopede på én prompt i 8 timer i træk. Den stoppede ikke som de fleste modeller; den fortsatte med at tilføje funktioner og selvevaluere.
ziwenxu_
twitter
Jeg har gennemtestet den op til 140k kontekst mindst 5 gange, og den forblev sammenhængende. SOTA har måske fået en udfordrer.
Sensitive_Song4219
reddit
GLM-5.1 ligger stort set side om side med Opus på dette benchmark. Det er nu den bedste open model i Arenaen.
tmuxvim
hackernews
Hver gang jeg ser en NPC blive oprigtigt overbevist gennem uplanlagt dialog med GLM-5.1, er det ren magi.
orblabs
reddit
Kodningspræstationen er legitim. Den rettede en race condition i vores Go-backend, som GPT-4o vedblev med at hallucinere om.
DevScale_AI
twitter
At køre denne lokalt med Unsloth er en game changer for databeskyttelse i vores juridiske tech-stack.
LawyerWhoCodes
reddit

Videoer om GLM-5.1

Se vejledninger, anmeldelser og diskussioner om GLM-5.1

GLM-5.1 fik 45,3 % i dette benchmark, hvilket er et markant hop for familien.

Det er en utrolig langsom model... de har sandsynligvis flere af deres GPU'er dedikeret til GLM-5.

Måden den håndterer tool-calls på er langt mere robust end den standard GLM 5.

Det er i øjeblikket den stærkeste reasoning-model, du kan downloade og køre på din egen hardware.

Du kan faktisk se den identificere sine egne fejl i tænkeloggen.

Den kan køre autonomt i 8 timer og forfine strategier gennem tusindvis af iterationer.

Den overgår Gemini 3.1 Pro og Qwen 3.6 Plus på populære repo-genererings-benchmarks.

Agentic mode er der, hvor denne model virkelig skinner; den giver ikke op over for svære fejl.

Z.ai har i bund og grund fjernet paywallen på en 744B parameter frontier-model.

Den håndterer effektivt 'plateau'-problemet, hvor andre LLM'er mister fokus over tid.

80 % størrelsesreduktion fra de originale 1,65 TB ned til 236 GB, mens kvaliteten bevares.

Open source-kraften: selv i en kvantiseret version skrev den fungerende kode til fyrværkeri.

Du skal bruge mindst 256 GB system-RAM bare for at overveje at indlæse denne MoE-gigant.

Den benytter en dynamisk sparse attention-mekanisme for at holde de 202k kontekst sammenhængende.

Brug af Unsloth gør trænings- og inference-processen væsentligt mere effektiv.

Mere end bare prompts

Supercharg din arbejdsgang med AI-automatisering

Automatio kombinerer kraften fra AI-agenter, webautomatisering og smarte integrationer for at hjælpe dig med at udrette mere på kortere tid.

AI-agenter
Webautomatisering
Smarte arbejdsgange

Pro-tips til GLM-5.1

Eksperttips til at hjælpe dig med at få mest muligt ud af GLM-5.1 og opnå bedre resultater.

Slå Thinking Mode til

Sørg for, at 'Thinking'-knappen er aktiveret i din konfiguration for at låse op for de 8-timers autonome itereringsmuligheder.

Brug Off-Peak kvoter

Kør store engineering-batches uden for spidsbelastningstiden mellem 14:00-18:00 Beijing-tid for at få bedre priser.

Lokale hukommelseskrav

Brug Unsloth Dynamic GGUF-kvantisering for at få plads til 1,6 TB-modellen i 256 GB systemhukommelse til lokale kørsler.

Strategisk opgavevalg

Reserver GLM-5.1 til arkitektonisk reasoning og brug GLM-4.7 til rutineprægede implementeringer for at styre omkostningerne.

Anmeldelser

Hvad vores brugere siger

Slut dig til tusindvis af tilfredse brugere, der har transformeret deres arbejdsgang

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relateret AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M

Ofte stillede spørgsmål om GLM-5.1

Find svar på almindelige spørgsmål om GLM-5.1

GLM-5.1: Zhipu AI's 8-timers autonome reasoning-model