zhipu

GLM-5

GLM-5 er Zhipu AI's kraftfulde open-weight model med 744B parameters, der excellerer i agentic opgaver over lang tid, kodning og faktuel nøjagtighed med et...

Open WeightsAgentic EngineeringMoEZhipu AIKodnings-AI
zhipu logozhipuGLMFebruary 11, 2026
Kontekst
200Ktokens
Maks output
128Ktokens
Input-pris
$1.00/ 1M
Output-pris
$3.20/ 1M
Modalitet:Text
Funktioner:VærktøjerStreamingRæsonnering
Benchmarks
GPQA
68.2%
GPQA: Spørgsmål og svar på kandidatniveau. En streng benchmark med 448 multiple choice-spørgsmål inden for biologi, fysik og kemi skabt af domæneeksperter. PhD-eksperter opnår kun 65-74% nøjagtighed, mens ikke-eksperter scorer kun 34% selv med ubegrænset webadgang (derfor 'Google-proof'). GLM-5 scorede 68.2% på denne benchmark.
HLE
32%
HLE: Ekspertniveau-ræsonnering. Tester en models evne til at demonstrere ekspertniveau-ræsonnering på tværs af specialiserede domæner. Evaluerer dyb forståelse af komplekse emner, der kræver professionel viden. GLM-5 scorede 32% på denne benchmark.
MMLU
85%
MMLU: Massiv flerfaglig sprogforståelse. En omfattende benchmark med 16.000 multiple choice-spørgsmål på tværs af 57 akademiske fag, herunder matematik, filosofi, jura og medicin. Tester bred viden og ræsonneringsevner. GLM-5 scorede 85% på denne benchmark.
MMLU Pro
70.4%
MMLU Pro: MMLU Professionel udgave. En forbedret version af MMLU med 12.032 spørgsmål i et sværere format med 10 svarmuligheder. Dækker matematik, fysik, kemi, jura, ingeniørvidenskab, økonomi, sundhed, psykologi, business, biologi, filosofi og datalogi. GLM-5 scorede 70.4% på denne benchmark.
SimpleQA
48%
SimpleQA: Faktuel nøjagtighedsbenchmark. Tester en models evne til at give nøjagtige, faktuelle svar på ligetil spørgsmål. Måler pålidelighed og reducerer hallucinationer i vidensindhentningstasks. GLM-5 scorede 48% på denne benchmark.
IFEval
88%
IFEval: Instruktionsfølgningsevaluering. Måler, hvor godt en model følger specifikke instruktioner og begrænsninger. Tester evnen til at overholde formateringsregler, længdegrænser og andre eksplicitte krav. GLM-5 scorede 88% på denne benchmark.
AIME 2025
84%
AIME 2025: American Invitational Math Exam. Konkurrence-niveau matematikopgaver fra den prestigefyldte AIME-eksamen designet til talentfulde gymnasieelever. Tester avanceret matematisk problemløsning, der kræver abstrakt tænkning, ikke kun mønstergenkendelse. GLM-5 scorede 84% på denne benchmark.
MATH
88%
MATH: Matematisk problemløsning. En omfattende matematikbenchmark, der tester problemløsning inden for algebra, geometri, calculus og andre matematiske domæner. Kræver flertrinssværsonnering og formel matematisk viden. GLM-5 scorede 88% på denne benchmark.
GSM8k
97%
GSM8k: Folkeskole matematik 8K. 8.500 folkeskole-niveau matematiske tekstopgaver, der kræver flertrinssræsonnering. Tester grundlæggende aritmetik og logisk tænkning gennem virkelige scenarier som shopping eller tidsberegninger. GLM-5 scorede 97% på denne benchmark.
MGSM
90%
MGSM: Flersproget folkeskolematematik. GSM8k-benchmarken oversat til 10 sprog, herunder spansk, fransk, tysk, russisk, kinesisk og japansk. Tester matematisk ræsonnering på tværs af forskellige sprog. GLM-5 scorede 90% på denne benchmark.
MathVista
0%
MathVista: Matematisk visuel ræsonnering. Tester evnen til at løse matematikopgaver, der involverer visuelle elementer som diagrammer, grafer, geometriske figurer og videnskabelige illustrationer. Kombinerer visuel forståelse med matematisk ræsonnering. GLM-5 scorede 0% på denne benchmark.
SWE-Bench
77.8%
SWE-Bench: Softwareingeniør-benchmark. AI-modeller forsøger at løse rigtige GitHub-issues i open source Python-projekter med menneskelig verifikation. Tester praktiske softwareingeniørfærdigheder på produktionskodebaser. Topmodeller gik fra 4,4% i 2023 til over 70% i 2024. GLM-5 scorede 77.8% på denne benchmark.
HumanEval
90%
HumanEval: Python-programmeringsopgaver. 164 håndskrevne programmeringsopgaver, hvor modeller skal generere korrekte Python-funktionsimplementeringer. Hver løsning verificeres mod unit tests. Topmodeller opnår nu 90%+ nøjagtighed. GLM-5 scorede 90% på denne benchmark.
LiveCodeBench
52%
LiveCodeBench: Live kodningsbenchmark. Tester kodningsevner på løbende opdaterede, virkelige programmeringsudfordringer. I modsætning til statiske benchmarks bruger den friske problemer for at forhindre dataforurening og måle ægte kodningsevner. GLM-5 scorede 52% på denne benchmark.
MMMU
0%
MMMU: Multimodal forståelse. Massiv multi-disciplin multimodal forståelsesbenchmark, der tester vision-sprogmodeller på universitetsniveau-problemer på tværs af 30 fag, der kræver både billedforståelse og ekspertviden. GLM-5 scorede 0% på denne benchmark.
MMMU Pro
0%
MMMU Pro: MMMU Professionel udgave. Forbedret version af MMMU med mere udfordrende spørgsmål og strengere evaluering. Tester avanceret multimodal ræsonnering på professionelt og ekspertniveau. GLM-5 scorede 0% på denne benchmark.
ChartQA
0%
ChartQA: Diagram-spørgsmål og svar. Tester evnen til at forstå og ræsonnere om information præsenteret i diagrammer og grafer. Kræver udtrækning af data, sammenligning af værdier og udførelse af beregninger fra visuelle datarepræsentationer. GLM-5 scorede 0% på denne benchmark.
DocVQA
0%
DocVQA: Dokument visuel Q&A. Document Visual Question Answering benchmark, der tester evnen til at udtrække og ræsonnere om information fra dokumentbilleder, herunder formularer, rapporter og scannet tekst. GLM-5 scorede 0% på denne benchmark.
Terminal-Bench
56.2%
Terminal-Bench: Terminal/CLI-opgaver. Tester evnen til at udføre kommandolinjeopgaver, skrive shell-scripts og navigere i terminalmiljøer. Måler praktiske systemadministrations- og udviklingsworkflow-færdigheder. GLM-5 scorede 56.2% på denne benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion og ræsonnering. Abstraction and Reasoning Corpus for AGI - tester flydende intelligens gennem nye mønstergenkendelsespuslespil. Hver opgave kræver opdagelse af den underliggende regel fra eksempler, der måler generel ræsonneringsevne snarere end memorering. GLM-5 scorede 12% på denne benchmark.

Om GLM-5

Lær om GLM-5s muligheder, funktioner og hvordan den kan hjælpe dig med at opnå bedre resultater.

GLM-5 er Zhipu AI's næste generation af flagship foundation model, specifikt udviklet til at omdefinere standarden for Agentic Engineering for open-weight systemer. Bygget på en massiv Mixture of Experts (MoE) arkitektur med 744 milliarder parameters og 40 milliarder aktive parameters, er det den første open-weights model, der lukker hullet til de proprietære giganter som Claude 4.5. Denne model excellerer i logik-tæthed og software engineering og opnår et gennembrud på 77,8 % på SWE-Bench Verified.

Teknisk set integrerer GLM-5 avanceret Multi-head Latent Attention (MLA) og Sparse Attention-mekanismer for at optimere token-effektivitet og reducere hukommelsesforbrug med 33 %. Trænet på en skala af 28,5 billioner tokens ved hjælp af et rent nationalt cluster af 100.000 Huawei Ascend-chips, demonstrerer GLM-5, at frontier-level reasoning er mulig uden afhængighed af high-end NVIDIA-hardware. Med sit context window på 200.000 tokens og den specialiserede 'Thinking Mode' leverer den robuste outputs med lav hallucineringsrate til tekniske workflows med høj præcision.

GLM-5 er optimeret til pålidelighed og fungerer som fundament for autonome tekniske agenter, der er i stand til at opretholde en persistent tilstand over kørselssessioner af lang varighed. Dens permissive MIT-licensering og konkurrencedygtige prissætning på $1,00 per million input tokens gør den til et ideelt valg for virksomheder, der søger lokal udrulning eller integration via API i stor skala uden de restriktive vilkår fra proprietære alternativer.

GLM-5

Anvendelser for GLM-5

Opdag de forskellige måder, du kan bruge GLM-5 til at opnå gode resultater.

Kompleks systemteknik

Design og vedligeholdelse af microservice-arkitekturer med autonom styring af afhængigheder.

Agentic opgaver over lang tid

Udførelse af tekniske workflows med flere trin, der kræver persistent hukommelse i over en times kørsel.

Migrering af ældre codebases

Refactoring af hele repositories og opdatering af forældede afhængigheder på tværs af et 200k token window.

Teknisk forskning med lav hallucineringsrate

Udførelse af præcis teknisk forskning, hvor faktuel nøjagtighed og afholdenhed fra gætteri er altafgørende.

Autonome terminal-operationer

Powering af dev-agents, der autonomt kan køre sikkerhedsrevisioner og systemadministrations-kommandoer.

Tosproget global udrulning

Levering af topmoderne reasoning på engelsk og kinesisk til lokaliserede virksomhedsapplikationer i stor skala.

Styrker

Begrænsninger

Elite Agentic Intelligence: Opnår den højeste Agentic Index-score (63) blandt open-weight modeller til udførelse af opgaver i flere trin.
Ingen indfødt multimodality: Mangler de egenskaber til behandling af vision, lyd og video, som findes i multimodal konkurrenter som GPT-4o.
Lav hallucineringsrate: Udviser en 56 % reduktion i hallucinationer sammenlignet med tidligere generationer og prioriterer faktuel nøjagtighed.
Ekstreme krav til hosting: Vægtene på 1,5 TB i BF16-format gør lokal udrulning umulig for næsten alle brugere uden cloud-infrastruktur.
Massiv MoE-effektivitet: Arkitekturen med 744B parameters giver flagship logik-tæthed, mens MLA reducerer hukommelsesforbruget med 33 %.
Høj inference latency: Den indledende time-to-first-token kan være høj (over 7 sekunder) på offentlige API'er sammenlignet med mindre 'flash'-modeller.
Permissiv MIT-licens: Udgivet under en ægte open-source licens, hvilket tillader ubegrænset kommerciel brug uden restriktive brugerklausuler.
Nuancer i frontend-design: Selvom den er fremragende til logik, kan den lejlighedsvis have svært ved finkornet æstetisk CSS-polering sammenlignet med Claude.

API hurtig start

zai/glm-5

Se dokumentation
zhipu SDK
import { ZhipuAI } from "zhipuai-sdk";

const client = new ZhipuAI({ apiKey: "YOUR_API_KEY" });

async function main() {
  const response = await client.chat.completions.create({
    model: "glm-5",
    messages: [{ role: "user", content: "Analyze this repo for security vulnerabilities." }],
    stream: true,
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0].delta.content || "");
  }
}

main();

Installér SDK'et og begynd at foretage API-kald på få minutter.

Hvad folk siger om GLM-5

Se hvad fællesskabet mener om GLM-5

"GLM-5 er den nye leder inden for open-weights! Den scorer 50 på Intelligence Index, en betydelig mindskelse af gabet."
Artificial Analysis
x
"Denne model er utrolig. Jeg kørte med succes et job, der tog over en time... det slog benene væk under mig."
Theo - t3.gg
youtube
"GLM-5 brugte nul NVIDIA-chips, 745B parameters, og koster $1 per million input tokens. Dette er fremtiden."
Legendary
x
"Hallucineringsraten er vanvittig; den er meget mere villig til at sige 'Jeg ved det ikke' end at lyve for dig."
DevUser456
reddit
"Zhipu AI har lige kastet handsken i forhold til open-source modeller til kodning."
AIExplorer
hackernews
"Endelig en open-weight model, der ikke mister forstanden halvvejs gennem en kompleks opgave."
CodeMaster
reddit

Videoer om GLM-5

Se vejledninger, anmeldelser og diskussioner om GLM-5

Det er langt den bedste open-weight model, jeg har set, især til kode-ting.

Det faktum, at dette er den første open-weight model, hvor jeg med succes har kørt et job, der tog over en time... slog benene væk under mig.

Det ser ud til at være den model, der hallucinerer mindst af alle modeller til dato.

Vi ser et massivt skift i, hvad open-weight modeller rent faktisk kan i produktion.

Stabiliteten af denne model under lange sessioner med værktøjsbrug er virkelig uden fortilfælde.

Følelsen af kodning her er meget, meget potent... sammenlignelig med GLM 4.7, som allerede var en enhjørning.

Introduktionen af 'dynamic island' i dens UI-mockup var en meget fed og uventet specialfunktion.

Den udkonkurrerer næsten alle andre modeller i sin klasse til kompleks logik.

Dybden i dens reasoning her minder mig om første gang, jeg brugte o1, men den er open-weight.

For en text-only model håndterer den visuel logik i kode bedre end mange vision modeller.

Hukommelsesforbruget er faldet markant... vi fik 33x forbedringer i hukommelsen sammenlignet med, hvad vi gjorde tidligere.

Den bestod bilvask-logiktesten med 'thinking' aktiveret og slog Claude og GPT-4o.

Udrulning af denne kræver et seriøst server-rack, men præstationen per watt er vanvittig.

Den håndterede migreringen af mit ældre repo uden et eneste hallucineret biblioteksnavn.

Thinking-tilstanden er ikke bare et gimmick; den ændrer fundamentalt kvaliteten af outputtet.

Mere end bare prompts

Supercharg din arbejdsgang med AI-automatisering

Automatio kombinerer kraften fra AI-agenter, webautomatisering og smarte integrationer for at hjælpe dig med at udrette mere på kortere tid.

AI-agenter
Webautomatisering
Smarte arbejdsgange

Pro-tips til GLM-5

Eksperttips til at hjælpe dig med at få mest muligt ud af GLM-5 og opnå bedre resultater.

Aktivér Thinking Mode

GLM-5 præsterer betydeligt bedre på komplekse logiske opgaver som 'bilvask'-testen, når reasoning er aktiveret.

Udnyt MIT-licensen

Drag fordel af den permissive licensering til ubegrænset kommerciel udvikling og intern hosting.

Optimering af værktøjsbrug

Brug GLM-5 til opgaver med flere trin, da den er bygget specifikt til høj stabilitet i agentic værktøjsafvikling.

Udnyttelse af context window

Indlæs hele codebases i det 200k store window for at udføre sikkerhedsrevisioner eller refactoring på tværs af hele repositoriet.

Anmeldelser

Hvad vores brugere siger

Slut dig til tusindvis af tilfredse brugere, der har transformeret deres arbejdsgang

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relateret AI Models

minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.30/$1.20/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
alibaba

Qwen3-Coder-Next

alibaba

Qwen3-Coder-Next is Alibaba Cloud's elite Apache 2.0 coding model, featuring an 80B MoE architecture and 256k context window for advanced local development.

256K context
$0.14/$0.42/1M
anthropic

Claude Sonnet 4.5

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
alibaba

Qwen-Image-2.0

alibaba

Qwen-Image-2.0 is Alibaba's unified 7B model for professional infographics, photorealism, and precise image editing with native 2K resolution and 1k-token...

1K context
$0.07/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M

Ofte stillede spørgsmål om GLM-5

Find svar på almindelige spørgsmål om GLM-5