zhipu

GLM-5

GLM-5 är Zhipu AI:s 744B-parameter open-weight-kraftpaket som briljerar inom långsiktiga agentic-uppgifter, kodning och faktisk noggrannhet med ett 200k...

Open WeightsAgentic EngineeringMoEZhipu AICoding AI
zhipu logozhipuGLM11 februari 2026
Kontext
200Ktokens
Max utdata
128Ktokens
Inmatningspris
$1.00/ 1M
Utdatapris
$3.20/ 1M
Modalitet:Text
Kapaciteter:VerktygStreamingResonemang
Benchmarks
GPQA
68.2%
GPQA: Vetenskapliga fragor pa forskarutbildningsniva. Ett rigorost benchmark med 448 fragor fran biologi, fysik och kemi. PhD-experter uppnar endast 65-74% noggrannhet. GLM-5 fick 68.2% pa detta benchmark.
HLE
32%
HLE: Expertniva resonemang. Testar modellens formaga att demonstrera expertniva resonemang inom specialiserade omraden. GLM-5 fick 32% pa detta benchmark.
MMLU
85%
MMLU: Massiv multitask sprakforstaelse. Ett omfattande benchmark med 16 000 fragor over 57 akademiska amnen. GLM-5 fick 85% pa detta benchmark.
MMLU Pro
70.4%
MMLU Pro: MMLU Professionell utgava. En forbattrad version av MMLU med 12 032 fragor och ett svarare 10-alternativsformat. GLM-5 fick 70.4% pa detta benchmark.
SimpleQA
48%
SimpleQA: Benchmark for faktisk noggrannhet. Testar modellens formaga att ge korrekta, faktabaserade svar. GLM-5 fick 48% pa detta benchmark.
IFEval
88%
IFEval: Utvardering av instruktionsfoljandeformaga. Mater hur val en modell foljer specifika instruktioner och begransningar. GLM-5 fick 88% pa detta benchmark.
AIME 2025
84%
AIME 2025: American Invitational Mathematics Examination. Matematikproblem pa tavlingsniva fran det prestigefyllda AIME-provet. GLM-5 fick 84% pa detta benchmark.
MATH
88%
MATH: Matematisk problemlosning. Ett omfattande matematik-benchmark som testar problemlosning i algebra, geometri, kalkyl. GLM-5 fick 88% pa detta benchmark.
GSM8k
97%
GSM8k: Grundskola matematik 8K. 8 500 matematiska ordproblem pa grundskoleniva. GLM-5 fick 97% pa detta benchmark.
MGSM
90%
MGSM: Flersprakig grundskola matematik. GSM8k-benchmarket oversatt till 10 sprak. GLM-5 fick 90% pa detta benchmark.
MathVista
0%
MathVista: Matematiskt visuellt resonemang. Testar formagan att losa matematikproblem med visuella element. GLM-5 fick 0% pa detta benchmark.
SWE-Bench
77.8%
SWE-Bench: Benchmark for mjukvaruutveckling. AI-modeller forsoker losa verkliga GitHub-problem i Python-projekt. GLM-5 fick 77.8% pa detta benchmark.
HumanEval
90%
HumanEval: Python-programmeringsproblem. 164 programmeringsproblem dar modeller maste generera korrekta Python-funktionsimplementationer. GLM-5 fick 90% pa detta benchmark.
LiveCodeBench
52%
LiveCodeBench: Live-kodningsbenchmark. Testar kodningsformaga pa kontinuerligt uppdaterade, verkliga programmeringsutmaningar. GLM-5 fick 52% pa detta benchmark.
MMMU
0%
MMMU: Multimodal forstaelse. Multimodalt forstaelsebenchmark fran 30 universitetsanknutna amnen. GLM-5 fick 0% pa detta benchmark.
MMMU Pro
0%
MMMU Pro: MMMU Professionell utgava. Forbattrad version av MMMU med mer utmanande fragor. GLM-5 fick 0% pa detta benchmark.
ChartQA
0%
ChartQA: Diagram fragor och svar. Testar formagan att forsta och analysera information fran diagram och grafer. GLM-5 fick 0% pa detta benchmark.
DocVQA
0%
DocVQA: Visuella dokumentfragor. Testar formagan att extrahera information fran dokumentbilder. GLM-5 fick 0% pa detta benchmark.
Terminal-Bench
56.2%
Terminal-Bench: Terminal/CLI-uppgifter. Testar formagan att utfora kommandoradsoperationer. GLM-5 fick 56.2% pa detta benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion och resonemang. Testar flytande intelligens genom nya monsterigenkannigspussel. GLM-5 fick 12% pa detta benchmark.

Om GLM-5

Lar dig om GLM-5s kapacitet, funktioner och hur det kan hjalpa dig uppna battre resultat.

GLM-5 är Zhipu AI:s flagship-modell utformad för autonoma agentic-arbetsflöden och komplex systemutveckling. Den använder en massiv 744 miljarder parameter Mixture-of-Experts (MoE)-arkitektur, där 40 miljarder parameters är aktiva under inference för att balansera prestanda och hastighet. Modellen är det första open-weight-systemet som uppvisar paritet med proprietära frontier-modeller inom mjukvaruutveckling och får 77,8 % på SWE-bench Verified.

Modellen tränades på 28,5 biljoner tokens med hjälp av ett inhemskt kluster med 100 000 Huawei Ascend-chip. Den integrerar specialiserade mekanismer som Multi-head Latent Attention (MLA) och DeepSeek Sparse Attention (DSA) för att upprätthålla logisk konsistens genom hela sin 200 000 tokens context window. Denna tekniska stack gör det möjligt för GLM-5 att hantera långsiktig planering och resursförvaltning utan den höga latens som är typisk för täta modeller av denna storlek.

Zhipu AI släppte GLM-5 under MIT-licens, vilket gör det möjligt för företagskunder att driftsätta vikterna lokalt för behandling av känslig data. Med en input-kostnad på endast 1,00 USD per miljon tokens erbjuder den en 6x prisfördel jämfört med rivaliserande modeller som Claude 4.5. Modellen inkluderar ett dedikerat Thinking Mode som minskar förekomsten av hallucinationer avsevärt jämfört med sina föregångare.

GLM-5

Anvandningsfall for GLM-5

Upptack de olika satten du kan anvanda GLM-5 for att uppna fantastiska resultat.

Autonom mjukvaruutveckling

Löser komplexa GitHub-ärenden och utför refaktoreringar över hela repot genom att utnyttja sitt resultat på 77,8 % i SWE-bench Verified.

Orkestrering av företagsverktyg

Utför agentic-arbetsflöden i flera steg via interna API:er för att hantera back-office-automatisering inom finans- och juridiksektorn.

Analys av stora kodbaser

Använder sin context window på 200 000 tokens för att läsa in och analysera hela dokumentationspaket eller kodbaser med många filer i en enda körning.

Personliga AI-medarbetare

Driver open-source-agenter som OpenClaw för att hantera e-post, kalendrar och bakgrundsuppgifter dygnet runt med hög tillförlitlighet.

Privat on-premise-intelligens

Driftsätter open-weight-modellen lokalt under dess MIT-licens för att garantera fullständig dataintegritet för känslig företagsverksamhet.

Kostnadseffektiv agent-skalning

Kör agentic-sessioner i hög volym till 6–8 gånger lägre kostnad jämfört med proprietära frontier-modeller, utan att offra djupet i sin reasoning.

Styrkor

Begransningar

Överlägsen kodningsprestanda: Uppnår 77,8 % på SWE-bench Verified, vilket matchar proprietära giganter som Claude Opus för autonom mjukvaruutveckling.
Ingen inbyggd vision: Modellen saknar förmåga att bearbeta bilder eller vision direkt, vilket begränsar dess användning i moderna multimodala UI/UX-arbetsflöden.
6x prisfördel: Erbjuder reasoning på högsta nivå för endast 1,00 USD per miljon input tokens, vilket gör storskaliga agentic-driftsättningar ekonomiskt gångbara.
Latens i terminaluppgifter: Prestandan på Terminal-Bench 2.0 ligger på 56,2 %, vilket är något efter de absoluta toppkonkurrenterna.
MIT-licensierade vikter: Full tillgång till open-weight på Hugging Face möjliggör privat lokal driftsättning på Huawei Ascend- eller NVIDIA-hårdvara.
Förekomst av hallucinationer: Tidiga benchmark-tester visar en frekvens av hallucinationer nära 30 % för vissa komplexa resonemangsuppgifter jämfört med lägre frekvenser hos toppkonkurrenter.
Massiv kapacitet för kontext: En context window på 200 000 tokens i kombination med 128 000 output tokens är idealiskt för analys av hela kodbaser och långformig generering.
Variationer i hårdvara: Träning på Huawei Ascend-hårdvara kan leda till mindre prestandavariationer vid driftsättning på vanliga mjukvarustackar som är optimerade enbart för NVIDIA.

API snabbstart

zai/glm-5

Visa dokumentation
zhipu SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: "https://open.bigmodel.cn/api/paas/v4/",
});

const response = await client.chat.completions.create({
  model: "glm-5",
  messages: [{ role: "user", content: "Analysera denna repo-struktur och refaktorera till GraphQL." }],
  stream: true,
});

for await (const chunk of response) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

Installera SDK och borja gora API-anrop pa nagra minuter.

Vad folk sager om GLM-5

Se vad communityt tycker om GLM-5

GLM-5 är en open-source 744B-parameter-modell som presterar nära Claude Opus-nivå på kodning... men prisskillnaden spelar roll.
Odd-Coconut-2067
reddit
200 000 token-fönstret ändrar ditt arbetsflöde: Analysera 20+ filer för en refaktorering eller granska komplexa PR-diffar i en enda körning.
AskCodi
reddit
Jag gick från att spendera ~90 USD/månad på Claude API-anrop till under 15 USD med GLM-5, utan att märka något betydande tapp i kvalitet.
IulianHI
reddit
Dess frekvens av hallucinationer ligger i 30-procentsintervallet kontra jag vet inte, Gemini 3 Pro på 88 %.
Sid
youtube
GLM-5 släpptes innan jag hann testa 4.7, och hoppet i reasoning är faktiskt märkbart i vardaglig kodning.
able_wong
twitter
Att Zhipu AI släpper detta under MIT-licens är ett massivt steg för det lokala LLM-communityt.
dev_tester
twitter

Videor om GLM-5

Se handledningar, recensioner och diskussioner om GLM-5

Den ligger sida vid sida med modeller som 5.2-codecs och Opus 4.5.

Det är den första open-weight-modellen där jag framgångsrikt kört ett jobb som tog över en timme utan problem.

Dess frekvens av hallucinationer ligger i 30-procentsintervallet kontra jag vet inte, Gemini 3 Pro på 88 %.

Reasoning-densiteten är betydligt högre än i GLM-4.

Den ersätter i princip Claude 3.5 Sonnet för mina interna kodningsuppgifter.

De fördubblade bokstavligen, nästan fördubblade antalet parameters... ända upp till 744.

Även om den är mycket större, körs den i princip lika snabbt, om inte snabbare, än den äldre modellen.

Självkorrigering. Var inte nedlåtande. Behandla det som en giltig fråga.

Den glesa (sparse) attention-mekanismen håller nere minnesanvändningen för en så stor modell.

Open-weight-tillgängligheten gör detta till den nya mästaren för lokal hosting.

De skapade sin egen RL-motor som kallas Slime.

En context window på 200 000 tokens förändrar vad företags-AI ens betyder.

Den når 77,8 på SWE-bench verified och slår Gemini 3 Pro som har 76,2.

Zhipu AI bevisar att inhemsk hårdvara kan träna modeller i världsklass.

Agentic engineering är huvudfokus här, inte bara enkel chatt.

Mer an bara promptar

Superladda ditt arbetsflode med AI-automatisering

Automatio kombinerar kraften av AI-agenter, webbautomatisering och smarta integrationer for att hjalpa dig astadkomma mer pa kortare tid.

AI-agenter
Webbautomatisering
Smarta arbetsfloden

Proffs-tips for GLM-5

Experttips for att hjalpa dig fa ut det mesta av GLM-5 och uppna battre resultat.

Aktivera Agentic Mode

Definiera planer i flera steg i dina prompts, då GLM-5 är optimerad för autonom ingenjörskonst snarare än enkla chatt-svar.

Allokering av lokal hårdvara

Säkerställ att betydande mängd VRAM eller inbyggd Huawei Ascend-hårdvara med MindSpore-ramverket finns tillgänglig för optimal throughput.

Implementera fallback-kedjor

Konfigurera GLM-5 som din primära reasoning-modell med GLM-4.7-Flash som ett kostnadseffektivt fallback-alternativ för enklare instruktioner.

Använd strukturerad output

GLM-5 är utmärkt på att generera exakta .docx- och .xlsx-format när den får tydliga schemakrav för leverabler.

Omdomen

Vad vara anvandare sager

Ga med tusentals nojda anvandare som har transformerat sitt arbetsflode

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relaterat AI Models

anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 4.5 Sonnet

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M

Vanliga fragor om GLM-5

Hitta svar pa vanliga fragor om GLM-5