zhipu

GLM-4.7

GLM-4.7 fra Zhipu AI er en flagskibs 358B MoE-model med et 200K context window, elite 73,8% SWE-bench-performance og native Deep Thinking til agenter...

zhipu logozhipuGLM22. december 2025
Kontekst
200Ktokens
Maks output
131Ktokens
Input-pris
$0.60/ 1M
Output-pris
$2.20/ 1M
Modalitet:TextImage
Funktioner:VisionVærktøjerStreamingRæsonnering
Benchmarks
GPQA
85.7%
GPQA: Spørgsmål og svar på kandidatniveau. En streng benchmark med 448 multiple choice-spørgsmål inden for biologi, fysik og kemi skabt af domæneeksperter. PhD-eksperter opnår kun 65-74% nøjagtighed, mens ikke-eksperter scorer kun 34% selv med ubegrænset webadgang (derfor 'Google-proof'). GLM-4.7 scorede 85.7% på denne benchmark.
HLE
42.8%
HLE: Ekspertniveau-ræsonnering. Tester en models evne til at demonstrere ekspertniveau-ræsonnering på tværs af specialiserede domæner. Evaluerer dyb forståelse af komplekse emner, der kræver professionel viden. GLM-4.7 scorede 42.8% på denne benchmark.
MMLU
90.1%
MMLU: Massiv flerfaglig sprogforståelse. En omfattende benchmark med 16.000 multiple choice-spørgsmål på tværs af 57 akademiske fag, herunder matematik, filosofi, jura og medicin. Tester bred viden og ræsonneringsevner. GLM-4.7 scorede 90.1% på denne benchmark.
MMLU Pro
84.3%
MMLU Pro: MMLU Professionel udgave. En forbedret version af MMLU med 12.032 spørgsmål i et sværere format med 10 svarmuligheder. Dækker matematik, fysik, kemi, jura, ingeniørvidenskab, økonomi, sundhed, psykologi, business, biologi, filosofi og datalogi. GLM-4.7 scorede 84.3% på denne benchmark.
SimpleQA
46%
SimpleQA: Faktuel nøjagtighedsbenchmark. Tester en models evne til at give nøjagtige, faktuelle svar på ligetil spørgsmål. Måler pålidelighed og reducerer hallucinationer i vidensindhentningstasks. GLM-4.7 scorede 46% på denne benchmark.
IFEval
88%
IFEval: Instruktionsfølgningsevaluering. Måler, hvor godt en model følger specifikke instruktioner og begrænsninger. Tester evnen til at overholde formateringsregler, længdegrænser og andre eksplicitte krav. GLM-4.7 scorede 88% på denne benchmark.
AIME 2025
95.7%
AIME 2025: American Invitational Math Exam. Konkurrence-niveau matematikopgaver fra den prestigefyldte AIME-eksamen designet til talentfulde gymnasieelever. Tester avanceret matematisk problemløsning, der kræver abstrakt tænkning, ikke kun mønstergenkendelse. GLM-4.7 scorede 95.7% på denne benchmark.
MATH
92%
MATH: Matematisk problemløsning. En omfattende matematikbenchmark, der tester problemløsning inden for algebra, geometri, calculus og andre matematiske domæner. Kræver flertrinssværsonnering og formel matematisk viden. GLM-4.7 scorede 92% på denne benchmark.
GSM8k
98%
GSM8k: Folkeskole matematik 8K. 8.500 folkeskole-niveau matematiske tekstopgaver, der kræver flertrinssræsonnering. Tester grundlæggende aritmetik og logisk tænkning gennem virkelige scenarier som shopping eller tidsberegninger. GLM-4.7 scorede 98% på denne benchmark.
MGSM
94%
MGSM: Flersproget folkeskolematematik. GSM8k-benchmarken oversat til 10 sprog, herunder spansk, fransk, tysk, russisk, kinesisk og japansk. Tester matematisk ræsonnering på tværs af forskellige sprog. GLM-4.7 scorede 94% på denne benchmark.
MathVista
74%
MathVista: Matematisk visuel ræsonnering. Tester evnen til at løse matematikopgaver, der involverer visuelle elementer som diagrammer, grafer, geometriske figurer og videnskabelige illustrationer. Kombinerer visuel forståelse med matematisk ræsonnering. GLM-4.7 scorede 74% på denne benchmark.
SWE-Bench
73.8%
SWE-Bench: Softwareingeniør-benchmark. AI-modeller forsøger at løse rigtige GitHub-issues i open source Python-projekter med menneskelig verifikation. Tester praktiske softwareingeniørfærdigheder på produktionskodebaser. Topmodeller gik fra 4,4% i 2023 til over 70% i 2024. GLM-4.7 scorede 73.8% på denne benchmark.
HumanEval
94.2%
HumanEval: Python-programmeringsopgaver. 164 håndskrevne programmeringsopgaver, hvor modeller skal generere korrekte Python-funktionsimplementeringer. Hver løsning verificeres mod unit tests. Topmodeller opnår nu 90%+ nøjagtighed. GLM-4.7 scorede 94.2% på denne benchmark.
LiveCodeBench
84.9%
LiveCodeBench: Live kodningsbenchmark. Tester kodningsevner på løbende opdaterede, virkelige programmeringsudfordringer. I modsætning til statiske benchmarks bruger den friske problemer for at forhindre dataforurening og måle ægte kodningsevner. GLM-4.7 scorede 84.9% på denne benchmark.
MMMU
74.2%
MMMU: Multimodal forståelse. Massiv multi-disciplin multimodal forståelsesbenchmark, der tester vision-sprogmodeller på universitetsniveau-problemer på tværs af 30 fag, der kræver både billedforståelse og ekspertviden. GLM-4.7 scorede 74.2% på denne benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Professionel udgave. Forbedret version af MMMU med mere udfordrende spørgsmål og strengere evaluering. Tester avanceret multimodal ræsonnering på professionelt og ekspertniveau. GLM-4.7 scorede 58% på denne benchmark.
ChartQA
86%
ChartQA: Diagram-spørgsmål og svar. Tester evnen til at forstå og ræsonnere om information præsenteret i diagrammer og grafer. Kræver udtrækning af data, sammenligning af værdier og udførelse af beregninger fra visuelle datarepræsentationer. GLM-4.7 scorede 86% på denne benchmark.
DocVQA
93%
DocVQA: Dokument visuel Q&A. Document Visual Question Answering benchmark, der tester evnen til at udtrække og ræsonnere om information fra dokumentbilleder, herunder formularer, rapporter og scannet tekst. GLM-4.7 scorede 93% på denne benchmark.
Terminal-Bench
41%
Terminal-Bench: Terminal/CLI-opgaver. Tester evnen til at udføre kommandolinjeopgaver, skrive shell-scripts og navigere i terminalmiljøer. Måler praktiske systemadministrations- og udviklingsworkflow-færdigheder. GLM-4.7 scorede 41% på denne benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion og ræsonnering. Abstraction and Reasoning Corpus for AGI - tester flydende intelligens gennem nye mønstergenkendelsespuslespil. Hver opgave kræver opdagelse af den underliggende regel fra eksempler, der måler generel ræsonneringsevne snarere end memorering. GLM-4.7 scorede 12% på denne benchmark.

Om GLM-4.7

Lær om GLM-4.7s muligheder, funktioner og hvordan den kan hjælpe dig med at opnå bedre resultater.

Modeloversigt

GLM-4.7 er en flagskibs-LLM udviklet af Zhipu AI. Den benytter en Mixture-of-Experts (MoE)-arkitektur med 358 milliarder parametre. Modellen er specifikt designet til at håndtere komplekse agentic-opgaver og long-context reasoning gennem sine unikke Preserved Thinking- og Interleaved Thinking-egenskaber. Disse funktioner gør det muligt for modellen at opretholde stabil logik og reasoning-tilstande på tværs af sessioner med flere interaktioner, hvilket adresserer det context-forfald, der er almindeligt i autonome workflows.

Performance og arkitektur

Modellen tilbyder et omfattende 200.000-token context window kombineret med en massiv 131.072-token output-kapacitet. Dette gør den velegnet til at generere hele applikationer eller analysere omfattende dokumentation i én kørsel. Udgivet under MIT-licensen som en open-weight-model leverer den højtydende kodning og reasoning til en brøkdel af prisen for proprietære alternativer.

Integration og brug

Den er fuldt kompatibel med OpenAI API-formatet, hvilket forenkler integration i eksisterende software-økosystemer. Udviklere bruger den til kritiske softwareudviklingsopgaver, hvor den opnår en score på 73,8% på SWE-bench Verified. Dens evne til at behandle og analysere store mængder teknisk dokumentation mellem engelsk og kinesisk med nuancer på modersmålsniveau gør den til et alsidigt værktøj for internationale udviklingsteams.

GLM-4.7

Anvendelser for GLM-4.7

Opdag de forskellige måder, du kan bruge GLM-4.7 til at opnå gode resultater.

Autonom softwareudvikling

Udnyttelse af 73,8% SWE-bench-kapaciteten til autonomt at debugge, refaktorere og implementere nye funktioner på tværs af komplekse repositories.

Syntese af omfattende dokumentation

Brug af 131k output-grænsen til at generere omfattende tekniske manualer eller hele bogkapitler ud fra store datasæt.

Langsigtede agentic workflows

Implementering af agenter, der bruger Preserved Thinking til at opretholde konsistens og logik over hundredvis af sekventielle opgaver uden at miste context.

Tosproget Business Intelligence

Behandling og analyse af store mængder teknisk dokumentation mellem engelsk og kinesisk med nuancer på modersmålsniveau.

Automatiseret UI/UX-kodegenerering

Generering af komplette React- eller Next.js-front-end-arkitekturer med avancerede animationer og produktionsklar styling i ét hug.

Matematisk problemløsning på konkurrenceniveau

Løsning af komplekse matematiske problemer på olympiadeniveau og symbolske logiske gåder ved hjælp af den dedikerede reasoning-tunge thinking mode.

Styrker

Begrænsninger

Elite kodningsperformance: Opnår 73,8% på SWE-bench Verified, hvilket overgår næsten alle open-source-modeller og matcher proprietære top-tier API'er.
Kun tekstbaseret: I modsætning til Gemini eller GPT-4o mangler GLM-4.7 indbygget vision- eller lydbehandling, hvilket kræver eksterne modeller til multimodale opgaver.
Massiv output-kapacitet: Output-grænsen på 131.072 tokens er en af de højeste i branchen, hvilket muliggør generering af hele applikationer i én kørsel.
Massive lokale krav: Med 358B parameters kræver lokal kørsel af modellen betydelig hardware (ca. 710GB VRAM), hvilket gør den utilgængelig for forbruger-GPU'er.
Agent-først arkitektur: Indeholder Preserved Thinking for at opretholde logisk konsistens på tværs af langsigtede opgaver, hvilket løser problemer med context decay i autonome agenter.
Lejlighedsvise latenstid-spikes: Brugere på det personlige API-niveau rapporterer om periodiske forsinkelser i myldretiden sammenlignet med infrastrukturen hos større udbydere.
Høj økonomisk værdi: Leverer intelligens på frontier-niveau til cirka 4 til 7 gange lavere pris end vestlige konkurrenter som OpenAI eller Anthropic.
Udfordringer med instruktionsfølgelse: Selvom modellen er stærk til reasoning, ignorerer den nogle gange specifikke begrænsninger for filstruktur i meget komplekse kodningssessioner.

API hurtig start

zai/glm-4.7

Se dokumentation
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'YOUR_ZAI_API_KEY',
  baseURL: 'https://api.z.ai/api/paas/v4/',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'glm-4.7',
    messages: [{ role: 'user', content: 'Design a scalable React architecture.' }],
    thinking: { type: 'enabled' }
  });
  console.log(response.choices[0].message.content);
}
main();

Installér SDK'et og begynd at foretage API-kald på få minutter.

Hvad folk siger om GLM-4.7

Se hvad fællesskabet mener om GLM-4.7

GLM-4.7 håndterer store kodebaser pålideligt med sit 128k context window. Den har været overraskende nyttig til subagent-opgaver for at spare på de primære API-omkostninger.
IulianHI
reddit
Zhipu AI's GLM-4.7 matcher proprietære frontier models som GPT-5.1 High inden for kodning. Preserved Thinking-funktionen er en kæmpe gevinst for autonome agenter.
Etienne Noumen
youtube
GLM-4.7 fortsætter med at være den mest intelligente model med open weights i Intelligence Index v4.0 og placerer sig foran DeepSeek V3.2.
Artificial Analysis
twitter
Kinesiske modeller lukker hurtigt hullet i kodningsnytte. Denne 73% SWE-bench-score er ikke en spøg for en open weight-udgivelse.
Epoch AI
hackernews
Reasoning-hastigheden er faktisk ret hæderlig for en model af denne størrelse. Den håndterer kompleks logik meget bedre end tidligere versioner.
Bijan Bowen
youtube
GLM-4.7 lander som nr. 6 på AI Index og overgår Kimi K2. Oplev hvorfor denne $2-model erstatter GPT-5.2 i kodnings-workflows.
TowardsAI
twitter

Videoer om GLM-4.7

Se vejledninger, anmeldelser og diskussioner om GLM-4.7

Context-længden her er 200k, og det maksimale antal output tokens er 128k, hvilket faktisk er ret imponerende.

Det er virkelig ret imponerende. Ingen af dem har implementeret en speciel feature med det niveau af kompleksitet.

Reasoning-hastigheden er faktisk ret hæderlig for en model af denne størrelse.

Den håndterer kompleks logik meget bedre end tidligere versioner.

Denne model er et markant skridt opad i forhold til logisk konsistens.

GLM-modellen implementerede faktisk en bedre arkitektur ved at placere alle mock-data i én fil.

Dette er uden tvivl et kæmpe spring. Benchmarks er retfærdiggjort af de tests, jeg har udført.

Den forstod context for hele projektet uden at jeg behøvede at minde den om det.

Kodningskapaciteten er uden tvivl på niveau med de bedste modeller, der findes.

Du får high-end reasoning til en brøkdel af prisen.

Den scorede 73,8 procent på SWE-bench verified, hvilket er helt utroligt for en open-source-model.

Man kan faktisk se, at den fungerer, og at den rent faktisk virker. Hvorimod Gemini 3 Pro-genereringen slet ikke virker.

Hastigheden af generering for dette intelligensniveau er bemærkelsesværdig.

Den er tydeligvis designet til udviklere, der har brug for pålidelig kode.

Zhipu AI har virkelig overgået sig selv med MoE-arkitekturen her.

Mere end bare prompts

Supercharg din arbejdsgang med AI-automatisering

Automatio kombinerer kraften fra AI-agenter, webautomatisering og smarte integrationer for at hjælpe dig med at udrette mere på kortere tid.

AI-agenter
Webautomatisering
Smarte arbejdsgange

Pro-tips til GLM-4.7

Eksperttips til at hjælpe dig med at få mest muligt ud af GLM-4.7 og opnå bedre resultater.

Aktivér Thinking Mode for logik

Sæt thinking-parameteren til enabled for kodnings- eller matematikopgaver for at udnytte modellens interne reasoning-processer og forbedre nøjagtigheden.

Brug OpenAI-kompatible SDKs

Integrér GLM-4.7 i eksisterende workflows ved at bruge OpenAI SDK'et og ændre base URL'en til Z.ai-endepunktet.

Maksimér 131K output-grænsen

Ved generering af langt indhold bør du først give en detaljeret disposition for at hjælpe modellen med at bevare den strukturelle sammenhæng inden for den massive token-grænse.

Optimér system prompts for agenter

Definér kravene til Preserved Thinking i system-beskeden for at sikre, at modellen genbruger reasoning-tilstande på tværs af sessioner med flere interaktioner.

Anmeldelser

Hvad vores brugere siger

Slut dig til tusindvis af tilfredse brugere, der har transformeret deres arbejdsgang

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relateret AI Models

openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Ofte stillede spørgsmål om GLM-4.7

Find svar på almindelige spørgsmål om GLM-4.7