zhipu

GLM-4.7

GLM-4.7 van Zhipu AI is een flagship 358B MoE model met een 200K context window, elite 73,8% SWE-bench prestaties en native Deep Thinking voor agentic...

zhipu logozhipuGLM22 december 2025
Context
200Ktokens
Max output
131Ktokens
Invoerprijs
$0.60/ 1M
Uitvoerprijs
$2.20/ 1M
Modaliteit:TextImage
Mogelijkheden:VisieToolsStreamingRedeneren
Benchmarks
GPQA
85.7%
GPQA: Wetenschappelijke vragen op graduate-niveau. Een rigoureuze benchmark met 448 vragen over biologie, fysica en chemie. PhD-experts behalen slechts 65-74% nauwkeurigheid. GLM-4.7 scoorde 85.7% op deze benchmark.
HLE
42.8%
HLE: Expert-niveau redeneren. Test het vermogen van een model om expert-niveau redeneren te demonstreren in gespecialiseerde domeinen. GLM-4.7 scoorde 42.8% op deze benchmark.
MMLU
90.1%
MMLU: Massale multitask taalbegrip. Een uitgebreide benchmark met 16.000 vragen over 57 academische vakken. GLM-4.7 scoorde 90.1% op deze benchmark.
MMLU Pro
84.3%
MMLU Pro: MMLU Professionele editie. Een verbeterde versie van MMLU met 12.032 vragen en een moeilijker 10-optie formaat. GLM-4.7 scoorde 84.3% op deze benchmark.
SimpleQA
46%
SimpleQA: Feitelijke nauwkeurigheidsbenchmark. Test het vermogen van een model om accurate, feitelijke antwoorden te geven. GLM-4.7 scoorde 46% op deze benchmark.
IFEval
88%
IFEval: Instructie-opvolging evaluatie. Meet hoe goed een model specifieke instructies en beperkingen volgt. GLM-4.7 scoorde 88% op deze benchmark.
AIME 2025
95.7%
AIME 2025: Amerikaanse uitnodigingswiskunde-examen. Wiskundeproblemen op wedstrijdniveau van het prestigieuze AIME-examen. GLM-4.7 scoorde 95.7% op deze benchmark.
MATH
92%
MATH: Wiskundig probleemoplossen. Een uitgebreide wiskunde-benchmark die probleemoplossen test in algebra, meetkunde, calculus. GLM-4.7 scoorde 92% op deze benchmark.
GSM8k
98%
GSM8k: Basisschool wiskunde 8K. 8.500 wiskundige woordproblemen op basisschoolniveau. GLM-4.7 scoorde 98% op deze benchmark.
MGSM
94%
MGSM: Meertalige basisschool wiskunde. De GSM8k-benchmark vertaald naar 10 talen. GLM-4.7 scoorde 94% op deze benchmark.
MathVista
74%
MathVista: Wiskundig visueel redeneren. Test het vermogen om wiskundeproblemen met visuele elementen op te lossen. GLM-4.7 scoorde 74% op deze benchmark.
SWE-Bench
73.8%
SWE-Bench: Software engineering benchmark. AI-modellen proberen echte GitHub-issues op te lossen in Python-projecten. GLM-4.7 scoorde 73.8% op deze benchmark.
HumanEval
94.2%
HumanEval: Python programmeerproblemen. 164 programmeerproblemen waarbij modellen correcte Python-functie-implementaties moeten genereren. GLM-4.7 scoorde 94.2% op deze benchmark.
LiveCodeBench
84.9%
LiveCodeBench: Live codeerbenchmark. Test codeervaardigheden op continu bijgewerkte, real-world programmeeruitdagingen. GLM-4.7 scoorde 84.9% op deze benchmark.
MMMU
74.2%
MMMU: Multimodaal begrip. Multimodaal begripsbenchmark over 30 universitaire vakken. GLM-4.7 scoorde 74.2% op deze benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Professionele editie. Verbeterde versie van MMMU met uitdagendere vragen. GLM-4.7 scoorde 58% op deze benchmark.
ChartQA
86%
ChartQA: Grafiek vraag-antwoord. Test het vermogen om informatie uit grafieken en diagrammen te begrijpen en te analyseren. GLM-4.7 scoorde 86% op deze benchmark.
DocVQA
93%
DocVQA: Document visueel vraag-antwoord. Test het vermogen om informatie uit documentafbeeldingen te extraheren. GLM-4.7 scoorde 93% op deze benchmark.
Terminal-Bench
41%
Terminal-Bench: Terminal/CLI-taken. Test het vermogen om command-line operaties uit te voeren. GLM-4.7 scoorde 41% op deze benchmark.
ARC-AGI
12%
ARC-AGI: Abstractie en redeneren. Test fluide intelligentie door nieuwe patroonherkennigspuzzels. GLM-4.7 scoorde 12% op deze benchmark.

Over GLM-4.7

Leer over de mogelijkheden van GLM-4.7, functies en hoe het je kan helpen betere resultaten te behalen.

Modeloverzicht

GLM-4.7 is een flagship large language model ontwikkeld door Zhipu AI. Het maakt gebruik van een Mixture-of-Experts (MoE) architectuur met 358 miljard totale parameters. Het model is specifiek ontworpen om complexe agentic taken en long-context reasoning af te handelen via zijn unieke Preserved Thinking en Interleaved Thinking mogelijkheden. Deze functies stellen het model in staat om stabiele logica en tussenliggende reasoning states te behouden over multi-turn sessies, wat de context-degradatie aanpakt die gebruikelijk is bij autonome workflows.

Prestaties en architectuur

Het model biedt een uitgebreide 200.000-token context window gecombineerd met een enorme 131.072-token outputcapaciteit. Dit maakt het geschikt voor het genereren van volledige applicaties of het analyseren van uitgebreide documentatie in één pass. Uitgebracht onder de MIT licentie als een open-weight model, levert het krachtige coding- en reasoning-prestaties tegen een fractie van de kosten van propriëtaire alternatieven.

Integratie en gebruik

Het is volledig compatibel met het OpenAI API format, wat de integratie in bestaande software-ecosystemen vereenvoudigt. Developers gebruiken het voor software engineering taken met hoge inzet, waar het een score van 73,8% op SWE-bench Verified behaalt. Het vermogen om grote volumes technische documentatie tussen Engels en Chinees te analyseren met linguïstische nuance op native niveau, maakt het een veelzijdige tool voor internationale ontwikkelingsteams.

GLM-4.7

Gebruikscases voor GLM-4.7

Ontdek de verschillende manieren waarop je GLM-4.7 kunt gebruiken voor geweldige resultaten.

Autonome software engineering

Benut de 73,8% SWE-bench capaciteit om autonoom te debuggen, refactoren en nieuwe features te implementeren in complexe repositories.

High-capacity document synthese

Maak gebruik van de 131k output-limiet om uitgebreide technische handleidingen of hele hoofdstukken uit boeken te genereren op basis van grote datasets.

Long-horizon agentic workflows

Zet agents in die gebruikmaken van Preserved Thinking om consistentie en logica te bewaren over honderden sequentiële taken zonder contextverlies.

Tweetalige business intelligence

Verwerk en analyseer grote volumes technische documentatie tussen Engels en Chinees met linguïstische nuance op native niveau.

Geautomatiseerde UI/UX code generatie

Genereer complete React of Next.js front-end architecturen met geavanceerde animaties en productierijpe styling in één keer.

Wiskundige probleemoplossing op wedstrijd-niveau

Los complexe wiskundige vraagstukken op Olympiade-niveau en symbolische logische puzzels op met de speciale reasoning-heavy thinking mode.

Sterke punten

Beperkingen

Elite coding-prestaties: Scoort 73,8% op SWE-bench Verified, waarmee het bijna elk open-source model overtreft en concurreert met toonaangevende propriëtaire API's.
Enkel tekstgebaseerde modaliteit: In tegenstelling tot Gemini of GPT-4o beschikt GLM-4.7 niet over native vision- of audioverwerking, waardoor externe modellen nodig zijn voor multimodal taken.
Enorme output-limiet: De output-limiet van 131.072 tokens is een van de hoogste in de industrie, wat het genereren van volledige applicaties in één turn mogelijk maakt.
Enorme lokale vereisten: Met 358B parameters vereist het lokaal draaien van het model aanzienlijke hardware (ca. 710GB VRAM), waardoor het ontoegankelijk is voor consumenten-GPU's.
Agent-first architectuur: Bevat Preserved Thinking om logische consistentie te behouden tijdens langdurige taken, wat contextverlies in autonome agents oplost.
Incidentele latency-pieken: Gebruikers op het persoonlijke API-abonnement rapporteren periodieke vertragingen tijdens piekuren in vergelijking met de infrastructuur van grotere providers.
Hoge economische waarde: Biedt intelligentie van frontier-niveau tegen ongeveer 4 tot 7 keer lagere kosten dan westerse concurrenten zoals OpenAI of Anthropic.
Grillen bij het volgen van instructies: Hoewel het model sterk is in reasoning, negeert het soms specifieke beperkingen van de bestandsstructuur in zeer complexe coding-sessies.

API snelstart

zai/glm-4.7

Bekijk documentatie
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'YOUR_ZAI_API_KEY',
  baseURL: 'https://api.z.ai/api/paas/v4/',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'glm-4.7',
    messages: [{ role: 'user', content: 'Ontwerp een schaalbare React-architectuur.' }],
    thinking: { type: 'enabled' }
  });
  console.log(response.choices[0].message.content);
}
main();

Installeer de SDK en begin binnen enkele minuten met API-calls.

Wat mensen zeggen over GLM-4.7

Bekijk wat de community denkt over GLM-4.7

GLM-4.7 verwerkt grote codebases betrouwbaar met zijn 128k context. Het is verrassend nuttig geweest voor sub-agent taken om op primaire API-kosten te besparen.
IulianHI
reddit
Zhipu AI's GLM-4.7 evenaart propriëtaire frontier models zoals GPT-5.1 High op coding-gebied. De Preserved Thinking feature is een enorme winst voor autonome agents.
Etienne Noumen
youtube
GLM-4.7 blijft het meest intelligente open weights model in de Intelligence Index v4.0 en plaatst zich voor DeepSeek V3.2.
Artificial Analysis
twitter
Chinese modellen dichten snel het gat in coding-utility. Deze 73% SWE-bench score is geen grap voor een open weights release.
Epoch AI
hackernews
De reasoning-snelheid is eigenlijk behoorlijk fatsoenlijk voor een model van deze omvang. Het handelt de complexe logica veel beter af dan eerdere iteraties.
Bijan Bowen
youtube
GLM-4.7 staat op nummer 6 op de AI Index en overtreft Kimi K2. Ontdek waarom dit $2 model GPT-5.2 vervangt in coding-workflows.
TowardsAI
twitter

Video's over GLM-4.7

Bekijk tutorials, reviews en discussies over GLM-4.7

De contextlengte hier is 200k en de maximale output tokens is 128k, wat eigenlijk behoorlijk fors is.

Oké, dat is echt indrukwekkend. Geen van hen voegde een speciale feature toe met dat niveau van complexiteit.

De reasoning-snelheid is eigenlijk behoorlijk fatsoenlijk voor een model van deze omvang.

Het handelt de complexe logica veel beter af dan voorgaande iteraties.

Dit model is een aanzienlijke stap voorwaarts wat betreft logische consistentie.

Het GLM model implementeerde eigenlijk een betere architectuur door alle mock-data in één bestand te plaatsen.

Dit is absoluut een grote sprong. Die benchmarks worden gerechtvaardigd door de tests die ik heb gedaan.

Het begreep de context van het hele project zonder dat ik het eraan hoefde te herinneren.

De coding-capaciteit is aantoonbaar gelijk aan de beste modellen die er zijn.

Je krijgt high-end reasoning voor een fractie van de kosten.

Het scoorde 73,8 procent op Swaybench verified, wat absoluut ongelooflijk is voor een open-source model.

Je kunt daadwerkelijk zien dat het functioneert en werkt. Waar de Gemini 3 Pro generatie helemaal niet werkt.

De snelheid van generatie voor dit niveau van intelligentie is opmerkelijk.

Het is duidelijk ontworpen voor developers die betrouwbare code-output nodig hebben.

Zhipu AI heeft zichzelf echt overtroffen met de MoE architectuur tuning hier.

Meer dan alleen prompts

Supercharge je workflow met AI-automatisering

Automatio combineert de kracht van AI-agents, webautomatisering en slimme integraties om je te helpen meer te bereiken in minder tijd.

AI-agents
Webautomatisering
Slimme workflows

Pro-tips voor GLM-4.7

Experttips om je te helpen het maximale uit GLM-4.7 te halen en betere resultaten te behalen.

Activeer Thinking Mode voor logica

Zet de thinking parameter op enabled bij coding- of wiskundige taken om gebruik te maken van de interne reasoning traces van het model en de nauwkeurigheid te verhogen.

Gebruik OpenAI-compatibele SDK's

Integreer GLM-4.7 in bestaande workflows door de OpenAI SDK te gebruiken en de base URL aan te passen naar het Z.ai endpoint.

Maximaliseer de 131K output

Geef bij het genereren van long-form content eerst een gedetailleerde outline, zodat het model de structurele samenhang beter behoudt binnen de enorme token-limiet.

Optimaliseer system prompts voor agents

Definieer de Preserved Thinking vereisten in de system message om ervoor te zorgen dat het model reasoning states hergebruikt in multi-turn sessies.

Testimonials

Wat onze gebruikers zeggen

Sluit je aan bij duizenden tevreden gebruikers die hun workflow hebben getransformeerd

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Gerelateerd AI Models

openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Veelgestelde vragen over GLM-4.7

Vind antwoorden op veelvoorkomende vragen over GLM-4.7