zhipu

GLM-4.7

GLM-4.7 fra Zhipu AI er en 358B MoE-flagskibsmodel med et 200K context window, en elite-performance på 73,8 % i SWE-bench og indbygget Deep Thinking til...

zhipu logozhipuGLM22. december 2025
Kontekst
200Ktokens
Maks output
131Ktokens
Input-pris
$0.60/ 1M
Output-pris
$2.20/ 1M
Modalitet:TextImage
Funktioner:VisionVærktøjerStreamingRæsonnering
Benchmarks
GPQA
85.7%
GPQA: Spørgsmål og svar på kandidatniveau. En streng benchmark med 448 multiple choice-spørgsmål inden for biologi, fysik og kemi skabt af domæneeksperter. PhD-eksperter opnår kun 65-74% nøjagtighed, mens ikke-eksperter scorer kun 34% selv med ubegrænset webadgang (derfor 'Google-proof'). GLM-4.7 scorede 85.7% på denne benchmark.
HLE
42.8%
HLE: Ekspertniveau-ræsonnering. Tester en models evne til at demonstrere ekspertniveau-ræsonnering på tværs af specialiserede domæner. Evaluerer dyb forståelse af komplekse emner, der kræver professionel viden. GLM-4.7 scorede 42.8% på denne benchmark.
MMLU
90.1%
MMLU: Massiv flerfaglig sprogforståelse. En omfattende benchmark med 16.000 multiple choice-spørgsmål på tværs af 57 akademiske fag, herunder matematik, filosofi, jura og medicin. Tester bred viden og ræsonneringsevner. GLM-4.7 scorede 90.1% på denne benchmark.
MMLU Pro
84.3%
MMLU Pro: MMLU Professionel udgave. En forbedret version af MMLU med 12.032 spørgsmål i et sværere format med 10 svarmuligheder. Dækker matematik, fysik, kemi, jura, ingeniørvidenskab, økonomi, sundhed, psykologi, business, biologi, filosofi og datalogi. GLM-4.7 scorede 84.3% på denne benchmark.
SimpleQA
46%
SimpleQA: Faktuel nøjagtighedsbenchmark. Tester en models evne til at give nøjagtige, faktuelle svar på ligetil spørgsmål. Måler pålidelighed og reducerer hallucinationer i vidensindhentningstasks. GLM-4.7 scorede 46% på denne benchmark.
IFEval
88%
IFEval: Instruktionsfølgningsevaluering. Måler, hvor godt en model følger specifikke instruktioner og begrænsninger. Tester evnen til at overholde formateringsregler, længdegrænser og andre eksplicitte krav. GLM-4.7 scorede 88% på denne benchmark.
AIME 2025
95.7%
AIME 2025: American Invitational Math Exam. Konkurrence-niveau matematikopgaver fra den prestigefyldte AIME-eksamen designet til talentfulde gymnasieelever. Tester avanceret matematisk problemløsning, der kræver abstrakt tænkning, ikke kun mønstergenkendelse. GLM-4.7 scorede 95.7% på denne benchmark.
MATH
92%
MATH: Matematisk problemløsning. En omfattende matematikbenchmark, der tester problemløsning inden for algebra, geometri, calculus og andre matematiske domæner. Kræver flertrinssværsonnering og formel matematisk viden. GLM-4.7 scorede 92% på denne benchmark.
GSM8k
98%
GSM8k: Folkeskole matematik 8K. 8.500 folkeskole-niveau matematiske tekstopgaver, der kræver flertrinssræsonnering. Tester grundlæggende aritmetik og logisk tænkning gennem virkelige scenarier som shopping eller tidsberegninger. GLM-4.7 scorede 98% på denne benchmark.
MGSM
94%
MGSM: Flersproget folkeskolematematik. GSM8k-benchmarken oversat til 10 sprog, herunder spansk, fransk, tysk, russisk, kinesisk og japansk. Tester matematisk ræsonnering på tværs af forskellige sprog. GLM-4.7 scorede 94% på denne benchmark.
MathVista
74%
MathVista: Matematisk visuel ræsonnering. Tester evnen til at løse matematikopgaver, der involverer visuelle elementer som diagrammer, grafer, geometriske figurer og videnskabelige illustrationer. Kombinerer visuel forståelse med matematisk ræsonnering. GLM-4.7 scorede 74% på denne benchmark.
SWE-Bench
73.8%
SWE-Bench: Softwareingeniør-benchmark. AI-modeller forsøger at løse rigtige GitHub-issues i open source Python-projekter med menneskelig verifikation. Tester praktiske softwareingeniørfærdigheder på produktionskodebaser. Topmodeller gik fra 4,4% i 2023 til over 70% i 2024. GLM-4.7 scorede 73.8% på denne benchmark.
HumanEval
94.2%
HumanEval: Python-programmeringsopgaver. 164 håndskrevne programmeringsopgaver, hvor modeller skal generere korrekte Python-funktionsimplementeringer. Hver løsning verificeres mod unit tests. Topmodeller opnår nu 90%+ nøjagtighed. GLM-4.7 scorede 94.2% på denne benchmark.
LiveCodeBench
84.9%
LiveCodeBench: Live kodningsbenchmark. Tester kodningsevner på løbende opdaterede, virkelige programmeringsudfordringer. I modsætning til statiske benchmarks bruger den friske problemer for at forhindre dataforurening og måle ægte kodningsevner. GLM-4.7 scorede 84.9% på denne benchmark.
MMMU
74.2%
MMMU: Multimodal forståelse. Massiv multi-disciplin multimodal forståelsesbenchmark, der tester vision-sprogmodeller på universitetsniveau-problemer på tværs af 30 fag, der kræver både billedforståelse og ekspertviden. GLM-4.7 scorede 74.2% på denne benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Professionel udgave. Forbedret version af MMMU med mere udfordrende spørgsmål og strengere evaluering. Tester avanceret multimodal ræsonnering på professionelt og ekspertniveau. GLM-4.7 scorede 58% på denne benchmark.
ChartQA
86%
ChartQA: Diagram-spørgsmål og svar. Tester evnen til at forstå og ræsonnere om information præsenteret i diagrammer og grafer. Kræver udtrækning af data, sammenligning af værdier og udførelse af beregninger fra visuelle datarepræsentationer. GLM-4.7 scorede 86% på denne benchmark.
DocVQA
93%
DocVQA: Dokument visuel Q&A. Document Visual Question Answering benchmark, der tester evnen til at udtrække og ræsonnere om information fra dokumentbilleder, herunder formularer, rapporter og scannet tekst. GLM-4.7 scorede 93% på denne benchmark.
Terminal-Bench
41%
Terminal-Bench: Terminal/CLI-opgaver. Tester evnen til at udføre kommandolinjeopgaver, skrive shell-scripts og navigere i terminalmiljøer. Måler praktiske systemadministrations- og udviklingsworkflow-færdigheder. GLM-4.7 scorede 41% på denne benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion og ræsonnering. Abstraction and Reasoning Corpus for AGI - tester flydende intelligens gennem nye mønstergenkendelsespuslespil. Hver opgave kræver opdagelse af den underliggende regel fra eksempler, der måler generel ræsonneringsevne snarere end memorering. GLM-4.7 scorede 12% på denne benchmark.

Prøv GLM-4.7 gratis

Chat med GLM-4.7 gratis. Test dens muligheder, stil spørgsmål og udforsk, hvad denne AI-model kan.

Prompt
Svar
zhipu/glm-4-7

Dit AI-svar vil vises her

Om GLM-4.7

Lær om GLM-4.7s muligheder, funktioner og hvordan den kan hjælpe dig med at opnå bedre resultater.

GLM-4.7 er den nyeste flagship AI model fra Zhipu AI, hvilket repræsenterer et betydeligt spring i open-weight intelligens. Denne massive 358-milliarder parameter Mixture-of-Experts (MoE) model er specifikt konstrueret til avanceret reasoning, kodningsautomatisering og komplekse agentic workflows. Den introducerer en dedikeret Deep Thinking-tilstand, der muliggør planlægning i flere trin og fejlretning, hvilket gør det muligt for modellen at løse kritiske softwareudviklingsopgaver med hidtil uset pålidelighed.

Modellen skiller sig ud gennem exceptionel teknisk ydeevne og opnår en state-of-the-art score på 73,8 % på SWE-bench Verified og 84,9 på LiveCodeBench v6. Med sit 200.000-token context window og massive output-kapacitet på 131.072 tokens er GLM-4.7 optimeret til at generere hele applikationer og udføre dybdegående forskning på tværs af enorme dokumentsæt.

Som en open-weight udgivelse under MIT-licensen tilbyder den et kraftfuldt og fleksibelt alternativ til proprietære API'er og understøtter både cloud-baseret integration og lokal hosting. Dens multimodale evner strækker sig til avanceret UI-design og dokumentanalyse, hvilket gør den til et alsidigt kraftcenter for moderne AI-drevet udvikling.

GLM-4.7

Anvendelser for GLM-4.7

Opdag de forskellige måder, du kan bruge GLM-4.7 til at opnå gode resultater.

Agentic Software Engineering

Løsning af komplekse GitHub-issues og implementering af full-stack funktioner autonomt på tværs af hele repositories.

High-Fidelity Vibe Coding

Hurtig generering af moderne, produktionsklare webgrænseflader ved hjælp af Tailwind CSS og interaktive Framer Motion-komponenter.

Flersproget teknisk support

Avanceret kodningsassistance og logisk problemløsning på tværs af mere end 10 internationale programmeringsmiljøer.

Dyb akademisk forskning

Analyse af massive dokumentsæt for at udtrække verificerbar information via multi-hop søgning ved hjælp af BrowseComp-frameworket.

Automatiseret præsentationsdesign

Oprettelse af strukturerede, visuelt balancerede slides med præcise layouts og typografi ud fra prompts på en enkelt sætning.

Terminal-baseret automatisering

Udførelse af kompleks systemadministration og DevOps-opgaver direkte i en terminal-sandbox med 41 % benchmark-nøjagtighed.

Styrker

Begrænsninger

Elite kodningsfærdigheder: Fører i øjeblikket an blandt open-weight modeller med en score på 73,8 % i SWE-bench, hvilket overgår mange proprietære konkurrenter.
Ekstrem hardwareintensitet: Antallet af 355B parameters gør lokal hosting uoverkommelig for individuelle udviklere uden setups med flere GPU'er.
Massive output tokens: Har en grænse på 131K output tokens, hvilket muliggør generering af massive, produktionsklare kildekoder i én omgang.
Forskel på API og web: Der er en mærkbar præstationsforskel mellem de øjeblikkelige API-svar og den dybere reasoning, der findes i webgrænsefladen.
Indfødt reasoning engine: Indeholder 'Deep Thinking'-kapaciteter, der giver mulighed for bedre planlægning og reduceret afvigelse i langvarige agentic opgaver.
Tidsmæssige hallucinationer: Brugere har rapporteret lejlighedsvise unøjagtigheder vedrørende aktuelle datoer og begivenheder umiddelbart efter modellens lancering.
Uovertruffen pris-ydelse: Leverer intelligens på frontier model-niveau til en brøkdel af prisen, startende ved kun $0,60 pr. million input tokens.
Høj reasoning-latency: Aktivering af den fulde Deep Thinking-tilstand kan øge responstiden betydeligt for komplekse prompts i flere trin.

API hurtig start

zhipu/glm-4-7

Se dokumentation
zhipu SDK
import { ZhipuAI } from "zhipuai";

const client = new ZhipuAI({ apiKey: "YOUR_API_KEY" });

async function main() {
  const response = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Build a real-time collaborative whiteboard using Next.js." }],
    stream: true,
    extra_body: { "thinking": true }
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0].delta.content || "");
  }
}

main();

Installér SDK'et og begynd at foretage API-kald på få minutter.

Hvad folk siger om GLM-4.7

Se hvad fællesskabet mener om GLM-4.7

"GLM 4.7 SMADRER OPEN SOURCE-REKORDER! ... ramte 42,8 % på Humanity's Last Exam"
MindColliers
x/twitter
"GLM-4.7... scorer 73,8 % på SWE-Bench til $0,6/M tokens... AI-kapløbet bliver for alvor multipolært."
MateusGalasso
x/twitter
"GLM 4.7 giver klare fremskridt... inden for flersproget agentic kodning og terminal-baserede opgaver"
Dear-Success-1441
reddit
"Denne model gør det fantastisk i mange 2025-kodnings-benchmarks"
cloris_rust
reddit
"GLM 4.7 vinder på hastighed og stabilitet, mens Minimax M2.1 dominerer i multi-agent kodning"
JamMasterJulian
youtube
"Zhipu viser virkelig, hvad open weights kan præstere mod de store laboratorier i USA."
DevGuru
hackernews

Videoer om GLM-4.7

Se vejledninger, anmeldelser og diskussioner om GLM-4.7

GLM 4.7 er en model, der leverer store forbedringer i kodekvalitet, kompleks reasoning og brug af tools

Scorede 73,8 procent på SWE-bench verified, hvilket er helt utroligt for en open-source model

Den overgår endda Claude Sonnet 4.5 og GPT 5.1 i benchmarks for brug af tools

Mixture of experts-tilgangen her er meget raffineret, hvilket fører til højere effektivitet trods størrelsen

Det er reelt den første open-weight model, der giver et levedygtigt alternativ til Claude 3.5 til tung kodning

Det er den hidtil bedste åbne model med længder

Den producerer renere, mere moderne websider og genererer flottere slides

Den ræsonnerer, men tænkesporene er ikke tilgængelige i coding plan API'et

Vibe coding-resultaterne er tæt på perfekte, selv med komplekse Tailwind-animationer

De 200k context håndterer lange repos med meget lidt tab af information sammenlignet med tidligere GLM-versioner

En vigtig opgradering er at tænke, før man handler, hvilket hjælper modellen med at håndtere komplekse opgaver pålideligt

Fremhæver vibe coding, hvor GLM 4.7 forbedrer UI-kvaliteten

API-priserne ligger omkring de samme $3, hvilket gør det til en meget omkostningseffektiv løsning

Den multimodale ydeevne gør det muligt at konvertere Figma-designs til kode med høj nøjagtighed

Lokal udrulning er mulig, hvis du har en massiv workstation, men API'et er bemærkelsesværdigt hurtigt

Mere end bare prompts

Supercharg din arbejdsgang med AI-automatisering

Automatio kombinerer kraften fra AI-agenter, webautomatisering og smarte integrationer for at hjælpe dig med at udrette mere på kortere tid.

AI-agenter
Webautomatisering
Smarte arbejdsgange
Se demovideo

Pro-tips

Eksperttips til at hjælpe dig med at få mest muligt ud af denne model og opnå bedre resultater.

Aktivér Deep Thinking

Til komplekse logiske opgaver kan du eksplicit aktivere tænkningstilstanden via API-parameters for at muliggøre planlægning i flere trin.

Udnyt bevaret tænkning

Bevar lange samtalshistorikker for at udnytte modellens evne til at bevare reasoning-spor på tværs af flere runder.

Lokal Quantization

Brug Unsloth-optimerede 2-bit eller 4-bit GGUF-versioner til at køre denne model med mange parameters på hardware i forbrugerklassen.

Dato-injektion

Inkluder manuelt den aktuelle dato i din system prompt for at undgå tidsmæssige hallucinationer og forbedre planlægningsnøjagtigheden.

Anmeldelser

Hvad vores brugere siger

Slut dig til tusindvis af tilfredse brugere, der har transformeret deres arbejdsgang

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relateret AI Models

anthropic

Claude 3.7 Sonnet

anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
xai

Grok-3

xai

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

128K context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xai

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
openai

GPT-5.1

openai

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
anthropic

Claude Sonnet 4.5

anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
google

Gemini 3 Flash

google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
google

Gemini 3 Pro

google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M

Ofte stillede spørgsmål

Find svar på almindelige spørgsmål om denne model