zhipu

GLM-4.7

GLM-4.7 från Zhipu AI är en flaggskeppsmodell 358B MoE med ett 200K context window, elitprestanda på 73,8 % i SWE-bench och inbyggd Deep Thinking för agentic...

zhipu logozhipuGLM22 december 2025
Kontext
200Ktokens
Max utdata
131Ktokens
Inmatningspris
$0.60/ 1M
Utdatapris
$2.20/ 1M
Modalitet:TextImage
Kapaciteter:VisionVerktygStreamingResonemang
Benchmarks
GPQA
85.7%
GPQA: Vetenskapliga fragor pa forskarutbildningsniva. Ett rigorost benchmark med 448 fragor fran biologi, fysik och kemi. PhD-experter uppnar endast 65-74% noggrannhet. GLM-4.7 fick 85.7% pa detta benchmark.
HLE
42.8%
HLE: Expertniva resonemang. Testar modellens formaga att demonstrera expertniva resonemang inom specialiserade omraden. GLM-4.7 fick 42.8% pa detta benchmark.
MMLU
90.1%
MMLU: Massiv multitask sprakforstaelse. Ett omfattande benchmark med 16 000 fragor over 57 akademiska amnen. GLM-4.7 fick 90.1% pa detta benchmark.
MMLU Pro
84.3%
MMLU Pro: MMLU Professionell utgava. En forbattrad version av MMLU med 12 032 fragor och ett svarare 10-alternativsformat. GLM-4.7 fick 84.3% pa detta benchmark.
SimpleQA
46%
SimpleQA: Benchmark for faktisk noggrannhet. Testar modellens formaga att ge korrekta, faktabaserade svar. GLM-4.7 fick 46% pa detta benchmark.
IFEval
88%
IFEval: Utvardering av instruktionsfoljandeformaga. Mater hur val en modell foljer specifika instruktioner och begransningar. GLM-4.7 fick 88% pa detta benchmark.
AIME 2025
95.7%
AIME 2025: American Invitational Mathematics Examination. Matematikproblem pa tavlingsniva fran det prestigefyllda AIME-provet. GLM-4.7 fick 95.7% pa detta benchmark.
MATH
92%
MATH: Matematisk problemlosning. Ett omfattande matematik-benchmark som testar problemlosning i algebra, geometri, kalkyl. GLM-4.7 fick 92% pa detta benchmark.
GSM8k
98%
GSM8k: Grundskola matematik 8K. 8 500 matematiska ordproblem pa grundskoleniva. GLM-4.7 fick 98% pa detta benchmark.
MGSM
94%
MGSM: Flersprakig grundskola matematik. GSM8k-benchmarket oversatt till 10 sprak. GLM-4.7 fick 94% pa detta benchmark.
MathVista
74%
MathVista: Matematiskt visuellt resonemang. Testar formagan att losa matematikproblem med visuella element. GLM-4.7 fick 74% pa detta benchmark.
SWE-Bench
73.8%
SWE-Bench: Benchmark for mjukvaruutveckling. AI-modeller forsoker losa verkliga GitHub-problem i Python-projekt. GLM-4.7 fick 73.8% pa detta benchmark.
HumanEval
94.2%
HumanEval: Python-programmeringsproblem. 164 programmeringsproblem dar modeller maste generera korrekta Python-funktionsimplementationer. GLM-4.7 fick 94.2% pa detta benchmark.
LiveCodeBench
84.9%
LiveCodeBench: Live-kodningsbenchmark. Testar kodningsformaga pa kontinuerligt uppdaterade, verkliga programmeringsutmaningar. GLM-4.7 fick 84.9% pa detta benchmark.
MMMU
74.2%
MMMU: Multimodal forstaelse. Multimodalt forstaelsebenchmark fran 30 universitetsanknutna amnen. GLM-4.7 fick 74.2% pa detta benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Professionell utgava. Forbattrad version av MMMU med mer utmanande fragor. GLM-4.7 fick 58% pa detta benchmark.
ChartQA
86%
ChartQA: Diagram fragor och svar. Testar formagan att forsta och analysera information fran diagram och grafer. GLM-4.7 fick 86% pa detta benchmark.
DocVQA
93%
DocVQA: Visuella dokumentfragor. Testar formagan att extrahera information fran dokumentbilder. GLM-4.7 fick 93% pa detta benchmark.
Terminal-Bench
41%
Terminal-Bench: Terminal/CLI-uppgifter. Testar formagan att utfora kommandoradsoperationer. GLM-4.7 fick 41% pa detta benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion och resonemang. Testar flytande intelligens genom nya monsterigenkannigspussel. GLM-4.7 fick 12% pa detta benchmark.

Om GLM-4.7

Lar dig om GLM-4.7s kapacitet, funktioner och hur det kan hjalpa dig uppna battre resultat.

Modellöversikt

GLM-4.7 är en flaggskepps-LLM utvecklad av Zhipu AI. Den använder en Mixture-of-Experts (MoE)-arkitektur med 358 miljarder totala parametrar. Modellen är specifikt utformad för att hantera komplexa agentic-uppgifter och resonemang med lång kontext genom sina unika Preserved Thinking- och Interleaved Thinking-funktioner. Dessa funktioner gör att modellen kan bibehålla stabil logik och intermediära resonemangstillstånd över sessioner med flera turer, vilket adresserar kontextförlusten som är vanlig i autonoma arbetsflöden.

Prestanda och arkitektur

Modellen erbjuder ett expansivt context window på 200 000 tokens i kombination med en massiv output-kapacitet på 131 072 tokens. Detta gör den lämplig för att generera hela applikationer eller analysera omfattande dokumentation i en enda körning. Den har släppts under MIT-licens som en open weights-modell och ger högpresterande kodning och resonemang till en bråkdel av kostnaden för proprietära alternativ.

Integration och användning

Den är fullt kompatibel med OpenAI API-formatet, vilket förenklar integrationen i befintliga mjukvaruekosystem. Utvecklare använder den för mjukvaruuppgifter med hög insats, där den uppnår ett resultat på 73,8 % på SWE-bench Verified. Dess förmåga att bearbeta och analysera stora volymer teknisk dokumentation mellan engelska och kinesiska med lingvistisk nyans på modersmålsnivå gör den till ett mångsidigt verktyg för internationella utvecklingsteam.

GLM-4.7

Anvandningsfall for GLM-4.7

Upptack de olika satten du kan anvanda GLM-4.7 for att uppna fantastiska resultat.

Autonom mjukvaruutveckling

Användning av 73,8 % SWE-bench-kapacitet för att autonomt felsöka, refaktorera och implementera nya funktioner i komplexa arkiv.

Högkapacitets-dokumentsyntes

Utnyttja 131k output-gränsen för att generera omfattande tekniska manualer eller hela bokkapitel från stora datamängder.

Agentic-arbetsflöden med lång horisont

Driftsättning av agenter som använder Preserved Thinking för att bibehålla konsistens och logik över hundratals sekventiella uppgifter utan att tappa kontext.

Tvåspråkig affärsanalys

Bearbetning och analys av stora volymer teknisk dokumentation mellan engelska och kinesiska med lingvistisk nyans på modersmålsnivå.

Automatiserad UI/UX-kodgenerering

Generering av kompletta React- eller Next.js-frontend-arkitekturer med avancerade animationer och produktionsklar styling i ett enda steg.

Matematisk problemlösning på tävlingsnivå

Lösning av komplexa matematiska problem på olympiadnivå och symboliska logikpussel med hjälp av det dedikerade, resonemangstunga thinking-läget.

Styrkor

Begransningar

Elitprestanda inom kodning: Når 73,8 % på SWE-bench Verified, vilket överträffar nästan alla open-source-modeller och matchar proprietära topp-API:er.
Endast text: Till skillnad från Gemini eller GPT-4o saknar GLM-4.7 inbyggd vision- eller ljudbehandling, vilket kräver externa modeller för multimodala uppgifter.
Massivt output-tak: Output-gränsen på 131 072 tokens är en av branschens högsta, vilket möjliggör generering av hela applikationer i en körning.
Massiva lokala krav: Med 358B parameters kräver det att köra modellen lokalt betydande hårdvara (ca 710 GB VRAM), vilket gör den otillgänglig för konsument-GPU:er.
Agent-first arkitektur: Har Preserved Thinking för att bibehålla logisk konsistens över långsiktiga uppgifter, vilket löser kontextförlust i autonoma agenter.
Tillfälliga latensspikar: Användare på den personliga API-nivån rapporterar periodvis långsammare hastigheter under rusningstid jämfört med infrastrukturen hos större leverantörer.
Högt ekonomiskt värde: Tillhandahåller intelligens på frontier-nivå till en kostnad som är ungefär 4 till 7 gånger lägre än västerländska konkurrenter som OpenAI eller Anthropic.
Brister i instruktionsföljsamhet: Även om modellen är stark på resonemang, ignorerar den ibland specifika begränsningar för filstruktur i mycket komplexa kodningssessioner.

API snabbstart

zai/glm-4.7

Visa dokumentation
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'YOUR_ZAI_API_KEY',
  baseURL: 'https://api.z.ai/api/paas/v4/',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'glm-4.7',
    messages: [{ role: 'user', content: 'Design a scalable React architecture.' }],
    thinking: { type: 'enabled' }
  });
  console.log(response.choices[0].message.content);
}
main();

Installera SDK och borja gora API-anrop pa nagra minuter.

Vad folk sager om GLM-4.7

Se vad communityt tycker om GLM-4.7

GLM-4.7 hanterar stora kodbaser på ett tillförlitligt sätt med sin 128k-kontext. Den har varit förvånansvärt användbar för subagent-uppgifter för att spara på primära API-kostnader.
IulianHI
reddit
Zhipu AI:s GLM-4.7 matchar proprietära frontier models som GPT-5.1 High inom kodning. Preserved Thinking-funktionen är en enorm vinst för autonoma agenter.
Etienne Noumen
youtube
GLM-4.7 fortsätter att vara den mest intelligenta open weights-modellen i Intelligence Index v4.0, och hamnar före DeepSeek V3.2.
Artificial Analysis
twitter
Kinesiska modeller minskar snabbt gapet när det gäller kodningsnytta. Detta 73 % SWE-bench-resultat är inget skämt för ett open weights-släpp.
Epoch AI
hackernews
Resonemangshastigheten är faktiskt ganska anständig för en modell av den här storleken. Den hanterar den komplexa logiken mycket bättre än tidigare iterationer.
Bijan Bowen
youtube
GLM-4.7 hamnar på sjätte plats på AI Index och överträffar Kimi K2. Upptäck varför denna 2-dollarsmodell ersätter GPT-5.2 i kodningsarbetsflöden.
TowardsAI
twitter

Videor om GLM-4.7

Se handledningar, recensioner och diskussioner om GLM-4.7

Kontextlängden här är 200k och maximalt antal output-tokens är 128k, vilket är ganska rejält faktiskt.

Japp, det är verkligen imponerande. Ingen av dem har en specialfunktion med den komplexitetsnivån.

Resonemangshastigheten är faktiskt ganska anständig för en modell av den här storleken.

Den hanterar den komplexa logiken mycket bättre än tidigare iterationer.

Den här modellen är ett betydande steg uppåt när det gäller logisk konsistens.

GLM-modellen implementerade faktiskt en bättre arkitektur genom att placera all mock-data i en fil.

Den här är definitivt ett enormt framsteg. De där benchmark-resultaten rättfärdigas av testerna jag gjort.

Den förstod kontexten för hela projektet utan att jag behövde påminna den.

Kodningsförmågan är utan tvekan i nivå med de bästa modellerna där ute.

Du får resonemang i toppklass till en bråkdel av kostnaden.

Den fick 73,8 procent på SWE-bench verified, vilket är helt otroligt för en open-source-modell.

Man kan faktiskt se att den fungerar och faktiskt gör jobbet. Medan Gemini 3 Pro-generationen inte fungerar alls.

Genereringshastigheten för den här intelligensnivån är anmärkningsvärd.

Den är helt klart designad för utvecklare som behöver tillförlitlig kod-output.

Zhipu AI har verkligen överträffat sig själva med MoE-arkitekturtuningen här.

Mer an bara promptar

Superladda ditt arbetsflode med AI-automatisering

Automatio kombinerar kraften av AI-agenter, webbautomatisering och smarta integrationer for att hjalpa dig astadkomma mer pa kortare tid.

AI-agenter
Webbautomatisering
Smarta arbetsfloden

Proffs-tips for GLM-4.7

Experttips for att hjalpa dig fa ut det mesta av GLM-4.7 och uppna battre resultat.

Aktivera Thinking Mode för logik

Sätt thinking-parametern till enabled för kodnings- eller matematikuppgifter för att utnyttja modellens interna resonemangsspår och förbättra precisionen.

Använd OpenAI-kompatibla SDK:er

Integrera GLM-4.7 i befintliga arbetsflöden genom att använda OpenAI SDK och ändra base URL till Z.ai-slutpunkten.

Maximera 131K output

När du genererar långt innehåll, tillhandahåll en detaljerad disposition först för att hjälpa modellen att bibehålla strukturell koherens inom den massiva token-gränsen.

Optimera system-prompts för agenter

Definiera kraven för Preserved Thinking i system-meddelandet för att säkerställa att modellen återanvänder resonemangstillstånd över sessioner med flera turer.

Omdomen

Vad vara anvandare sager

Ga med tusentals nojda anvandare som har transformerat sitt arbetsflode

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relaterat AI Models

openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Vanliga fragor om GLM-4.7

Hitta svar pa vanliga fragor om GLM-4.7