zhipu

GLM-4.7

GLM-4.7 von Zhipu AI ist ein Flaggschiff-358B-MoE-model mit einem 200K context window, einer erstklassigen SWE-bench-Performance von 73,8 % und nativem Deep...

zhipu logozhipuGLMDecember 22, 2025
Kontext
200KToken
Max. Ausgabe
131KToken
Eingabepreis
$0.60/ 1M
Ausgabepreis
$2.20/ 1M
Modalität:TextImage
Fähigkeiten:VisionToolsStreamingLogik
Benchmarks
GPQA
85.7%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). GLM-4.7 erreichte 85.7% bei diesem Benchmark.
HLE
42.8%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. GLM-4.7 erreichte 42.8% bei diesem Benchmark.
MMLU
90.1%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. GLM-4.7 erreichte 90.1% bei diesem Benchmark.
MMLU Pro
84.3%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. GLM-4.7 erreichte 84.3% bei diesem Benchmark.
SimpleQA
46%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. GLM-4.7 erreichte 46% bei diesem Benchmark.
IFEval
88%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. GLM-4.7 erreichte 88% bei diesem Benchmark.
AIME 2025
95.7%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. GLM-4.7 erreichte 95.7% bei diesem Benchmark.
MATH
92%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. GLM-4.7 erreichte 92% bei diesem Benchmark.
GSM8k
98%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. GLM-4.7 erreichte 98% bei diesem Benchmark.
MGSM
94%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. GLM-4.7 erreichte 94% bei diesem Benchmark.
MathVista
74%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. GLM-4.7 erreichte 74% bei diesem Benchmark.
SWE-Bench
73.8%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). GLM-4.7 erreichte 73.8% bei diesem Benchmark.
HumanEval
94.2%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. GLM-4.7 erreichte 94.2% bei diesem Benchmark.
LiveCodeBench
84.9%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. GLM-4.7 erreichte 84.9% bei diesem Benchmark.
MMMU
74.2%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. GLM-4.7 erreichte 74.2% bei diesem Benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. GLM-4.7 erreichte 58% bei diesem Benchmark.
ChartQA
86%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. GLM-4.7 erreichte 86% bei diesem Benchmark.
DocVQA
93%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. GLM-4.7 erreichte 93% bei diesem Benchmark.
Terminal-Bench
41%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. GLM-4.7 erreichte 41% bei diesem Benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. GLM-4.7 erreichte 12% bei diesem Benchmark.

Teste GLM-4.7 Kostenlos

Chatte kostenlos mit GLM-4.7. Teste die Fähigkeiten, stelle Fragen und erkunde, was dieses KI-Modell kann.

Prompt
Antwort
zhipu/glm-4-7

Ihre KI-Antwort wird hier erscheinen

Über GLM-4.7

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von GLM-4.7.

GLM-4.7 ist das neueste flagship AI model von Zhipu AI und stellt einen bedeutenden Sprung für die Intelligenz von open-weight-Modellen dar. Dieses gewaltige 358-Milliarden-Parameter Mixture-of-Experts (MoE) model wurde speziell für fortgeschrittenes reasoning, Coding-Automatisierung und komplexe agentic Workflows entwickelt. Es führt einen dedizierten Deep Thinking-Modus ein, der mehrstufige Planung und Fehlerbehebung ermöglicht, wodurch das model anspruchsvolle Software-Engineering-Aufgaben mit beispielloser Zuverlässigkeit lösen kann.

Das model zeichnet sich durch außergewöhnliche technische Leistung aus und erreicht einen state-of-the-art Score von 73,8 % bei SWE-bench Verified sowie 84,9 bei LiveCodeBench v6. Mit seinem 200.000-token context window und einer massiven Ausgabekapazität von 131.072 tokens ist GLM-4.7 für die Generierung ganzer Anwendungen und die Durchführung tiefgehender Forschung in riesigen Datensätzen optimiert.

Als open-weight-Veröffentlichung unter der MIT-Lizenz bietet es eine leistungsstarke und flexible Alternative zu proprietären APIs und unterstützt sowohl cloudbasierte Integration als auch lokales Hosting. Seine multimodal-Fähigkeiten erstrecken sich auf fortschrittliches UI-Design und Dokumentenanalyse, was es zu einem vielseitigen Kraftpaket für die moderne KI-gestützte Entwicklung macht.

GLM-4.7

Anwendungsfälle für GLM-4.7

Entdecken Sie die verschiedenen Möglichkeiten, GLM-4.7 für großartige Ergebnisse zu nutzen.

Agentic Software Engineering

Lösung komplexer GitHub-Issues und autonome Implementierung von Full-Stack-Features über ganze Repositories hinweg.

High-Fidelity Vibe Coding

Schnelle Erstellung moderner, produktionsreifer Web-Interfaces mit Tailwind CSS und interaktiven Framer Motion Komponenten.

Multilingualer technischer Support

Fortgeschrittene Unterstützung beim Coding und logische Problemlösung in über 10 internationalen Programmierumgebungen.

Tiefgehende akademische Forschung

Analyse riesiger Dokumentensätze zur Extraktion verifizierbarer Informationen über mehrere Schritte hinweg mittels BrowseComp-Such-Framework.

Automatisierte Präsentationserstellung

Erstellung strukturierter, visuell ausgewogener Folien mit präzisen Layouts und Typografie aus einfachen Ein-Satz-prompts.

Terminal-basierte Automatisierung

Ausführung komplexer Systemadministrations- und DevOps-Aufgaben direkt in einer Terminal-Sandbox mit einer Benchmark-Genauigkeit von 41 %.

Stärken

Einschränkungen

Elite Coding-Kompetenz: Führt derzeit die Riege der open-weight models mit einem SWE-bench-Score von 73,8 % an und übertrifft damit viele proprietäre Wettbewerber.
Extreme Hardware-Anforderungen: Die Anzahl von 355 Milliarden parameters macht lokales Hosting für einzelne Entwickler ohne Multi-GPU-Setups nahezu unmöglich.
Massive Output-Tokens: Bietet ein Limit von 131.000 tokens bei der Ausgabe, was die Generierung riesiger, produktionsreifer Code-Basen in einem einzigen Durchgang ermöglicht.
Diskrepanz zwischen API und Web: Es gibt einen spürbaren Leistungsunterschied zwischen den sofortigen API-Antworten und dem tieferen reasoning in der Web-Oberfläche.
Native Reasoning Engine: Beinhaltet „Deep Thinking“-Fähigkeiten, die eine bessere Planung und weniger Abweichungen bei langlaufenden agentic Aufgaben ermöglichen.
Zeitliche Halluzinationen: Nutzer berichteten von gelegentlichen Ungenauigkeiten bezüglich aktueller Daten und Ereignisse unmittelbar nach dem Launch des models.
Unschlagbares Preis-Leistungs-Verhältnis: Bietet Intelligenz auf frontier model-Niveau zu einem Bruchteil der Kosten, beginnend bei nur 0,60 $ pro Million input tokens.
Hohe Reasoning-Latenz: Die Aktivierung des vollständigen Deep Thinking-Modus kann die Antwortzeit bei komplexen, mehrstufigen prompts erheblich verlängern.

API-Schnellstart

zhipu/glm-4-7

Dokumentation anzeigen
zhipu SDK
import { ZhipuAI } from "zhipuai";

const client = new ZhipuAI({ apiKey: "YOUR_API_KEY" });

async function main() {
  const response = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Build a real-time collaborative whiteboard using Next.js." }],
    stream: true,
    extra_body: { "thinking": true }
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0].delta.content || "");
  }
}

main();

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über GLM-4.7 sagen

Sehen Sie, was die Community über GLM-4.7 denkt

"GLM 4.7 ZERSCHMETTERT OPEN-SOURCE-REKORDE! ... 42,8 % bei Humanity's Last Exam erreicht"
MindColliers
x/twitter
"GLM-4.7... erzielt 73,8 % auf SWE-Bench bei 0,6 $/M tokens... Das KI-Rennen wird wahrhaft multipolar."
MateusGalasso
x/twitter
"GLM 4.7 bringt deutliche Fortschritte... beim multilingualen agentic coding und Terminal-basierten Aufgaben"
Dear-Success-1441
reddit
"Dieses model räumt in vielen Coding-Benchmarks von 2025 richtig ab"
cloris_rust
reddit
"GLM 4.7 gewinnt bei Geschwindigkeit und Stabilität, während Minimax M2.1 beim Multi-Agent-Coding dominiert"
JamMasterJulian
youtube
"Zhipu zeigt wirklich, was open weights gegen die großen Labore in den USA ausrichten können."
DevGuru
hackernews

Videos über GLM-4.7

Schauen Sie Tutorials, Rezensionen und Diskussionen über GLM-4.7

GLM 4.7 ist ein model, das massive Verbesserungen bei der Codequalität, komplexem reasoning und der Nutzung von Tools liefert

Erreichte 73,8 Prozent bei SWE-bench verified, was für ein open-source model absolut unglaublich ist

In Benchmarks zur Tool-Nutzung übertrifft es sogar Claude Sonnet 4.5 und GPT 5.1

Der Mixture-of-Experts-Ansatz ist hier sehr ausgereift, was trotz der Größe zu höherer Effizienz führt

Es ist im Grunde das erste open-weight model, das eine echte Alternative zu Claude 3.5 für intensives Coding bietet

Es ist mit großem Abstand das bisher beste offene model

Es erstellt sauberere, modernere Webseiten und generiert optisch ansprechendere Folien

Es beherrscht reasoning, aber die Thinking-Traces sind in der Coding-Plan-API nicht verfügbar

Die Ergebnisse beim Vibe Coding sind nahezu perfekt, selbst bei komplexen Tailwind-Animationen

Das 200k context window bewältigt lange Repositories mit sehr geringem Informationsverlust im Vergleich zu früheren GLM-Versionen

Ein wichtiges Upgrade ist das Denken vor dem Handeln, was dem model hilft, komplexe Aufgaben zuverlässig zu bewältigen

Hervorzuheben ist das Vibe Coding, bei dem GLM 4.7 die UI-Qualität verbessert

Die API-Preise liegen bei etwa 3 $, was es zu einer sehr kosteneffizienten Option macht

Die multimodal-Leistung ermöglicht es, Figma-Designs mit hoher Genauigkeit in Code umzuwandeln

Ein lokales Deployment ist mit einer massiven Workstation möglich, aber die API ist bemerkenswert schnell

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows
Demo-Video ansehen

Profi-Tipps

Expertentipps, um das Beste aus diesem Modell herauszuholen.

Deep Thinking aktivieren

Triggern Sie für komplexe logische Aufgaben den Thinking-Modus explizit über API-parameters, um eine mehrstufige Planung zu ermöglichen.

Preserved Thinking nutzen

Behalten Sie lange Konversationsverläufe bei, um die Fähigkeit des models zu nutzen, reasoning-Pfade über mehrere Turns hinweg zu speichern.

Lokale Quantisierung

Verwenden Sie Unsloth-optimierte 2-bit oder 4-bit GGUF-Versionen, um dieses model mit hohen parameters auf Hardware für Endverbraucher auszuführen.

Datums-Injektion

Fügen Sie das aktuelle Datum manuell in den System-prompt ein, um zeitliche Halluzinationen zu vermeiden und die Genauigkeit bei der Zeitplanung zu verbessern.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

anthropic

Claude 3.7 Sonnet

anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
xai

Grok-3

xai

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

128K context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xai

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
openai

GPT-5.1

openai

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
anthropic

Claude Sonnet 4.5

anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
google

Gemini 3 Flash

google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
google

Gemini 3 Pro

google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M

Häufig gestellte Fragen

Finden Sie Antworten auf häufige Fragen zu diesem Modell