zhipu

GLM-4.7

GLM-4.7 di Zhipu AI è un flagship MoE model 358B con context window da 200K, prestazioni d'élite del 73,8% su SWE-bench e Deep Thinking nativo per agenti...

zhipu logozhipuGLM22 Dicembre 2025
Contesto
200Ktoken
Output max
131Ktoken
Prezzo input
$0.60/ 1M
Prezzo output
$2.20/ 1M
Modalita:TextImage
Capacita:VisioneStrumentiStreamingRagionamento
Benchmark
GPQA
85.7%
GPQA: Domande scientifiche livello laurea. Un benchmark rigoroso con 448 domande su biologia, fisica e chimica. Gli esperti PhD raggiungono solo il 65-74% di accuratezza. GLM-4.7 ha ottenuto 85.7% in questo benchmark.
HLE
42.8%
HLE: Ragionamento esperto di alto livello. Testa la capacita di un modello di dimostrare ragionamento a livello esperto in domini specializzati. GLM-4.7 ha ottenuto 42.8% in questo benchmark.
MMLU
90.1%
MMLU: Comprensione linguistica multitask massiva. Un benchmark completo con 16.000 domande su 57 materie accademiche. GLM-4.7 ha ottenuto 90.1% in questo benchmark.
MMLU Pro
84.3%
MMLU Pro: MMLU Edizione Professionale. Una versione migliorata di MMLU con 12.032 domande e un formato piu difficile a 10 opzioni. GLM-4.7 ha ottenuto 84.3% in questo benchmark.
SimpleQA
46%
SimpleQA: Benchmark di accuratezza fattuale. Testa la capacita di un modello di fornire risposte accurate e fattuali. GLM-4.7 ha ottenuto 46% in questo benchmark.
IFEval
88%
IFEval: Valutazione del seguire istruzioni. Misura quanto bene un modello segue istruzioni e vincoli specifici. GLM-4.7 ha ottenuto 88% in questo benchmark.
AIME 2025
95.7%
AIME 2025: Esame di matematica invitazionale americano. Problemi matematici a livello competitivo dal prestigioso esame AIME. GLM-4.7 ha ottenuto 95.7% in questo benchmark.
MATH
92%
MATH: Risoluzione di problemi matematici. Un benchmark matematico completo che testa la risoluzione di problemi in algebra, geometria, calcolo. GLM-4.7 ha ottenuto 92% in questo benchmark.
GSM8k
98%
GSM8k: Matematica scuola elementare 8K. 8.500 problemi matematici a parole di livello scuola elementare. GLM-4.7 ha ottenuto 98% in questo benchmark.
MGSM
94%
MGSM: Matematica multilingue scuola elementare. Il benchmark GSM8k tradotto in 10 lingue. GLM-4.7 ha ottenuto 94% in questo benchmark.
MathVista
74%
MathVista: Ragionamento visivo matematico. Testa la capacita di risolvere problemi matematici con elementi visivi. GLM-4.7 ha ottenuto 74% in questo benchmark.
SWE-Bench
73.8%
SWE-Bench: Benchmark ingegneria software. I modelli AI tentano di risolvere veri problemi GitHub in progetti Python. GLM-4.7 ha ottenuto 73.8% in questo benchmark.
HumanEval
94.2%
HumanEval: Problemi di programmazione Python. 164 problemi di programmazione dove i modelli devono generare implementazioni corrette di funzioni Python. GLM-4.7 ha ottenuto 94.2% in questo benchmark.
LiveCodeBench
84.9%
LiveCodeBench: Benchmark di codifica live. Testa le capacita di codifica su sfide di programmazione reali continuamente aggiornate. GLM-4.7 ha ottenuto 84.9% in questo benchmark.
MMMU
74.2%
MMMU: Comprensione multimodale. Benchmark di comprensione multimodale su 30 materie universitarie. GLM-4.7 ha ottenuto 74.2% in questo benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Edizione Professionale. Versione migliorata di MMMU con domande piu impegnative. GLM-4.7 ha ottenuto 58% in questo benchmark.
ChartQA
86%
ChartQA: Domande e risposte su grafici. Testa la capacita di comprendere e analizzare informazioni da grafici e diagrammi. GLM-4.7 ha ottenuto 86% in questo benchmark.
DocVQA
93%
DocVQA: Domande visive su documenti. Testa la capacita di estrarre informazioni da immagini di documenti. GLM-4.7 ha ottenuto 93% in questo benchmark.
Terminal-Bench
41%
Terminal-Bench: Attivita terminale/CLI. Testa la capacita di eseguire operazioni da linea di comando. GLM-4.7 ha ottenuto 41% in questo benchmark.
ARC-AGI
12%
ARC-AGI: Astrazione e ragionamento. Testa l'intelligenza fluida attraverso nuovi puzzle di riconoscimento di pattern. GLM-4.7 ha ottenuto 12% in questo benchmark.

Informazioni su GLM-4.7

Scopri le capacita di GLM-4.7, le funzionalita e come puo aiutarti a ottenere risultati migliori.

Panoramica del Modello

GLM-4.7 è un flagship large language model sviluppato da Zhipu AI. Utilizza un'architettura Mixture-of-Experts (MoE) con 358 miliardi di parameters totali. Il modello è progettato specificamente per gestire complessi task agentic e ragionamento su contesto lungo attraverso le sue uniche funzionalità di Preserved Thinking e Interleaved Thinking. Queste caratteristiche consentono al modello di mantenere logica stabile e stati di ragionamento intermedi su sessioni multi-turno, risolvendo il decadimento del contesto comune nei workflow autonomi.

Prestazioni e Architettura

Il modello offre un'ampia context window da 200.000 tokens combinata con una massiccia capacità di output da 131.072 tokens. Questo lo rende adatto a generare intere applicazioni o analizzare documentazione estesa in un unico passaggio. Rilasciato sotto licenza MIT come modello open-weight, fornisce coding e ragionamento ad alte prestazioni a una frazione del costo delle alternative proprietarie.

Integrazione e Utilizzo

È completamente compatibile con il formato OpenAI API, semplificando l'integrazione negli ecosistemi software esistenti. Gli sviluppatori lo utilizzano per task di ingegneria del software ad alto rischio, dove ottiene un punteggio del 73,8% su SWE-bench Verified. La sua capacità di elaborare e analizzare grandi volumi di documentazione tecnica tra inglese e cinese con sfumature linguistiche native lo rende uno strumento versatile per i team di sviluppo internazionali.

GLM-4.7

Casi d'uso per GLM-4.7

Scopri i diversi modi in cui puoi usare GLM-4.7 per ottenere ottimi risultati.

Ingegneria del software autonoma

Sfrutta la capacità del 73,8% su SWE-bench per eseguire debug, refactoring e implementare nuove funzionalità in repository complessi in modo autonomo.

Sintesi di documenti ad alta capacità

Sfrutta il limite di output di 131k per generare manuali tecnici completi o interi capitoli di libri partendo da grandi dataset.

Workflow agentic a lungo termine

Distribuisci agenti che utilizzano il Preserved Thinking per mantenere coerenza e logica su centinaia di task sequenziali senza perdere il contesto.

Business Intelligence bilingue

Elabora e analizza grandi volumi di documentazione tecnica tra inglese e cinese con sfumature linguistiche di livello madrelingua.

Generazione automatica di codice UI/UX

Genera architetture front-end complete in React o Next.js con animazioni avanzate e stili pronti per la produzione in un unico passaggio.

Risoluzione matematica di livello competitivo

Risolvi complessi problemi di matematica a livello di Olimpiadi e puzzle di logica simbolica utilizzando la modalità di ragionamento avanzato dedicata.

Punti di forza

Limitazioni

Prestazioni di coding d'élite: Ottiene un punteggio del 73,8% su SWE-bench Verified, superando quasi tutti i model open-source e competendo con le migliori API proprietarie.
Modalità solo testuale: A differenza di Gemini o GPT-4o, GLM-4.7 non dispone di elaborazione nativa di immagini o audio, richiedendo modelli esterni per task multimodali.
Massiccio limite di output: Il limite di output di 131.072 tokens è uno dei più alti del settore, consentendo la generazione di intere applicazioni in un solo passaggio.
Requisiti hardware locali massicci: Con 358B parameters, eseguire il modello localmente richiede un hardware significativo (circa 710GB di VRAM), rendendolo inaccessibile per le GPU consumer.
Architettura orientata agli agenti: Presenta il Preserved Thinking per mantenere la coerenza logica su task a lungo termine, risolvendo il problema del decadimento del contesto negli agenti autonomi.
Saltuari picchi di latenza: Gli utenti del piano API personale riportano rallentamenti periodici durante le ore di punta rispetto all'infrastruttura dei provider più grandi.
Alto valore economico: Fornisce un'intelligenza di livello frontier a un costo da 4 a 7 volte inferiore rispetto ai concorrenti occidentali come OpenAI o Anthropic.
Piccole difficoltà nell'aderenza alle istruzioni: Sebbene sia forte nel ragionamento, a volte il modello ignora specifici vincoli di struttura dei file in sessioni di coding altamente complesse.

Avvio rapido API

zai/glm-4.7

Visualizza documentazione
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'YOUR_ZAI_API_KEY',
  baseURL: 'https://api.z.ai/api/paas/v4/',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'glm-4.7',
    messages: [{ role: 'user', content: 'Design a scalable React architecture.' }],
    thinking: { type: 'enabled' }
  });
  console.log(response.choices[0].message.content);
}
main();

Installa l'SDK e inizia a fare chiamate API in pochi minuti.

Cosa dice la gente su GLM-4.7

Guarda cosa pensa la community di GLM-4.7

GLM-4.7 gestisce codebase di grandi dimensioni in modo affidabile con il suo contesto da 128k. È stato sorprendentemente utile per task di sub-agenti per risparmiare sui costi delle API principali.
IulianHI
reddit
Il GLM-4.7 di Zhipu AI compete con modelli frontier proprietari come GPT-5.1 High nel coding. La funzione Preserved Thinking è una grande vittoria per gli agenti autonomi.
Etienne Noumen
youtube
GLM-4.7 continua a essere il modello open weights più intelligente nell'Intelligence Index v4.0, piazzandosi davanti a DeepSeek V3.2.
Artificial Analysis
twitter
I modelli cinesi stanno colmando rapidamente il divario nell'utilità del coding. Questo punteggio del 73% su SWE-bench non è uno scherzo per un rilascio open weights.
Epoch AI
hackernews
La velocità di ragionamento è piuttosto decente per un modello di queste dimensioni. Gestisce la logica complessa molto meglio rispetto alle iterazioni precedenti.
Bijan Bowen
youtube
GLM-4.7 si posiziona al 6° posto nell'AI Index, superando Kimi K2. Scopri perché questo modello da 2$ sta sostituendo GPT-5.2 nei workflow di coding.
TowardsAI
twitter

Video su GLM-4.7

Guarda tutorial, recensioni e discussioni su GLM-4.7

La lunghezza del contesto qui è di 200k e il massimo di output tokens è 128k, il che è davvero notevole.

Bene, è davvero impressionante. Nessuno di loro ha inserito una funzionalità speciale con quel livello di complessità.

La velocità di ragionamento è piuttosto decente per un modello di queste dimensioni.

Gestisce la logica complessa molto meglio rispetto alle iterazioni precedenti.

Questo modello rappresenta un passo avanti significativo in termini di coerenza logica.

Il model GLM ha implementato un'architettura migliore inserendo tutti i dati mock in un unico file.

Questo è decisamente un enorme salto in avanti. Quei benchmark sono giustificati dai test che ho fatto.

Ha compreso il contesto dell'intero progetto senza che dovessi ricordarglielo.

La capacità di coding è probabilmente alla pari con i migliori modelli disponibili.

Ottieni un ragionamento di alto livello a una frazione del costo.

Ha ottenuto un punteggio del 73,8% su Swaybench verified, il che è incredibile per un modello open-source.

Puoi effettivamente vedere che funziona. Mentre la generazione di Gemini 3 Pro non funziona affatto.

La velocità di generazione per questo livello di intelligenza è notevole.

È chiaramente progettato per gli sviluppatori che necessitano di un output di codice affidabile.

Zhipu AI si è davvero superata con la messa a punto dell'architettura MoE qui.

Piu di semplici prompt

Potenzia il tuo workflow con l'automazione AI

Automatio combina la potenza degli agenti AI, dell'automazione web e delle integrazioni intelligenti per aiutarti a fare di piu in meno tempo.

Agenti AI
Automazione web
Workflow intelligenti

Consigli Pro per GLM-4.7

Consigli esperti per aiutarti a ottenere il massimo da GLM-4.7 e raggiungere risultati migliori.

Abilita la Thinking Mode per la logica

Imposta il parametro thinking su enabled per task di coding o matematica per utilizzare le tracce di ragionamento interno del model e migliorare l'accuratezza.

Usa SDK compatibili con OpenAI

Integra GLM-4.7 nei workflow esistenti utilizzando l'SDK di OpenAI e modificando il base URL con l'endpoint di Z.ai.

Massimizza l'output da 131K

Quando generi contenuti di lunga durata, fornisci prima una scaletta dettagliata per aiutare il model a mantenere la coerenza strutturale entro l'enorme limite di tokens.

Ottimizza i System Prompt per gli agenti

Definisci i requisiti di Preserved Thinking nel system message per assicurarti che il model riutilizzi gli stati di ragionamento su sessioni multi-turno.

Testimonianze

Cosa dicono i nostri utenti

Unisciti a migliaia di utenti soddisfatti che hanno trasformato il loro workflow

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Correlati AI Models

openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Domande frequenti su GLM-4.7

Trova risposte alle domande comuni su GLM-4.7