zhipu

GLM-4.7

GLM-4.7 di Zhipu AI è un model flagship MoE da 358B con una context window da 200K, performance d'eccellenza del 73,8% su SWE-bench e Deep Thinking nativo per...

zhipu logozhipuGLM22 Dicembre 2025
Contesto
200Ktoken
Output max
131Ktoken
Prezzo input
$0.60/ 1M
Prezzo output
$2.20/ 1M
Modalita:TextImage
Capacita:VisioneStrumentiStreamingRagionamento
Benchmark
GPQA
85.7%
GPQA: Domande scientifiche livello laurea. Un benchmark rigoroso con 448 domande su biologia, fisica e chimica. Gli esperti PhD raggiungono solo il 65-74% di accuratezza. GLM-4.7 ha ottenuto 85.7% in questo benchmark.
HLE
42.8%
HLE: Ragionamento esperto di alto livello. Testa la capacita di un modello di dimostrare ragionamento a livello esperto in domini specializzati. GLM-4.7 ha ottenuto 42.8% in questo benchmark.
MMLU
90.1%
MMLU: Comprensione linguistica multitask massiva. Un benchmark completo con 16.000 domande su 57 materie accademiche. GLM-4.7 ha ottenuto 90.1% in questo benchmark.
MMLU Pro
84.3%
MMLU Pro: MMLU Edizione Professionale. Una versione migliorata di MMLU con 12.032 domande e un formato piu difficile a 10 opzioni. GLM-4.7 ha ottenuto 84.3% in questo benchmark.
SimpleQA
46%
SimpleQA: Benchmark di accuratezza fattuale. Testa la capacita di un modello di fornire risposte accurate e fattuali. GLM-4.7 ha ottenuto 46% in questo benchmark.
IFEval
88%
IFEval: Valutazione del seguire istruzioni. Misura quanto bene un modello segue istruzioni e vincoli specifici. GLM-4.7 ha ottenuto 88% in questo benchmark.
AIME 2025
95.7%
AIME 2025: Esame di matematica invitazionale americano. Problemi matematici a livello competitivo dal prestigioso esame AIME. GLM-4.7 ha ottenuto 95.7% in questo benchmark.
MATH
92%
MATH: Risoluzione di problemi matematici. Un benchmark matematico completo che testa la risoluzione di problemi in algebra, geometria, calcolo. GLM-4.7 ha ottenuto 92% in questo benchmark.
GSM8k
98%
GSM8k: Matematica scuola elementare 8K. 8.500 problemi matematici a parole di livello scuola elementare. GLM-4.7 ha ottenuto 98% in questo benchmark.
MGSM
94%
MGSM: Matematica multilingue scuola elementare. Il benchmark GSM8k tradotto in 10 lingue. GLM-4.7 ha ottenuto 94% in questo benchmark.
MathVista
74%
MathVista: Ragionamento visivo matematico. Testa la capacita di risolvere problemi matematici con elementi visivi. GLM-4.7 ha ottenuto 74% in questo benchmark.
SWE-Bench
73.8%
SWE-Bench: Benchmark ingegneria software. I modelli AI tentano di risolvere veri problemi GitHub in progetti Python. GLM-4.7 ha ottenuto 73.8% in questo benchmark.
HumanEval
94.2%
HumanEval: Problemi di programmazione Python. 164 problemi di programmazione dove i modelli devono generare implementazioni corrette di funzioni Python. GLM-4.7 ha ottenuto 94.2% in questo benchmark.
LiveCodeBench
84.9%
LiveCodeBench: Benchmark di codifica live. Testa le capacita di codifica su sfide di programmazione reali continuamente aggiornate. GLM-4.7 ha ottenuto 84.9% in questo benchmark.
MMMU
74.2%
MMMU: Comprensione multimodale. Benchmark di comprensione multimodale su 30 materie universitarie. GLM-4.7 ha ottenuto 74.2% in questo benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Edizione Professionale. Versione migliorata di MMMU con domande piu impegnative. GLM-4.7 ha ottenuto 58% in questo benchmark.
ChartQA
86%
ChartQA: Domande e risposte su grafici. Testa la capacita di comprendere e analizzare informazioni da grafici e diagrammi. GLM-4.7 ha ottenuto 86% in questo benchmark.
DocVQA
93%
DocVQA: Domande visive su documenti. Testa la capacita di estrarre informazioni da immagini di documenti. GLM-4.7 ha ottenuto 93% in questo benchmark.
Terminal-Bench
41%
Terminal-Bench: Attivita terminale/CLI. Testa la capacita di eseguire operazioni da linea di comando. GLM-4.7 ha ottenuto 41% in questo benchmark.
ARC-AGI
12%
ARC-AGI: Astrazione e ragionamento. Testa l'intelligenza fluida attraverso nuovi puzzle di riconoscimento di pattern. GLM-4.7 ha ottenuto 12% in questo benchmark.

Prova GLM-4.7 gratis

Chatta con GLM-4.7 gratuitamente. Testa le sue capacita, fai domande ed esplora cosa puo fare questo modello AI.

Prompt
Risposta
zhipu/glm-4-7

La tua risposta AI apparira qui

Informazioni su GLM-4.7

Scopri le capacita di GLM-4.7, le funzionalita e come puo aiutarti a ottenere risultati migliori.

GLM-4.7 è l'ultimo model flagship di Zhipu AI, e rappresenta un salto significativo nell'intelligenza open-weight. Questo imponente model Mixture-of-Experts (MoE) da 358 miliardi di parameters è specificamente progettato per il reasoning avanzato, l'automazione del coding e workflow agentic complessi. Introduce una modalità dedicata di Deep Thinking che consente la pianificazione multi-step e il recupero dagli errori, permettendo al model di risolvere task di ingegneria del software ad alto rischio con un'affidabilità senza precedenti.

Il model si distingue per le eccezionali prestazioni tecniche, ottenendo un punteggio state-of-the-art del 73,8% su SWE-bench Verified e di 84,9 su LiveCodeBench v6. Con il suo context window da 200.000 token e una massiccia capacità di output di 131.072 token, GLM-4.7 è ottimizzato per la generazione di intere applicazioni e per condurre ricerche approfondite su vasti set di dati.

Come rilascio open-weight sotto licenza MIT, offre un'alternativa potente e flessibile alle API proprietarie, supportando sia l'integrazione basata su cloud che l'hosting locale. Le sue capacità multimodal si estendono al design avanzato di interfacce utente e all'analisi di documenti, rendendolo una soluzione versatile per il moderno sviluppo guidato dall'AI.

GLM-4.7

Casi d'uso per GLM-4.7

Scopri i diversi modi in cui puoi usare GLM-4.7 per ottenere ottimi risultati.

Software Engineering Agentic

Risoluzione di problemi complessi su GitHub e implementazione autonoma di funzionalità full-stack su interi repository.

Vibe Coding ad alta fedeltà

Generazione rapida di interfacce web moderne e pronte per la produzione utilizzando Tailwind CSS e componenti interattivi Framer Motion.

Supporto Tecnico Multilingua

Assistenza avanzata al coding e risoluzione di problemi logici in oltre 10 ambienti di programmazione internazionali.

Ricerca Accademica Approfondita

Analisi di enormi set di documenti per estrarre informazioni multi-hop verificabili utilizzando il framework di ricerca BrowseComp.

Design Automatizzato di Presentazioni

Creazione di slide strutturate e visivamente bilanciate con layout e tipografia accurati partendo da prompt di una singola frase.

Automazione basata su Terminale

Esecuzione di task complessi di amministrazione di sistema e DevOps direttamente in una sandbox terminale con un'accuratezza del 41% nei benchmark.

Punti di forza

Limitazioni

Competenza d'Élite nel Coding: Attualmente guida i model open-weight con un punteggio del 73,8% su SWE-bench, superando molti concorrenti proprietari.
Intensità Hardware Estrema: Il conteggio di 355B parameters rende l'hosting locale proibitivo per i singoli sviluppatori senza configurazioni multi-GPU.
Massima Capacità di Token in Output: Dispone di un limite di output di 131K, consentendo la generazione di intere codebase pronte per la produzione in un unico turno.
Disparità tra API e Web: Esiste un divario di performance percettibile tra le risposte istantanee dell'API e il reasoning più profondo presente nell'interfaccia web.
Motore di Reasoning Nativo: Incorpora capacità di 'Deep Thinking' che permettono una migliore pianificazione e riducono la deriva nei task agentic a lunga durata.
Allucinazioni Temporali: Gli utenti hanno segnalato occasionali imprecisioni riguardanti date ed eventi correnti immediatamente successivi al lancio del model.
Rapporto Costo-Prestazioni Imbattibile: Offre un'intelligenza di livello frontier model a una frazione del costo, a partire da soli $0,60 per milione di token di input.
Elevata Latenza di Reasoning: L'attivazione della modalità completa di Deep Thinking può aumentare significativamente i tempi di risposta per prompt complessi e multi-step.

Avvio rapido API

zhipu/glm-4-7

Visualizza documentazione
zhipu SDK
import { ZhipuAI } from "zhipuai";

const client = new ZhipuAI({ apiKey: "YOUR_API_KEY" });

async function main() {
  const response = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Build a real-time collaborative whiteboard using Next.js." }],
    stream: true,
    extra_body: { "thinking": true }
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0].delta.content || "");
  }
}

main();

Installa l'SDK e inizia a fare chiamate API in pochi minuti.

Cosa dice la gente su GLM-4.7

Guarda cosa pensa la community di GLM-4.7

"GLM 4.7 DISTRUGGE I RECORD OPEN SOURCE! ... ha raggiunto il 42,8% su Humanity's Last Exam"
MindColliers
x/twitter
"GLM-4.7... ottiene il 73,8% su SWE-Bench a $0,6/M token... La corsa all'AI sta diventando veramente multipolare."
MateusGalasso
x/twitter
"GLM 4.7 porta chiari vantaggi... nel coding agentic multilingua e nei task basati su terminale"
Dear-Success-1441
reddit
"Questo model sta dominando molti benchmark di coding del 2025"
cloris_rust
reddit
"GLM 4.7 vince per velocità e stabilità, mentre Minimax M2.1 domina nel coding multi-agente"
JamMasterJulian
youtube
"Zhipu sta davvero mostrando cosa possono fare i pesi aperti contro i grandi laboratori negli USA."
DevGuru
hackernews

Video su GLM-4.7

Guarda tutorial, recensioni e discussioni su GLM-4.7

GLM 4.7 è un model che offre miglioramenti sostanziali nella qualità del codice, nel reasoning complesso e nell'uso degli strumenti

Ha ottenuto un punteggio del 73,8% su SWE-bench verified, il che è assolutamente incredibile per un model open-source

Supera persino Claude Sonnet 4.5 e GPT 5.1 nei benchmark di utilizzo degli strumenti

L'approccio mixture of experts qui è molto raffinato, portando a una maggiore efficienza nonostante le dimensioni

È essenzialmente il primo model open-weight a fornire un'alternativa valida a Claude 3.5 per il coding pesante

È di gran lunga il miglior model aperto mai visto finora

Produce pagine web più pulite e moderne e genera slide esteticamente migliori

Esegue il reasoning, ma le tracce di thinking non sono disponibili nell'API per i piani di coding

I risultati del vibe coding sono quasi perfetti, anche con animazioni Tailwind complesse

Il context da 200k gestisce lunghi repository con pochissima perdita di precisione rispetto alle versioni precedenti di GLM

L'aggiornamento importante è il thinking prima dell'azione, che aiuta il model a gestire compiti complessi in modo affidabile

Evidenziamo il vibe coding, dove GLM 4.7 migliora la qualità della UI

Il prezzo dell'API si aggira intorno ai $3, rendendola un'opzione molto conveniente

Le performance multimodal gli consentono di convertire i design di Figma in codice con alta precisione

Il deployment locale è possibile se si dispone di una workstation massiccia, ma l'API è notevolmente veloce

Piu di semplici prompt

Potenzia il tuo workflow con l'automazione AI

Automatio combina la potenza degli agenti AI, dell'automazione web e delle integrazioni intelligenti per aiutarti a fare di piu in meno tempo.

Agenti AI
Automazione web
Workflow intelligenti
Guarda la demo

Consigli Pro

Consigli esperti per aiutarti a ottenere il massimo da questo modello e raggiungere risultati migliori.

Abilita il Deep Thinking

Per task logici complessi, attiva esplicitamente la modalità di thinking tramite i parameters dell'API per consentire una pianificazione multi-step.

Sfrutta il Thinking Preservato

Mantieni cronologie di conversazione estese per utilizzare la capacità del model di conservare le tracce di reasoning attraverso più turni.

Quantizzazione Locale

Utilizza versioni GGUF a 2-bit o 4-bit ottimizzate con Unsloth per eseguire questo model ad alti parameters su hardware di classe consumer.

Iniezione della Data

Includi manualmente la data corrente nel system prompt per evitare allucinazioni temporali e migliorare l'accuratezza della pianificazione.

Testimonianze

Cosa dicono i nostri utenti

Unisciti a migliaia di utenti soddisfatti che hanno trasformato il loro workflow

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Correlati AI Models

anthropic

Claude 3.7 Sonnet

anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
xai

Grok-3

xai

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

128K context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xai

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
openai

GPT-5.1

openai

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
anthropic

Claude Sonnet 4.5

anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
google

Gemini 3 Flash

google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
google

Gemini 3 Pro

google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M

Domande frequenti

Trova risposte alle domande comuni su questo modello