zhipu

GLM-5

GLM-5 è la potenza open-weight da 744B di Zhipu AI, che eccelle in attività agentic a lungo termine, programmazione e accuratezza fattuale con una context...

Open WeightsIngegneria AgenticMoEZhipu AICoding AI
zhipu logozhipuGLM11 febbraio 2026
Contesto
200Ktoken
Output max
128Ktoken
Prezzo input
$1.00/ 1M
Prezzo output
$3.20/ 1M
Modalita:Text
Capacita:StrumentiStreamingRagionamento
Benchmark
GPQA
68.2%
GPQA: Domande scientifiche livello laurea. Un benchmark rigoroso con 448 domande su biologia, fisica e chimica. Gli esperti PhD raggiungono solo il 65-74% di accuratezza. GLM-5 ha ottenuto 68.2% in questo benchmark.
HLE
32%
HLE: Ragionamento esperto di alto livello. Testa la capacita di un modello di dimostrare ragionamento a livello esperto in domini specializzati. GLM-5 ha ottenuto 32% in questo benchmark.
MMLU
85%
MMLU: Comprensione linguistica multitask massiva. Un benchmark completo con 16.000 domande su 57 materie accademiche. GLM-5 ha ottenuto 85% in questo benchmark.
MMLU Pro
70.4%
MMLU Pro: MMLU Edizione Professionale. Una versione migliorata di MMLU con 12.032 domande e un formato piu difficile a 10 opzioni. GLM-5 ha ottenuto 70.4% in questo benchmark.
SimpleQA
48%
SimpleQA: Benchmark di accuratezza fattuale. Testa la capacita di un modello di fornire risposte accurate e fattuali. GLM-5 ha ottenuto 48% in questo benchmark.
IFEval
88%
IFEval: Valutazione del seguire istruzioni. Misura quanto bene un modello segue istruzioni e vincoli specifici. GLM-5 ha ottenuto 88% in questo benchmark.
AIME 2025
84%
AIME 2025: Esame di matematica invitazionale americano. Problemi matematici a livello competitivo dal prestigioso esame AIME. GLM-5 ha ottenuto 84% in questo benchmark.
MATH
88%
MATH: Risoluzione di problemi matematici. Un benchmark matematico completo che testa la risoluzione di problemi in algebra, geometria, calcolo. GLM-5 ha ottenuto 88% in questo benchmark.
GSM8k
97%
GSM8k: Matematica scuola elementare 8K. 8.500 problemi matematici a parole di livello scuola elementare. GLM-5 ha ottenuto 97% in questo benchmark.
MGSM
90%
MGSM: Matematica multilingue scuola elementare. Il benchmark GSM8k tradotto in 10 lingue. GLM-5 ha ottenuto 90% in questo benchmark.
MathVista
0%
MathVista: Ragionamento visivo matematico. Testa la capacita di risolvere problemi matematici con elementi visivi. GLM-5 ha ottenuto 0% in questo benchmark.
SWE-Bench
77.8%
SWE-Bench: Benchmark ingegneria software. I modelli AI tentano di risolvere veri problemi GitHub in progetti Python. GLM-5 ha ottenuto 77.8% in questo benchmark.
HumanEval
90%
HumanEval: Problemi di programmazione Python. 164 problemi di programmazione dove i modelli devono generare implementazioni corrette di funzioni Python. GLM-5 ha ottenuto 90% in questo benchmark.
LiveCodeBench
52%
LiveCodeBench: Benchmark di codifica live. Testa le capacita di codifica su sfide di programmazione reali continuamente aggiornate. GLM-5 ha ottenuto 52% in questo benchmark.
MMMU
0%
MMMU: Comprensione multimodale. Benchmark di comprensione multimodale su 30 materie universitarie. GLM-5 ha ottenuto 0% in questo benchmark.
MMMU Pro
0%
MMMU Pro: MMMU Edizione Professionale. Versione migliorata di MMMU con domande piu impegnative. GLM-5 ha ottenuto 0% in questo benchmark.
ChartQA
0%
ChartQA: Domande e risposte su grafici. Testa la capacita di comprendere e analizzare informazioni da grafici e diagrammi. GLM-5 ha ottenuto 0% in questo benchmark.
DocVQA
0%
DocVQA: Domande visive su documenti. Testa la capacita di estrarre informazioni da immagini di documenti. GLM-5 ha ottenuto 0% in questo benchmark.
Terminal-Bench
56.2%
Terminal-Bench: Attivita terminale/CLI. Testa la capacita di eseguire operazioni da linea di comando. GLM-5 ha ottenuto 56.2% in questo benchmark.
ARC-AGI
12%
ARC-AGI: Astrazione e ragionamento. Testa l'intelligenza fluida attraverso nuovi puzzle di riconoscimento di pattern. GLM-5 ha ottenuto 12% in questo benchmark.

Informazioni su GLM-5

Scopri le capacita di GLM-5, le funzionalita e come puo aiutarti a ottenere risultati migliori.

GLM-5 è il modello di base flagship di Zhipu AI, progettato per workflow agentic autonomi e ingegneria di sistemi complessi. Utilizza una massiccia architettura Mixture-of-Experts (MoE) da 744 miliardi di parametri, con 40 miliardi di parametri attivi durante l'inference per bilanciare prestazioni e velocità. Il modello è il primo sistema open-weight a dimostrare parità con i modelli frontier proprietari nelle attività di ingegneria del software, ottenendo un punteggio del 77,8% su SWE-bench Verified.

Il modello è stato addestrato su 28,5 trilioni di token utilizzando un cluster domestico di 100.000 chip Huawei Ascend. Integra meccanismi specializzati come Multi-head Latent Attention (MLA) e DeepSeek Sparse Attention (DSA) per mantenere la coerenza logica attraverso la sua context window di 200.000 token. Questo stack tecnico consente a GLM-5 di gestire pianificazioni a lungo termine e gestione delle risorse senza l'elevata latenza tipica dei modelli densi di queste dimensioni.

Zhipu AI ha rilasciato GLM-5 sotto licenza MIT, consentendo agli utenti enterprise di eseguire il deployment dei pesi localmente per l'elaborazione di dati sensibili. Con un costo di input di soli $1,00 per milione di token, offre un vantaggio di prezzo 6 volte superiore rispetto a modelli rivali come Claude 4.5. Il modello include una Thinking Mode dedicata che riduce significativamente i tassi di allucinazione rispetto ai suoi predecessori.

GLM-5

Casi d'uso per GLM-5

Scopri i diversi modi in cui puoi usare GLM-5 per ottenere ottimi risultati.

Ingegneria del software autonoma

Risoluzione di complessi problemi GitHub ed esecuzione di refactoring su intere repository, sfruttando il punteggio del 77,8% su SWE-bench Verified.

Orchestrazione di strumenti aziendali

Esecuzione di workflow agentic in più fasi tramite API interne per gestire l'automazione back-office nei settori finanziario e legale.

Analisi di repository a contesto lungo

Utilizzo della context window da 200.000 token per acquisire e analizzare interi set di documentazione o codebase multi-file in un unico passaggio.

Colleghi AI personali

Potenziamento di agenti open-source come OpenClaw per gestire email, calendari e attività in background 24/7 con alta affidabilità.

Intelligenza privata on-premise

Deployment locale del modello open-weight con licenza MIT per garantire la totale privacy dei dati per operazioni aziendali sensibili.

Scaling efficiente degli agenti

Esecuzione di sessioni agentic ad alto volume a costi 6-8 volte inferiori rispetto ai frontier model proprietari, senza sacrificare la profondità di reasoning.

Punti di forza

Limitazioni

Prestazioni di programmazione d'élite: Raggiunge un punteggio del 77,8% su SWE-bench Verified, eguagliando giganti proprietari come Claude Opus nell'ingegneria del software autonoma.
Nessuna visione nativa: Il modello manca della capacità di elaborare immagini direttamente, il che ne limita l'uso in moderni workflow UI/UX multimodal.
Vantaggio di prezzo 6x: Offre capacità di reasoning di livello frontier a soli $1,00 per 1 milione di token in input, rendendo economicamente sostenibili i deployment agentic su larga scala.
Latenza in attività da terminale: Le prestazioni su Terminal-Bench 2.0 si attestano al 56,2%, posizionandosi leggermente dietro i concorrenti proprietari di fascia altissima.
Pesi con licenza MIT: La piena disponibilità open-weight su Hugging Face consente il deployment privato locale su hardware Huawei Ascend o NVIDIA.
Frequenza di allucinazione: I primi benchmark mostrano tassi di allucinazione vicini al 30% per specifiche attività di reasoning complesso, rispetto a tassi inferiori in rivali di punta.
Massiva capacità di contesto: La context window da 200K token abbinata a 128K token in output è ideale per l'analisi dell'intera repository e generazioni di testi lunghi.
Varianze hardware: Il training su hardware Huawei Ascend può portare a lievi varianze di prestazione se eseguito su stack software standard basati solo su NVIDIA.

Avvio rapido API

zai/glm-5

Visualizza documentazione
zhipu SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: "https://open.bigmodel.cn/api/paas/v4/",
});

const response = await client.chat.completions.create({
  model: "glm-5",
  messages: [{ role: "user", content: "Analizza la struttura di questa repository e rifattorizza in GraphQL."}],
  stream: true,
});

for await (const chunk of response) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

Installa l'SDK e inizia a fare chiamate API in pochi minuti.

Cosa dice la gente su GLM-5

Guarda cosa pensa la community di GLM-5

GLM-5 è un modello open-source da 744B di parametri che performa quasi al livello di Claude Opus nella programmazione... ma la differenza di prezzo conta.
Odd-Coconut-2067
reddit
La context window da 200.000 token cambia il workflow: analizza oltre 20 file per un singolo refactoring o revisiona complessi diff di PR in un solo passaggio.
AskCodi
reddit
Sono passato dal spendere ~90$/mese in chiamate API di Claude a meno di 15$ con GLM-5 e non ho notato un calo significativo nella qualità.
IulianHI
reddit
Il suo tasso di allucinazione è nell'ordine del 30% contro, non so, l'88% di Gemini 3 Pro.
Sid
youtube
GLM-5 è uscito prima che potessi finire di testare la 4.7, e il salto nel reasoning è effettivamente notevole nella programmazione quotidiana.
able_wong
twitter
Il fatto che Zhipu rilasci questo modello sotto licenza MIT è una mossa enorme per la comunità LLM locale.
dev_tester
twitter

Video su GLM-5

Guarda tutorial, recensioni e discussioni su GLM-5

È testa a testa con modelli come 5.2 codecs e Opus 4.5.

È il primo modello open-weight su cui ho eseguito con successo un lavoro durato oltre un'ora senza problemi.

Il tasso di allucinazione è intorno al 30%, contro, non so, Gemini 3 Pro all'88%.

La densità di reasoning è significativamente superiore a GLM-4.

Praticamente sostituisce Claude 3.5 Sonnet per le mie attività di programmazione interne.

Hanno letteralmente raddoppiato il numero di parametri... fino a 744.

Anche se è molto più grande, gira praticamente se non più velocemente del modello precedente.

Autocorrezione. Non essere condiscendente. Trattala come una domanda valida.

Il meccanismo di sparse attention mantiene basso l'utilizzo della memoria per un modello così grande.

La disponibilità open-weight rende questo modello il nuovo campione per l'hosting locale.

Hanno creato il loro motore RL chiamato Slime.

Una context window da 200.000 token cambia il significato stesso di AI aziendale.

Raggiunge 77.8 su SWE-bench verified, battendo Gemini 3 Pro a 76.2.

Zhipu AI sta dimostrando che l'hardware domestico può addestrare modelli di classe mondiale.

L'ingegneria agentic è il focus principale qui, non solo una semplice chat.

Piu di semplici prompt

Potenzia il tuo workflow con l'automazione AI

Automatio combina la potenza degli agenti AI, dell'automazione web e delle integrazioni intelligenti per aiutarti a fare di piu in meno tempo.

Agenti AI
Automazione web
Workflow intelligenti

Consigli Pro per GLM-5

Consigli esperti per aiutarti a ottenere il massimo da GLM-5 e raggiungere risultati migliori.

Attiva l'Agentic Mode

Definisci piani a più fasi nei tuoi prompt, poiché GLM-5 è ottimizzato per l'ingegneria autonoma piuttosto che per semplici risposte in chat.

Allocazione hardware locale

Assicurati di disporre di una VRAM significativa o di hardware nativo Huawei Ascend con framework MindSpore per un throughput ottimale.

Implementa catene di fallback

Configura GLM-5 come tuo modello di reasoning principale, usando GLM-4.7-Flash come fallback economico per istruzioni più semplici.

Usa l'output strutturato

GLM-5 eccelle nella generazione di formati .docx e .xlsx precisi quando riceve requisiti di schema chiari per i deliverable.

Testimonianze

Cosa dicono i nostri utenti

Unisciti a migliaia di utenti soddisfatti che hanno trasformato il loro workflow

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Correlati AI Models

anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 4.5 Sonnet

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M

Domande frequenti su GLM-5

Trova risposte alle domande comuni su GLM-5