zhipu

GLM-5

GLM-5 è il potente open-weight model da 744B parameters di Zhipu AI, eccellente nei task agentic a lungo orizzonte, nel coding e nella precisione fattuale con...

Open WeightsAgentic EngineeringMoEZhipu AICoding AI
zhipu logozhipuGLMFebruary 11, 2026
Contesto
200Ktoken
Output max
128Ktoken
Prezzo input
$1.00/ 1M
Prezzo output
$3.20/ 1M
Modalita:Text
Capacita:StrumentiStreamingRagionamento
Benchmark
GPQA
68.2%
GPQA: Domande scientifiche livello laurea. Un benchmark rigoroso con 448 domande su biologia, fisica e chimica. Gli esperti PhD raggiungono solo il 65-74% di accuratezza. GLM-5 ha ottenuto 68.2% in questo benchmark.
HLE
32%
HLE: Ragionamento esperto di alto livello. Testa la capacita di un modello di dimostrare ragionamento a livello esperto in domini specializzati. GLM-5 ha ottenuto 32% in questo benchmark.
MMLU
85%
MMLU: Comprensione linguistica multitask massiva. Un benchmark completo con 16.000 domande su 57 materie accademiche. GLM-5 ha ottenuto 85% in questo benchmark.
MMLU Pro
70.4%
MMLU Pro: MMLU Edizione Professionale. Una versione migliorata di MMLU con 12.032 domande e un formato piu difficile a 10 opzioni. GLM-5 ha ottenuto 70.4% in questo benchmark.
SimpleQA
48%
SimpleQA: Benchmark di accuratezza fattuale. Testa la capacita di un modello di fornire risposte accurate e fattuali. GLM-5 ha ottenuto 48% in questo benchmark.
IFEval
88%
IFEval: Valutazione del seguire istruzioni. Misura quanto bene un modello segue istruzioni e vincoli specifici. GLM-5 ha ottenuto 88% in questo benchmark.
AIME 2025
84%
AIME 2025: Esame di matematica invitazionale americano. Problemi matematici a livello competitivo dal prestigioso esame AIME. GLM-5 ha ottenuto 84% in questo benchmark.
MATH
88%
MATH: Risoluzione di problemi matematici. Un benchmark matematico completo che testa la risoluzione di problemi in algebra, geometria, calcolo. GLM-5 ha ottenuto 88% in questo benchmark.
GSM8k
97%
GSM8k: Matematica scuola elementare 8K. 8.500 problemi matematici a parole di livello scuola elementare. GLM-5 ha ottenuto 97% in questo benchmark.
MGSM
90%
MGSM: Matematica multilingue scuola elementare. Il benchmark GSM8k tradotto in 10 lingue. GLM-5 ha ottenuto 90% in questo benchmark.
MathVista
0%
MathVista: Ragionamento visivo matematico. Testa la capacita di risolvere problemi matematici con elementi visivi. GLM-5 ha ottenuto 0% in questo benchmark.
SWE-Bench
77.8%
SWE-Bench: Benchmark ingegneria software. I modelli AI tentano di risolvere veri problemi GitHub in progetti Python. GLM-5 ha ottenuto 77.8% in questo benchmark.
HumanEval
90%
HumanEval: Problemi di programmazione Python. 164 problemi di programmazione dove i modelli devono generare implementazioni corrette di funzioni Python. GLM-5 ha ottenuto 90% in questo benchmark.
LiveCodeBench
52%
LiveCodeBench: Benchmark di codifica live. Testa le capacita di codifica su sfide di programmazione reali continuamente aggiornate. GLM-5 ha ottenuto 52% in questo benchmark.
MMMU
0%
MMMU: Comprensione multimodale. Benchmark di comprensione multimodale su 30 materie universitarie. GLM-5 ha ottenuto 0% in questo benchmark.
MMMU Pro
0%
MMMU Pro: MMMU Edizione Professionale. Versione migliorata di MMMU con domande piu impegnative. GLM-5 ha ottenuto 0% in questo benchmark.
ChartQA
0%
ChartQA: Domande e risposte su grafici. Testa la capacita di comprendere e analizzare informazioni da grafici e diagrammi. GLM-5 ha ottenuto 0% in questo benchmark.
DocVQA
0%
DocVQA: Domande visive su documenti. Testa la capacita di estrarre informazioni da immagini di documenti. GLM-5 ha ottenuto 0% in questo benchmark.
Terminal-Bench
56.2%
Terminal-Bench: Attivita terminale/CLI. Testa la capacita di eseguire operazioni da linea di comando. GLM-5 ha ottenuto 56.2% in questo benchmark.
ARC-AGI
12%
ARC-AGI: Astrazione e ragionamento. Testa l'intelligenza fluida attraverso nuovi puzzle di riconoscimento di pattern. GLM-5 ha ottenuto 12% in questo benchmark.

Informazioni su GLM-5

Scopri le capacita di GLM-5, le funzionalita e come puo aiutarti a ottenere risultati migliori.

GLM-5 è il foundation model flagship di prossima generazione di Zhipu AI, specificamente progettato per ridefinire lo stato dell'Agentic Engineering per i sistemi open-weight. Basato su una massiccia architettura Mixture of Experts (MoE) da 744 miliardi di parameters con 40 miliardi di parameters attivi, è il primo open-weight model a colmare il gap prestazionale con i giganti proprietari come Claude 4.5. Questo model eccelle nella densità logica e nell'ingegneria del software, raggiungendo un traguardo del 77,8% su SWE-Bench Verified.

Tecnicamente, GLM-5 integra meccanismi avanzati di Multi-head Latent Attention (MLA) e Sparse Attention per ottimizzare l'efficienza dei tokens e ridurre l'overhead di memoria del 33%. Addestrato su una scala di 28,5 trilioni di tokens utilizzando un cluster puramente domestico di 100.000 chip Huawei Ascend, GLM-5 dimostra che un reasoning di livello frontier è possibile senza dipendere dall'hardware NVIDIA di fascia alta. Con il suo context window di 200.000 tokens e la 'Thinking Mode' specializzata, fornisce output robusti e a bassa allucinazione per workflow tecnici ad alta precisione.

Ottimizzato per l'affidabilità, GLM-5 funge da base per agenti tecnici autonomi capaci di mantenere uno stato persistente attraverso esecuzioni a lungo orizzonte. La sua licenza permissiva MIT e il prezzo competitivo di $1,00 per milione di input tokens lo rendono una scelta ideale per le imprese che cercano il deployment locale o l'integrazione API su larga scala senza i termini restrittivi delle alternative proprietarie.

GLM-5

Casi d'uso per GLM-5

Scopri i diversi modi in cui puoi usare GLM-5 per ottenere ottimi risultati.

Complex Systems Engineering

Progettazione e manutenzione di architetture a microservizi con gestione autonoma delle dipendenze.

Task Agentic a Lungo Orizzonte

Esecuzione di workflow tecnici multi-step che richiedono una memoria persistente per oltre un'ora di esecuzione.

Migrazione di Codebase Legacy

Refactoring di interi repository e aggiornamento di dipendenze obsolete attraverso un context window di 200k tokens.

Ricerca Tecnica a Bassa Allucinazione

Conduzione di ricerche tecniche ad alta precisione dove l'accuratezza dei fatti e l'astensione dall'inventare risposte sono fondamentali.

Operazioni Terminali Autonome

Potenziamento di agenti di sviluppo in grado di eseguire autonomamente audit di sicurezza e comandi di amministrazione di sistema.

Distribuzione Globale Bilingue

Fornitura di reasoning di altissimo livello in inglese e cinese per applicazioni aziendali localizzate su larga scala.

Punti di forza

Limitazioni

Intelligence Agentic d'Élite: Ottiene il punteggio più alto nell'Agentic Index (63) tra i open-weight models per l'esecuzione di task multi-step.
Nessuna Multimodalità Nativa: Manca delle capacità di elaborazione di immagini, audio e video presenti nei competitor multimodal come GPT-4o.
Basso Tasso di Allucinazione: Mostra una riduzione del 56% delle allucinazioni rispetto alle generazioni precedenti, dando priorità all'accuratezza fattuale.
Requisiti di Hosting Estremi: I pesi da 1,5TB in BF16 rendono il deployment locale impossibile per quasi tutti gli utenti senza un'infrastruttura cloud.
Massiccia Efficienza MoE: L'architettura da 744B parameters offre una densità logica da flagship, mentre l'MLA riduce l'overhead di memoria del 33%.
Alta Latency di Inference: Il time-to-first-token iniziale può essere elevato (oltre 7 secondi) sulle API pubbliche rispetto ai models 'flash' più piccoli.
Licenza MIT Permissiva: Rilasciato sotto una vera licenza open-source, consentendo l'uso commerciale senza restrizioni o clausole limitanti per l'utente.
Sfumature nel Design Frontend: Sebbene eccellente nella logica, può occasionalmente faticare con il rifinitura estetica CSS granulare rispetto a Claude.

Avvio rapido API

zai/glm-5

Visualizza documentazione
zhipu SDK
import { ZhipuAI } from "zhipuai-sdk";

const client = new ZhipuAI({ apiKey: "YOUR_API_KEY" });

async function main() {
  const response = await client.chat.completions.create({
    model: "glm-5",
    messages: [{ role: "user", content: "Analyze this repo for security vulnerabilities." }],
    stream: true,
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0].delta.content || "");
  }
}

main();

Installa l'SDK e inizia a fare chiamate API in pochi minuti.

Cosa dice la gente su GLM-5

Guarda cosa pensa la community di GLM-5

"GLM-5 è il nuovo leader dei open weights! Ha ottenuto 50 sull'Intelligence Index, riducendo significativamente il gap."
Artificial Analysis
x
"Questo model è incredibile. Ho completato con successo un lavoro durato più di un'ora... mi ha sbalordito."
Theo - t3.gg
youtube
"GLM-5 non ha usato chip NVIDIA, ha 745B params e costa $1 per milione di input tokens. Questo è il futuro."
Legendary
x
"Il tasso di allucinazione è pazzesco; è molto più propenso a dire 'non lo so' piuttosto che mentire."
DevUser456
reddit
"Zhipu AI ha appena lanciato la sfida per i models di coding open-source."
AIExplorer
hackernews
"Finalmente un open-weight model che non perde il filo a metà di un task complesso."
CodeMaster
reddit

Video su GLM-5

Guarda tutorial, recensioni e discussioni su GLM-5

È di gran lunga il miglior open-weight model che abbia mai visto, specialmente per il codice.

Il fatto che questo sia il primo open-weight model con cui sono riuscito a completare un lavoro durato più di un'ora... mi ha scioccato.

Sembra essere il model che allucina meno tra tutti quelli visti finora.

Stiamo assistendo a un enorme cambiamento in ciò che i open-weight models possono effettivamente fare in produzione.

La stabilità di questo model durante lunghe sessioni di utilizzo di tool è onestamente senza precedenti.

Il feeling nel coding qui è molto, molto potente... paragonabile a GLM 4.7 che era già una rarità.

L'introduzione della dynamic island nel suo mockup UI è stata una funzione speciale molto interessante e inaspettata.

Sta superando quasi ogni altro model della sua categoria nella logica complessa.

La profondità del reasoning qui mi ricorda la prima volta che ho usato o1, ma è un open-weight.

Per essere un model solo testuale, gestisce la logica visiva nel codice meglio di molti models di visione.

L'uso della memoria è crollato... abbiamo ottenuto miglioramenti di memoria di 33 volte rispetto a prima.

Ha superato il test di logica 'car wash' con il thinking abilitato, battendo Claude e GPT-4o.

Il deployment richiede un rack server serio, ma le prestazioni per watt sono pazzesche.

Ha gestito la migrazione del mio repository legacy senza inventare un singolo nome di libreria.

La modalità thinking non è solo un gadget; cambia fondamentalmente la qualità dell'output.

Piu di semplici prompt

Potenzia il tuo workflow con l'automazione AI

Automatio combina la potenza degli agenti AI, dell'automazione web e delle integrazioni intelligenti per aiutarti a fare di piu in meno tempo.

Agenti AI
Automazione web
Workflow intelligenti

Consigli Pro per GLM-5

Consigli esperti per aiutarti a ottenere il massimo da GLM-5 e raggiungere risultati migliori.

Attiva la Thinking Mode

GLM-5 offre prestazioni significativamente migliori su complessi puzzle logici come il test 'car wash' quando il reasoning è abilitato.

Sfrutta la Licenza MIT

Approfitta della licenza permissiva per lo sviluppo commerciale illimitato e l'hosting interno.

Ottimizzazione dell'uso dei Tool

Utilizza GLM-5 per task multi-step poiché è specificamente progettato per un'elevata stabilità nell'esecuzione di tool agentic.

Utilizzo del Context Window

Carica intere codebase nel context window da 200k per eseguire audit di sicurezza o refactoring sull'intero repository.

Testimonianze

Cosa dicono i nostri utenti

Unisciti a migliaia di utenti soddisfatti che hanno trasformato il loro workflow

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Correlati AI Models

minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.30/$1.20/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
alibaba

Qwen3-Coder-Next

alibaba

Qwen3-Coder-Next is Alibaba Cloud's elite Apache 2.0 coding model, featuring an 80B MoE architecture and 256k context window for advanced local development.

256K context
$0.14/$0.42/1M
anthropic

Claude Sonnet 4.5

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
alibaba

Qwen-Image-2.0

alibaba

Qwen-Image-2.0 is Alibaba's unified 7B model for professional infographics, photorealism, and precise image editing with native 2K resolution and 1k-token...

1K context
$0.07/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M

Domande frequenti su GLM-5

Trova risposte alle domande comuni su GLM-5