zhipu

GLM-5

O GLM-5 é a potência open-weight de 744B de parâmetros da Zhipu AI, destacando-se em tarefas agentic de longo alcance, codificação e precisão factual com uma...

Open WeightsEngenharia AgenticMoEZhipu AIIA de Codificação
zhipu logozhipuGLM11 de fevereiro de 2026
Contexto
200Ktokens
Saida Max
128Ktokens
Preco Entrada
$1.00/ 1M
Preco Saida
$3.20/ 1M
Modalidade:Text
Capacidades:FerramentasStreamingRaciocinio
Benchmarks
GPQA
68.2%
GPQA: Q&A de Ciencias Avancadas. Um benchmark rigoroso com 448 questoes de multipla escolha em biologia, fisica e quimica criadas por especialistas. Especialistas com PhD alcancam apenas 65-74% de precisao. GLM-5 pontuou 68.2% neste benchmark.
HLE
32%
HLE: Raciocinio de Alto Nivel. Testa a capacidade de um modelo de demonstrar raciocinio de nivel especialista em dominios especializados. GLM-5 pontuou 32% neste benchmark.
MMLU
85%
MMLU: Compreensao de Linguagem Multitarefa. Um benchmark abrangente com 16.000 questoes de multipla escolha em 57 disciplinas academicas. GLM-5 pontuou 85% neste benchmark.
MMLU Pro
70.4%
MMLU Pro: MMLU Edicao Profissional. Uma versao aprimorada do MMLU com 12.032 questoes usando um formato mais dificil de multipla escolha com 10 opcoes. GLM-5 pontuou 70.4% neste benchmark.
SimpleQA
48%
SimpleQA: Benchmark de Precisao Factual. Testa a capacidade de um modelo de fornecer respostas precisas e factuais a perguntas diretas. GLM-5 pontuou 48% neste benchmark.
IFEval
88%
IFEval: Avaliacao de Seguimento de Instrucoes. Mede quao bem um modelo segue instrucoes e restricoes especificas. GLM-5 pontuou 88% neste benchmark.
AIME 2025
84%
AIME 2025: Exame de Matematica Invitacional Americano. Problemas de matematica de nivel competitivo do prestigiado exame AIME. GLM-5 pontuou 84% neste benchmark.
MATH
88%
MATH: Resolucao de Problemas Matematicos. Um benchmark abrangente de matematica testando resolucao de problemas em algebra, geometria, calculo e outros dominios. GLM-5 pontuou 88% neste benchmark.
GSM8k
97%
GSM8k: Matematica do Ensino Fundamental 8K. 8.500 problemas de matematica de nivel escolar fundamental que requerem raciocinio em multiplas etapas. GLM-5 pontuou 97% neste benchmark.
MGSM
90%
MGSM: Matematica Escolar Multilingue. O benchmark GSM8k traduzido para 10 idiomas. GLM-5 pontuou 90% neste benchmark.
MathVista
0%
MathVista: Raciocinio Visual Matematico. Testa a capacidade de resolver problemas de matematica que envolvem elementos visuais como graficos e diagramas. GLM-5 pontuou 0% neste benchmark.
SWE-Bench
77.8%
SWE-Bench: Benchmark de Engenharia de Software. Modelos de IA tentam resolver issues reais do GitHub em projetos Python de codigo aberto. GLM-5 pontuou 77.8% neste benchmark.
HumanEval
90%
HumanEval: Problemas de Programacao Python. 164 problemas de programacao escritos a mao onde modelos devem gerar implementacoes corretas de funcoes Python. GLM-5 pontuou 90% neste benchmark.
LiveCodeBench
52%
LiveCodeBench: Benchmark de Codificacao Ao Vivo. Testa habilidades de codificacao em desafios de programacao do mundo real continuamente atualizados. GLM-5 pontuou 52% neste benchmark.
MMMU
0%
MMMU: Compreensao Multimodal. Benchmark de Compreensao Multimodal Multidisciplinar testando modelos de visao-linguagem em problemas de nivel universitario. GLM-5 pontuou 0% neste benchmark.
MMMU Pro
0%
MMMU Pro: MMMU Edicao Profissional. Versao aprimorada do MMMU com questoes mais desafiadoras e avaliacao mais rigorosa. GLM-5 pontuou 0% neste benchmark.
ChartQA
0%
ChartQA: Resposta a Perguntas sobre Graficos. Testa a capacidade de entender e raciocinar sobre informacoes apresentadas em graficos. GLM-5 pontuou 0% neste benchmark.
DocVQA
0%
DocVQA: Q&A Visual de Documentos. Benchmark de Resposta a Perguntas Visuais de Documentos testando a capacidade de extrair informacoes de imagens de documentos. GLM-5 pontuou 0% neste benchmark.
Terminal-Bench
56.2%
Terminal-Bench: Tarefas de Terminal/CLI. Testa a capacidade de realizar operacoes de linha de comando e escrever scripts de shell. GLM-5 pontuou 56.2% neste benchmark.
ARC-AGI
12%
ARC-AGI: Abstracao e Raciocinio. Corpus de Abstracao e Raciocinio para AGI - testa inteligencia fluida atraves de quebra-cabecas de reconhecimento de padroes. GLM-5 pontuou 12% neste benchmark.

Sobre GLM-5

Aprenda sobre as capacidades do GLM-5, recursos e como ele pode ajuda-lo a obter melhores resultados.

O GLM-5 é o flagship foundation model da Zhipu AI projetado para fluxos de trabalho agentic autônomos e engenharia de sistemas complexos. Ele utiliza uma arquitetura massiva de 744 bilhões de parâmetros Mixture-of-Experts (MoE), com 40 bilhões de parâmetros ativos durante a inference para equilibrar desempenho e velocidade. O modelo é o primeiro sistema open-weight a demonstrar paridade com frontier models proprietários em tarefas de engenharia de software, pontuando 77,8% no SWE-bench Verified.

O modelo foi treinado em 28,5 trilhões de tokens usando um cluster doméstico de 100.000 chips Huawei Ascend. Ele integra mecanismos especializados como Multi-head Latent Attention (MLA) e DeepSeek Sparse Attention (DSA) para manter a consistência lógica em sua context window de 200.000 tokens. Esse stack técnico permite que o GLM-5 lide com planejamento de longo prazo e gerenciamento de recursos sem a alta latência típica de modelos densos desse tamanho.

A Zhipu AI lançou o GLM-5 sob a licença MIT, permitindo que usuários corporativos implantem os pesos localmente para processamento de dados sensíveis. Com um custo de entrada de apenas $1,00 por milhão de tokens, ele oferece uma vantagem de preço de 6x sobre modelos rivais como o Claude 4.5. O modelo inclui um Thinking Mode dedicado que reduz significativamente as taxas de alucinação em comparação com seus predecessores.

GLM-5

Casos de Uso para GLM-5

Descubra as diferentes maneiras de usar GLM-5 para obter otimos resultados.

Engenharia de Software Autônoma

Solucionando problemas complexos no GitHub e realizando refatorações em todo o repositório utilizando sua pontuação de 77,8% no SWE-bench Verified.

Orquestração de Ferramentas Corporativas

Executando fluxos de trabalho agentic de várias etapas através de APIs internas para lidar com automação de back-office nos setores financeiro e jurídico.

Análise de Repositório de Longo Contexto

Usando a context window de 200.000 tokens para ingerir e analisar conjuntos completos de documentação ou bases de código multi-arquivo em uma única passagem.

Colegas de Trabalho IA Pessoais

Impulsionando agentes open-source como o OpenClaw para gerenciar e-mails, calendários e tarefas em segundo plano 24/7 com alta confiabilidade.

Inteligência Privada On-Premise

Implantando o modelo open-weight localmente sob sua licença MIT para garantir total privacidade de dados em operações corporativas sensíveis.

Escalabilidade de Agentes com Custo Eficiente

Executando sessões agentic de alto volume a um custo 6-8x menor em comparação com frontier models proprietários, sem sacrificar a profundidade de reasoning.

Pontos Fortes

Limitacoes

Desempenho de Codificação de Elite: Atinge uma pontuação de 77,8% no SWE-bench Verified, igualando gigantes proprietários como o Claude Opus para engenharia de software autônoma.
Sem Visão Nativa: O modelo carece da capacidade de processar imagens ou visão diretamente, o que limita seu uso em fluxos de trabalho de UI/UX multimodais modernos.
Vantagem de Preço de 6x: Oferece reasoning em nível de frontier model por apenas $1,00 por 1M de tokens de entrada, tornando implantações agentic em larga escala economicamente viáveis.
Atraso em Tarefas de Terminal: O desempenho no Terminal-Bench 2.0 está em 56,2%, ficando ligeiramente atrás dos concorrentes proprietários de primeiro escalão.
Pesos Licenciados MIT: Disponibilidade total de pesos abertos no Hugging Face, permitindo a implantação local privada em hardware Huawei Ascend ou NVIDIA.
Frequência de Alucinação: Benchmarks iniciais mostram taxas de alucinação próximas de 30% para tarefas específicas de reasoning complexas, comparadas a taxas mais baixas em rivais de ponta.
Capacidade de Contexto Massiva: A context window de 200K tokens aliada a 128K tokens de saída é ideal para análise de repositórios completos e gerações longas.
Variâncias de Hardware: O treinamento em hardware Huawei Ascend pode levar a pequenas variações de desempenho quando implantado em stacks de software padrão focadas apenas em NVIDIA.

Inicio Rapido da API

zai/glm-5

Ver Documentacao
zhipu SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: "https://open.bigmodel.cn/api/paas/v4/",
});

const response = await client.chat.completions.create({
  model: "glm-5",
  messages: [{ role: "user", content: "Analise esta estrutura de repositório e refatore para GraphQL." }],
  stream: true,
});

for await (const chunk of response) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

Instale o SDK e comece a fazer chamadas de API em minutos.

O Que as Pessoas Estao Dizendo Sobre GLM-5

Veja o que a comunidade pensa sobre GLM-5

O GLM-5 é um modelo open-source de 744B de parâmetros que performa perto do nível do Claude Opus em codificação... mas a diferença de preço importa.
Odd-Coconut-2067
reddit
A janela de 200.000 tokens muda seu fluxo de trabalho: analise mais de 20 arquivos para uma única refatoração ou revise diffs de PR complexos em uma única passagem.
AskCodi
reddit
Passei de gastar ~$90/mês em chamadas de API do Claude para menos de $15 com o GLM-5 e não notei uma queda significativa na qualidade.
IulianHI
reddit
Sua taxa de alucinação está na faixa de 30%, contra, não sei, 88% do Gemini 3 Pro.
Sid
youtube
O GLM-5 foi lançado antes que eu pudesse terminar de testar o 4.7, e o salto no reasoning é realmente perceptível na codificação diária.
able_wong
twitter
A Zhipu lançar isso sob licença MIT é um movimento enorme para a comunidade de LLM local.
dev_tester
twitter

Videos Sobre GLM-5

Assista tutoriais, analises e discussoes sobre GLM-5

Ele está pau a pau com modelos como 5.2 codecs e Opus 4.5.

É o primeiro modelo open-weight que consegui executar um trabalho que levou mais de uma hora sem problemas.

Sua taxa de alucinação está na faixa de 30%, contra, sei lá, Gemini 3 Pro a 88%.

A densidade de reasoning é significativamente maior que a do GLM-4.

Ele basicamente substitui o Claude 3.5 Sonnet para minhas tarefas internas de codificação.

Eles literalmente dobraram, quase dobraram o número de parâmetros... até 744.

Mesmo sendo muito maior, ele roda praticamente tão rápido quanto ou mais rápido que o modelo antigo.

Autocorreção. Não seja condescendente. Trate como uma pergunta válida.

O mecanismo de atenção esparsa mantém o uso de memória baixo para um modelo tão grande.

A disponibilidade open-weight torna este o novo campeão para hospedagem local.

Eles criaram seu próprio motor de RL chamado Slime.

Uma context window de 200.000 tokens muda o que a IA corporativa significa.

Ele atinge 77,8 no SWE-bench verified, batendo o Gemini 3 Pro com 76,2.

A Zhipu AI está provando que hardware doméstico pode treinar modelos de classe mundial.

A engenharia agentic é o foco principal aqui, não apenas um chat simples.

Mais do que apenas prompts

Potencialize seu fluxo de trabalho com Automacao de IA

Automatio combina o poder de agentes de IA, automacao web e integracoes inteligentes para ajuda-lo a realizar mais em menos tempo.

Agentes de IA
Automacao Web
Fluxos Inteligentes

Dicas Profissionais para GLM-5

Dicas de especialistas para ajuda-lo a aproveitar ao maximo GLM-5 e obter melhores resultados.

Ative o modo agentic

Defina planos de várias etapas nos seus prompts, já que o GLM-5 é otimizado para engenharia autônoma, e não apenas para conversas simples.

Alocação de Hardware Local

Garanta VRAM suficiente ou hardware nativo Huawei Ascend com o framework MindSpore para obter throughput ideal.

Implemente cadeias de fallback

Configure o GLM-5 como seu modelo de reasoning principal com o GLM-4.7-Flash como um fallback econômico para instruções mais simples.

Use Structured Output

O GLM-5 se destaca na geração de formatos .docx e .xlsx precisos quando recebe requisitos de esquema claros para as entregas.

Depoimentos

O Que Nossos Usuarios Dizem

Junte-se a milhares de usuarios satisfeitos que transformaram seu fluxo de trabalho

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relacionados AI Models

anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 4.5 Sonnet

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M

Perguntas Frequentes Sobre GLM-5

Encontre respostas para perguntas comuns sobre GLM-5