zhipu

GLM-4.7

O GLM-4.7 da Zhipu AI é um flagship model MoE de 358B com um context window de 200K, desempenho de elite de 73,8% no SWE-bench e Deep Thinking nativo para...

zhipu logozhipuGLM22 de dezembro de 2025
Contexto
200Ktokens
Saida Max
131Ktokens
Preco Entrada
$0.60/ 1M
Preco Saida
$2.20/ 1M
Modalidade:TextImage
Capacidades:VisaoFerramentasStreamingRaciocinio
Benchmarks
GPQA
85.7%
GPQA: Q&A de Ciencias Avancadas. Um benchmark rigoroso com 448 questoes de multipla escolha em biologia, fisica e quimica criadas por especialistas. Especialistas com PhD alcancam apenas 65-74% de precisao. GLM-4.7 pontuou 85.7% neste benchmark.
HLE
42.8%
HLE: Raciocinio de Alto Nivel. Testa a capacidade de um modelo de demonstrar raciocinio de nivel especialista em dominios especializados. GLM-4.7 pontuou 42.8% neste benchmark.
MMLU
90.1%
MMLU: Compreensao de Linguagem Multitarefa. Um benchmark abrangente com 16.000 questoes de multipla escolha em 57 disciplinas academicas. GLM-4.7 pontuou 90.1% neste benchmark.
MMLU Pro
84.3%
MMLU Pro: MMLU Edicao Profissional. Uma versao aprimorada do MMLU com 12.032 questoes usando um formato mais dificil de multipla escolha com 10 opcoes. GLM-4.7 pontuou 84.3% neste benchmark.
SimpleQA
46%
SimpleQA: Benchmark de Precisao Factual. Testa a capacidade de um modelo de fornecer respostas precisas e factuais a perguntas diretas. GLM-4.7 pontuou 46% neste benchmark.
IFEval
88%
IFEval: Avaliacao de Seguimento de Instrucoes. Mede quao bem um modelo segue instrucoes e restricoes especificas. GLM-4.7 pontuou 88% neste benchmark.
AIME 2025
95.7%
AIME 2025: Exame de Matematica Invitacional Americano. Problemas de matematica de nivel competitivo do prestigiado exame AIME. GLM-4.7 pontuou 95.7% neste benchmark.
MATH
92%
MATH: Resolucao de Problemas Matematicos. Um benchmark abrangente de matematica testando resolucao de problemas em algebra, geometria, calculo e outros dominios. GLM-4.7 pontuou 92% neste benchmark.
GSM8k
98%
GSM8k: Matematica do Ensino Fundamental 8K. 8.500 problemas de matematica de nivel escolar fundamental que requerem raciocinio em multiplas etapas. GLM-4.7 pontuou 98% neste benchmark.
MGSM
94%
MGSM: Matematica Escolar Multilingue. O benchmark GSM8k traduzido para 10 idiomas. GLM-4.7 pontuou 94% neste benchmark.
MathVista
74%
MathVista: Raciocinio Visual Matematico. Testa a capacidade de resolver problemas de matematica que envolvem elementos visuais como graficos e diagramas. GLM-4.7 pontuou 74% neste benchmark.
SWE-Bench
73.8%
SWE-Bench: Benchmark de Engenharia de Software. Modelos de IA tentam resolver issues reais do GitHub em projetos Python de codigo aberto. GLM-4.7 pontuou 73.8% neste benchmark.
HumanEval
94.2%
HumanEval: Problemas de Programacao Python. 164 problemas de programacao escritos a mao onde modelos devem gerar implementacoes corretas de funcoes Python. GLM-4.7 pontuou 94.2% neste benchmark.
LiveCodeBench
84.9%
LiveCodeBench: Benchmark de Codificacao Ao Vivo. Testa habilidades de codificacao em desafios de programacao do mundo real continuamente atualizados. GLM-4.7 pontuou 84.9% neste benchmark.
MMMU
74.2%
MMMU: Compreensao Multimodal. Benchmark de Compreensao Multimodal Multidisciplinar testando modelos de visao-linguagem em problemas de nivel universitario. GLM-4.7 pontuou 74.2% neste benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Edicao Profissional. Versao aprimorada do MMMU com questoes mais desafiadoras e avaliacao mais rigorosa. GLM-4.7 pontuou 58% neste benchmark.
ChartQA
86%
ChartQA: Resposta a Perguntas sobre Graficos. Testa a capacidade de entender e raciocinar sobre informacoes apresentadas em graficos. GLM-4.7 pontuou 86% neste benchmark.
DocVQA
93%
DocVQA: Q&A Visual de Documentos. Benchmark de Resposta a Perguntas Visuais de Documentos testando a capacidade de extrair informacoes de imagens de documentos. GLM-4.7 pontuou 93% neste benchmark.
Terminal-Bench
41%
Terminal-Bench: Tarefas de Terminal/CLI. Testa a capacidade de realizar operacoes de linha de comando e escrever scripts de shell. GLM-4.7 pontuou 41% neste benchmark.
ARC-AGI
12%
ARC-AGI: Abstracao e Raciocinio. Corpus de Abstracao e Raciocinio para AGI - testa inteligencia fluida atraves de quebra-cabecas de reconhecimento de padroes. GLM-4.7 pontuou 12% neste benchmark.

Sobre GLM-4.7

Aprenda sobre as capacidades do GLM-4.7, recursos e como ele pode ajuda-lo a obter melhores resultados.

Visão Geral do Model

GLM-4.7 é um flagship large language model desenvolvido pela Zhipu AI. Ele utiliza uma arquitetura Mixture-of-Experts (MoE) com 358 bilhões de parameters totais. O model é projetado especificamente para lidar com tarefas agentic complexas e reasoning de longo contexto através de suas capacidades exclusivas de Preserved Thinking e Interleaved Thinking. Esses recursos permitem que o model mantenha uma lógica estável e estados intermediários de reasoning ao longo de sessões de múltiplos turnos, resolvendo a degradação de contexto comum em fluxos de trabalho autônomos.

Desempenho e Arquitetura

O model oferece um context window de 200.000 tokens combinado com uma capacidade de output massiva de 131.072 tokens. Isso o torna adequado para gerar aplicações inteiras ou analisar documentação extensa em uma única passagem. Lançado sob a licença MIT como um model de open-weights, ele oferece codificação e reasoning de alto desempenho a uma fração do custo de alternativas proprietárias.

Integração e Uso

Ele é totalmente compatível com o formato da OpenAI API, simplificando a integração em ecossistemas de software existentes. Desenvolvedores o utilizam para tarefas de engenharia de software de alto risco, onde alcança uma pontuação de 73,8% no SWE-bench Verified. Sua capacidade de processar e analisar grandes volumes de documentação técnica entre inglês e chinês com nuances linguísticas de nível nativo o torna uma ferramenta versátil para equipes de desenvolvimento internacionais.

GLM-4.7

Casos de Uso para GLM-4.7

Descubra as diferentes maneiras de usar GLM-4.7 para obter otimos resultados.

Engenharia de Software Autônoma

Utilizando a capacidade de 73,8% no SWE-bench para depurar, refatorar e implementar novos recursos autonomamente em repositórios complexos.

Síntese de Documentos de Alta Capacidade

Aproveitando o limite de output de 131k para gerar manuais técnicos abrangentes ou capítulos inteiros de livros a partir de grandes datasets.

Fluxos de Trabalho Agentic de Longo Horizonte

Implantando agents que usam Preserved Thinking para manter consistência e lógica ao longo de centenas de tarefas sequenciais sem perder o contexto.

Inteligência de Negócios Bilíngue

Processando e analisando grandes volumes de documentação técnica entre inglês e chinês com nuances linguísticas de nível nativo.

Geração Automatizada de Código UI/UX

Gerando arquiteturas front-end completas em React ou Next.js com animações avançadas e estilo pronto para produção em uma única execução.

Resolução Matemática de Nível Competitivo

Resolvendo problemas matemáticos complexos de nível de Olimpíada e quebra-cabeças de lógica simbólica usando o modo de reasoning dedicado.

Pontos Fortes

Limitacoes

Desempenho de Codificação de Elite: Pontua 73,8% no SWE-bench Verified, superando quase todos os open-source models e equiparando-se a APIs proprietárias de alto nível.
Modalidade apenas de texto: Ao contrário do Gemini ou GPT-4o, o GLM-4.7 carece de processamento nativo de visão ou áudio, exigindo models externos para tarefas multimodal.
Teto de Output Massivo: O limite de output de 131.072 tokens é um dos mais altos da indústria, permitindo a geração de aplicações inteiras em um único turno.
Requisitos locais massivos: Com 358B parameters, executar o model localmente requer hardware significativo (aprox. 710GB VRAM), tornando-o inacessível para GPUs de consumo.
Arquitetura com foco em Agents: Apresenta Preserved Thinking para manter consistência lógica em tarefas de longo horizonte, resolvendo a degradação de contexto em agents autônomos.
Picos ocasionais de latência: Usuários no nível de API pessoal relatam lentidões periódicas durante horários de pico em comparação com a infraestrutura de provedores maiores.
Alto Valor Econômico: Oferece inteligência de nível frontier a um custo aproximadamente 4 a 7 vezes menor que concorrentes ocidentais como OpenAI ou Anthropic.
Peculiaridades na adesão a instruções: Embora forte em reasoning, o model às vezes ignora restrições específicas de estrutura de arquivos em sessões de codificação altamente complexas.

Inicio Rapido da API

zai/glm-4.7

Ver Documentacao
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'YOUR_ZAI_API_KEY',
  baseURL: 'https://api.z.ai/api/paas/v4/',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'glm-4.7',
    messages: [{ role: 'user', content: 'Design a scalable React architecture.' }],
    thinking: { type: 'enabled' }
  });
  console.log(response.choices[0].message.content);
}
main();

Instale o SDK e comece a fazer chamadas de API em minutos.

O Que as Pessoas Estao Dizendo Sobre GLM-4.7

Veja o que a comunidade pensa sobre GLM-4.7

O GLM-4.7 lida com bases de código grandes de forma confiável com seu contexto de 128k. Tem sido surpreendentemente útil para tarefas de sub-agents para economizar nos custos da API principal.
IulianHI
reddit
O GLM-4.7 da Zhipu AI se iguala a frontier models proprietários como o GPT-5.1 High em codificação. O recurso de Preserved Thinking é uma grande vitória para agents autônomos.
Etienne Noumen
youtube
O GLM-4.7 continua sendo o open-weights model mais inteligente no Intelligence Index v4.0, ficando à frente do DeepSeek V3.2.
Artificial Analysis
twitter
Os models chineses estão reduzindo a diferença rapidamente em utilidade de codificação. Essa pontuação de 73% no SWE-bench não é brincadeira para um lançamento open-weights.
Epoch AI
hackernews
A velocidade de reasoning é realmente decente para um model deste tamanho. Ele lida com a lógica complexa muito melhor do que as iterações anteriores.
Bijan Bowen
youtube
O GLM-4.7 alcança o 6º lugar no AI Index, superando o Kimi K2. Descubra por que este model de US$ 2 está substituindo o GPT-5.2 em fluxos de trabalho de codificação.
TowardsAI
twitter

Videos Sobre GLM-4.7

Assista tutoriais, analises e discussoes sobre GLM-4.7

O tamanho do contexto aqui é 200k e o máximo de tokens de saída é 128k, o que é bem robusto.

Muito bem, isso é realmente impressionante. Nenhum deles incluiu um recurso especial com esse nível de complexidade.

A velocidade de reasoning é realmente decente para um model deste tamanho.

Ele lida com a lógica complexa muito melhor do que as iterações anteriores.

Este model é um passo significativo em termos de consistência lógica.

O GLM model implementou uma arquitetura melhor ao colocar todos os dados mock em um único arquivo.

Este é definitivamente um grande salto. Esses benchmarks são justificados pelos testes que fiz.

Ele entendeu o contexto de todo o projeto sem que eu precisasse lembrá-lo.

A capacidade de codificação é indiscutivelmente comparável aos melhores models disponíveis.

Você obtém reasoning de alta qualidade por uma fração do custo.

Ele marcou 73,8% no Swaybench verified, o que é absolutamente incrível para um open-source model.

Você pode ver que ele funciona e é realmente eficaz. Enquanto a geração do Gemini 3 Pro não funciona nada bem.

A velocidade de geração para este nível de inteligência é notável.

Ele foi claramente projetado para desenvolvedores que precisam de um output de código confiável.

A Zhipu AI realmente se superou com o ajuste da arquitetura MoE aqui.

Mais do que apenas prompts

Potencialize seu fluxo de trabalho com Automacao de IA

Automatio combina o poder de agentes de IA, automacao web e integracoes inteligentes para ajuda-lo a realizar mais em menos tempo.

Agentes de IA
Automacao Web
Fluxos Inteligentes

Dicas Profissionais para GLM-4.7

Dicas de especialistas para ajuda-lo a aproveitar ao maximo GLM-4.7 e obter melhores resultados.

Ative o Thinking Mode para Lógica

Defina o parâmetro thinking como habilitado para tarefas de codificação ou matemática para utilizar os rastros de reasoning internos do model e melhorar a precisão.

Use SDKs compatíveis com OpenAI

Integre o GLM-4.7 em fluxos de trabalho existentes usando o OpenAI SDK e alterando a base URL para o endpoint da Z.ai.

Maximize o output de 131K

Ao gerar conteúdo longo, forneça um esboço detalhado primeiro para ajudar o model a manter a coerência estrutural dentro do limite massivo de tokens.

Otimize System Prompts para Agents

Defina os requisitos de Preserved Thinking na mensagem do sistema para garantir que o model reutilize estados de reasoning em sessões de múltiplos turnos.

Depoimentos

O Que Nossos Usuarios Dizem

Junte-se a milhares de usuarios satisfeitos que transformaram seu fluxo de trabalho

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relacionados AI Models

openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Perguntas Frequentes Sobre GLM-4.7

Encontre respostas para perguntas comuns sobre GLM-4.7