zhipu

GLM-5

GLM-5 est le modèle open-weight puissant de Zhipu AI de 744B de paramètres, excellant dans les tâches agentic à long horizon, le codage et la précision...

Open WeightsIngénierie AgenticMoEZhipu AIIA de codage
zhipu logozhipuGLM11 février 2026
Contexte
200Ktokens
Sortie max.
128Ktokens
Prix entrée
$1.00/ 1M
Prix sortie
$3.20/ 1M
Modalité:Text
Capacités:OutilsStreamingRaisonnement
Benchmarks
GPQA
68.2%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). GLM-5 a obtenu 68.2% sur ce benchmark.
HLE
32%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. GLM-5 a obtenu 32% sur ce benchmark.
MMLU
85%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. GLM-5 a obtenu 85% sur ce benchmark.
MMLU Pro
70.4%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. GLM-5 a obtenu 70.4% sur ce benchmark.
SimpleQA
48%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. GLM-5 a obtenu 48% sur ce benchmark.
IFEval
88%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. GLM-5 a obtenu 88% sur ce benchmark.
AIME 2025
84%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. GLM-5 a obtenu 84% sur ce benchmark.
MATH
88%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. GLM-5 a obtenu 88% sur ce benchmark.
GSM8k
97%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. GLM-5 a obtenu 97% sur ce benchmark.
MGSM
90%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. GLM-5 a obtenu 90% sur ce benchmark.
MathVista
0%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. GLM-5 a obtenu 0% sur ce benchmark.
SWE-Bench
77.8%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. GLM-5 a obtenu 77.8% sur ce benchmark.
HumanEval
90%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. GLM-5 a obtenu 90% sur ce benchmark.
LiveCodeBench
52%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. GLM-5 a obtenu 52% sur ce benchmark.
MMMU
0%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. GLM-5 a obtenu 0% sur ce benchmark.
MMMU Pro
0%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. GLM-5 a obtenu 0% sur ce benchmark.
ChartQA
0%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. GLM-5 a obtenu 0% sur ce benchmark.
DocVQA
0%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. GLM-5 a obtenu 0% sur ce benchmark.
Terminal-Bench
56.2%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. GLM-5 a obtenu 56.2% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. GLM-5 a obtenu 12% sur ce benchmark.

À propos de GLM-5

Découvrez les capacités, fonctionnalités et façons d'utiliser GLM-5.

GLM-5 est le modèle phare de Zhipu AI, conçu pour les workflows agentic autonomes et l'ingénierie système complexe. Il utilise une architecture massive de 744 milliards de paramètres Mixture-of-Experts (MoE), avec 40 milliards de paramètres actifs pendant l'inference pour équilibrer performance et vitesse. Le modèle est le premier système open-weight à démontrer une parité avec les modèles frontier propriétaires dans les tâches d'ingénierie logicielle, obtenant un score de 77,8 % sur SWE-bench Verified.

Le modèle a été entraîné sur 28,5 trillions de tokens en utilisant un cluster domestique de 100 000 puces Huawei Ascend. Il intègre des mécanismes spécialisés comme Multi-head Latent Attention (MLA) et DeepSeek Sparse Attention (DSA) pour maintenir une cohérence logique sur sa context window de 200 000 tokens. Cette pile technique permet à GLM-5 de gérer la planification à long terme et la gestion des ressources sans la latence élevée typique des modèles denses de cette taille.

Zhipu AI a publié GLM-5 sous licence MIT, permettant aux utilisateurs en entreprise de déployer les poids localement pour le traitement de données sensibles. Avec un coût d'entrée de seulement 1,00 $ par million de tokens, il offre un avantage tarifaire de 6x par rapport aux modèles rivaux comme Claude 4.5. Le modèle inclut un mode Thinking dédié qui réduit considérablement les taux d'hallucination par rapport à ses prédécesseurs.

GLM-5

Cas d'utilisation de GLM-5

Découvrez les différentes façons d'utiliser GLM-5 pour obtenir d'excellents résultats.

Ingénierie logicielle autonome

Résolution de problèmes GitHub complexes et refactorisation de dépôts entiers en tirant parti de son score de 77,8 % sur SWE-bench Verified.

Orchestration d'outils d'entreprise

Exécution de workflows agentic en plusieurs étapes via des API internes pour gérer l'automatisation administrative dans les secteurs financier et juridique.

Analyse de dépôts avec longue context window

Utilisation de la fenêtre de 200 000 tokens pour ingérer et analyser des ensembles de documentation entiers ou des bases de code multi-fichiers en une seule passe.

Collaborateurs IA personnels

Pilotage d'agents open-source comme OpenClaw pour gérer les e-mails, les calendriers et les tâches de fond 24h/24 et 7j/7 avec une grande fiabilité.

Intelligence privée sur site

Déploiement local du modèle open-weight sous licence MIT pour garantir une confidentialité totale des données pour les opérations sensibles de l'entreprise.

Mise à l'échelle économique des agents

Exécution de sessions agentic à haut volume à des coûts 6 à 8 fois inférieurs par rapport aux modèles frontier propriétaires, sans sacrifier la profondeur de reasoning.

Points forts

Limitations

Performance de codage d'élite: Atteint un score de 77,8 % sur SWE-bench Verified, égalant des géants propriétaires comme Claude Opus pour l'ingénierie logicielle autonome.
Pas de vision native: Le modèle n'a pas la capacité de traiter directement les images, ce qui limite son utilisation dans les workflows UI/UX multimodaux modernes.
Avantage tarifaire de 6x: Offre un reasoning de niveau frontier à seulement 1,00 $ par million de tokens en entrée, rendant les déploiements agentic à grande échelle économiquement viables.
Latence des tâches terminales: La performance sur Terminal-Bench 2.0 se situe à 56,2 %, légèrement en retrait par rapport aux concurrents propriétaires de premier plan.
Poids sous licence MIT: Disponibilité complète des open-weight sur Hugging Face permettant un déploiement local privé sur du matériel Huawei Ascend ou NVIDIA.
Fréquence des hallucinations: Les premiers benchmarks montrent des taux d'hallucination proches de 30 % pour des tâches de reasoning complexes spécifiques, comparés à des taux plus bas chez les principaux rivaux.
Capacité de contexte massive: La fenêtre de 200 000 tokens couplée à 128 000 tokens en sortie est idéale pour l'analyse de dépôts complets et les générations longues.
Variations matérielles: L'entraînement sur matériel Huawei Ascend peut entraîner des variations de performance mineures lors du déploiement sur des piles logicielles standard uniquement NVIDIA.

Démarrage rapide API

zai/glm-5

Voir la documentation
zhipu SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: "https://open.bigmodel.cn/api/paas/v4/",
});

const response = await client.chat.completions.create({
  model: "glm-5",
  messages: [{ role: "user", content: "Analyze this repo structure and refactor to GraphQL." }],
  stream: true,
});

for await (const chunk of response) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de GLM-5

Voyez ce que la communauté pense de GLM-5

GLM-5 est un modèle open-source de 744B paramètres qui atteint presque le niveau de Claude Opus en matière de codage... mais la différence de prix compte.
Odd-Coconut-2067
reddit
La fenêtre de 200 000 tokens change votre workflow : analysez plus de 20 fichiers pour une seule refactorisation ou examinez des PR diff complexes en une seule passe.
AskCodi
reddit
Je suis passé de ~90 $/mois en appels API Claude à moins de 15 $ avec GLM-5 et je n'ai pas remarqué de baisse significative de qualité.
IulianHI
reddit
Son taux d'hallucination est dans la fourchette de 30 % contre, je ne sais pas, 88 % pour Gemini 3 Pro.
Sid
youtube
GLM-5 est sorti avant que je ne puisse finir de tester le 4.7, et le saut en matière de reasoning est réellement perceptible dans le codage quotidien.
able_wong
twitter
Le fait que Zhipu publie cela sous licence MIT est un geste massif pour la communauté locale LLM.
dev_tester
twitter

Vidéos sur GLM-5

Regardez des tutoriels, critiques et discussions sur GLM-5

Il est au coude à coude avec des modèles comme les codecs 5.2 et Opus 4.5.

C'est le premier modèle open-weight avec lequel j'ai réussi à exécuter une tâche qui a pris plus d'une heure sans problème.

Son taux d'hallucination est dans la fourchette de 30 % contre, je ne sais pas, 88 % pour Gemini 3 Pro.

La densité de reasoning est nettement supérieure à celle de GLM-4.

Il remplace essentiellement Claude 3.5 Sonnet pour mes tâches de codage internes.

Ils ont littéralement doublé, presque doublé, le nombre de paramètres... jusqu'à 744.

Même s'il est beaucoup plus grand, il fonctionne presque, voire plus rapidement que l'ancien modèle.

Auto-correction. Ne soyez pas condescendant. Traitez cela comme une question valide.

Le mécanisme d'attention creuse maintient l'utilisation de la mémoire à un niveau bas pour un modèle aussi grand.

La disponibilité open-weight en fait le nouveau champion de l'hébergement local.

Ils ont créé leur propre moteur RL appelé Slime.

Une context window de 200 000 tokens change ce que signifie l'IA en entreprise.

Il atteint 77,8 sur SWE-bench verified, battant Gemini 3 Pro à 76,2.

Zhipu AI prouve que le matériel domestique peut entraîner des modèles de classe mondiale.

L'ingénierie agentic est l'objectif principal ici, pas juste un simple chat.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour GLM-5

Conseils d'experts pour tirer le meilleur parti de GLM-5.

Activer le mode agentic

Définissez des plans en plusieurs étapes dans vos prompts, car GLM-5 est optimisé pour l'ingénierie autonome plutôt que pour de simples réponses de chat.

Allocation matérielle locale

Assurez-vous de disposer d'une quantité importante de VRAM ou de matériel Huawei Ascend natif avec le framework MindSpore pour un throughput optimal.

Implémenter des chaînes de repli

Configurez GLM-5 comme votre modèle de reasoning principal avec GLM-4.7-Flash comme solution de repli économique pour des instructions plus simples.

Utiliser des sorties structurées

GLM-5 excelle dans la génération de formats .docx et .xlsx précis lorsque des exigences de schéma claires sont fournies pour les livrables.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
anthropic

Claude 4.5 Sonnet

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M

Questions Fréquentes sur GLM-5

Trouvez des réponses aux questions courantes sur GLM-5