zhipu

GLM-5

GLM-5 est le moteur open-weight de 744B parameters de Zhipu AI, excellant dans les tâches agentic à long horizon, le code et l'exactitude factuelle avec une...

Open WeightsAgentic EngineeringMoEZhipu AIAI pour le code
zhipu logozhipuGLM11 février 2026
Contexte
200Ktokens
Sortie max.
128Ktokens
Prix entrée
$1.00/ 1M
Prix sortie
$3.20/ 1M
Modalité:Text
Capacités:OutilsStreamingRaisonnement
Benchmarks
GPQA
68.2%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). GLM-5 a obtenu 68.2% sur ce benchmark.
HLE
32%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. GLM-5 a obtenu 32% sur ce benchmark.
MMLU
85%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. GLM-5 a obtenu 85% sur ce benchmark.
MMLU Pro
70.4%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. GLM-5 a obtenu 70.4% sur ce benchmark.
SimpleQA
48%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. GLM-5 a obtenu 48% sur ce benchmark.
IFEval
88%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. GLM-5 a obtenu 88% sur ce benchmark.
AIME 2025
84%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. GLM-5 a obtenu 84% sur ce benchmark.
MATH
88%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. GLM-5 a obtenu 88% sur ce benchmark.
GSM8k
97%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. GLM-5 a obtenu 97% sur ce benchmark.
MGSM
90%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. GLM-5 a obtenu 90% sur ce benchmark.
MathVista
0%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. GLM-5 a obtenu 0% sur ce benchmark.
SWE-Bench
77.8%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. GLM-5 a obtenu 77.8% sur ce benchmark.
HumanEval
90%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. GLM-5 a obtenu 90% sur ce benchmark.
LiveCodeBench
52%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. GLM-5 a obtenu 52% sur ce benchmark.
MMMU
0%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. GLM-5 a obtenu 0% sur ce benchmark.
MMMU Pro
0%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. GLM-5 a obtenu 0% sur ce benchmark.
ChartQA
0%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. GLM-5 a obtenu 0% sur ce benchmark.
DocVQA
0%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. GLM-5 a obtenu 0% sur ce benchmark.
Terminal-Bench
56.2%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. GLM-5 a obtenu 56.2% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. GLM-5 a obtenu 12% sur ce benchmark.

À propos de GLM-5

Découvrez les capacités, fonctionnalités et façons d'utiliser GLM-5.

GLM-5 est le foundation model flagship de nouvelle génération de Zhipu AI, spécifiquement conçu pour redéfinir l'état de l'Agentic Engineering pour les systèmes open-weight. Construit sur une architecture Mixture of Experts (MoE) massive de 744 milliards de parameters avec 40 milliards de parameters actifs, c'est le premier model open-weights à combler l'écart de performance avec les géants propriétaires comme Claude 4.5. Ce model excelle dans la densité logique et l'ingénierie logicielle, atteignant une percée de 77,8 % sur SWE-Bench Verified.

Techniquement, GLM-5 intègre des mécanismes avancés de Multi-head Latent Attention (MLA) et de Sparse Attention pour optimiser l'efficacité des tokens et réduire la consommation de RAM de 33 %. Entraîné sur une échelle de 28,5 billions de tokens en utilisant un cluster purement domestique de 100 000 puces Huawei Ascend, GLM-5 démontre qu'un reasoning de niveau frontier est possible sans dépendre du matériel NVIDIA haut de gamme. Avec sa context window de 200 000 tokens et son 'Thinking Mode' spécialisé, il fournit des outputs robustes et à faible hallucination pour des workflows techniques de haute précision.

Optimisé pour la fiabilité, GLM-5 sert de base à des agents techniques autonomes capables de maintenir un état persistant à travers des exécutions à long horizon. Sa licence MIT permissive et son prix compétitif de 1,00 $ par million de tokens en entrée en font un choix idéal pour les entreprises recherchant un déploiement local ou une intégration d'API à grande échelle sans les conditions restrictives des alternatives propriétaires.

GLM-5

Cas d'utilisation de GLM-5

Découvrez les différentes façons d'utiliser GLM-5 pour obtenir d'excellents résultats.

Ingénierie de systèmes complexes

Conception et maintenance d'architectures de microservices avec gestion autonome des dépendances.

Tâches Agentic à long horizon

Exécution de workflows techniques multi-étapes nécessitant une mémoire persistante pendant plus d'une heure d'exécution.

Migration de bases de code héritées

Refactoring de dépôts entiers et mise à jour de dépendances obsolètes via une context window de 200k tokens.

Recherche technique à faible hallucination

Réalisation de recherches techniques de haute précision où l'exactitude factuelle et l'abstention sont primordiales.

Opérations de terminal autonomes

Alimentation d'agents de développement capables d'exécuter de manière autonome des audits de sécurité et des commandes d'administration système.

Déploiement mondial bilingue

Fourniture d'un reasoning de premier ordre en anglais et en chinois pour des applications d'entreprise localisées à grande échelle.

Points forts

Limitations

Elite Agentic Intelligence: Obtient le score le plus élevé à l'Agentic Index (63) parmi les modèles open-weight pour l'exécution de tâches multi-étapes.
Pas de multimodalité native: Manque de capacités de traitement de la vision, de l'audio et de la vidéo présentes chez les concurrents multimodal comme GPT-4o.
Faible taux d'hallucination: Affiche une réduction de 56 % des hallucinations par rapport aux générations précédentes, privilégiant l'exactitude factuelle.
Exigences d'hébergement extrêmes: Les poids de 1,5 To en BF16 rendent le déploiement local impossible pour presque tous les utilisateurs sans infrastructure cloud.
Efficacité MoE massive: L'architecture à 744B parameters offre une densité logique de type flagship, tandis que l'MLA réduit la consommation de RAM de 33 %.
Latence d'inference élevée: Le time-to-first-token initial peut être élevé (plus de 7 secondes) sur les API publiques par rapport aux modèles 'flash' plus petits.
Licence MIT permissive: Publié sous une véritable licence open-source, permettant une utilisation commerciale sans restrictions.
Nuance en design frontend: Bien qu'excellent en logique, il peut parfois peiner sur le polissage esthétique CSS détaillé par rapport à Claude.

Démarrage rapide API

zai/glm-5

Voir la documentation
zhipu SDK
import { ZhipuAI } from "zhipuai-sdk";

const client = new ZhipuAI({ apiKey: "YOUR_API_KEY" });

async function main() {
  const response = await client.chat.completions.create({
    model: "glm-5",
    messages: [{ role: "user", content: "Analyze this repo for security vulnerabilities." }],
    stream: true,
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0].delta.content || "");
  }
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de GLM-5

Voyez ce que la communauté pense de GLM-5

"GLM-5 est le nouveau leader des open weights ! Il obtient un score de 50 sur l'Intelligence Index, une réduction significative de l'écart."
Artificial Analysis
x
"Ce model est incroyable. J'ai réussi à lancer une tâche qui a pris plus d'une heure... j'ai été bluffé."
Theo - t3.gg
youtube
"GLM-5 n'a utilisé aucune puce NVIDIA, 745B params, et coûte 1 $ par million de tokens en entrée. C'est le futur."
Legendary
x
"Le taux d'hallucination est fou ; il est bien plus enclin à dire 'je ne sais pas' qu'à vous mentir."
DevUser456
reddit
"Zhipu AI vient de lancer un défi aux modèles open-source pour le code."
AIExplorer
hackernews
"Enfin un model open weight qui ne perd pas la tête au milieu d'une tâche complexe."
CodeMaster
reddit

Vidéos sur GLM-5

Regardez des tutoriels, critiques et discussions sur GLM-5

C'sest de loin le meilleur model openweight que j'ai vu, surtout pour tout ce qui touche au code.

Le fait que ce soit le premier model openweight avec lequel j'ai réussi à lancer une tâche de plus d'une heure... m'a bluffé.

Il semble être le model qui hallucine le moins de tous les modèles à ce jour.

Nous assistons à un changement massif dans ce que les modèles open weight peuvent réellement faire en production.

La stabilité de ce model lors de longues sessions d'utilisation d'outils est véritablement sans précédent.

Le feeling pour le code est ici très, très puissant... comparable à GLM 4.7 qui était déjà une perle rare.

L'introduction de la dynamic island dans sa maquette d'interface utilisateur était une fonctionnalité spéciale très cool et inattendue.

Il surpasse presque tous les autres modèles de sa catégorie pour la logique complexe.

La profondeur du reasoning ici me rappelle la première fois que j'ai utilisé o1, mais en version open weight.

Pour un model text-only, il gère la logique visuelle dans le code mieux que de nombreux modèles de vision.

L'utilisation de la RAM a chuté... nous avons obtenu des améliorations de mémoire de 33x par rapport à ce que nous faisions précédemment.

Il a réussi le test de logique du lave-auto avec le reasoning activé, battant Claude et GPT-4o.

Déployer cela nécessite une sérieuse baie de serveurs, mais la performance par watt est insensée.

Il a géré la migration de mon dépôt legacy sans un seul nom de bibliothèque halluciné.

Le mode de pensée n'est pas qu'un gadget ; il change fondamentalement la qualité de l'output.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour GLM-5

Conseils d'experts pour tirer le meilleur parti de GLM-5.

Activez le Thinking Mode

GLM-5 est nettement plus performant sur les énigmes logiques complexes, comme le test du 'lave-auto', lorsque le reasoning est activé.

Exploitez la licence MIT

Profitez de la licence permissive pour un développement commercial sans restriction et un hébergement interne.

Optimisation de l'usage des outils

Utilisez GLM-5 pour des tâches multi-étapes, car il est spécialement conçu pour une grande stabilité dans l'exécution d'outils agentic.

Utilisation de la context window

Intégrez des bases de code entières dans la context window de 200k pour effectuer des audits de sécurité ou du refactoring à l'échelle du dépôt.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.30/$1.20/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
alibaba

Qwen3-Coder-Next

alibaba

Qwen3-Coder-Next is Alibaba Cloud's elite Apache 2.0 coding model, featuring an 80B MoE architecture and 256k context window for advanced local development.

256K context
$0.14/$0.42/1M
anthropic

Claude Sonnet 4.5

Anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
alibaba

Qwen-Image-2.0

alibaba

Qwen-Image-2.0 is Alibaba's unified 7B model for professional infographics, photorealism, and precise image editing with native 2K resolution and 1k-token...

1K context
$0.07/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M

Questions Fréquentes sur GLM-5

Trouvez des réponses aux questions courantes sur GLM-5