zhipu

GLM-5.1

GLM-5.1 est le modèle de raisonnement flagship de Zhipu AI, doté d'une context window de 202K et d'une boucle d'exécution autonome de 8 heures pour...

ReasoningAgentic AIOpen WeightsCodageMultimodal
zhipu logozhipuGLM2026-04-08
Contexte
203Ktokens
Sortie max.
164Ktokens
Prix entrée
$1.40/ 1M
Prix sortie
$4.40/ 1M
Modalité:TextImage
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
86.2%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). GLM-5.1 a obtenu 86.2% sur ce benchmark.
HLE
31%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. GLM-5.1 a obtenu 31% sur ce benchmark.
MMLU
89%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. GLM-5.1 a obtenu 89% sur ce benchmark.
MMLU Pro
89%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. GLM-5.1 a obtenu 89% sur ce benchmark.
IFEval
73%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. GLM-5.1 a obtenu 73% sur ce benchmark.
AIME 2025
95.3%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. GLM-5.1 a obtenu 95.3% sur ce benchmark.
MATH
80%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. GLM-5.1 a obtenu 80% sur ce benchmark.
GSM8k
96%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. GLM-5.1 a obtenu 96% sur ce benchmark.
MGSM
90%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. GLM-5.1 a obtenu 90% sur ce benchmark.
MathVista
70%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. GLM-5.1 a obtenu 70% sur ce benchmark.
SWE-Bench
58.4%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. GLM-5.1 a obtenu 58.4% sur ce benchmark.
HumanEval
94.6%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. GLM-5.1 a obtenu 94.6% sur ce benchmark.
LiveCodeBench
68%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. GLM-5.1 a obtenu 68% sur ce benchmark.
MMMU
73%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. GLM-5.1 a obtenu 73% sur ce benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. GLM-5.1 a obtenu 58% sur ce benchmark.
ChartQA
89%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. GLM-5.1 a obtenu 89% sur ce benchmark.
DocVQA
93%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. GLM-5.1 a obtenu 93% sur ce benchmark.
Terminal-Bench
63.5%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. GLM-5.1 a obtenu 63.5% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. GLM-5.1 a obtenu 12% sur ce benchmark.

À propos de GLM-5.1

Découvrez les capacités, fonctionnalités et façons d'utiliser GLM-5.1.

GLM-5.1 est le modèle fondation flagship de Zhipu AI conçu pour l'ingénierie système complexe et les tâches agentic de longue durée. Construit sur une architecture Mixture-of-Experts (MoE) avec 744 milliards de parameters et 40 milliards actifs par passage, il représente un bond significatif en termes d'endurance et de résolution autonome de problèmes. Le modèle est spécifiquement conçu pour surmonter les plateaux de raisonnement observés dans les LLM précédents, en maintenant la productivité et la qualité du code sur des milliers d'appels d'outils et des centaines d'itérations. Il identifie les blocages, exécute des expériences et ajuste sa propre stratégie sans intervention humaine.

Techniquement, GLM-5.1 excelle en tant que moteur de raisonnement primaire dans les systèmes multi-agents. Il gère les décisions architecturales de haut niveau tout en déléguant l'implémentation à des modèles plus petits. Il dispose d'une context window de 202K prise en charge par un mécanisme d'attention creuse dynamique, garantissant la cohérence sur des bases de code massives. Le modèle est publié en open weights sous licence MIT, offrant une alternative locale viable aux modèles frontier propriétaires pour des tâches telles que l'optimisation de bases de données, l'ingénierie de noyaux GPU et le développement d'applications web full-stack.

Les résultats de KernelBench niveau 3 montrent que GLM-5.1 maintient une accélération significative des charges de travail ML agentic sur de longues sessions par rapport à Claude Opus 4.6. Cette endurance permet aux développeurs de lancer une tâche d'ingénierie le matin et de recevoir un service entièrement testé et déployé à la fin de la journée. Il gère l'intégralité du cycle de vie d'un correctif de bug, de la reproduction du problème dans un environnement sandbox à la soumission de la pull request finale.

GLM-5.1

Cas d'utilisation de GLM-5.1

Découvrez les différentes façons d'utiliser GLM-5.1 pour obtenir d'excellents résultats.

Ingénierie logicielle autonome

Il fonctionne de manière autonome pendant plus de 8 heures pour concevoir, implémenter et déboguer des microservices sans intervention humaine.

Optimisation de bases de données haute performance

Le modèle optimise de manière itérative les implémentations de recherche vectorielle en Rust sur des centaines de cycles.

Optimisation de noyaux GPU

Il analyse les implémentations de référence pour produire des noyaux GPU plus rapides qui surpassent les compilateurs autotune par défaut.

Orchestration multi-agents

Il agit comme un moteur de raisonnement central qui coordonne les sous-tâches et les appels d'outils parmi une armée de modèles spécialisés plus petits.

Tâches complexes sur terminal

Il exécute des opérations de terminal réelles et une administration système multi-étapes via des outils CLI agentic.

Conception web Full-Stack

Le modèle génère des mises en page UI visuellement cohérentes et la logique backend pour des environnements de bureau basés sur navigateur.

Points forts

Limitations

Horizon d'itération de 8 heures: Maintient sa productivité sur des milliers d'appels d'outils sans atteindre les plateaux de raisonnement courants chez d'autres modèles.
Latence élevée: L'architecture intensive en raisonnement entraîne une génération de tokens significativement plus lente que celle des modèles standards sans raisonnement.
Performance de codage SOTA: Atteint un score de 58,4 sur SWE-Bench Pro, surpassant les modèles propriétaires tels que GPT-5.4 et Claude Opus 4.6.
Demandes extrêmes en ressources: Le modèle brut nécessite 1,65 To d'espace disque ; même les versions quantifiées exigent 256 Go de VRAM/RAM système pour fonctionner.
Accès Open Weights: Publié sous licence MIT, permettant le déploiement local de capacités de raisonnement de niveau frontier pour un usage en entreprise.
Sensibilité au prompt: Débloquer pleinement les performances agentic nécessite souvent des system prompts extrêmement détaillés de plus de 300 lignes pour guider la boucle de raisonnement.
Cohérence sur context window étendue: Maintient sa stabilité et sa précision jusqu'à 202k tokens, ce qui est crucial pour les tâches d'ingénierie agentic longue durée.
Instabilité de l'API: Les utilisateurs signalent des erreurs 500 fréquentes et des limitations de débit pendant les heures de pointe à Pékin sur l'endpoint officiel Z.ai.

Démarrage rapide API

zhipu/glm-5.1

Voir la documentation
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.ZHIPU_API_KEY,
  baseURL: 'https://api.z.ai/api/paas/v4'
});

const chat = await client.chat.completions.create({
  model: 'glm-5.1',
  messages: [{ role: 'user', content: 'Optimize this database schema.' }],
  stream: true
});

for await (const chunk of chat) {
  process.stdout.write(chunk.choices[0]?.delta?.content || '');
}

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de GLM-5.1

Voyez ce que la communauté pense de GLM-5.1

GLM-5.1 a tourné en boucle sur un seul prompt pendant 8 heures d'affilée. Il n'a pas abandonné comme la plupart des modèles ; il a continué à ajouter des fonctionnalités et à se corriger lui-même.
ziwenxu_
twitter
Je l'ai testé à 140k de contexte au moins 5 fois et il est resté cohérent. Le SOTA a peut-être un concurrent.
Sensitive_Song4219
reddit
GLM-5.1 est pratiquement au coude-à-coude avec Opus sur ce benchmark. C'est maintenant le modèle open-source n°1 dans l'Arena.
tmuxvim
hackernews
Chaque fois que je vois un PNJ être réellement convaincu par un dialogue non scripté avec GLM-5.1, c'est purement magique.
orblabs
reddit
La performance de codage est réelle. Il a corrigé une condition de concurrence dans notre backend Go sur laquelle GPT-4o ne faisait que halluciner.
DevScale_AI
twitter
Exécuter cela localement avec Unsloth change la donne pour la confidentialité des données dans notre stack technologique juridique.
LawyerWhoCodes
reddit

Vidéos sur GLM-5.1

Regardez des tutoriels, critiques et discussions sur GLM-5.1

GLM-5.1 a obtenu 45,3 % sur ce benchmark, un saut substantiel pour la famille.

C'est un modèle incroyablement lent... ils ont probablement plus de GPU qui servent encore GLM-5.

La façon dont il gère les appels d'outils est beaucoup plus robuste que celle du GLM 5 standard.

C'est actuellement le modèle de raisonnement le plus puissant que vous pouvez télécharger et exécuter sur votre propre matériel.

Vous pouvez le voir identifier ses propres erreurs dans le journal de réflexion.

Il peut fonctionner de manière autonome pendant 8 heures, affinant ses stratégies au fil de milliers d'itérations.

Il surpasse Gemini 3.1 Pro et Qwen 3.6 Plus sur les benchmarks populaires de génération de code.

Le mode agentic est là où ce modèle brille vraiment, il n'abandonne pas face aux bugs difficiles.

Z.ai a pratiquement supprimé la barrière de paiement sur un modèle frontier de 744B de parameters.

Il gère efficacement le problème du « plateau » où d'autres LLM perdent le fil au fil du temps.

Réduction de taille de 80 %, passant de 1,65 To à 236 Go tout en conservant la qualité.

Le pouvoir de l'open-source : même dans une version quantifiée, il a écrit du code fonctionnel pour des feux d'artifice.

Vous aurez besoin d'au moins 256 Go de RAM système pour envisager de charger ce géant MoE.

Il utilise un mécanisme d'attention creuse dynamique pour maintenir la cohérence de ces 202k de context window.

L'utilisation d'Unsloth rend le processus d'entraînement et d'inference beaucoup plus efficace.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour GLM-5.1

Conseils d'experts pour tirer le meilleur parti de GLM-5.1.

Activer le mode Thinking

Assurez-vous que le bouton « Thinking » est activé dans votre configuration pour débloquer les capacités d'itération autonome de 8 heures.

Utiliser les quotas hors pointe

Exécutez les gros traitements d'ingénierie en dehors des heures de pointe (14h00-18h00, heure de Pékin) pour bénéficier de meilleurs tarifs.

Exigences de mémoire locale

Utilisez la quantification Unsloth Dynamic GGUF pour faire tenir le modèle de 1,6 To dans 256 Go de RAM système pour les exécutions locales.

Sélection stratégique des tâches

Réservez GLM-5.1 pour le raisonnement architectural et utilisez GLM-4.7 pour les implémentations de routine afin de maîtriser les coûts.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M

Questions Fréquentes sur GLM-5.1

Trouvez des réponses aux questions courantes sur GLM-5.1