zhipu

GLM-4.7

GLM-4.7 par Zhipu AI est un flagship 358B MoE model avec une context window de 200K, une performance d'élite de 73,8 % au SWE-bench et un Deep Thinking natif...

zhipu logozhipuGLM22 décembre 2025
Contexte
200Ktokens
Sortie max.
131Ktokens
Prix entrée
$0.60/ 1M
Prix sortie
$2.20/ 1M
Modalité:TextImage
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
85.7%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). GLM-4.7 a obtenu 85.7% sur ce benchmark.
HLE
42.8%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. GLM-4.7 a obtenu 42.8% sur ce benchmark.
MMLU
90.1%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. GLM-4.7 a obtenu 90.1% sur ce benchmark.
MMLU Pro
84.3%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. GLM-4.7 a obtenu 84.3% sur ce benchmark.
SimpleQA
46%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. GLM-4.7 a obtenu 46% sur ce benchmark.
IFEval
88%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. GLM-4.7 a obtenu 88% sur ce benchmark.
AIME 2025
95.7%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. GLM-4.7 a obtenu 95.7% sur ce benchmark.
MATH
92%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. GLM-4.7 a obtenu 92% sur ce benchmark.
GSM8k
98%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. GLM-4.7 a obtenu 98% sur ce benchmark.
MGSM
94%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. GLM-4.7 a obtenu 94% sur ce benchmark.
MathVista
74%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. GLM-4.7 a obtenu 74% sur ce benchmark.
SWE-Bench
73.8%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. GLM-4.7 a obtenu 73.8% sur ce benchmark.
HumanEval
94.2%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. GLM-4.7 a obtenu 94.2% sur ce benchmark.
LiveCodeBench
84.9%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. GLM-4.7 a obtenu 84.9% sur ce benchmark.
MMMU
74.2%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. GLM-4.7 a obtenu 74.2% sur ce benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. GLM-4.7 a obtenu 58% sur ce benchmark.
ChartQA
86%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. GLM-4.7 a obtenu 86% sur ce benchmark.
DocVQA
93%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. GLM-4.7 a obtenu 93% sur ce benchmark.
Terminal-Bench
41%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. GLM-4.7 a obtenu 41% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. GLM-4.7 a obtenu 12% sur ce benchmark.

À propos de GLM-4.7

Découvrez les capacités, fonctionnalités et façons d'utiliser GLM-4.7.

Aperçu du model

GLM-4.7 est un flagship large language model développé par Zhipu AI. Il utilise une architecture Mixture-of-Experts (MoE) avec 358 milliards de paramètres au total. Le model est spécifiquement conçu pour gérer des tâches agentic complexes et un raisonnement sur long contexte grâce à ses capacités uniques de Preserved Thinking et Interleaved Thinking. Ces fonctionnalités permettent au model de maintenir une logique stable et des états de raisonnement intermédiaires sur des sessions de plusieurs tours, résolvant la perte de contexte courante dans les workflows autonomes.

Performance et Architecture

Le model offre une context window expansive de 200 000 tokens combinée à une capacité de sortie massive de 131 072 tokens. Cela le rend adapté à la génération d'applications entières ou à l'analyse de documentation étendue en une seule passe. Publié sous licence MIT en tant que model open-weights, il offre une programmation et un raisonnement de haute performance à une fraction du coût des alternatives propriétaires.

Intégration et utilisation

Il est entièrement compatible avec le format OpenAI API, simplifiant l'intégration dans les écosystèmes logiciels existants. Les développeurs l'utilisent pour des tâches d'ingénierie logicielle critiques, où il atteint un score de 73,8 % au SWE-bench Verified. Sa capacité à traiter et analyser de gros volumes de documentation technique entre l'anglais et le chinois avec une nuance linguistique de niveau natif en fait un outil polyvalent pour les équipes de développement internationales.

GLM-4.7

Cas d'utilisation de GLM-4.7

Découvrez les différentes façons d'utiliser GLM-4.7 pour obtenir d'excellents résultats.

Ingénierie logicielle autonome

Utilisation de la capacité de 73,8 % au SWE-bench pour déboguer, refactoriser et implémenter de nouvelles fonctionnalités de manière autonome sur des dépôts complexes.

Synthèse de documents haute capacité

Exploitation de la limite de sortie de 131k pour générer des manuels techniques complets ou des chapitres de livres entiers à partir de grands jeux de données.

Workflows agentic longue durée

Déploiement d'agents utilisant le Preserved Thinking pour maintenir la cohérence et la logique sur des centaines de tâches séquentielles sans perdre le contexte.

Business Intelligence bilingue

Traitement et analyse de gros volumes de documentation technique entre l'anglais et le chinois avec une nuance linguistique de niveau natif.

Génération de code UI/UX automatisée

Génération complète d'architectures front-end React ou Next.js avec des animations avancées et un style prêt pour la production en une seule fois.

Résolution de problèmes mathématiques de haut niveau

Résolution de problèmes mathématiques complexes de niveau olympiade et de puzzles de logique symbolique en utilisant le mode de raisonnement intensif dédié.

Points forts

Limitations

Performance de code d'élite: Obtient 73,8 % sur SWE-bench Verified, surpassant presque tous les models open-source et rivalisant avec les meilleurs APIs propriétaires.
Modalité uniquement textuelle: Contrairement à Gemini ou GPT-4o, GLM-4.7 manque de traitement natif de la vision ou de l'audio, nécessitant des models externes pour les tâches multimodales.
Plafond de sortie massif: La limite de sortie de 131 072 tokens est l'une des plus élevées de l'industrie, permettant la génération d'applications entières en un seul tour.
Exigences locales massives: Avec 358B parameters, l'exécution locale du model nécessite un matériel important (environ 710 Go de VRAM), le rendant inaccessible pour les GPU grand public.
Architecture orientée agents: Dispose du Preserved Thinking pour maintenir une cohérence logique sur les tâches à long terme, résolvant la perte de contexte dans les agents autonomes.
Pics de latence occasionnels: Les utilisateurs de l'API personnelle signalent des ralentissements périodiques aux heures de pointe par rapport à l'infrastructure des plus gros fournisseurs.
Valeur économique élevée: Fournit une intelligence de niveau frontier model à un coût environ 4 à 7 fois inférieur à celui de concurrents occidentaux comme OpenAI ou Anthropic.
Particularités dans le respect des instructions: Bien qu'il soit performant en raisonnement, le model ignore parfois certaines contraintes de structure de fichiers dans des sessions de programmation très complexes.

Démarrage rapide API

zai/glm-4.7

Voir la documentation
zhipu SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'YOUR_ZAI_API_KEY',
  baseURL: 'https://api.z.ai/api/paas/v4/',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'glm-4.7',
    messages: [{ role: 'user', content: 'Design a scalable React architecture.' }],
    thinking: { type: 'enabled' }
  });
  console.log(response.choices[0].message.content);
}
main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de GLM-4.7

Voyez ce que la communauté pense de GLM-4.7

GLM-4.7 gère les bases de code volumineuses de manière fiable avec ses 128k de contexte. Il a été étonnamment utile pour les tâches de sous-agents afin d'économiser sur les coûts d'API principaux.
IulianHI
reddit
Le GLM-4.7 de Zhipu AI rivalise avec les frontier models propriétaires comme GPT-5.1 High en programmation. La fonctionnalité Preserved Thinking est un atout majeur pour les agents autonomes.
Etienne Noumen
youtube
GLM-4.7 continue d'être le model open-weights le plus intelligent dans l'Intelligence Index v4.0, se plaçant devant DeepSeek V3.2.
Artificial Analysis
twitter
Les models chinois comblent rapidement l'écart en matière d'utilité de programmation. Ce score de 73 % au SWE-bench n'est pas une blague pour une version open-weights.
Epoch AI
hackernews
La vitesse de raisonnement est vraiment correcte pour un model de cette taille. Il gère la logique complexe bien mieux que les itérations précédentes.
Bijan Bowen
youtube
GLM-4.7 se classe 6e sur l'AI Index, surpassant Kimi K2. Découvrez pourquoi ce model à 2 $ remplace GPT-5.2 dans les workflows de programmation.
TowardsAI
twitter

Vidéos sur GLM-4.7

Regardez des tutoriels, critiques et discussions sur GLM-4.7

La longueur du contexte est de 200k et le maximum de tokens en sortie est de 128k, ce qui est assez robuste.

Très bien, c'est vraiment impressionnant. Aucun autre ne propose une fonctionnalité spéciale avec ce niveau de complexité.

La vitesse de raisonnement est vraiment correcte pour un model de cette taille.

Il gère la logique complexe bien mieux que les itérations précédentes.

Ce model marque une avancée significative en termes de cohérence logique.

Le model GLM a implémenté une meilleure architecture en plaçant toutes les données factices dans un seul fichier.

C'est clairement un grand bond en avant. Ces benchmarks sont justifiés par mes tests.

Il a compris le contexte de tout le projet sans que j'aie besoin de le lui rappeler.

La capacité de programmation est sans doute à égalité avec les meilleurs models actuels.

Vous obtenez un raisonnement haut de gamme à une fraction du prix.

Il a obtenu 73,8 % au SWE-bench verified, ce qui est absolument incroyable pour un model open-source.

Vous pouvez constater qu'il fonctionne réellement. Tandis que la génération Gemini 3 Pro ne fonctionne pas du tout.

La vitesse de génération pour ce niveau d'intelligence est remarquable.

Il est clairement conçu pour les développeurs qui ont besoin d'une sortie de code fiable.

Zhipu AI a vraiment surpassé ses attentes avec l'optimisation de l'architecture MoE ici.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour GLM-4.7

Conseils d'experts pour tirer le meilleur parti de GLM-4.7.

Activer le Thinking Mode pour la logique

Activez le paramètre thinking pour les tâches de programmation ou de mathématiques afin d'utiliser les traces de raisonnement internes du model et d'améliorer la précision.

Utiliser des SDK compatibles OpenAI

Intégrez GLM-4.7 dans vos workflows existants en utilisant le SDK OpenAI et en modifiant l'URL de base pour le point de terminaison Z.ai.

Maximiser la sortie de 131K

Lors de la génération de contenu long, fournissez d'abord un plan détaillé pour aider le model à maintenir une cohérence structurelle jusqu'à la limite massive de tokens.

Optimiser les System Prompts pour les agents

Définissez les exigences de Preserved Thinking dans le message système pour vous assurer que le model réutilise les états de raisonnement sur plusieurs sessions.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Questions Fréquentes sur GLM-4.7

Trouvez des réponses aux questions courantes sur GLM-4.7