zhipu

GLM-4.7

GLM-4.7 de Zhipu AI est un flagship model MoE de 358B doté d'une context window de 200K, affichant une performance de pointe de 73,8 % sur le benchmark...

zhipu logozhipuGLM22 décembre 2025
Contexte
200Ktokens
Sortie max.
131Ktokens
Prix entrée
$0.60/ 1M
Prix sortie
$2.20/ 1M
Modalité:TextImage
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
85.7%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). GLM-4.7 a obtenu 85.7% sur ce benchmark.
HLE
42.8%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. GLM-4.7 a obtenu 42.8% sur ce benchmark.
MMLU
90.1%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. GLM-4.7 a obtenu 90.1% sur ce benchmark.
MMLU Pro
84.3%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. GLM-4.7 a obtenu 84.3% sur ce benchmark.
SimpleQA
46%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. GLM-4.7 a obtenu 46% sur ce benchmark.
IFEval
88%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. GLM-4.7 a obtenu 88% sur ce benchmark.
AIME 2025
95.7%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. GLM-4.7 a obtenu 95.7% sur ce benchmark.
MATH
92%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. GLM-4.7 a obtenu 92% sur ce benchmark.
GSM8k
98%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. GLM-4.7 a obtenu 98% sur ce benchmark.
MGSM
94%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. GLM-4.7 a obtenu 94% sur ce benchmark.
MathVista
74%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. GLM-4.7 a obtenu 74% sur ce benchmark.
SWE-Bench
73.8%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. GLM-4.7 a obtenu 73.8% sur ce benchmark.
HumanEval
94.2%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. GLM-4.7 a obtenu 94.2% sur ce benchmark.
LiveCodeBench
84.9%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. GLM-4.7 a obtenu 84.9% sur ce benchmark.
MMMU
74.2%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. GLM-4.7 a obtenu 74.2% sur ce benchmark.
MMMU Pro
58%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. GLM-4.7 a obtenu 58% sur ce benchmark.
ChartQA
86%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. GLM-4.7 a obtenu 86% sur ce benchmark.
DocVQA
93%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. GLM-4.7 a obtenu 93% sur ce benchmark.
Terminal-Bench
41%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. GLM-4.7 a obtenu 41% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. GLM-4.7 a obtenu 12% sur ce benchmark.

Essayez GLM-4.7 Gratuitement

Discutez avec GLM-4.7 gratuitement. Testez ses capacités, posez des questions et explorez ce que ce modèle d'IA peut faire.

Prompt
Réponse
zhipu/glm-4-7

Votre réponse IA apparaîtra ici

À propos de GLM-4.7

Découvrez les capacités, fonctionnalités et façons d'utiliser GLM-4.7.

GLM-4.7 est le dernier flagship model d'IA de Zhipu AI, représentant une avancée significative dans l'intelligence open-weight. Ce modèle massif Mixture-of-Experts (MoE) de 358 milliards de paramètres est spécifiquement conçu pour le reasoning avancé, l'automatisation du code et les flux de travail agentic complexes. Il introduit un mode Deep Thinking dédié qui permet une planification en plusieurs étapes et une récupération d'erreurs, permettant au modèle de résoudre des tâches de génie logiciel à enjeux élevés avec une fiabilité sans précédent.

Le modèle se distingue par des performances techniques exceptionnelles, atteignant un score state-of-the-art de 73,8 % sur SWE-bench Verified et de 84,9 sur LiveCodeBench v6. Avec sa context window de 200 000 tokens et sa capacité de sortie massive de 131 072 tokens, GLM-4.7 est optimisé pour générer des applications entières et mener des recherches approfondies sur de vastes ensembles de données.

En tant que version open-weight sous licence MIT, il offre une alternative puissante et flexible aux API propriétaires, prenant en charge à la fois l'intégration basée sur le cloud et l'hébergement local. Ses capacités multimodal s'étendent à la conception d'interfaces utilisateur avancées et à l'analyse de documents, ce qui en fait un moteur polyvalent pour le développement moderne piloté par l'IA.

GLM-4.7

Cas d'utilisation de GLM-4.7

Découvrez les différentes façons d'utiliser GLM-4.7 pour obtenir d'excellents résultats.

Génie logiciel agentic

Résolution de problèmes GitHub complexes et implémentation autonome de fonctionnalités full-stack sur l'ensemble de dépôts.

Vibe Coding haute fidélité

Génération rapide d'interfaces web modernes et prêtes pour la production à l'aide de Tailwind CSS et de composants interactifs Framer Motion.

Support technique multilingue

Assistance avancée au code et résolution de problèmes logiques dans plus de 10 environnements de programmation internationaux.

Recherche académique approfondie

Analyse de jeux de documents massifs pour extraire des informations vérifiables par sauts multiples à l'aide du framework de recherche BrowseComp.

Conception automatisée de présentations

Création de diapositives structurées et visuellement équilibrées avec des mises en page et une typographie précises à partir de prompts d'une seule phrase.

Automatisation basée sur le terminal

Exécution de tâches complexes d'administration système et DevOps directement dans un bac à sable terminal avec une précision de 41 % aux benchmark.

Points forts

Limitations

Maîtrise du code d'élite: Domine actuellement les modèles open-weight avec un score de 73,8 % au SWE-bench, surpassant de nombreux concurrents propriétaires.
Intensité matérielle extrême: Le nombre de 355B parameters rend l'hébergement local prohibitif pour les développeurs individuels sans configurations multi-GPU.
Tokens de sortie massifs: Dispose d'une limite de sortie de 131k tokens, permettant la génération de bases de code massives et prêtes pour la production en un seul tour.
Disparité API vs Web: Il existe un écart de performance notable entre les réponses instantanées de l'API et le reasoning plus profond trouvé dans l'interface web.
Moteur de reasoning natif: Incorpore des capacités de 'Deep Thinking' qui permettent une meilleure planification et réduisent la dérive dans les tâches agentic de longue durée.
Hallucinations temporelles: Les utilisateurs ont signalé des inexactitudes occasionnelles concernant les dates et événements actuels immédiatement après le lancement du modèle.
Rapport coût-performance imbattable: Offre une intelligence de niveau frontier model à une fraction du coût, à partir de seulement 0,60 $ par million de tokens en entrée.
Latence de reasoning élevée: L'activation du mode Deep Thinking complet peut augmenter considérablement le temps de réponse pour les prompts complexes en plusieurs étapes.

Démarrage rapide API

zhipu/glm-4-7

Voir la documentation
zhipu SDK
import { ZhipuAI } from "zhipuai";

const client = new ZhipuAI({ apiKey: "YOUR_API_KEY" });

async function main() {
  const response = await client.chat.completions.create({
    model: "glm-4.7",
    messages: [{ role: "user", content: "Build a real-time collaborative whiteboard using Next.js." }],
    stream: true,
    extra_body: { "thinking": true }
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0].delta.content || "");
  }
}

main();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de GLM-4.7

Voyez ce que la communauté pense de GLM-4.7

"GLM 4.7 ÉCRASE LES RECORDS DE L'OPEN SOURCE ! ... a atteint 42,8 % sur Humanity's Last Exam"
MindColliers
x/twitter
"GLM-4.7... obtient 73,8 % sur SWE-Bench à 0,6 $/M tokens... La course à l'IA devient véritablement multipolaire."
MateusGalasso
x/twitter
"GLM 4.7 apporte des gains clairs... dans le code agentic multilingue et les tâches basées sur le terminal"
Dear-Success-1441
reddit
"Ce modèle cartonne sur de nombreux benchmark de code de 2025"
cloris_rust
reddit
"GLM 4.7 gagne sur la vitesse et la stabilité, tandis que Minimax M2.1 domine dans le code multi-agents"
JamMasterJulian
youtube
"Zhipu montre vraiment ce que les open weights peuvent faire contre les grands laboratoires américains."
DevGuru
hackernews

Vidéos sur GLM-4.7

Regardez des tutoriels, critiques et discussions sur GLM-4.7

GLM 4.7 est un modèle qui apporte des améliorations majeures dans la qualité du code, le reasoning complexe et l'utilisation d'outils

A obtenu un score de 73,8 % sur SWE-bench verified, ce qui est absolument incroyable pour un modèle open-source

Il surpasse même Claude Sonnet 4.5 et GPT 5.1 dans les benchmark d'utilisation d'outils

L'approche mixture of experts ici est très raffinée, menant à une plus grande efficacité malgré la taille

C'est essentiellement le premier modèle open-weight à offrir une alternative viable à Claude 3.5 pour le code intensif

C'est le meilleur modèle ouvert à ce jour, et de loin

Il produit des pages web plus propres et plus modernes et génère de meilleures diapositives

Il raisonne, mais les traces de réflexion ne sont pas disponibles dans l'API de planification de code

Les résultats du vibe coding sont quasi-parfaits, même avec des animations Tailwind complexes

Le contexte de 200k gère les longs dépôts avec très peu de perte d'information par rapport aux versions précédentes de GLM

La mise à jour importante est la réflexion avant l'action, ce qui aide le modèle à gérer des tâches complexes de manière fiable

Mise en avant du vibe coding, où GLM 4.7 améliore la qualité de l'interface utilisateur

Le prix de l'API devrait se situer autour de 3 $, ce qui en fait une option très rentable

Les performances multimodales lui permettent de convertir des designs Figma en code avec une grande précision

Le déploiement local est possible si vous avez une station de travail massive, mais l'API est remarquablement rapide

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents
Voir la video demo

Conseils Pro

Conseils d'experts pour tirer le meilleur parti de ce modèle.

Activer le Deep Thinking

Pour les tâches logiques complexes, déclenchez explicitement le mode de réflexion via les paramètres de l'API pour permettre une planification en plusieurs étapes.

Exploiter la pensée préservée

Maintenez des historiques de conversation longs pour utiliser la capacité du modèle à conserver les traces de reasoning sur plusieurs tours.

Quantification locale

Utilisez les versions GGUF 2-bit ou 4-bit optimisées par Unsloth pour exécuter ce modèle à grand nombre de parameters sur du matériel grand public.

Injection de date

Incluez manuellement la date actuelle dans le system prompt pour éviter les hallucinations temporelles et améliorer la précision de la planification.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

anthropic

Claude 3.7 Sonnet

anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
xai

Grok-3

xai

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

128K context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xai

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
openai

GPT-5.1

openai

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
anthropic

Claude Sonnet 4.5

anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M
google

Gemini 3 Flash

google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
google

Gemini 3 Pro

google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M

Questions Fréquentes

Trouvez des réponses aux questions courantes sur ce modèle