anthropic

Claude Opus 4.5

Claude Opus 4.5 est le frontier model le plus puissant d'Anthropic, offrant une performance record de 80,9 % sur SWE-bench et une autonomie avancée pour le...

anthropic logoanthropicClaude 424 novembre 2025
Contexte
200Ktokens
Sortie max.
64Ktokens
Prix entrée
$5.00/ 1M
Prix sortie
$25.00/ 1M
Modalité:TextImage
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
87%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). Claude Opus 4.5 a obtenu 87% sur ce benchmark.
MMLU
90.8%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. Claude Opus 4.5 a obtenu 90.8% sur ce benchmark.
MMLU Pro
80%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. Claude Opus 4.5 a obtenu 80% sur ce benchmark.
IFEval
90%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. Claude Opus 4.5 a obtenu 90% sur ce benchmark.
AIME 2025
37%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. Claude Opus 4.5 a obtenu 37% sur ce benchmark.
MATH
85%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. Claude Opus 4.5 a obtenu 85% sur ce benchmark.
GSM8k
95%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. Claude Opus 4.5 a obtenu 95% sur ce benchmark.
MGSM
92%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. Claude Opus 4.5 a obtenu 92% sur ce benchmark.
MathVista
72%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. Claude Opus 4.5 a obtenu 72% sur ce benchmark.
SWE-Bench
80.9%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. Claude Opus 4.5 a obtenu 80.9% sur ce benchmark.
HumanEval
90%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. Claude Opus 4.5 a obtenu 90% sur ce benchmark.
LiveCodeBench
75%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. Claude Opus 4.5 a obtenu 75% sur ce benchmark.
MMMU
80.7%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. Claude Opus 4.5 a obtenu 80.7% sur ce benchmark.
MMMU Pro
60%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. Claude Opus 4.5 a obtenu 60% sur ce benchmark.
ChartQA
90%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. Claude Opus 4.5 a obtenu 90% sur ce benchmark.
DocVQA
94%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. Claude Opus 4.5 a obtenu 94% sur ce benchmark.
Terminal-Bench
59.3%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. Claude Opus 4.5 a obtenu 59.3% sur ce benchmark.
ARC-AGI
37.6%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. Claude Opus 4.5 a obtenu 37.6% sur ce benchmark.

À propos de Claude Opus 4.5

Découvrez les capacités, fonctionnalités et façons d'utiliser Claude Opus 4.5.

Claude Opus 4.5 est le model phare d'Anthropic, publié fin 2025. Il est spécifiquement conçu pour le génie logiciel complexe et le reasoning à enjeux élevés. Le model a obtenu un score record de 80,9 % au benchmark SWE-bench Verified, ce qui en fait un choix privilégié pour le débogage autonome et la refactorisation de systèmes. Il introduit une personnalité raffinée mettant l'accent sur l'honnêteté diplomatique et une aide nuancée.

Optimisation multimodale et agentic

L'architecture prend en charge une context window de 200 000 tokens et une limite de sortie de 64 000 tokens. Les développeurs peuvent utiliser un paramètre effort spécialisé pour adapter la profondeur de reasoning au coût de calcul. Cette flexibilité permet d'effectuer des tâches logiques de haute intensité ou une rédaction créative plus rapide et économique. Le model est multimodal et excelle dans l'interprétation de diagrammes architecturaux et de mises en page d'interface denses.

Ingénierie et utilisation d'outils

Optimisé pour les flux de travail agentic, il navigue dans les environnements de terminal via Claude Code pour effectuer des audits à l'échelle du système. Il réduit considérablement la tarification des entrées et des sorties par rapport aux versions phares précédentes. Sa capacité à maintenir la cohérence sur des tâches à long terme le positionne comme un partenaire fiable pour les équipes d'ingénierie professionnelles et l'analyse de données complexe.

Claude Opus 4.5

Cas d'utilisation de Claude Opus 4.5

Découvrez les différentes façons d'utiliser Claude Opus 4.5 pour obtenir d'excellents résultats.

Génie logiciel autonome

Automatisation du débogage de bout en bout et refactorisation à l'échelle du système avec un score record de 80,9 % au SWE-bench.

Flux de travail de recherche agentic

Synthèse de grandes quantités de données techniques en stratégies commerciales exploitables grâce à la context window de 200k.

Vision UI/UX haute fidélité

Conversion de designs Figma complexes et de diagrammes architecturaux en code frontend prêt pour la production avec une précision au pixel près.

Orchestration multi-agents

Agit comme le cerveau central pour des équipes de sous-agents afin de gérer des projets à long terme sur des bases de code disparates.

Analyse de données avancée

Automatisation de modèles financiers complexes et de flux de travail Excel avec une haute précision et une grande profondeur de reasoning.

Rédaction littéraire et créative

Production de textes nuancés respectant des goûts littéraires spécifiques et des principes de conception complexes centrés sur l'humain.

Points forts

Limitations

Performance de codage d'élite: Le premier model à briser la barrière des 80 % sur SWE-bench Verified (80,9 %), surpassant tous les autres frontier models.
Lacunes sur les benchmarks mathématiques: Bien qu'il soit d'élite en programmation, il reste légèrement derrière les models spécialisés en mathématiques de niveau doctorat.
Contrôle flexible du reasoning: Le paramètre effort offre aux développeurs un contrôle granulaire sur le coût de calcul et la profondeur de reasoning pour des flux de travail spécifiques.
Latence de planification: Le réglage du paramètre effort sur 'high' peut entraîner des phases de réflexion nettement plus longues avant la génération du premier token.
Nuance conversationnelle naturelle: Reconnu pour une personnalité raffinée qui gère l'ambiguïté et suit des contextes complexes sans avoir besoin de directives robotiques.
Limites des tokens de contexte: Les prompts système et les définitions d'outils peuvent consommer une grande partie de la fenêtre avant que le traitement ne commence.
Efficacité économique significative: La tarification de 5 $/25 $ rend l'intelligence de niveau Opus accessible pour la production en entreprise à haut volume.
Lacunes dans le rappel factuel: Sur des tests de précision spécialisés comme SimpleQA, il peut encore occasionnellement inventer des détails par rapport à des concurrents axés sur la recherche.

Démarrage rapide API

anthropic/claude-opus-4.5

Voir la documentation
anthropic SDK
import Anthropic from '@anthropic-ai/sdk';

const anthropic = new Anthropic({
  apiKey: process.env.ANTHROPIC_API_KEY,
});

const msg = await anthropic.messages.create({
  model: 'claude-opus-4-5-20251101',
  max_tokens: 4096,
  effort: 'high',
  messages: [{ role: 'user', content: 'Analyze this system architecture for race conditions.' }],
});

console.log(msg.content[0].text);

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de Claude Opus 4.5

Voyez ce que la communauté pense de Claude Opus 4.5

Claude Opus 4.5 semble moins être un assistant sans état et plus un coéquipier permanent. Il peut retracer les hypothèses sur plusieurs fichiers d'une manière qui semble clairement plus puissante.
Federal-Piano8695
reddit
Regarder votre AI agent développer une personnalité sur les réseaux sociaux qui résonne avec de vraies personnes d'une manière que vous ne pouvez expliquer. L'infrastructure compte plus que les prompts.
auxten
twitter
Opus est le model le plus performant sous cet aspect. Sa discussion est très naturelle et il vous suit vraiment dans le raisonnement.
ArchMeta1868
reddit
Opus 4.5 saisit les nuances les plus subtiles. C'est le seul model à avoir réussi à inclure un mécanisme de trailer en ligne dès la première tentative.
Matt Berman
youtube
Le score de 80,9 % au SWE-bench est probablement réel mais aussi un peu trompeur. Il nécessite une configuration d'environnement claire pour atteindre ces chiffres de manière cohérente.
testingcatalog
twitter
SWE-bench Verified : 80,9 % (Opus 4.5) contre 71,3 % (Claude 3-Opus). Il s'agit d'un saut massif pour la fiabilité en conditions réelles.
Daniel Garcia
medium

Vidéos sur Claude Opus 4.5

Regardez des tutoriels, critiques et discussions sur Claude Opus 4.5

Opus 4.5 saisit les nuances les plus subtiles

C'est le seul model à avoir réussi à inclure un mécanisme de trailer en ligne dès la première tentative

Une évaluation du code pilotée par un agent confirme ce sentiment subjectif, attribuant à Opus un score de 7/10 pour l'exhaustivité des fonctionnalités

Le reasoning est bien plus logique que les versions précédentes lorsqu'il s'agit de gérer des cas limites

Il maintient la cohérence de la base de code sur des sessions de 30 minutes

Le prix est désormais trois fois moins cher. Il ne coûtera que 5 $ pour un million de tokens d'entrée

L'entrée est à 5 $ et la sortie à 25 $ pour un million de tokens

Opus 4.5 a obtenu un score plus élevé que n'importe quel candidat humain lors de l'examen technique d'Anthropic

C'est le premier model à franchir la barrière des 80 % sur SWE-bench

Il gère des sessions de codage autonomes de 30 minutes sans intervention humaine

Considérez Claude Opus 4.5 comme une couche de persuasion et un véritable monstre agentic

C'est un monstre absolu en matière de codage et d'agente

Les ingénieurs finissent par préférer travailler avec Claude Opus 4.5 car ils obtiennent des boucles de rétroaction très serrées

Le paramètre effort de reasoning est la fonctionnalité phare pour les développeurs

Il ressemble plus à un collaborateur qu'à un simple outil lors de discussions longues

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour Claude Opus 4.5

Conseils d'experts pour tirer le meilleur parti de Claude Opus 4.5.

Activer le Reasoning Effort

Utilisez le paramètre effort en réglage 'high' pour une logique complexe ou des tâches de programmation, et 'medium' pour la rédaction créative standard.

Conception Vision-Native

Téléchargez des captures d'écran haute résolution des bugs d'interface, car le model est entraîné à identifier des divergences visuelles que les descriptions textuelles ignorent.

Prompts système structurés

Définissez des rôles agentic et des niveaux d'effort clairs dans vos prompts système pour éviter que le model ne réfléchisse trop à des tâches procédurales simples.

Compactage de contexte

Résumez l'historique lors de sessions prolongées pour garder la context window de 200k concentrée sur les informations les plus pertinentes.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M

Questions Fréquentes sur Claude Opus 4.5

Trouvez des réponses aux questions courantes sur Claude Opus 4.5