anthropic

Claude 3.7 Sonnet

Claude 3.7 Sonnet est le premier modèle de raisonnement hybride d'Anthropic, offrant des capacités de programmation state-of-the-art, une context window de...

anthropic logoanthropicClaude 324 février 2025
Contexte
200Ktokens
Sortie max.
128Ktokens
Prix entrée
$3.00/ 1M
Prix sortie
$15.00/ 1M
Modalité:TextImage
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
84.8%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). Claude 3.7 Sonnet a obtenu 84.8% sur ce benchmark.
HLE
34%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. Claude 3.7 Sonnet a obtenu 34% sur ce benchmark.
MMLU
89%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. Claude 3.7 Sonnet a obtenu 89% sur ce benchmark.
MMLU Pro
74%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. Claude 3.7 Sonnet a obtenu 74% sur ce benchmark.
SimpleQA
42%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. Claude 3.7 Sonnet a obtenu 42% sur ce benchmark.
IFEval
93.2%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. Claude 3.7 Sonnet a obtenu 93.2% sur ce benchmark.
AIME 2025
54.8%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. Claude 3.7 Sonnet a obtenu 54.8% sur ce benchmark.
MATH
96.2%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. Claude 3.7 Sonnet a obtenu 96.2% sur ce benchmark.
GSM8k
97%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. Claude 3.7 Sonnet a obtenu 97% sur ce benchmark.
MGSM
92%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. Claude 3.7 Sonnet a obtenu 92% sur ce benchmark.
MathVista
70%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. Claude 3.7 Sonnet a obtenu 70% sur ce benchmark.
SWE-Bench
70.3%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. Claude 3.7 Sonnet a obtenu 70.3% sur ce benchmark.
HumanEval
94%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. Claude 3.7 Sonnet a obtenu 94% sur ce benchmark.
LiveCodeBench
65%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. Claude 3.7 Sonnet a obtenu 65% sur ce benchmark.
MMMU
75%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. Claude 3.7 Sonnet a obtenu 75% sur ce benchmark.
MMMU Pro
55%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. Claude 3.7 Sonnet a obtenu 55% sur ce benchmark.
ChartQA
89%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. Claude 3.7 Sonnet a obtenu 89% sur ce benchmark.
DocVQA
94%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. Claude 3.7 Sonnet a obtenu 94% sur ce benchmark.
Terminal-Bench
35.2%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. Claude 3.7 Sonnet a obtenu 35.2% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. Claude 3.7 Sonnet a obtenu 12% sur ce benchmark.

À propos de Claude 3.7 Sonnet

Découvrez les capacités, fonctionnalités et façons d'utiliser Claude 3.7 Sonnet.

Conception à raisonnement hybride

Claude 3.7 Sonnet utilise une nouvelle architecture permettant aux utilisateurs de choisir entre vitesse et profondeur. C'est le premier modèle à offrir un bouton de bascule pour la réflexion étendue, permettant au système de travailler sur une logique complexe avant de fournir une réponse. Cette transparence permet aux développeurs de voir exactement comment le modèle parvient à une conclusion, réduisant le risque d'erreurs cachées dans le travail technique.

Résolution de problèmes techniques

Ce modèle est conçu pour l'ingénierie logicielle de haut niveau. Il obtient un score de 62,1 % sur le benchmark SWE-bench Verified, démontrant une forte capacité à corriger de vraies issues GitHub. Lorsqu'il est utilisé avec des outils comme Claude Code, il gère l'édition de fichiers et l'exécution de commandes sur de grands référentiels. Il traite les tâches mathématiques et de programmation avec une précision qui égale ou dépasse les meilleurs modèles de raisonnement actuels.

Capacité de contexte massive

Avec une context window de 200 000 tokens, le modèle traite de grands ensembles de documentation ou de bases de code en une seule fois. Il prend en charge jusqu'à 128 000 tokens de sortie lorsque le mode de réflexion est actif, ce qui le rend utile pour générer de longs scripts ou des rapports détaillés. Le modèle est également multimodal, ce qui signifie qu'il peut interpréter des graphiques et des diagrammes en plus du texte.

Claude 3.7 Sonnet

Cas d'utilisation de Claude 3.7 Sonnet

Découvrez les différentes façons d'utiliser Claude 3.7 Sonnet pour obtenir d'excellents résultats.

Génie logiciel agentic

Utilisation de l'outil terminal pour corriger des bugs et refactoriser du code à travers des structures de fichiers volumineuses.

Vérification de preuves mathématiques

Résolution de problèmes mathématiques complexes en permettant au modèle de réfléchir aux étapes logiques.

Analyse de référentiel

Extraction de données et identification de modèles à partir de bases de code techniques entières via un seul prompt.

Analyse de données visuelles

Conversion de graphiques, d'organigrammes et de diagrammes techniques complexes en données JSON structurées.

Planification d'architecture système

Conception de systèmes logiciels avec des vérifications logiques détaillées utilisant le mode de réflexion étendu.

Workflows Git automatisés

Gestion des messages de commit, des revues de code et de l'exécution de tests via l'utilisation d'outils agentic.

Points forts

Limitations

Options de réflexion hybrides: Le premier modèle permettant aux utilisateurs de basculer entre des réponses standard rapides et des modes de raisonnement approfondi.
Latence de raisonnement: L'activation du mode de réflexion augmente considérablement le temps nécessaire au modèle pour répondre.
Agent de programmation de premier plan: Performance de haut niveau sur le benchmark SWE-bench Verified avec un score de 62,1 % pour la résolution de problèmes en production.
Coût de la réflexion: Les tokens de réflexion interne sont facturés au tarif de 15 $ par million de tokens de sortie, ce qui peut représenter un coût significatif pour les tâches longues.
Capacité de sortie extrême: Génère jusqu'à 128 000 tokens dans une seule réponse, facilitant la génération massive de code et de documents.
Pas de prise en charge vidéo: Contrairement à certains concurrents, il ne peut pas ingérer ou analyser nativement des fichiers vidéo bruts via l'API.
Logique transparente: La chaîne de pensée externalisée permet aux utilisateurs d'auditer et de déboguer le processus de raisonnement interne du modèle.
Date de fin des données d'entraînement: Les données d'entraînement ne vont que jusqu'en octobre 2024, manquant ainsi les développements récents de l'industrie.

Démarrage rapide API

anthropic/claude-3-7-sonnet

Voir la documentation
anthropic SDK
import Anthropic from '@anthropic-ai/sdk';

const anthropic = new Anthropic();

const message = await anthropic.messages.create({
  model: "claude-3-7-sonnet-20250219",
  max_tokens: 4096,
  thinking: {
    type: "enabled",
    budget_tokens: 2048
  },
  messages: [{ role: "user", content: "Analyze this architectural flaw..." }],
});

console.log(message.content);

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de Claude 3.7 Sonnet

Voyez ce que la communauté pense de Claude 3.7 Sonnet

Claude Code combiné à 3.7 Sonnet, c'est essentiellement un développeur junior sous stéroïdes dans mon terminal. C'est la première fois que l'IA agentic semble réelle.
dev_guru_99
reddit
Le raisonnement hybride est une mise à jour majeure. Je n'ai pas toujours besoin qu'il réfléchisse pendant 30 secondes, mais pour le débogage, c'est incroyable.
TechLead_X
twitter
Anthropic a réussi à créer un modèle qui rivalise avec o1 en mathématiques tout en restant utile pour le chat quotidien.
logic_fanatic
hackernews
Claude fournit des rapports complets, magnifiquement formatés et avec des citations en moins de cinq minutes.
ThinkingDeeplyAI_mod
reddit
La limite de sortie de 128k est une fonctionnalité sous-estimée. Enfin un modèle qui ne s'arrête pas en plein milieu d'un long script.
code_monk_42
reddit
Claude 3.7 + MCP est ce qui se rapproche le plus de Jarvis en ce moment. Il utilise réellement mes outils locaux correctement.
julie_codes_it
twitter

Vidéos sur Claude 3.7 Sonnet

Regardez des tutoriels, critiques et discussions sur Claude 3.7 Sonnet

Claude 3.7 est impressionnant. Le nouveau modèle de base s'est surpassé pour devenir encore meilleur en programmation.

Le nouveau modèle 3.7 a littéralement écrasé tous les autres modèles, y compris o3 mini d'OpenAI.

Il est capable de résoudre 70 % des issues GitHub.

La réflexion étendue permet au modèle de peser un problème avant de produire du code.

C'est une victoire majeure pour l'expérience développeur.

Les chatbots vous donnent des conseils, mais Claude Code agit. Il peut créer des fichiers, construire des sites web et installer des paquets.

La réflexion étendue, c'est Claude qui raisonne avant d'agir.

L'outil est optimisé pour l'environnement terminal.

La connectivité MCP est ce qui le différencie vraiment de ChatGPT.

Le modèle comprend l'intention derrière des commandes terminal vagues.

L'intégration avec le terminal via Claude Code offre un niveau d'agence que nous n'avions pas encore vu.

La capacité de Claude 3.7 Sonnet à montrer son processus de réflexion est bien plus transparente que celle de ses concurrents.

Sur SWE-bench Verified, il atteint un score remarquable de 62 %.

Le raisonnement hybride signifie que vous ne subissez pas la pénalité de latence lorsque vous n'en avez pas besoin.

Il conserve la qualité d'écriture élevée des précédents modèles Claude.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour Claude 3.7 Sonnet

Conseils d'experts pour tirer le meilleur parti de Claude 3.7 Sonnet.

Définir des budgets de raisonnement

Utilisez le paramètre de réflexion (thinking) de l'API pour limiter le nombre de tokens de raisonnement et ainsi contrôler les coûts.

Passer en revue les blocs de réflexion

Examinez la chaîne de pensée (chain-of-thought) interne dans les réponses pour vérifier la logique des réponses complexes.

Utiliser les connecteurs MCP

Connectez le modèle à des bases de données locales et au stockage cloud pour bénéficier d'un contexte projet en temps réel.

Rafraîchissement du contexte

Utilisez des commandes de synthèse lors de longues boucles agentic pour garder la context window concentrée sur les données pertinentes.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Questions Fréquentes sur Claude 3.7 Sonnet

Trouvez des réponses aux questions courantes sur Claude 3.7 Sonnet