anthropic

Claude Sonnet 4.5

Anthropics Claude Sonnet 4.5 liefert weltweit führendes Coding (77,2 % SWE-bench) und ein 200K context window, optimiert für die nächste Generation autonomer...

AI CodingAgentic AIHybrid ReasoningAnthropicMultimodal
anthropic logoanthropicClaude 429. September 2025
Kontext
200KToken
Max. Ausgabe
64KToken
Eingabepreis
$3.00/ 1M
Ausgabepreis
$15.00/ 1M
Modalität:TextImageAudioVideo
Fähigkeiten:VisionToolsStreamingLogik
Benchmarks
GPQA
83%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). Claude Sonnet 4.5 erreichte 83% bei diesem Benchmark.
HLE
34%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. Claude Sonnet 4.5 erreichte 34% bei diesem Benchmark.
MMLU
89%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. Claude Sonnet 4.5 erreichte 89% bei diesem Benchmark.
MMLU Pro
78%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. Claude Sonnet 4.5 erreichte 78% bei diesem Benchmark.
SimpleQA
52%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. Claude Sonnet 4.5 erreichte 52% bei diesem Benchmark.
IFEval
88%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. Claude Sonnet 4.5 erreichte 88% bei diesem Benchmark.
AIME 2025
87%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. Claude Sonnet 4.5 erreichte 87% bei diesem Benchmark.
MATH
87%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. Claude Sonnet 4.5 erreichte 87% bei diesem Benchmark.
GSM8k
98%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. Claude Sonnet 4.5 erreichte 98% bei diesem Benchmark.
MGSM
92%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. Claude Sonnet 4.5 erreichte 92% bei diesem Benchmark.
MathVista
72%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. Claude Sonnet 4.5 erreichte 72% bei diesem Benchmark.
SWE-Bench
77%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). Claude Sonnet 4.5 erreichte 77% bei diesem Benchmark.
HumanEval
94%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. Claude Sonnet 4.5 erreichte 94% bei diesem Benchmark.
LiveCodeBench
68%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. Claude Sonnet 4.5 erreichte 68% bei diesem Benchmark.
MMMU
78%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. Claude Sonnet 4.5 erreichte 78% bei diesem Benchmark.
MMMU Pro
55%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. Claude Sonnet 4.5 erreichte 55% bei diesem Benchmark.
ChartQA
89%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. Claude Sonnet 4.5 erreichte 89% bei diesem Benchmark.
DocVQA
92%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. Claude Sonnet 4.5 erreichte 92% bei diesem Benchmark.
Terminal-Bench
50%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. Claude Sonnet 4.5 erreichte 50% bei diesem Benchmark.
ARC-AGI
14%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. Claude Sonnet 4.5 erreichte 14% bei diesem Benchmark.

Teste Claude Sonnet 4.5 Kostenlos

Chatte kostenlos mit Claude Sonnet 4.5. Teste die Fähigkeiten, stelle Fragen und erkunde, was dieses KI-Modell kann.

Prompt
Antwort
Claude Sonnet 4.5

Ihre KI-Antwort wird hier erscheinen

Über Claude Sonnet 4.5

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von Claude Sonnet 4.5.

**Die Speerspitze der Agentic Intelligence**

Claude Sonnet 4.5 stellt Anthropics bedeutendsten Sprung in der "frontier intelligence" dar, speziell optimiert für die Ära der autonomen AI agents. Veröffentlicht Ende 2025, ist es das branchenweit erste echte "Hybrid Reasoning" Modell, das es Entwicklern ermöglicht, zwischen Hochgeschwindigkeits-Ausführung für Routineaufgaben und vertieftem Denken (extended thinking) für komplexe logische Herausforderungen zu wechseln. Es hat bisherige benchmarks in den Bereichen computer use und Tool-Orchestrierung deutlich übertroffen und ist damit die bevorzugte Engine für terminal-basierte agents und dateiübergreifendes Software-Engineering.

**Präzision und reduzierte Halluzinationen**

Das Modell basiert auf einer Architektur, die logisches Vorgehen nach dem Motto "lieber zweimal messen, einmal schneiden" priorisiert. Dadurch werden Sykophantie und Halluzinationen, wie man sie aus der 3.5-Serie kannte, signifikant reduziert. Mit einem massiven 64.000-token Output-Limit und einem 200.000-token Input-Fenster kann es ganze Repositories erfassen und gleichzeitig vollständige Anwendungsdateien in einem Durchgang generieren. Zudem führt es native "Checkpoints" für agentic Workflows ein, die es agents ermöglichen, Fehler eigenständig zurückzusetzen und zu korrigieren.

**Multimodale Exzellenz und Reasoning-Stärke**

Über das Coding hinaus dominiert Sonnet 4.5 bei der multimodalen Dokumentenanalyse und komplexen Finanzmodellierung. Seine interne Logik ist darauf trainiert, architektonischen Kontext zu priorisieren, wodurch es großflächige Codebasen besser erfassen kann als jeder Vorgänger. Ob bei der Verarbeitung handgeschriebener Notizen oder der Implementierung einer vollständigen Stripe-Integration – Sonnet 4.5 behält ein hohes Maß an faktischer Genauigkeit und Zuverlässigkeit bei der Befolgung von Anweisungen bei.

Claude Sonnet 4.5

Anwendungsfälle für Claude Sonnet 4.5

Entdecken Sie die verschiedenen Möglichkeiten, Claude Sonnet 4.5 für großartige Ergebnisse zu nutzen.

Autonome Softwareentwicklung

Nutzen Sie Claude Sonnet 4.5, um in komplexen Codebasen zu navigieren, Features über mehrere Dateien hinweg zu implementieren und Tests unabhängig auszuführen.

Computer-Use Agents

Setzen Sie das Modell ein, um Desktops und Webbrowser für die Datenextraktion, die Navigation in Legacy-Systemen oder repetitive administrative Aufgaben zu steuern.

Agentic Search für Unternehmen

Orchestrieren Sie mehrstufige Suchanfragen und fassen Sie unterschiedliche Informationen aus internen Dokumentationen und dem Live-Web zusammen.

Komplexe Finanzmodellierung

Nutzen Sie den AIME-Score von 87 %, um tiefe logische Schlussfolgerungen aus Finanzberichten und Marktdaten zu ziehen.

Verfeinerung technischer Inhalte

Wandeln Sie Anforderungen auf hoher Ebene in professionelle PRDs, technische Spezifikationen und copy-paste-bereite Codebasen um.

Multimodale Dokumentenanalyse

Verarbeiten Sie Tausende von Seiten mit Diagrammen, handgeschriebenen Notizen und technischen Zeichnungen mit modernsten Vision-Fähigkeiten.

Stärken

Einschränkungen

Agentic Coding Power: Aktueller Weltrekordhalter auf SWE-bench Verified mit einer Erfolgsquote von 77,2 % bei realen GitHub-Issues.
Nutzungslimits: Professional-Nutzer berichten häufig davon, dass sie die wöchentlichen Limits im Pro-Plan für 20 $/Monat schnell erreichen.
Unglaubliche Geschwindigkeit: Arbeitet mit 40-60 tokens pro Sekunde, was es für die interaktive Nutzung deutlich schneller macht als vorherige frontier models.
Such-Latency: Agentic Web-Browsing (BrowseComp) bleibt im Vergleich zu spezialisierten Suchmodellen ein Schwachpunkt.
Flexibilität durch Hybrid Reasoning: Das erste Modell, das den Spagat zwischen schnellem Chat-Modus und "extended thinking" für komplexe logische Ketten effektiv meistert.
Wissenslücken in Nischenbereichen: Hat Schwierigkeiten bei hochspezialisierten visuellen Aufgaben, wie der Identifizierung spezifischer Skateboarding-Tricks (29 % Genauigkeit auf SkateBench).
Massives Output-Fenster: Ein Limit von 64K output tokens ermöglicht die Generierung ganzer Features über mehrere Dateien hinweg in einem einzigen API-Aufruf.
Agentic-Kosten: Der autonome Betrieb des Modells im Terminal-Modus kann bei einer einzigen komplexen App-Entwicklungssitzung tokens im Wert von 50 bis 100 $ verbrauchen.

API-Schnellstart

anthropic/claude-sonnet-4.5

Dokumentation anzeigen
anthropic SDK
import Anthropic from '@anthropic-ai/sdk';

const anthropic = new Anthropic({
  apiKey: process.env.ANTHROPIC_API_KEY,
});

const msg = await anthropic.messages.create({
  model: "claude-sonnet-4.5-20250929",
  max_tokens: 1024,
  messages: [{ role: "user", content: "Implement a rate limiter in Node.js" }],
});

console.log(msg.content[0].text);

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über Claude Sonnet 4.5 sagen

Sehen Sie, was die Community über Claude Sonnet 4.5 denkt

"Claude Sonnet 4.5 ist der neue König des AI Coding... es sieht wirklich, wirklich gut aus"
James Montemagno
youtube
"Sonnet 4.5 leistet wirklich gute Arbeit... es war viel schneller und um einiges besser"
Cole Medin
youtube
"Ich bin von Sonnet 4.5 überwältigt... dieses Modell entwirft absolut beeindruckende Seiten"
Savage Reviews
youtube
"Der terminal-basierte agent ist wie ein 'Entwickler, der in deinem Terminal lebt'... er kann Codebasen lesen und Tests autonom ausführen"
DevUser_99
reddit
"Die Preise bleiben die gleichen wie bei 3.5, aber das 'Checkpoints'-Feature macht es für professionelle Workflows 10-mal wertvoller"
AgentArchitect
x
"Mit 77,2 % auf SWE-bench ist dies das erste Modell, das sich tatsächlich wie ein Senior Engineer anfühlt"
HackerNewsReader
hackernews

Videos über Claude Sonnet 4.5

Schauen Sie Tutorials, Rezensionen und Diskussionen über Claude Sonnet 4.5

Anthropic behauptet, dies sei das 'beste Code-Modell der Welt' mit erheblichen Fortschritten bei reasoning, Mathematik und computer use.

Während GPT-5 vielleicht besser für die Planung auf hoher Ebene geeignet ist, ist Claude 4.5 Sonnet derzeit das 'angenehmste' Modell für die Implementierung.

Die Geschwindigkeit ist einfach unglaublich und lässt interaktives Coding viel flüssiger wirken.

Es beherrscht Bearbeitungen über mehrere Dateien hinweg mit einer Präzision, die wir so noch nicht gesehen haben.

Die Reduzierung von Halluzinationen macht es zu einem zuverlässigen Partner für produktiven Code.

Claude Sonnet 4.5 war um ein Vielfaches schneller und ein ordentliches Stück besser als GPT-5 Codex.

Es hat die gesamte Stripe-Implementierung in 15 Minuten erledigt... mehr als doppelt so schnell wie Opus 4.1.

Die Fähigkeit, komplexen Anweisungen für tool-calling zu folgen, ist sein Geheimrezept.

Ich sehe weniger Probleme mit 'Sykophantie', bei denen das Modell meinen schlechten Ideen einfach nur zustimmt.

Dies ist das erste Modell, dem ich tatsächlich zutrauen würde, einen terminal-basierten agent unbeaufsichtigt laufen zu lassen.

Dies ist eine der besten Landingpages, wenn nicht DIE beste, die ich je aus einem prompt erstellt gesehen habe.

Es ist ein absolutes Monster... es entwirft absolut beeindruckende Seiten mit wirklich, wirklich gutem Code.

Die Vision-Fähigkeiten zur Interpretation von UI-Design wurden deutlich verbessert.

Es fühlt sich an, als ob es die ästhetischen Anforderungen versteht, nicht nur die technischen.

Sonnet 4.5 ist offiziell der neue benchmark für kreatives Front-End-Engineering.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows
Demo-Video ansehen

Profi-Tipps

Expertentipps, um das Beste aus diesem Modell herauszuholen.

Nutzen Sie CLAUDE.md

Verwenden Sie eine CLAUDE.md-Datei in Ihrem Repository-Root, um dem Modell kurze Zusammenfassungen und Hinweise zu geben; dies reduziert den token-Verbrauch um 30 %.

Hybrid Reasoning Toggle

Verwenden Sie den 'thinking'-Parameter in Ihren API-Aufrufen nur für logikintensive Aufgaben, um bei Routinevorgängen latency und Kosten zu sparen.

Der .claude/context-Ordner

Erstellen Sie eine .claude/context.md-Datei, um Architekturentscheidungen zu speichern; das Modell ist speziell darauf trainiert, diesen Pfad für das Mapping der Codebasis zu priorisieren.

Prompt Caching

Aktivieren Sie prompt caching für statische Dokumentationen oder große Codebasen, um bis zu 90 % der input-Kosten bei wiederholten Abfragen zu sparen.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

xai

Grok-3

xai

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

128K context
$3.00/$15.00/1M
anthropic

Claude 3.7 Sonnet

anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
zhipu

GLM-4.7

zhipu

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M
anthropic

Claude Opus 4.5

anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xai

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
openai

GPT-5.1

openai

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
google

Gemini 3 Flash

google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
google

Gemini 3 Pro

google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M

Häufig gestellte Fragen

Finden Sie Antworten auf häufige Fragen zu diesem Modell