xai

Grok-4

Grok-4 von xAI ist ein frontier model mit einem 2M token context window, Echtzeit-Integration der X-Plattform und Weltrekord-Fähigkeiten im Bereich reasoning.

xai logoxaiGrokJuly 9, 2025
Kontext
2.0MToken
Max. Ausgabe
8KToken
Eingabepreis
$3.00/ 1M
Ausgabepreis
$15.00/ 1M
Modalität:TextImage
Fähigkeiten:VisionToolsStreamingLogik
Benchmarks
GPQA
87.5%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). Grok-4 erreichte 87.5% bei diesem Benchmark.
HLE
44.4%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. Grok-4 erreichte 44.4% bei diesem Benchmark.
MMLU
94%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. Grok-4 erreichte 94% bei diesem Benchmark.
MMLU Pro
81.2%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. Grok-4 erreichte 81.2% bei diesem Benchmark.
SimpleQA
48%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. Grok-4 erreichte 48% bei diesem Benchmark.
IFEval
89.2%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. Grok-4 erreichte 89.2% bei diesem Benchmark.
AIME 2025
100%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. Grok-4 erreichte 100% bei diesem Benchmark.
MATH
92%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. Grok-4 erreichte 92% bei diesem Benchmark.
GSM8k
98.4%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. Grok-4 erreichte 98.4% bei diesem Benchmark.
MGSM
92.1%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. Grok-4 erreichte 92.1% bei diesem Benchmark.
MathVista
72.4%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. Grok-4 erreichte 72.4% bei diesem Benchmark.
SWE-Bench
81%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). Grok-4 erreichte 81% bei diesem Benchmark.
HumanEval
88%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. Grok-4 erreichte 88% bei diesem Benchmark.
LiveCodeBench
79.4%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. Grok-4 erreichte 79.4% bei diesem Benchmark.
MMMU
75%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. Grok-4 erreichte 75% bei diesem Benchmark.
MMMU Pro
59.2%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. Grok-4 erreichte 59.2% bei diesem Benchmark.
ChartQA
90.5%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. Grok-4 erreichte 90.5% bei diesem Benchmark.
DocVQA
93.2%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. Grok-4 erreichte 93.2% bei diesem Benchmark.
Terminal-Bench
54.2%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. Grok-4 erreichte 54.2% bei diesem Benchmark.
ARC-AGI
15.9%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. Grok-4 erreichte 15.9% bei diesem Benchmark.

Über Grok-4

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von Grok-4.

Übersicht

Grok-4 ist das neueste frontier model von xAI, konzipiert als wahrheitssuchender Assistent mit Echtzeit-Zugriff auf die X-Plattform. Entwickelt auf dem Colossus-Supercomputer-Cluster mit über 200.000 GPUs, stellt es einen massiven Sprung in den Bereichen reasoning, mathematische Problemlösung und Coding-Fähigkeiten dar. Es verfügt über eine einheitliche Dual-Mode-Architektur, die es Nutzern ermöglicht, zwischen einem Deep-Thinking-reasoning-Modus für komplexe Aufgaben und einem High-Velocity-Modus für sofortige Antworten zu wechseln.

Technische Innovationen

Dieser generationsübergreifende Sprung bei der Rechenleistung hat Leistungen auf PhD-Niveau über alle akademischen Disziplinen hinweg ermöglicht. Das model zeichnet sich durch seine Anti-Woke-Alignment-Strategie aus, die objektive Informationen über standardmäßige Sicherheitsleitplanken stellt. Sein massives 2-Millionen-token context window und die Integration in das Musk-Ökosystem, einschließlich X und Tesla-Fahrzeugen, bieten einen deutlichen Wettbewerbsvorteil. Während es in STEM-Bereichen und technischem reasoning glänzt, bleibt es hocheffizient für alltägliche kreative Aufgaben und Echtzeit-Nachrichtenanalysen.

Performance-Philosophie

Grok-4 priorisiert First-Principles-Denken und objektive Datensynthese. Durch die Nutzung der Quasarflux-reasoning-Engine kann es mehrstufige Logikketten durchlaufen, an denen herkömmliche LLMs normalerweise scheitern. Dies macht es zu einem unverzichtbaren Werkzeug für Entwickler und Forscher, die hochpräzise Ergebnisse in kritischen Umgebungen benötigen, in denen faktische Genauigkeit nicht verhandelbar ist.

Grok-4

Anwendungsfälle für Grok-4

Entdecken Sie die verschiedenen Möglichkeiten, Grok-4 für großartige Ergebnisse zu nutzen.

STEM-Forschung auf PhD-Niveau

Nutzung des Thinking-Modus zur Lösung von Physikproblemen auf Doktorandenniveau und zur Verifizierung komplexer mathematischer Beweise.

Debugging massiver Repositories

Nutzung des 2M context window, um gesamte Codebases einzulesen und subtile Race Conditions zu identifizieren.

Echtzeit-Finanzanalyse

Überwachung des X Firehose zur Analyse der Marktstimmung und von Eilmeldungen für Trading-Insights.

Autonome Agent-Workflows

Unterstützung komplexer agentic Tasks durch robustes function calling für Logistik und Automatisierung.

Multimodale Rechtsanalyse

Überprüfung tausender Seiten von Beweisdokumenten bei gleichzeitiger Analyse gescannter Beweisfotos.

Fortgeschrittenes akademisches Tutoring

Bereitstellung von personalisiertem, auf First-Principles basierendem Unterricht in STEM-Fächern, angepasst an den Lernfortschritt.

Stärken

Einschränkungen

Unübertroffene Mathematik & Logik: Erreichte einen Weltrekord-Score von 100 % beim AIME 2025, was es zur ersten Wahl für technische Aufgaben macht.
Schwankende Basislogik: Trotz Bestnoten in Prüfungen für Graduierte kann das model gelegentlich bei trivialen Aufgaben wie dem Zählen von Buchstaben in einem Wort scheitern.
Marktführender Kontext: Das 2-Millionen-token-Fenster ermöglicht die Analyse von ca. 1.500 Textseiten in einem einzigen prompt.
Hohe Einstiegshürde: Der Zugriff auf das volle Grok-4 Heavy-model und die reasoning-Fähigkeiten erfordert ein Premium-Abonnement.
Live-Daten-Pipeline: Exklusiver Zugriff auf den Echtzeit-Datenstrom der X-Plattform stellt sicher, dass Antworten zu globalen Ereignissen aktuell sind.
Lücken bei kreativen Nuancen: Es liegt hinter Claude 4.5 beim kreativen Storytelling zurück und nimmt oft einen eher utilitaristischen oder provokanten Ton an.
Emotionale Intelligenz: Hohe Leistung im EQ-Bench3 deutet auf eine überlegene Fähigkeit hin, nuancierte menschliche Emotionen zu verstehen.
Konsistenz der Bildgenerierung: Interne Tools haben Schwierigkeiten, die visuelle Konsistenz über mehrere Panels hinweg beizubehalten.

API-Schnellstart

xai/grok-4

Dokumentation anzeigen
xai SDK
import { xAI } from '@xai/sdk';

const client = new xAI({
  apiKey: process.env.XAI_API_KEY,
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'grok-4',
    messages: [{ role: 'user', content: 'Analyze the latest news about xAI from the Firehose.' }],
    stream: true,
  });

  for await (const chunk of response) {
    process.stdout.write(chunk.choices[0]?.delta?.content || '');
  }
}

main();

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über Grok-4 sagen

Sehen Sie, was die Community über Grok-4 denkt

"Grok 4 belehrt die Konkurrenz offiziell eines Besseren... es beweist, dass xAI ein model gebaut hat, das wie ein Raubtier denkt."
Mario Nawfal
x/twitter
"Grok 4 ist ein Benchmark-beherrschendes Genie auf PhD-Niveau, das gelegentlich nicht zählen kann. Diese Dualität ist wild."
Beginning-Willow-801
reddit
"Der Sprung auf 2 Millionen tokens ist nicht nur ein Gimmick; er verändert das Debugging von Repositories grundlegend."
AI Tech Reviews
youtube
"Grok 4 ist eindeutig das beste model in Bezug auf allgemeines Verständnis, weit vor GPT-5."
YMist_
reddit
"Die Nutzung wird mit Grok 4.20 sprunghaft ansteigen. Es erscheint in 3 oder 4 Wochen."
Elon Musk
x/twitter
"Die Echtzeit-X-Integration ist das Einzige, was meine Forschung in diesem Nachrichtenzyklus relevant hält."
DataScientist_Alpha
hackernews

Videos über Grok-4

Schauen Sie Tutorials, Rezensionen und Diskussionen über Grok-4

Die Anzahl der Wörter in dieser Antwort ist exakt 43... Extrem beeindruckend.

Es konnte nicht nur die Türme von Hanoi in seiner chain-of-thought lösen, sondern hat es tatsächlich bewiesen und mit Code visualisiert.

Ich liebe diese Antwort. Auf den Punkt, direkt. Überhaupt keine Schönrederei.

Die reasoning-Fähigkeiten hier sind eindeutig eine Stufe über dem, was wir in der vorherigen Generation gesehen haben.

Es ist endlich ein model, das nicht das Gefühl vermittelt, die Wahrheit zurückzuhalten, um höflich zu sein.

Der experimentelle Thinking-Schalter für Grok wurde vor kurzem entfernt... was zu einer Charakterisierung als potenziell veraltet führte.

Grok OS war am wenigsten beeindruckend, mit einem einfachen weißen Hintergrund und fehlerhaften Icons.

In Bezug auf reines Wissensabruf trifft Grok-4 konsistent ins Schwarze, wo GPT-5 versagt.

Die latency im reasoning-Modus ist höher, aber die Qualität des Outputs rechtfertigt das Warten.

Wenn man sich im Musk-Ökosystem bewegt, ist die Integration hier ein massiver Produktivitätsmultiplikator.

Niemand will ein superschnelles model, wenn es die Logik nicht lösen kann. Das kann ich euch umsonst sagen, Jungs.

Ich würde dem Ganzen minus eins von 10 Punkten geben... Kompletter Müll. Kann nicht einmal eine einfache Next.js-Website bauen.

Der Speed ist da, aber wenn die Logik kaputt ist, was nützen dann die tokens pro Sekunde?

Es fühlt sich an, als hätten sie die Coder-Variante überstürzt, nur um den Release-Zyklus einzuhalten.

Bleiben Sie beim Standard-reasoning-model, wenn Sie tatsächlich etwas wollen, das funktioniert.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows
Demo-Video ansehen

Pro-Tipps für Grok-4

Expertentipps, um das Beste aus Grok-4 herauszuholen.

Modus-Wechsel

Nutzen Sie den Quasarflux-Modus für komplexe Logik und den Tensor-Modus für Geschwindigkeit, um Kosten und Performance zu optimieren.

Echtzeit-Abfragen

Fragen Sie explizit nach Trendthemen auf X, um die Live-Daten-Pipeline zu nutzen und Trainings-Cutoffs zu umgehen.

STEM-Fokus

Bevorzugen Sie Grok für Mathematik auf Graduiertenniveau, wo es Wettbewerber bei Zero-Shot-Aufgaben deutlich übertrifft.

Einfache Logik prüfen

Kontrollieren Sie einfaches Zählen oder Listen-Sortierungen doppelt, da das model bei trivialen Aufgaben inkonsistent sein kann.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

anthropic

Claude Opus 4.5

anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
openai

GPT-5.1

openai

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
zhipu

GLM-4.7

zhipu

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M
anthropic

Claude 3.7 Sonnet

anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
google

Gemini 3 Flash

google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
xai

Grok-3

xai

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

128K context
$3.00/$15.00/1M
google

Gemini 3 Pro

google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
anthropic

Claude Sonnet 4.5

anthropic

Anthropic's Claude Sonnet 4.5 delivers world-leading coding (77.2% SWE-bench) and a 200K context window, optimized for the next generation of autonomous agents.

200K context
$3.00/$15.00/1M

Häufig gestellte Fragen zu Grok-4

Finden Sie Antworten auf häufige Fragen zu Grok-4