google

Gemini 3.1 Pro

Gemini 3.1 Pro ist Googles Elite-Modell mit multimodaler Verarbeitung, DeepThink reasoning-Engine, 1M+ context window und branchenführenden ARC-AGI-Logikwerten.

MultimodalDeep ReasoningVideo GenerationWorkspace AIGoogle Gemini
google logogoogleGemini19. Februar 2026
Kontext
2.0MToken
Max. Ausgabe
66KToken
Eingabepreis
$2.50/ 1M
Ausgabepreis
$15.00/ 1M
Modalität:TextImageAudioVideo
Fähigkeiten:VisionToolsStreamingLogik
Benchmarks
GPQA
94.3%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). Gemini 3.1 Pro erreichte 94.3% bei diesem Benchmark.
HLE
44.4%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. Gemini 3.1 Pro erreichte 44.4% bei diesem Benchmark.
MMLU
80.6%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. Gemini 3.1 Pro erreichte 80.6% bei diesem Benchmark.
MMLU Pro
79.2%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. Gemini 3.1 Pro erreichte 79.2% bei diesem Benchmark.
SimpleQA
79.6%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. Gemini 3.1 Pro erreichte 79.6% bei diesem Benchmark.
IFEval
92.4%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. Gemini 3.1 Pro erreichte 92.4% bei diesem Benchmark.
AIME 2025
92%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. Gemini 3.1 Pro erreichte 92% bei diesem Benchmark.
MATH
92%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. Gemini 3.1 Pro erreichte 92% bei diesem Benchmark.
GSM8k
98.4%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. Gemini 3.1 Pro erreichte 98.4% bei diesem Benchmark.
MGSM
96.5%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. Gemini 3.1 Pro erreichte 96.5% bei diesem Benchmark.
MathVista
89.4%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. Gemini 3.1 Pro erreichte 89.4% bei diesem Benchmark.
SWE-Bench
71%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). Gemini 3.1 Pro erreichte 71% bei diesem Benchmark.
HumanEval
91.2%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. Gemini 3.1 Pro erreichte 91.2% bei diesem Benchmark.
LiveCodeBench
82%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. Gemini 3.1 Pro erreichte 82% bei diesem Benchmark.
MMMU
84.2%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. Gemini 3.1 Pro erreichte 84.2% bei diesem Benchmark.
MMMU Pro
62.5%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. Gemini 3.1 Pro erreichte 62.5% bei diesem Benchmark.
ChartQA
91.8%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. Gemini 3.1 Pro erreichte 91.8% bei diesem Benchmark.
DocVQA
94.2%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. Gemini 3.1 Pro erreichte 94.2% bei diesem Benchmark.
Terminal-Bench
58%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. Gemini 3.1 Pro erreichte 58% bei diesem Benchmark.
ARC-AGI
77.1%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. Gemini 3.1 Pro erreichte 77.1% bei diesem Benchmark.

Über Gemini 3.1 Pro

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von Gemini 3.1 Pro.

Gemini 3.1 Pro repräsentiert eine ausgereifte Umsetzung des Sparse Mixture-of-Experts (MoE) Frameworks, nativ gepaart mit einer fortschrittlichen multimodalen Processing-Engine. Das herausragende Merkmal der Architektur ist die Demokratisierung der DeepThink System 2-Ebene, die es dem model ermöglicht, intern abzuwägen, bevor es sich für einen Output-token entscheidet. Dieses model führt ein einzigartiges dreistufiges Denksystem (Low, Medium, High) ein, das es Entwicklern erlaubt, den Kompromiss zwischen latency, Kosten und reasoning-Tiefe explizit zu steuern.

Mit einem massiven 1-Million-token context window ist Gemini 3.1 Pro für komplexe Workflows in den Bereichen Finanzen, Datenanalyse und dateiübergreifende Code-Migrationen optimiert. Es demonstriert die emergente Fähigkeit, neuartige Logikmuster zu lösen und erzielt dabei beispiellose 77,1 % im ARC-AGI-2 benchmark. Dies macht es zur bevorzugten Wahl für Entwickler, die sowohl multimodale Interaktionen mit geringer latency als auch eine kognitive Höchstleistung für autonome agentic-Aufgaben benötigen.

Gemini 3.1 Pro

Anwendungsfälle für Gemini 3.1 Pro

Entdecken Sie die verschiedenen Möglichkeiten, Gemini 3.1 Pro für großartige Ergebnisse zu nutzen.

Code-Analyse für ganze Repositories

Nutzung des 1M context window zum Einlesen kompletter Software-Repositories für Refactoring und Dependency-Mapping.

Autonome Agenten-Committees

Steuerung mehrstufiger agentic-Workflows, bei denen interne Sub-Agenten Lösungen diskutieren und verifizieren, bevor sie ausgeführt werden.

Synthese wissenschaftlicher Forschung

Analyse tausender Forschungsarbeiten und komplexer Datensätze zur Gewinnung strukturierter Informationen und faktischer Erkenntnisse.

Multimodale Content-Erstellung

Gleichzeitige Verarbeitung von Text, Bildern und Audio zur Erstellung komplexer Lehrmaterialien und interaktiver Medien.

Terminal-basierte Automatisierung

Ausführung komplexer Bash-Befehle und Manipulation von Dateisystemen mit hoher Präzision durch fortschrittliche reasoning-Modi.

Unternehmens-Datenaudits

Analyse unstrukturierter Finanzdaten und Rechtsdokumente zur Identifizierung von Compliance-Lücken mit nahezu perfektem faktischem Abruf.

Stärken

Einschränkungen

Führend bei ARC-AGI-2 Reasoning: Erreichte 77,1 % bei ARC-AGI-2 und verdoppelt damit die reasoning-Fähigkeit früherer flagship-Modelle.
Preiszuschlag bei großem Kontext: Input- und Output-Preise verdoppeln sich, sobald ein prompt die 200.000-token-Schwelle überschreitet, was massive Batch-Jobs belastet.
1M Token Context Window: Bewältigt riesige, dateiübergreifende Codebasen und lange Videos mit state-of-the-art Abruf und niedriger latency.
Extreme Ausgabegeschwätzigkeit: Benchmarks deuten darauf hin, dass das model übermäßig ausführlich sein kann und deutlich mehr tokens generiert als für einfache Aufgaben erforderlich.
Wettbewerbsfähige Preisstrategie: Preislich bei $2/$12 pro Million tokens angesiedelt, was es deutlich erschwinglicher macht als Äquivalente von Anthropic oder OpenAI.
Herausforderungen beim nuancierten Ton: Community-Feedback legt nahe, dass der Konversationston im Vergleich zur Claude 3.5-Serie weniger natürlich oder nuanciert wirken kann.
Granulare Compute-Stufen: Verfügt über ein dreistufiges Denksystem für präzise Entwicklerkontrolle über interne reasoning-Tiefe und Kosten.
Inkonsistente Reasoning-Stufen: Die reasoning-Qualität variiert erheblich zwischen den Stufen, was oft manuelle Experimente erfordert, um die optimale Einstellung zu finden.

API-Schnellstart

google/gemini-3.1-pro-preview

Dokumentation anzeigen
google SDK
import { GoogleGenAI } from "@google/genai";

const genAI = new GoogleGenAI(process.env.GOOGLE_API_KEY);
const model = genAI.getGenerativeModel({
  model: "gemini-3.1-pro-preview",
  thinkingConfig: { tier: "high" }
});

const prompt = "Analysiere diese gesamte Codebasis auf Sicherheitslücken.";
const result = await model.generateContent(prompt);
console.log(result.response.text());

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über Gemini 3.1 Pro sagen

Sehen Sie, was die Community über Gemini 3.1 Pro denkt

Der 77,1 %-Wert von Gemini 3.1 Pro stellt die bedeutendste Marktverschiebung dar; er verdoppelt den bisherigen Höchstwert bei ARC-AGI.
enoumen
reddit
Die Coding-Benchmarks lügen nicht. Dieses model fand einen Bug in meinem Repo, den 3.5 und GPT-4o komplett übersehen haben.
SiliconValleyCoder
hackernews
Der Shitstorm um Gemini 3.1 ist wirklich interessant. Es hat die Benchmarks vernichtet, aber echte Nutzer sagen, der Ton und die Stimmung seien inkonsistent.
cryptopunk7213
twitter
Die DeepThink-Engine kann zu erheblichen Verzögerungen führen, manchmal über 90 Sekunden, wenn Aufgaben tiefe Logik erfordern.
TechReviewer2026
youtube
Context caching ist hier das Killer-Feature. Ich betreibe einen kompletten Dokumentations-Bot für ein paar Cents im Vergleich zu GPT-4o.
CloudArchitect
reddit
Gemini hat bei einer komplexen Planungsaufgabe überhaupt nicht über Python gesprochen... einige Logikschritte waren im endgültigen Plan einfach nicht vorhanden.
Temporary-Mix8022
reddit

Videos über Gemini 3.1 Pro

Schauen Sie Tutorials, Rezensionen und Diskussionen über Gemini 3.1 Pro

Gemini 3.1 Pro generiert die bisher detaillierteste Version dieser Pagode

Gemini hat bei weitem das breiteste window von einer Million tokens

Die multimodale Wiedergabetreue bei der Audioverarbeitung ist spürbar besser als bei 3.0

Der token-Durchsatz bleibt stabil, selbst wenn sich das context window füllt

Der Langzeitabruf ist über die gesamte Million tokens hinweg im Grunde perfekt

Bei Rätseln, die nicht in den Trainingsdaten enthalten sein sollten, übertrifft die Gemini 3-Serie alle anderen Modelle

3.1 Pro könnte die Laufzeit eines fine-tuning-Skripts tatsächlich von 300 Sekunden auf 47 Sekunden reduzieren

DeepThink-Logikschritte sind im Trace deutlich sichtbar und zeigen echte Überlegung

Wir erreichen eine Benchmark-Sättigung, bei der nur ARC-AGI wirklich für den Fortschritt zählt

Die AGI-Trajektorie beschleunigt sich aufgrund dieser abstrakten reasoning-Sprünge

Ich denke, dass 3.1 sich wirklich wie ein Fortschritt anfühlt, auch wenn er nur sehr gering ist

Es scheint Gemini 3.0 Pro zu übertreffen, wenn wir genau dieselben prompts nebeneinander testen

Die Coding-Genauigkeit bei komplexen Python-Refactors ist die höchste, die ich je gesehen habe

Die API-Zuverlässigkeit hat sich im letzten Monat des Testens deutlich verbessert

Die reale Performance entspricht endlich dem Hype der Benchmark-Ergebnisse

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für Gemini 3.1 Pro

Expertentipps, um das Beste aus Gemini 3.1 Pro herauszuholen.

Auswahl der Reasoning-Stufe

Nutzen Sie den High-Modus für komplexe Mathematik oder Logik, wechseln Sie aber für Standardformatierungen zu Low, um compute zu sparen.

Context Caching

Implementieren Sie context caching für statische Dokumentationen, um die Input-Preise um bis zu 90 % pro Million tokens zu senken.

Strukturierte Artefakte

Nutzen Sie die Fähigkeit des models, strukturierte Aufgabenlisten zu erstellen, um die menschliche Überwachung bei agentic-Durchläufen zu erleichtern.

Multimodal Prompting

Kombinieren Sie Video- und Audio-Inputs, um dem model den vollständigen Kontext von realen Szenarien anstelle von reinen Textbeschreibungen zu geben.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

google

Gemini 3.1 Flash Live Preview

Google

Gemini 3.1 Flash Live Preview is Google's ultra-low-latency, audio-to-audio model featuring a 131K context window, high-fidelity multimodal reasoning, and...

131K context
$0.75/$4.50/1M
xai

Grok-3

xAI

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

1M context
$3.00/$15.00/1M
openai

GPT-5.2 Pro

OpenAI

GPT-5.2 Pro is OpenAI's 2025 flagship reasoning model featuring Extended Thinking for SOTA performance in mathematics, coding, and expert knowledge work.

400K context
$21.00/$168.00/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M

Häufig gestellte Fragen zu Gemini 3.1 Pro

Finden Sie Antworten auf häufige Fragen zu Gemini 3.1 Pro