google

Gemini 3.1 Flash-Lite

Gemini 3.1 Flash-Lite ist Googles schnellstes und kosteneffizientestes model. Mit 1M context, nativer Multimodalität und 363 tokens/Sek. Geschwindigkeit für...

MultimodalHohe GeschwindigkeitKosteneffizientGoogle Gemini
google logogoogleGemini 3.13. März 2026
Kontext
1.0MToken
Max. Ausgabe
66KToken
Eingabepreis
$0.25/ 1M
Ausgabepreis
$1.50/ 1M
Modalität:TextImageAudioVideo
Fähigkeiten:VisionToolsStreaming
Benchmarks
GPQA
86.9%
GPQA: Wissenschafts-Q&A auf Hochschulniveau. Ein anspruchsvoller Benchmark mit 448 Multiple-Choice-Fragen in Biologie, Physik und Chemie, erstellt von Fachexperten. Doktoranden erreichen nur 65-74% Genauigkeit, während Laien selbst mit unbegrenztem Webzugang nur 34% schaffen (daher 'Google-sicher'). Gemini 3.1 Flash-Lite erreichte 86.9% bei diesem Benchmark.
HLE
16%
HLE: Expertenwissen-Reasoning. Testet die Fähigkeit eines Modells, Expertenwissen in spezialisierten Bereichen zu demonstrieren. Bewertet tiefes Verständnis komplexer Themen, die professionelles Wissen erfordern. Gemini 3.1 Flash-Lite erreichte 16% bei diesem Benchmark.
MMLU
88.9%
MMLU: Massives Multitask-Sprachverständnis. Ein umfassender Benchmark mit 16.000 Multiple-Choice-Fragen zu 57 akademischen Fächern wie Mathematik, Philosophie, Jura und Medizin. Testet breites Wissen und Reasoning-Fähigkeiten. Gemini 3.1 Flash-Lite erreichte 88.9% bei diesem Benchmark.
MMLU Pro
80%
MMLU Pro: MMLU Professional Edition. Eine erweiterte Version von MMLU mit 12.032 Fragen im schwereren 10-Optionen-Format. Umfasst Mathematik, Physik, Chemie, Jura, Ingenieurwesen, Wirtschaft, Gesundheit, Psychologie, Business, Biologie, Philosophie und Informatik. Gemini 3.1 Flash-Lite erreichte 80% bei diesem Benchmark.
SimpleQA
43.3%
SimpleQA: Faktische Genauigkeits-Benchmark. Testet die Fähigkeit eines Modells, akkurate, faktische Antworten auf einfache Fragen zu geben. Misst Zuverlässigkeit und reduziert Halluzinationen bei Wissensabruf. Gemini 3.1 Flash-Lite erreichte 43.3% bei diesem Benchmark.
IFEval
85%
IFEval: Anweisungsbefolgungs-Evaluation. Misst, wie gut ein Modell spezifische Anweisungen und Einschränkungen befolgt. Testet die Fähigkeit, Formatierungsregeln, Längenbegrenzungen und andere explizite Anforderungen einzuhalten. Gemini 3.1 Flash-Lite erreichte 85% bei diesem Benchmark.
AIME 2025
25%
AIME 2025: Amerikanische Mathematik-Olympiade. Wettbewerbsmathematik-Aufgaben aus der renommierten AIME-Prüfung für talentierte Oberstufenschüler. Testet fortgeschrittenes mathematisches Problemlösen, das abstraktes Denken erfordert. Gemini 3.1 Flash-Lite erreichte 25% bei diesem Benchmark.
MATH
78%
MATH: Mathematisches Problemlösen. Ein umfassender Mathematik-Benchmark für Problemlösung in Algebra, Geometrie, Analysis und anderen mathematischen Bereichen. Erfordert mehrstufiges Reasoning und formales mathematisches Wissen. Gemini 3.1 Flash-Lite erreichte 78% bei diesem Benchmark.
GSM8k
95%
GSM8k: Grundschul-Mathematik 8K. 8.500 Mathematik-Textaufgaben auf Grundschulniveau, die mehrstufiges Reasoning erfordern. Testet grundlegende Arithmetik und logisches Denken durch Alltagsszenarien. Gemini 3.1 Flash-Lite erreichte 95% bei diesem Benchmark.
MGSM
92%
MGSM: Mehrsprachige Grundschul-Mathematik. Der GSM8k-Benchmark übersetzt in 10 Sprachen inkl. Spanisch, Französisch, Deutsch, Russisch, Chinesisch und Japanisch. Testet mathematisches Reasoning in verschiedenen Sprachen. Gemini 3.1 Flash-Lite erreichte 92% bei diesem Benchmark.
MathVista
75%
MathVista: Mathematisches visuelles Reasoning. Testet die Fähigkeit, mathematische Probleme mit visuellen Elementen wie Diagrammen, Graphen, Geometriefiguren und wissenschaftlichen Abbildungen zu lösen. Gemini 3.1 Flash-Lite erreichte 75% bei diesem Benchmark.
SWE-Bench
35%
SWE-Bench: Software-Engineering-Benchmark. KI-Modelle versuchen, echte GitHub-Issues in Open-Source-Python-Projekten zu lösen, mit menschlicher Verifizierung. Testet praktische Software-Engineering-Fähigkeiten. Top-Modelle stiegen von 4,4% (2023) auf über 70% (2024). Gemini 3.1 Flash-Lite erreichte 35% bei diesem Benchmark.
HumanEval
88%
HumanEval: Python-Programmieraufgaben. 164 handgeschriebene Programmieraufgaben, bei denen Modelle korrekte Python-Funktionsimplementierungen generieren müssen. Jede Lösung wird durch Unit-Tests verifiziert. Top-Modelle erreichen heute 90%+. Gemini 3.1 Flash-Lite erreichte 88% bei diesem Benchmark.
LiveCodeBench
72%
LiveCodeBench: Live-Coding-Benchmark. Testet Programmierfähigkeiten mit kontinuierlich aktualisierten, realen Programmieraufgaben. Anders als statische Benchmarks verwendet er frische Aufgaben, um Datenkontamination zu verhindern. Gemini 3.1 Flash-Lite erreichte 72% bei diesem Benchmark.
MMMU
76.8%
MMMU: Multimodales Verständnis. Massive Multi-Disziplin Multimodales Verständnis Benchmark, der Vision-Sprach-Modelle bei Hochschulaufgaben in 30 Fächern testet, die sowohl Bildverständnis als auch Expertenwissen erfordern. Gemini 3.1 Flash-Lite erreichte 76.8% bei diesem Benchmark.
MMMU Pro
76.8%
MMMU Pro: MMMU Professional Edition. Erweiterte Version von MMMU mit anspruchsvolleren Fragen und strengerer Bewertung. Testet fortgeschrittenes multimodales Reasoning auf professionellem und Expertenniveau. Gemini 3.1 Flash-Lite erreichte 76.8% bei diesem Benchmark.
ChartQA
91%
ChartQA: Diagramm-Fragebeantwortung. Testet die Fähigkeit, Informationen in Diagrammen und Graphen zu verstehen und zu analysieren. Erfordert Datenextraktion, Wertevergleiche und Berechnungen aus visuellen Darstellungen. Gemini 3.1 Flash-Lite erreichte 91% bei diesem Benchmark.
DocVQA
92%
DocVQA: Dokument-Visuelle Q&A. Dokument Visual Question Answering Benchmark, der die Fähigkeit testet, Informationen aus Dokumentbildern inkl. Formularen, Berichten und gescanntem Text zu extrahieren und zu analysieren. Gemini 3.1 Flash-Lite erreichte 92% bei diesem Benchmark.
Terminal-Bench
55%
Terminal-Bench: Terminal/CLI-Aufgaben. Testet die Fähigkeit, Kommandozeilen-Operationen auszuführen, Shell-Skripte zu schreiben und in Terminal-Umgebungen zu navigieren. Misst praktische Systemadministrations- und Entwickler-Workflow-Fähigkeiten. Gemini 3.1 Flash-Lite erreichte 55% bei diesem Benchmark.
ARC-AGI
12%
ARC-AGI: Abstraktion & Reasoning. Abstraction and Reasoning Corpus für AGI - testet fluide Intelligenz durch neuartige Mustererkennungs-Puzzles. Jede Aufgabe erfordert das Entdecken der zugrundeliegenden Regel aus Beispielen und misst allgemeine Reasoning-Fähigkeit statt Auswendiglernen. Gemini 3.1 Flash-Lite erreichte 12% bei diesem Benchmark.

Über Gemini 3.1 Flash-Lite

Erfahren Sie mehr über die Fähigkeiten, Funktionen und Einsatzmöglichkeiten von Gemini 3.1 Flash-Lite.

Gemini 3.1 Flash-Lite ist für KI-Anwendungen mit hohem Volumen konzipiert, bei denen die Verarbeitungsgeschwindigkeit die primäre technische Anforderung darstellt. Im Gegensatz zu größeren Pro-models verwendet Flash-Lite eine optimierte Architektur, die den Durchsatz priorisiert und 363 tokens pro Sekunde erreicht. Es dient als spezialisiertes Werkzeug für Entwickler, die Echtzeit-Sprach-Agents, automatisierte Content-Moderationssysteme und große Datenextraktions-Pipelines bauen, die bei hohem Traffic kosteneffizient bleiben müssen.

Trotz der 'Lite'-Bezeichnung behält das model ein context window von 1 Million tokens bei. Es kann Roh-Audiodateien, einstündige Videos und Hunderte von PDF-Seiten in einer einzigen Anfrage verarbeiten. Durch die Einführung von Thinking Levels ermöglicht Google den Nutzern, zwischen fast sofortigen Antworten für einfache Aufgaben und einer tieferen Reasoning-Phase für komplexe Logik zu wählen. Dies bietet mehrere Leistungsprofile innerhalb eines einzigen API-Endpunkts, um Kosten und Genauigkeit auszubalancieren.

Das model ist nativ multimodal, wodurch externe Werkzeuge zur Transkription von Audio oder zur Beschreibung von Bildern vor der Verarbeitung überflüssig werden. Diese native Fähigkeit verbessert die Leistung bei visuellen Aufgaben wie der Beantwortung von Dokumentenfragen und der Analyse von Diagrammen. Entwickler können den thinking_level parameter nutzen, um die interne reasoning-Zeit anzupassen und so den Aufwand des models basierend auf der spezifischen Komplexität jeder Anfrage effektiv zu skalieren.

Gemini 3.1 Flash-Lite

Anwendungsfälle für Gemini 3.1 Flash-Lite

Entdecken Sie die verschiedenen Möglichkeiten, Gemini 3.1 Flash-Lite für großartige Ergebnisse zu nutzen.

Hochvolumige Übersetzung

Verarbeitung Tausender mehrsprachiger Chat-Nachrichten oder Support-Tickets in Echtzeit mit einer latency unter einer Sekunde.

Intelligentes Model-Routing

Dient als schneller Klassifikator, um zu bestimmen, ob eingehende Anfragen an teurere models weitergeleitet werden müssen.

Multimodale Inhaltsmoderation

Kostengünstiges Scannen großer Mengen nutzergenerierter Bilder und Videos auf Sicherheitskonformität.

Echtzeit-UI-Prototyping

Generierung funktionaler React- oder Tailwind-Komponenten aus handgezeichneten Wireframes oder verbalen Beschreibungen.

Zusammenfassung langer Dokumente

Kompression umfangreicher juristischer Archive oder technischer Handbücher, ohne den Kontext über das 1M-token-Fenster hinweg zu verlieren.

Live-Audio-Transkription

Umwandlung stundenlanger Meetings oder Vorlesungsaufzeichnungen in strukturierte Zusammenfassungen und Action-Items in einem Durchgang.

Stärken

Einschränkungen

Überragende Performance: Mit 363 tokens pro Sekunde ist es eines der schnellsten models der Branche für Echtzeit-Reaktionsfähigkeit.
Geringe Fakten-Genauigkeit: Ein SimpleQA-Wert von 43,3 % deutet auf ein hohes Halluzinationsrisiko bei allgemeinem Wissen ohne Grounding hin.
Fortgeschrittenes Reasoning: Mit 86,9 % bei GPQA Diamond bietet es wissenschaftliche Logik auf PhD-Niveau in einer leichtgewichtigen Tier.
Preiserhöhung: Es ist deutlich teurer als der Vorgänger Gemini 2.5 Flash-Lite, den es in der Reihe ersetzt.
Dynamische Kostenkontrolle: Der Thinking Levels parameter ermöglicht eine granulare Steuerung der Compute-Kosten pro Anfrage.
Höhere latency bei hohem Thinking-Level: Die Nutzung des hohen Thinking-Levels fügt etwa 7 bis 10 Sekunden Vorberechnungszeit vor Beginn der Generierung hinzu.
Vereinte Multimodalität: Die native Aufnahme von Audio, Video und PDFs macht komplexe Multi-model-Orchestrierungs-Pipelines überflüssig.
Sicherheits-Refusals: Interne Tests zeigen einen Rückgang der Konsistenz bei der Bild-zu-Text-Sicherheit um 21,7 % während Red-Teaming-Übungen.

API-Schnellstart

google/gemini-3.1-flash-lite-preview

Dokumentation anzeigen
google SDK
import { GoogleGenAI } from "@google/generative-ai";

const genAI = new GoogleGenAI(process.env.API_KEY);
const model = genAI.getGenerativeModel({
  model: "gemini-3.1-flash-lite-preview",
  generationConfig: {
    thinkingConfig: { thinking_level: "high" }
  }
});

const result = await model.generateContent("Create a weather dashboard UI.");
console.log(result.response.text());

Installieren Sie das SDK und beginnen Sie in wenigen Minuten mit API-Aufrufen.

Was die Leute über Gemini 3.1 Flash-Lite sagen

Sehen Sie, was die Community über Gemini 3.1 Flash-Lite denkt

Die Coding-Fähigkeiten von 3.1 Flash-Lite sind für die Front-End-Entwicklung überraschend gut; es hat einen 360-Grad-Viewer perfekt codiert.
WorldofAI
youtube
Gemini 3.1 Flash-Lite ist das model, um KI-Agents zu bauen, die immer aktiv sind. Es liest, verbindet und fasst alles zusammen.
Shubham Saboo
twitter
Die Preisgestaltung ist ein riesiger Schock. Ein 3,75-facher Anstieg bei den output tokens wird schmerzen, wenn man ein knappes Cloud-Budget hat.
Binary Verse AI
youtube
Es verlagert die Last der Komplexität von der Architektur Ihres Engineering-Teams direkt auf die Infrastruktur von Google.
Julian Goldie
youtube
Ein weiterer Preissturz für Intelligenz. Hohe Geschwindigkeit, niedrige Kosten, hohe Intelligenz. Ein großartiges model für agentic Routing.
ctgtplb
twitter
Das 1M context-Fenster bleibt hier das Killer-Feature. Ich kann ganze Repo-Ordner hineinwerfen und es funktioniert einfach mit einer TTFT unter einer Sekunde.
DevFlow_26
reddit

Videos über Gemini 3.1 Flash-Lite

Schauen Sie Tutorials, Rezensionen und Diskussionen über Gemini 3.1 Flash-Lite

Es scheint, als hätten sie irgendwie eine Menge Intelligenz in dieses model hineingepackt.

Ich würde es für Workloads mit hohem Durchsatz verwenden, die sehr genau definiert sind.

Die Front-End-Fähigkeiten des Flash-Lite sind sogar besser als die der meisten models, mit denen ich bisher gearbeitet habe.

Es hat buchstäblich einen voll funktionsfähigen Viewer in einem einzigen Anlauf erstellt.

Dieses model ist ideal für alle, die Geschwindigkeit brauchen, ohne auf Logik zu verzichten.

Dieses model ist das, was man ein Arbeitstier-model nennt... speziell für Aufgaben mit hohem Durchsatz entwickelt.

Wenn man es mit minimalem Thinking-Budget laufen lässt, funktioniert es im Grunde wie ein Modell ohne Reasoning und ist extrem schnell.

Es hat bei der Website, die wir als output erhalten haben, erstaunlich gute Arbeit geleistet.

Das Verhältnis von Geschwindigkeit zu Kosten ist der wahre Grund, warum man seine Produktions-Apps hierher verlagern sollte.

Es verarbeitet multimodale inputs nativ, was ein riesiger Vorteil gegenüber der Konkurrenz ist.

Fast 87 % bei GPQA Diamond mit einem als 'Lite' bezeichneten model zu erreichen, bringt unser gesamtes Kategorisierungssystem durcheinander.

Verwenden Sie dieses model nicht als Fakten-Orakel... Sie müssen die Fakten selbst liefern.

Mit 3.1 Flash-Lite vermeiden Sie es, drei andere Microservices zu starten... diese Einfachheit ist bares Geld wert.

Die 45-prozentige Steigerung der output-Geschwindigkeit ist bei der Streaming-Antwort sofort spürbar.

Sie erhalten 1M context für einen Bruchteil der Kosten, was sich in der Produktion immer noch wie Magie anfühlt.

Mehr als nur Prompts

Optimieren Sie Ihren Workflow mit KI-Automatisierung

Automatio kombiniert die Kraft von KI-Agenten, Web-Automatisierung und intelligenten Integrationen, um Ihnen zu helfen, mehr in weniger Zeit zu erreichen.

KI-Agenten
Web-Automatisierung
Intelligente Workflows

Pro-Tipps für Gemini 3.1 Flash-Lite

Expertentipps, um das Beste aus Gemini 3.1 Flash-Lite herauszuholen.

Thinking Levels festlegen

Nutzen Sie für Klassifizierungen minimale Thinking Levels, um Kosten zu senken, und schalten Sie bei komplexen Coding-Aufgaben auf hoch.

Grounding aktivieren

Verwenden Sie für Aufgaben, die faktische Genauigkeit erfordern, immer Google Search Grounding, da die grundlegende Fakten-Genauigkeit geringer ist.

Rohdaten hochladen

Vermeiden Sie das Vorverarbeiten von Audio oder Video in Text; laden Sie stattdessen Rohdateien hoch, um die native Multimodalität zu nutzen.

System Instructions verwenden

Erzwingen Sie JSON-Schemas strikt über den system_instruction parameter, um output-Korrektur-tokens zu minimieren.

Erfahrungsberichte

Was Unsere Nutzer Sagen

Schliessen Sie sich Tausenden zufriedener Nutzer an, die ihren Workflow transformiert haben

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Verwandte AI Models

anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M

Häufig gestellte Fragen zu Gemini 3.1 Flash-Lite

Finden Sie Antworten auf häufige Fragen zu Gemini 3.1 Flash-Lite