google

Gemini 3.1 Flash-Lite

Gemini 3.1 Flash-Lite è il model di Google più veloce ed efficiente. Offre 1M di context, multimodalità nativa e una velocità di 363 tokens/sec.

MultimodalAlta velocitàEfficienza dei costiGoogle Gemini
google logogoogleGemini 3.13 marzo 2026
Contesto
1.0Mtoken
Output max
66Ktoken
Prezzo input
$0.25/ 1M
Prezzo output
$1.50/ 1M
Modalita:TextImageAudioVideo
Capacita:VisioneStrumentiStreaming
Benchmark
GPQA
86.9%
GPQA: Domande scientifiche livello laurea. Un benchmark rigoroso con 448 domande su biologia, fisica e chimica. Gli esperti PhD raggiungono solo il 65-74% di accuratezza. Gemini 3.1 Flash-Lite ha ottenuto 86.9% in questo benchmark.
HLE
16%
HLE: Ragionamento esperto di alto livello. Testa la capacita di un modello di dimostrare ragionamento a livello esperto in domini specializzati. Gemini 3.1 Flash-Lite ha ottenuto 16% in questo benchmark.
MMLU
88.9%
MMLU: Comprensione linguistica multitask massiva. Un benchmark completo con 16.000 domande su 57 materie accademiche. Gemini 3.1 Flash-Lite ha ottenuto 88.9% in questo benchmark.
MMLU Pro
80%
MMLU Pro: MMLU Edizione Professionale. Una versione migliorata di MMLU con 12.032 domande e un formato piu difficile a 10 opzioni. Gemini 3.1 Flash-Lite ha ottenuto 80% in questo benchmark.
SimpleQA
43.3%
SimpleQA: Benchmark di accuratezza fattuale. Testa la capacita di un modello di fornire risposte accurate e fattuali. Gemini 3.1 Flash-Lite ha ottenuto 43.3% in questo benchmark.
IFEval
85%
IFEval: Valutazione del seguire istruzioni. Misura quanto bene un modello segue istruzioni e vincoli specifici. Gemini 3.1 Flash-Lite ha ottenuto 85% in questo benchmark.
AIME 2025
25%
AIME 2025: Esame di matematica invitazionale americano. Problemi matematici a livello competitivo dal prestigioso esame AIME. Gemini 3.1 Flash-Lite ha ottenuto 25% in questo benchmark.
MATH
78%
MATH: Risoluzione di problemi matematici. Un benchmark matematico completo che testa la risoluzione di problemi in algebra, geometria, calcolo. Gemini 3.1 Flash-Lite ha ottenuto 78% in questo benchmark.
GSM8k
95%
GSM8k: Matematica scuola elementare 8K. 8.500 problemi matematici a parole di livello scuola elementare. Gemini 3.1 Flash-Lite ha ottenuto 95% in questo benchmark.
MGSM
92%
MGSM: Matematica multilingue scuola elementare. Il benchmark GSM8k tradotto in 10 lingue. Gemini 3.1 Flash-Lite ha ottenuto 92% in questo benchmark.
MathVista
75%
MathVista: Ragionamento visivo matematico. Testa la capacita di risolvere problemi matematici con elementi visivi. Gemini 3.1 Flash-Lite ha ottenuto 75% in questo benchmark.
SWE-Bench
35%
SWE-Bench: Benchmark ingegneria software. I modelli AI tentano di risolvere veri problemi GitHub in progetti Python. Gemini 3.1 Flash-Lite ha ottenuto 35% in questo benchmark.
HumanEval
88%
HumanEval: Problemi di programmazione Python. 164 problemi di programmazione dove i modelli devono generare implementazioni corrette di funzioni Python. Gemini 3.1 Flash-Lite ha ottenuto 88% in questo benchmark.
LiveCodeBench
72%
LiveCodeBench: Benchmark di codifica live. Testa le capacita di codifica su sfide di programmazione reali continuamente aggiornate. Gemini 3.1 Flash-Lite ha ottenuto 72% in questo benchmark.
MMMU
76.8%
MMMU: Comprensione multimodale. Benchmark di comprensione multimodale su 30 materie universitarie. Gemini 3.1 Flash-Lite ha ottenuto 76.8% in questo benchmark.
MMMU Pro
76.8%
MMMU Pro: MMMU Edizione Professionale. Versione migliorata di MMMU con domande piu impegnative. Gemini 3.1 Flash-Lite ha ottenuto 76.8% in questo benchmark.
ChartQA
91%
ChartQA: Domande e risposte su grafici. Testa la capacita di comprendere e analizzare informazioni da grafici e diagrammi. Gemini 3.1 Flash-Lite ha ottenuto 91% in questo benchmark.
DocVQA
92%
DocVQA: Domande visive su documenti. Testa la capacita di estrarre informazioni da immagini di documenti. Gemini 3.1 Flash-Lite ha ottenuto 92% in questo benchmark.
Terminal-Bench
55%
Terminal-Bench: Attivita terminale/CLI. Testa la capacita di eseguire operazioni da linea di comando. Gemini 3.1 Flash-Lite ha ottenuto 55% in questo benchmark.
ARC-AGI
12%
ARC-AGI: Astrazione e ragionamento. Testa l'intelligenza fluida attraverso nuovi puzzle di riconoscimento di pattern. Gemini 3.1 Flash-Lite ha ottenuto 12% in questo benchmark.

Informazioni su Gemini 3.1 Flash-Lite

Scopri le capacita di Gemini 3.1 Flash-Lite, le funzionalita e come puo aiutarti a ottenere risultati migliori.

Gemini 3.1 Flash-Lite è progettato per applicazioni AI ad alto volume dove la velocità di elaborazione è il requisito tecnico principale. A differenza dei models Pro più grandi, Flash-Lite utilizza un'architettura ottimizzata che privilegia il throughput, raggiungendo 363 tokens al secondo. Funge da strumento specializzato per gli sviluppatori che creano voice agent in tempo reale, sistemi automatizzati di moderazione dei contenuti e pipeline di estrazione dati su larga scala che devono rimanere convenienti sotto traffico intenso.

Nonostante la designazione lite, il model mantiene una finestra di context di 1 milione di tokens. Può ingerire file audio grezzi, video di un'ora e centinaia di pagine di PDF in una singola richiesta. Introducendo i Thinking Levels, Google consente agli utenti di scegliere tra risposte quasi istantanee per compiti semplici e una fase di reasoning più approfondita per logiche complesse. Questo fornisce molteplici profili di performance all'interno di un singolo endpoint API per bilanciare costi e accuratezza.

Il model è nativamente multimodale, il che elimina la necessità di strumenti esterni per trascrivere audio o descrivere immagini prima del processamento. Questa capacità nativa migliora le performance su task visivi come il question answering su documenti e l'analisi di grafici. Gli sviluppatori possono utilizzare il parametro thinking_level per regolare il tempo di reasoning interno, scalando efficacemente lo sforzo del model in base alla complessità specifica di ogni query.

Gemini 3.1 Flash-Lite

Casi d'uso per Gemini 3.1 Flash-Lite

Scopri i diversi modi in cui puoi usare Gemini 3.1 Flash-Lite per ottenere ottimi risultati.

Traduzione ad alto volume

Processamento in tempo reale di migliaia di messaggi chat multilingua o ticket di supporto con una latency inferiore al secondo.

Routing intelligente del model

Agisce come un classificatore rapido per determinare se le query in entrata debbano essere escalate a models più costosi.

Moderazione di contenuti multimodali

Scansione di grandi lotti di immagini e video generati dagli utenti per la conformità di sicurezza a basso costo.

Prototipazione UI in tempo reale

Generazione di componenti React o Tailwind funzionali a partire da wireframe disegnati a mano o descrizioni verbali.

Summarization di documenti lunghi

Sintesi di massicci archivi legali o manuali tecnici senza perdere il context entro la finestra di 1M di tokens.

Trascrizione audio live

Conversione di ore di riunioni o registrazioni di lezioni in riassunti strutturati e action items in un unico passaggio.

Punti di forza

Limitazioni

Performance fulminee: A 363 tokens al secondo, è uno dei models più veloci del settore per la reattività in tempo reale.
Basso richiamo fattuale: Un punteggio SimpleQA del 43,3% indica un alto rischio di allucinazioni per la conoscenza generale senza grounding.
Reasoning avanzato: Raggiungendo l'86,9% su GPQA Diamond, offre una logica scientifica di livello PhD in una categoria lightweight.
Aumento del prezzo: È significativamente più costoso rispetto al predecessore Gemini 2.5 Flash-Lite che sostituisce nella lineup.
Controllo dinamico dei costi: Il parametro Thinking Levels consente un controllo granulare sulla spesa di calcolo su base richiesta.
Latency maggiore con Thinking alto: L'uso del livello di reasoning alto aggiunge circa 7-10 secondi di pre-computazione prima dell'inizio della generazione.
Multimodalità unificata: L'ingestione nativa di audio, video e PDF elimina la necessità di complessi workflow di orchestrazione multi-model.
Rifiuti di sicurezza: I test interni mostrano un calo del 21,7% nella coerenza della sicurezza da immagine a testo durante le esercitazioni di red-teaming.

Avvio rapido API

google/gemini-3.1-flash-lite-preview

Visualizza documentazione
google SDK
import { GoogleGenAI } from "@google/generative-ai";

const genAI = new GoogleGenAI(process.env.API_KEY);
const model = genAI.getGenerativeModel({
  model: "gemini-3.1-flash-lite-preview",
  generationConfig: {
    thinkingConfig: { thinking_level: "high" }
  }
});

const result = await model.generateContent("Crea una UI per una dashboard meteo.");
console.log(result.response.text());

Installa l'SDK e inizia a fare chiamate API in pochi minuti.

Cosa dice la gente su Gemini 3.1 Flash-Lite

Guarda cosa pensa la community di Gemini 3.1 Flash-Lite

La capacità di coding di 3.1 Flash-Lite è sorprendentemente buona per lo sviluppo front-end; ha codificato un visualizzatore a 360 gradi perfettamente.
WorldofAI
youtube
Gemini 3.1 Flash-Lite è il model ideale per costruire AI Agents multimodali sempre attivi. Legge, collega e consolida tutto.
Shubham Saboo
twitter
Il prezzo è uno shock enorme. Un salto di 3,75x sui tokens in output peserà se hai un budget cloud ristretto.
Binary Verse AI
youtube
Sposta l'onere della complessità dall'architettura del tuo team di ingegneri direttamente sull'infrastruttura di Google.
Julian Goldie
youtube
Un altro calo di prezzo per l'intelligenza. Alta velocità, basso costo, alta intelligenza. Un ottimo model per il routing agentic.
ctgtplb
twitter
Il context da 1M è ancora la killer feature qui. Posso caricare intere cartelle di repository e funziona semplicemente con un TTFT sotto il secondo.
DevFlow_26
reddit

Video su Gemini 3.1 Flash-Lite

Guarda tutorial, recensioni e discussioni su Gemini 3.1 Flash-Lite

Sembra che siano riusciti a inserire molta intelligenza in questo model in qualche modo.

Lo userei per workload ad alto throughput ben definiti.

La capacità di front-end di Flash-Lite è persino migliore della maggior parte dei models con cui ho lavorato.

Ha letteralmente creato un visualizzatore perfettamente funzionale in un colpo solo.

Questo model è ideale per chi ha bisogno di velocità senza sacrificare tutta la logica.

Questo model è ciò che definiremmo un cavallo di battaglia... progettato specificamente per task ad alto throughput.

Se lo esegui con un budget di reasoning minimo, funziona praticamente come un model senza reasoning ed è estremamente veloce.

Ha fatto un ottimo lavoro con il sito web che abbiamo ottenuto come output.

Il rapporto velocità-costo è il vero motivo per cui sposteresti le tue app di produzione qui.

Gestisce gli input multimodali nativamente, il che è un enorme vantaggio rispetto ai competitor.

Raggiungere quasi l'87% su GPQA Diamond con un model etichettato come lite scombussola il nostro intero sistema di categorizzazione.

Non usare questo model come oracolo fattuale... devi fornirgli tu i fatti.

Con 3.1 Flash-Lite, eviti di lanciare altri tre microservizi... quella semplicità vale soldi veri.

L'aumento del 45% nella velocità di output si percepisce immediatamente nella risposta in streaming.

Ottieni 1M di context per pochi centesimi, il che sembra ancora magia in produzione.

Piu di semplici prompt

Potenzia il tuo workflow con l'automazione AI

Automatio combina la potenza degli agenti AI, dell'automazione web e delle integrazioni intelligenti per aiutarti a fare di piu in meno tempo.

Agenti AI
Automazione web
Workflow intelligenti

Consigli Pro per Gemini 3.1 Flash-Lite

Consigli esperti per aiutarti a ottenere il massimo da Gemini 3.1 Flash-Lite e raggiungere risultati migliori.

Imposta i Thinking Levels

Usa un livello di reasoning minimo per la classificazione per ridurre i costi, ma passa a un livello alto per compiti di coding complessi.

Abilita il Grounding

Usa sempre il grounding tramite Google Search per compiti che richiedono richiami fattuali, dato che l'accuratezza fattuale di base è inferiore.

Carica file grezzi

Evita di pre-processare audio o video in testo; carica invece i file grezzi per sfruttare la multimodalità nativa.

Usa le System Instructions

Applica rigorosamente gli schemi JSON usando il parametro system_instruction per ridurre al minimo i tokens di correzione dell'output.

Testimonianze

Cosa dicono i nostri utenti

Unisciti a migliaia di utenti soddisfatti che hanno trasformato il loro workflow

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Correlati AI Models

anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M

Domande frequenti su Gemini 3.1 Flash-Lite

Trova risposte alle domande comuni su Gemini 3.1 Flash-Lite