google

Gemini 3.1 Flash-Lite

Gemini 3.1 Flash-Lite es el model de Google más rápido y eficiente. Ofrece 1M de context, multimodality nativa y una velocidad de 363 tokens/seg para escala.

MultimodalAlta velocidadEficiencia de costosGoogle Gemini
google logogoogleGemini 3.12026-03-03
Contexto
1.0Mtokens
Salida máx.
66Ktokens
Precio entrada
$0.25/ 1M
Precio salida
$1.50/ 1M
Modalidad:TextImageAudioVideo
Capacidades:VisiónHerramientasStreaming
Benchmarks
GPQA
86.9%
GPQA: Q&A Científico Nivel Posgrado. Un riguroso benchmark con 448 preguntas de opción múltiple en biología, física y química creadas por expertos. Los doctores solo logran 65-74% de precisión, mientras que los no expertos obtienen solo 34% incluso con acceso ilimitado a internet (por eso 'a prueba de Google'). Gemini 3.1 Flash-Lite obtuvo 86.9% en este benchmark.
HLE
16%
HLE: Razonamiento de Alto Nivel de Experticia. Evalúa la capacidad de un modelo para demostrar razonamiento a nivel experto en dominios especializados. Evalúa la comprensión profunda de temas complejos que requieren conocimiento profesional. Gemini 3.1 Flash-Lite obtuvo 16% en este benchmark.
MMLU
88.9%
MMLU: Comprensión Masiva Multitarea del Lenguaje. Un benchmark completo con 16,000 preguntas de opción múltiple en 57 materias académicas incluyendo matemáticas, filosofía, derecho y medicina. Evalúa conocimiento amplio y capacidades de razonamiento. Gemini 3.1 Flash-Lite obtuvo 88.9% en este benchmark.
MMLU Pro
80%
MMLU Pro: MMLU Edición Profesional. Una versión mejorada de MMLU con 12,032 preguntas usando un formato más difícil de 10 opciones. Cubre Matemáticas, Física, Química, Derecho, Ingeniería, Economía, Salud, Psicología, Negocios, Biología, Filosofía e Informática. Gemini 3.1 Flash-Lite obtuvo 80% en este benchmark.
SimpleQA
43.3%
SimpleQA: Benchmark de Precisión Factual. Evalúa la capacidad de un modelo para proporcionar respuestas precisas y factuales a preguntas directas. Mide la fiabilidad y reduce las alucinaciones en tareas de recuperación de conocimiento. Gemini 3.1 Flash-Lite obtuvo 43.3% en este benchmark.
IFEval
85%
IFEval: Evaluación de Seguimiento de Instrucciones. Mide qué tan bien un modelo sigue instrucciones y restricciones específicas. Evalúa la capacidad de adherirse a reglas de formato, límites de longitud y otros requisitos explícitos. Gemini 3.1 Flash-Lite obtuvo 85% en este benchmark.
AIME 2025
25%
AIME 2025: Examen de Matemáticas Invitacional Americano. Problemas de matemáticas a nivel de competencia del prestigioso examen AIME diseñado para estudiantes talentosos de secundaria. Evalúa resolución avanzada de problemas matemáticos que requiere razonamiento abstracto. Gemini 3.1 Flash-Lite obtuvo 25% en este benchmark.
MATH
78%
MATH: Resolución de Problemas Matemáticos. Un benchmark completo de matemáticas que evalúa la resolución de problemas en álgebra, geometría, cálculo y otros dominios matemáticos. Requiere razonamiento en múltiples pasos y conocimiento matemático formal. Gemini 3.1 Flash-Lite obtuvo 78% en este benchmark.
GSM8k
95%
GSM8k: Matemáticas de Primaria 8K. 8,500 problemas de matemáticas de nivel primaria que requieren razonamiento en múltiples pasos. Evalúa aritmética básica y pensamiento lógico a través de escenarios cotidianos. Gemini 3.1 Flash-Lite obtuvo 95% en este benchmark.
MGSM
92%
MGSM: Matemáticas de Primaria Multilingüe. El benchmark GSM8k traducido a 10 idiomas incluyendo español, francés, alemán, ruso, chino y japonés. Evalúa el razonamiento matemático en diferentes idiomas. Gemini 3.1 Flash-Lite obtuvo 92% en este benchmark.
MathVista
75%
MathVista: Razonamiento Visual Matemático. Evalúa la capacidad de resolver problemas matemáticos que involucran elementos visuales como gráficos, diagramas de geometría y figuras científicas. Combina comprensión visual con razonamiento matemático. Gemini 3.1 Flash-Lite obtuvo 75% en este benchmark.
SWE-Bench
35%
SWE-Bench: Benchmark de Ingeniería de Software. Los modelos de IA intentan resolver issues reales de GitHub en proyectos Python de código abierto con verificación humana. Evalúa habilidades prácticas de ingeniería de software. Los mejores modelos pasaron de 4.4% (2023) a más del 70% (2024). Gemini 3.1 Flash-Lite obtuvo 35% en este benchmark.
HumanEval
88%
HumanEval: Problemas de Programación Python. 164 problemas de programación escritos a mano donde los modelos deben generar implementaciones correctas de funciones Python. Cada solución se verifica con tests unitarios. Los mejores modelos ahora logran más del 90%. Gemini 3.1 Flash-Lite obtuvo 88% en este benchmark.
LiveCodeBench
72%
LiveCodeBench: Benchmark de Codificación en Vivo. Evalúa habilidades de codificación con desafíos de programación del mundo real continuamente actualizados. A diferencia de benchmarks estáticos, usa problemas frescos para prevenir contaminación de datos. Gemini 3.1 Flash-Lite obtuvo 72% en este benchmark.
MMMU
76.8%
MMMU: Comprensión Multimodal. Benchmark de Comprensión Multimodal Multidisciplinaria Masiva que evalúa modelos de visión-lenguaje en problemas universitarios en 30 materias que requieren tanto comprensión de imágenes como conocimiento experto. Gemini 3.1 Flash-Lite obtuvo 76.8% en este benchmark.
MMMU Pro
76.8%
MMMU Pro: MMMU Edición Profesional. Versión mejorada de MMMU con preguntas más desafiantes y evaluación más estricta. Evalúa razonamiento multimodal avanzado a niveles profesional y experto. Gemini 3.1 Flash-Lite obtuvo 76.8% en este benchmark.
ChartQA
91%
ChartQA: Respuesta a Preguntas sobre Gráficos. Evalúa la capacidad de comprender y razonar sobre información presentada en gráficos y diagramas. Requiere extracción de datos, comparación de valores y cálculos desde representaciones visuales. Gemini 3.1 Flash-Lite obtuvo 91% en este benchmark.
DocVQA
92%
DocVQA: Q&A Visual de Documentos. Benchmark de Respuesta a Preguntas Visuales de Documentos que evalúa la capacidad de extraer y razonar sobre información de imágenes de documentos incluyendo formularios, reportes y texto escaneado. Gemini 3.1 Flash-Lite obtuvo 92% en este benchmark.
Terminal-Bench
55%
Terminal-Bench: Tareas de Terminal/CLI. Evalúa la capacidad de realizar operaciones de línea de comandos, escribir scripts de shell y navegar en entornos de terminal. Mide habilidades prácticas de administración de sistemas y flujos de trabajo de desarrollo. Gemini 3.1 Flash-Lite obtuvo 55% en este benchmark.
ARC-AGI
12%
ARC-AGI: Abstracción y Razonamiento. Corpus de Abstracción y Razonamiento para AGI - evalúa inteligencia fluida a través de puzzles de reconocimiento de patrones novedosos. Cada tarea requiere descubrir la regla subyacente a partir de ejemplos, midiendo capacidad de razonamiento general en lugar de memorización. Gemini 3.1 Flash-Lite obtuvo 12% en este benchmark.

Acerca de Gemini 3.1 Flash-Lite

Conoce las capacidades, características y formas de uso de Gemini 3.1 Flash-Lite.

Optimizado para inteligencia de alta velocidad

Gemini 3.1 Flash-Lite es el model de alto rendimiento de Google, diseñado específicamente para cargas de trabajo de desarrolladores de alto volumen donde la baja latency y la eficiencia de costos son primordiales. Lanzado el 3 de marzo de 2026, se presenta como una opción optimizada de la serie Gemini 3.1, ofreciendo un tiempo hasta el primer token 2.5 veces más rápido y un aumento del 45% en la velocidad de salida en comparación con las generaciones anteriores. Es capaz de transmitir más de 360 tokens por segundo, lo que lo hace ideal para aplicaciones en tiempo real y procesamiento de datos a gran escala.

Multimodal nativo con 1M de context window

El model es natively multimodal, admitiendo entradas de texto, imagen, audio, video y PDF dentro de una masiva context window de 1 millón de tokens. Esto permite a los desarrolladores procesar conjuntos de datos enormes, como videos de una hora o archivos legales masivos, sin necesidad de pipelines complejos de RAG. Sus capacidades de visión son particularmente potentes, destacando en el visual question answering de documentos y el análisis de gráficos.

Control granular para desarrolladores

Una característica destacada es la introducción de los 'Thinking Levels' (Minimal, Low, Medium, High). Este parámetro permite a los desarrolladores ajustar de forma granular la profundidad de reasoning del model según la complejidad de la tarea. Esta flexibilidad garantiza que los usuarios no paguen de más por tareas sencillas como la clasificación, manteniendo el acceso a una lógica mejorada para resultados más estructurados como la generación de interfaces de usuario y la extracción de datos.

Gemini 3.1 Flash-Lite

Casos de uso de Gemini 3.1 Flash-Lite

Descubre las diferentes formas de usar Gemini 3.1 Flash-Lite para lograr excelentes resultados.

Traducción en tiempo real de alto volumen

Procesa sin problemas miles de mensajes de chat o tickets de soporte en más de 100 idiomas con una latency mínima y alta eficiencia de costos.

Moderación de contenido multimodal

Utiliza el procesamiento nativo de video e imagen para detectar contenido inapropiado en feeds de redes sociales o plataformas de video de alto rendimiento.

Extracción automatizada de datos estructurados

Extrae esquemas JSON complejos de archivos PDF masivos o documentos legales extensos utilizando la context window de 1M de tokens.

Prototipado ágil de front-end

Genera rápidamente componentes de interfaz de usuario en React/Tailwind y páginas de aterrizaje a más de 360 tokens por segundo para un diseño iterativo.

Orquestación de tareas agentic

Potencia agentes de IA 'siempre activos' que realizan planificación de múltiples pasos, investigación web y uso de herramientas sin agotar el presupuesto de tokens.

Bots de servicio al cliente de baja latency

Despliega asistentes conversacionales que proporcionan respuestas instantáneas con reasoning ajustable para consultas simples frente a complejas.

Fortalezas

Limitaciones

Throughput inigualable: Transmite a 363 tokens por segundo, lo que lo hace un 45% más rápido que 2.5 Flash para aplicaciones agentic en tiempo real.
Techo de razonamiento: Rendimiento significativamente menor en lógica abstracta (12% ARC-AGI v2) en comparación con modelos flagship específicos para reasoning.
Precios agresivos: A $0.25 por millón de input tokens, cuesta aproximadamente 1/8 de Gemini 3.1 Pro manteniendo una alta inteligencia general.
Deficiencias en olimpiadas de matemáticas: Dificultades con matemáticas de nivel élite, obteniendo solo un 25% en AIME 2025 en comparación con el 90%+ de los frontier models.
Dominio multimodal nativo: Rendimiento excepcional en visión (92% DocVQA) y video (84.8% VideoMMMU) sin requerir codificadores independientes.
Calibración de factualidad: Presenta tasas de alucinación más altas en tareas de búsqueda de hechos (43.3% SimpleQA) que las alternativas de nivel Pro o frontier.
Control de cómputo granular: El primer model que ofrece control preciso sobre la profundidad de reasoning, permitiendo optimizar la relación costo-rendimiento.
Desviación de instrucciones: Ocasionalmente puede omitir restricciones menores de formato en instrucciones extremadamente largas y complejas de múltiples pasos.

Inicio rápido de API

google/gemini-3.1-flash-lite-preview

Ver documentación
google SDK
import { GoogleGenAI } from '@google/genai';

const genAI = new GoogleGenAI(process.env.API_KEY);
const model = genAI.getGenerativeModel({ 
  model: 'gemini-3.1-flash-lite-preview',
  thinkingConfig: { thinking_level: 'low' }
});

async function generate() {
  const prompt = "Extract key entities from this document.";
  const result = await model.generateContent(prompt);
  console.log(result.response.text());
}

generate();

Instala el SDK y comienza a hacer llamadas API en minutos.

Lo que la gente dice sobre Gemini 3.1 Flash-Lite

Mira lo que la comunidad piensa sobre Gemini 3.1 Flash-Lite

Flash lite es increíblemente rápido y efectivo para flujos de trabajo específicos como resúmenes... este salto en velocidad es bienvenido.
reddit user
reddit
Gemini 3.1 Flash-Lite es el golpe maestro silencioso para los proveedores de API de nivel medio... las curvas de costo se acumulan rápido.
@9chaku
twitter
¡3.1 Flash-Lite supera a 2.5 Flash en la mayoría de los benchmark siendo un pequeño velocista!
Tulsee Doshi
twitter
Para los desarrolladores que ejecutan agentes de IA a escala, este es el model que hace que el 'siempre activo' sea realmente asequible. 363 t/s es una locura.
@prince_twets
twitter
El precio es una locura. $0.25 por 1M de entrada hace que sea más barato alimentar repositorios enteros en el contexto que construir un RAG.
reddit user
reddit
La velocidad hasta el primer token es básicamente instantánea. Es la primera vez que un model se siente más rápido que mi propia escritura.
DevGuru
hackernews

Videos sobre Gemini 3.1 Flash-Lite

Mira tutoriales, reseñas y discusiones sobre Gemini 3.1 Flash-Lite

El precio es de 25 centavos por cada 1 millón de input tokens y $1.50 por cada 1 millón de output tokens... sigue siendo muy competitivo considerando la velocidad.

Considero que este es un model de programación infravalorado centrado en el desarrollo front-end y entrega tokens extremadamente rápido.

Esto realmente está dirigido al desarrollador que necesita escala sin la latency de un model Pro.

La multimodality aquí no es solo un truco; está manejando PDFs complejos con facilidad.

Google realmente está superando los límites de lo que un model 'lite' puede lograr en 2026.

Esta vez se trata de Gemini 3.1 Flash-Lite, que se supone que es una versión más rápida y menos costosa que el model Flash.

Estos modelos son necesarios cuando quieres usarlos en aplicaciones donde necesitas un alto throughput.

La context window de 1 millón es ahora el estándar para Gemini, pero verla en un model tan rápido es impresionante.

No va a ganar una olimpiada de matemáticas, pero es perfecto para extracción y resúmenes.

La API latency es significativamente menor que la de GPT-4o-mini en mis primeras pruebas.

Este nuevo model de IA de Google es un 45% más rápido... y podría cambiar la forma en que cada uno de nosotros construye con IA.

Modo de razonamiento bajo para las cosas rápidas y fáciles. Modo de razonamiento alto para el trabajo pesado... esa flexibilidad es lo que separa un juguete de una herramienta real.

Para tareas de SEO, este será mi model de uso diario debido a su precio.

El hecho de que pueda ver un video y entender el contexto casi instantáneamente es un cambio de juego para los creadores de contenido.

Google está haciendo que sea muy difícil justificar el uso de otros proveedores para tareas de alto volumen en este momento.

Mas que solo prompts

Potencia tu flujo de trabajo con Automatizacion IA

Automatio combina el poder de agentes de IA, automatizacion web e integraciones inteligentes para ayudarte a lograr mas en menos tiempo.

Agentes de IA
Automatización Web
Flujos Inteligentes

Consejos Pro para Gemini 3.1 Flash-Lite

Consejos de expertos para ayudarte a sacar el máximo provecho de Gemini 3.1 Flash-Lite.

Aprovecha los niveles de razonamiento

Configura thinking_level en 'minimal' para tareas sencillas como la clasificación para maximizar la velocidad, pero utiliza 'high' para la generación de código estructurado.

Análisis de video nativo

Envía archivos de video directamente a la API para obtener insights rápidos sobre eventos visuales y señales de audio simultáneamente, omitiendo los pasos de transcripción.

Prioriza la context window sobre RAG

Para conjuntos de datos de menos de 1M de tokens, introduce todo el conjunto de documentos en la context window para eliminar errores de recuperación y costos de bases de datos vector.

Optimiza con Batching

Utiliza la API de procesamiento por lotes para tareas no urgentes para reducir aún más los costos, ya que Flash-Lite está específicamente optimizado para el procesamiento asíncrono.

Testimonios

Lo Que Dicen Nuestros Usuarios

Unete a miles de usuarios satisfechos que han transformado su flujo de trabajo

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relacionados AI Models

anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.60/$3.60/1M
anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
xai

Grok-3

xAI

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

128K context
$3.00/$15.00/1M

Preguntas Frecuentes Sobre Gemini 3.1 Flash-Lite

Encuentra respuestas a preguntas comunes sobre Gemini 3.1 Flash-Lite