google

Gemini 3.1 Flash-Lite

Gemini 3.1 Flash-Lite es el modelo más rápido y eficiente de Google. Cuenta con 1M de context window, multimodalidad nativa y 363 tokens/seg.

MultimodalAlta velocidadRentableGoogle Gemini
google logogoogleGemini 3.13 de marzo de 2026
Contexto
1.0Mtokens
Salida máx.
66Ktokens
Precio entrada
$0.25/ 1M
Precio salida
$1.50/ 1M
Modalidad:TextImageAudioVideo
Capacidades:VisiónHerramientasStreaming
Benchmarks
GPQA
86.9%
GPQA: Q&A Científico Nivel Posgrado. Un riguroso benchmark con 448 preguntas de opción múltiple en biología, física y química creadas por expertos. Los doctores solo logran 65-74% de precisión, mientras que los no expertos obtienen solo 34% incluso con acceso ilimitado a internet (por eso 'a prueba de Google'). Gemini 3.1 Flash-Lite obtuvo 86.9% en este benchmark.
HLE
16%
HLE: Razonamiento de Alto Nivel de Experticia. Evalúa la capacidad de un modelo para demostrar razonamiento a nivel experto en dominios especializados. Evalúa la comprensión profunda de temas complejos que requieren conocimiento profesional. Gemini 3.1 Flash-Lite obtuvo 16% en este benchmark.
MMLU
88.9%
MMLU: Comprensión Masiva Multitarea del Lenguaje. Un benchmark completo con 16,000 preguntas de opción múltiple en 57 materias académicas incluyendo matemáticas, filosofía, derecho y medicina. Evalúa conocimiento amplio y capacidades de razonamiento. Gemini 3.1 Flash-Lite obtuvo 88.9% en este benchmark.
MMLU Pro
80%
MMLU Pro: MMLU Edición Profesional. Una versión mejorada de MMLU con 12,032 preguntas usando un formato más difícil de 10 opciones. Cubre Matemáticas, Física, Química, Derecho, Ingeniería, Economía, Salud, Psicología, Negocios, Biología, Filosofía e Informática. Gemini 3.1 Flash-Lite obtuvo 80% en este benchmark.
SimpleQA
43.3%
SimpleQA: Benchmark de Precisión Factual. Evalúa la capacidad de un modelo para proporcionar respuestas precisas y factuales a preguntas directas. Mide la fiabilidad y reduce las alucinaciones en tareas de recuperación de conocimiento. Gemini 3.1 Flash-Lite obtuvo 43.3% en este benchmark.
IFEval
85%
IFEval: Evaluación de Seguimiento de Instrucciones. Mide qué tan bien un modelo sigue instrucciones y restricciones específicas. Evalúa la capacidad de adherirse a reglas de formato, límites de longitud y otros requisitos explícitos. Gemini 3.1 Flash-Lite obtuvo 85% en este benchmark.
AIME 2025
25%
AIME 2025: Examen de Matemáticas Invitacional Americano. Problemas de matemáticas a nivel de competencia del prestigioso examen AIME diseñado para estudiantes talentosos de secundaria. Evalúa resolución avanzada de problemas matemáticos que requiere razonamiento abstracto. Gemini 3.1 Flash-Lite obtuvo 25% en este benchmark.
MATH
78%
MATH: Resolución de Problemas Matemáticos. Un benchmark completo de matemáticas que evalúa la resolución de problemas en álgebra, geometría, cálculo y otros dominios matemáticos. Requiere razonamiento en múltiples pasos y conocimiento matemático formal. Gemini 3.1 Flash-Lite obtuvo 78% en este benchmark.
GSM8k
95%
GSM8k: Matemáticas de Primaria 8K. 8,500 problemas de matemáticas de nivel primaria que requieren razonamiento en múltiples pasos. Evalúa aritmética básica y pensamiento lógico a través de escenarios cotidianos. Gemini 3.1 Flash-Lite obtuvo 95% en este benchmark.
MGSM
92%
MGSM: Matemáticas de Primaria Multilingüe. El benchmark GSM8k traducido a 10 idiomas incluyendo español, francés, alemán, ruso, chino y japonés. Evalúa el razonamiento matemático en diferentes idiomas. Gemini 3.1 Flash-Lite obtuvo 92% en este benchmark.
MathVista
75%
MathVista: Razonamiento Visual Matemático. Evalúa la capacidad de resolver problemas matemáticos que involucran elementos visuales como gráficos, diagramas de geometría y figuras científicas. Combina comprensión visual con razonamiento matemático. Gemini 3.1 Flash-Lite obtuvo 75% en este benchmark.
SWE-Bench
35%
SWE-Bench: Benchmark de Ingeniería de Software. Los modelos de IA intentan resolver issues reales de GitHub en proyectos Python de código abierto con verificación humana. Evalúa habilidades prácticas de ingeniería de software. Los mejores modelos pasaron de 4.4% (2023) a más del 70% (2024). Gemini 3.1 Flash-Lite obtuvo 35% en este benchmark.
HumanEval
88%
HumanEval: Problemas de Programación Python. 164 problemas de programación escritos a mano donde los modelos deben generar implementaciones correctas de funciones Python. Cada solución se verifica con tests unitarios. Los mejores modelos ahora logran más del 90%. Gemini 3.1 Flash-Lite obtuvo 88% en este benchmark.
LiveCodeBench
72%
LiveCodeBench: Benchmark de Codificación en Vivo. Evalúa habilidades de codificación con desafíos de programación del mundo real continuamente actualizados. A diferencia de benchmarks estáticos, usa problemas frescos para prevenir contaminación de datos. Gemini 3.1 Flash-Lite obtuvo 72% en este benchmark.
MMMU
76.8%
MMMU: Comprensión Multimodal. Benchmark de Comprensión Multimodal Multidisciplinaria Masiva que evalúa modelos de visión-lenguaje en problemas universitarios en 30 materias que requieren tanto comprensión de imágenes como conocimiento experto. Gemini 3.1 Flash-Lite obtuvo 76.8% en este benchmark.
MMMU Pro
76.8%
MMMU Pro: MMMU Edición Profesional. Versión mejorada de MMMU con preguntas más desafiantes y evaluación más estricta. Evalúa razonamiento multimodal avanzado a niveles profesional y experto. Gemini 3.1 Flash-Lite obtuvo 76.8% en este benchmark.
ChartQA
91%
ChartQA: Respuesta a Preguntas sobre Gráficos. Evalúa la capacidad de comprender y razonar sobre información presentada en gráficos y diagramas. Requiere extracción de datos, comparación de valores y cálculos desde representaciones visuales. Gemini 3.1 Flash-Lite obtuvo 91% en este benchmark.
DocVQA
92%
DocVQA: Q&A Visual de Documentos. Benchmark de Respuesta a Preguntas Visuales de Documentos que evalúa la capacidad de extraer y razonar sobre información de imágenes de documentos incluyendo formularios, reportes y texto escaneado. Gemini 3.1 Flash-Lite obtuvo 92% en este benchmark.
Terminal-Bench
55%
Terminal-Bench: Tareas de Terminal/CLI. Evalúa la capacidad de realizar operaciones de línea de comandos, escribir scripts de shell y navegar en entornos de terminal. Mide habilidades prácticas de administración de sistemas y flujos de trabajo de desarrollo. Gemini 3.1 Flash-Lite obtuvo 55% en este benchmark.
ARC-AGI
12%
ARC-AGI: Abstracción y Razonamiento. Corpus de Abstracción y Razonamiento para AGI - evalúa inteligencia fluida a través de puzzles de reconocimiento de patrones novedosos. Cada tarea requiere descubrir la regla subyacente a partir de ejemplos, midiendo capacidad de razonamiento general en lugar de memorización. Gemini 3.1 Flash-Lite obtuvo 12% en este benchmark.

Acerca de Gemini 3.1 Flash-Lite

Conoce las capacidades, características y formas de uso de Gemini 3.1 Flash-Lite.

Gemini 3.1 Flash-Lite está diseñado para aplicaciones de IA de gran volumen donde la velocidad de procesamiento es el requisito técnico principal. A diferencia de los modelos Pro más grandes, Flash-Lite utiliza una arquitectura optimizada que prioriza el throughput, alcanzando 363 tokens por segundo. Sirve como herramienta especializada para desarrolladores que crean agentes de voz en tiempo real, sistemas de moderación de contenido automatizado y tuberías de extracción de datos a gran escala que deben seguir siendo rentables bajo un tráfico intenso.

A pesar de su denominación 'lite', el model mantiene una ventana de contexto de 1 millón de tokens. Puede ingerir archivos de audio raw, vídeos de una hora de duración y cientos de páginas de PDF en una sola solicitud. Al introducir los Niveles de Pensamiento (Thinking Levels), Google permite a los usuarios elegir entre respuestas casi instantáneas para tareas simples y una fase de razonamiento más profunda para lógica compleja. Esto proporciona múltiples perfiles de rendimiento dentro de un único endpoint de API para equilibrar el coste y la precisión.

El model es multimodal de forma nativa, lo que elimina la necesidad de herramientas externas para transcribir audio o describir imágenes antes del procesamiento. Esta capacidad nativa mejora el rendimiento en tareas visuales como la respuesta a preguntas sobre documentos y el análisis de gráficos. Los desarrolladores pueden utilizar el parámetro thinking_level para ajustar el tiempo de reasoning interno, escalando eficazmente el esfuerzo del model en función de la complejidad específica de cada consulta.

Gemini 3.1 Flash-Lite

Casos de uso de Gemini 3.1 Flash-Lite

Descubre las diferentes formas de usar Gemini 3.1 Flash-Lite para lograr excelentes resultados.

Traducción de alto volumen

Procesamiento de miles de mensajes de chat multilingües o tickets de soporte en tiempo real con una latency inferior al segundo.

Enrutamiento inteligente de modelos

Actúa como un clasificador rápido para determinar si las consultas entrantes deben ser escaladas a modelos más costosos.

Moderación de contenido multimodal

Escaneo de grandes lotes de imágenes y vídeos generados por usuarios para garantizar el cumplimiento de normas de seguridad a bajo coste.

Prototipado de IU en tiempo real

Generación de componentes funcionales en React o Tailwind a partir de wireframes dibujados a mano o descripciones verbales.

Resumen de documentos extensos

Condensación de archivos legales masivos o manuales técnicos sin perder el contexto dentro de la ventana de 1M de tokens.

Transcripción de audio en vivo

Conversión de horas de reuniones o grabaciones de conferencias en resúmenes estructurados y elementos de acción en una sola pasada.

Fortalezas

Limitaciones

Rendimiento vertiginoso: Con 363 tokens por segundo, es uno de los modelos más rápidos de la industria en cuanto a capacidad de respuesta en tiempo real.
Baja recuperación fáctica: Una puntuación de 43,3% en SimpleQA indica un riesgo elevado de alucinaciones en conocimientos generales sin grounding.
Reasoning avanzado: Al alcanzar un 86,9% en GPQA Diamond, proporciona una lógica científica de nivel doctorado en un nivel ligero.
Aumento de precio: Es significativamente más caro que su predecesor, Gemini 2.5 Flash-Lite, al cual reemplaza en el catálogo.
Control dinámico de costes: El parámetro de Niveles de Pensamiento permite un control granular del gasto en computación por cada solicitud.
Mayor latency en niveles de pensamiento alto: El uso del nivel de pensamiento alto añade entre 7 y 10 segundos de pre-computación antes de que comience la generación.
Multimodalidad unificada: La ingesta nativa de audio, vídeo y archivos PDF elimina la necesidad de complejas tuberías de orquestación multimodelo.
Rechazos por seguridad: Las pruebas internas muestran un descenso del 21,7% en la consistencia de seguridad de imagen a texto durante ejercicios de red-teaming.

Inicio rápido de API

google/gemini-3.1-flash-lite-preview

Ver documentación
google SDK
import { GoogleGenAI } from "@google/generative-ai";

const genAI = new GoogleGenAI(process.env.API_KEY);
const model = genAI.getGenerativeModel({
  model: "gemini-3.1-flash-lite-preview",
  generationConfig: {
    thinkingConfig: { thinking_level: "high" }
  }
});

const result = await model.generateContent("Create a weather dashboard UI.");
console.log(result.response.text());

Instala el SDK y comienza a hacer llamadas API en minutos.

Lo que la gente dice sobre Gemini 3.1 Flash-Lite

Mira lo que la comunidad piensa sobre Gemini 3.1 Flash-Lite

La capacidad de programación de 3.1 Flash-Lite es sorprendentemente buena para el desarrollo de front-end; creó un visor de 360 grados a la perfección.
WorldofAI
youtube
Gemini 3.1 Flash-Lite es el model para crear agentes de IA multimodales siempre activos. Lee, conecta y consolida todo.
Shubham Saboo
twitter
El precio es un shock enorme. Un salto de 3,75x en los tokens de salida dolerá si tienes un presupuesto de nube ajustado.
Binary Verse AI
youtube
Desplaza la carga de complejidad de la arquitectura de tu equipo de ingeniería directamente a la infraestructura de Google.
Julian Goldie
youtube
Otra bajada de precio por inteligencia. Alta velocidad, bajo coste, alta inteligencia. Un gran model para el enrutamiento agentic.
ctgtplb
twitter
El context de 1M sigue siendo la funcionalidad estrella aquí. Puedo volcar carpetas completas de repositorios y simplemente funciona con una TTFT inferior al segundo.
DevFlow_26
reddit

Videos sobre Gemini 3.1 Flash-Lite

Mira tutoriales, reseñas y discusiones sobre Gemini 3.1 Flash-Lite

Parece que han logrado integrar mucha inteligencia en este modelo de alguna manera.

Lo usaría para cargas de trabajo de alto throughput que estén muy bien definidas.

La capacidad de front-end de Flash-Lite es incluso mejor que la de la mayoría de los modelos con los que he trabajado.

Literalmente creó un visor completamente funcional en un solo intento.

Este model es ideal para quienes necesitan velocidad sin sacrificar toda la lógica.

Este model es lo que llamaríamos un modelo de batalla... diseñado específicamente para tareas de alto throughput.

Si lo ejecutas con un presupuesto de pensamiento mínimo, funciona básicamente como un model sin razonamiento y es extremadamente rápido.

Hizo un trabajo notablemente bueno con el sitio web que obtuvimos como resultado.

La relación velocidad-coste es la verdadera razón por la que migrarías tus aplicaciones de producción aquí.

Maneja entradas multimodales de forma nativa, lo cual es una gran ventaja sobre sus competidores.

Alcanzar casi el 87% en GPQA Diamond con un model etiquetado como 'lite' altera todo nuestro sistema de categorización.

No uses este model como un oráculo de hechos... tienes que proporcionarle los datos.

Con 3.1 Flash-Lite, evitas disparar otros tres microservicios... esa simplicidad vale dinero real.

El aumento del 45% en la velocidad de salida se nota inmediatamente en la respuesta de streaming.

Obtienes 1M de context por céntimos, lo cual sigue pareciendo magia en producción.

Mas que solo prompts

Potencia tu flujo de trabajo con Automatizacion IA

Automatio combina el poder de agentes de IA, automatizacion web e integraciones inteligentes para ayudarte a lograr mas en menos tiempo.

Agentes de IA
Automatización Web
Flujos Inteligentes

Consejos Pro para Gemini 3.1 Flash-Lite

Consejos de expertos para ayudarte a sacar el máximo provecho de Gemini 3.1 Flash-Lite.

Configurar Niveles de Pensamiento

Utiliza un nivel de pensamiento mínimo para tareas de clasificación a fin de reducir costes, pero cambia a alto para tareas de programación complejas.

Habilitar Grounding

Utiliza siempre el grounding de Google Search para tareas que requieran recuperación de hechos, ya que la precisión fáctica base es menor.

Subir archivos sin procesar

Evita preprocesar audio o vídeo a texto y, en su lugar, sube archivos raw para aprovechar la naturaleza multimodal nativa.

Usar Instrucciones del Sistema

Aplica esquemas JSON estrictos usando el parámetro system_instruction para minimizar los tokens de corrección de salida.

Testimonios

Lo Que Dicen Nuestros Usuarios

Unete a miles de usuarios satisfechos que han transformado su flujo de trabajo

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relacionados AI Models

anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M

Preguntas Frecuentes Sobre Gemini 3.1 Flash-Lite

Encuentra respuestas a preguntas comunes sobre Gemini 3.1 Flash-Lite