google

Gemini 3.1 Flash-Lite

Gemini 3.1 Flash-Lite est le modèle le plus rapide et rentable de Google. Context de 1M, multimodalité native et vitesse de 363 tokens/sec pour le scale.

MultimodalHaute VitesseRapport Coût-EfficacitéGoogle Gemini
google logogoogleGemini 3.12026-03-03
Contexte
1.0Mtokens
Sortie max.
66Ktokens
Prix entrée
$0.25/ 1M
Prix sortie
$1.50/ 1M
Modalité:TextImageAudioVideo
Capacités:VisionOutilsStreaming
Benchmarks
GPQA
86.9%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). Gemini 3.1 Flash-Lite a obtenu 86.9% sur ce benchmark.
HLE
16%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. Gemini 3.1 Flash-Lite a obtenu 16% sur ce benchmark.
MMLU
88.9%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. Gemini 3.1 Flash-Lite a obtenu 88.9% sur ce benchmark.
MMLU Pro
80%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. Gemini 3.1 Flash-Lite a obtenu 80% sur ce benchmark.
SimpleQA
43.3%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. Gemini 3.1 Flash-Lite a obtenu 43.3% sur ce benchmark.
IFEval
85%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. Gemini 3.1 Flash-Lite a obtenu 85% sur ce benchmark.
AIME 2025
25%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. Gemini 3.1 Flash-Lite a obtenu 25% sur ce benchmark.
MATH
78%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. Gemini 3.1 Flash-Lite a obtenu 78% sur ce benchmark.
GSM8k
95%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. Gemini 3.1 Flash-Lite a obtenu 95% sur ce benchmark.
MGSM
92%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. Gemini 3.1 Flash-Lite a obtenu 92% sur ce benchmark.
MathVista
75%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. Gemini 3.1 Flash-Lite a obtenu 75% sur ce benchmark.
SWE-Bench
35%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. Gemini 3.1 Flash-Lite a obtenu 35% sur ce benchmark.
HumanEval
88%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. Gemini 3.1 Flash-Lite a obtenu 88% sur ce benchmark.
LiveCodeBench
72%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. Gemini 3.1 Flash-Lite a obtenu 72% sur ce benchmark.
MMMU
76.8%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. Gemini 3.1 Flash-Lite a obtenu 76.8% sur ce benchmark.
MMMU Pro
76.8%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. Gemini 3.1 Flash-Lite a obtenu 76.8% sur ce benchmark.
ChartQA
91%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. Gemini 3.1 Flash-Lite a obtenu 91% sur ce benchmark.
DocVQA
92%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. Gemini 3.1 Flash-Lite a obtenu 92% sur ce benchmark.
Terminal-Bench
55%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. Gemini 3.1 Flash-Lite a obtenu 55% sur ce benchmark.
ARC-AGI
12%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. Gemini 3.1 Flash-Lite a obtenu 12% sur ce benchmark.

À propos de Gemini 3.1 Flash-Lite

Découvrez les capacités, fonctionnalités et façons d'utiliser Gemini 3.1 Flash-Lite.

Optimisé pour une intelligence haute vitesse

Gemini 3.1 Flash-Lite est le modèle de travail intensif à haute vitesse de Google, conçu spécifiquement pour les charges de travail des développeurs à haut volume où une faible latency et l'efficacité des coûts sont primordiales. Lancé le 3 mars 2026, il constitue une entrée optimisée dans la série Gemini 3.1, offrant un temps de réponse au premier token 2,5 fois plus rapide et une augmentation de 45 % de la vitesse de sortie par rapport aux générations précédentes. Il est capable de diffuser plus de 360 tokens par seconde, ce qui le rend idéal pour les applications en temps réel et le traitement de données à grande échelle.

Nativement multimodal avec un context de 1M

Le modèle est nativement multimodal, prenant en charge les entrées de texte, d'image, d'audio, de vidéo et de PDF au sein d'un immense context window de 1 million de tokens. Cela permet aux développeurs de traiter des ensembles de données énormes, tels que des vidéos d'une heure ou des archives juridiques massives, sans avoir recours à des pipelines RAG complexes. Ses capacités de vision sont particulièrement robustes, excellant dans l'analyse visuelle de documents et de graphiques.

Contrôle granulaire pour les développeurs

Une caractéristique majeure est l'introduction des 'Thinking Levels' (Minimal, Low, Medium, High). Ce paramètre permet aux développeurs d'ajuster finement la profondeur de reasoning du modèle en fonction de la complexité de la tâche. Cette flexibilité garantit que les utilisateurs ne paient pas trop cher pour des tâches simples comme la classification, tout en ayant accès à une logique améliorée pour des sorties plus structurées comme la génération d'UI et l'extraction de données.

Gemini 3.1 Flash-Lite

Cas d'utilisation de Gemini 3.1 Flash-Lite

Découvrez les différentes façons d'utiliser Gemini 3.1 Flash-Lite pour obtenir d'excellents résultats.

Traduction temps réel à haut volume

Traitez de manière fluide des milliers de messages de chat ou de tickets de support dans plus de 100 langues avec une latency minimale et une grande efficacité économique.

Modération de contenu multimodal

Utilisez le traitement natif de la vidéo et de l'image pour signaler les contenus inappropriés dans des flux de réseaux sociaux ou des plateformes vidéo à haut throughput.

Extraction automatisée de données structurées

Extrayez des schémas JSON complexes à partir d'archives PDF massives ou de longs documents juridiques en utilisant le context window de 1M de tokens.

Prototypage Front-End Agile

Générez rapidement des composants UI React/Tailwind fonctionnels et des pages de destination à plus de 360 tokens par seconde pour un design itératif.

Orchestration de tâches Agentic

Propulsez des agents IA 'toujours actifs' qui effectuent une planification multi-étapes, de la recherche web et l'utilisation d'outils sans exploser le budget de tokens.

Bots de service client à faible latency

Déployez des assistants conversationnels qui fournissent des réponses instantanées avec un reasoning ajustable selon la complexité des requêtes.

Points forts

Limitations

Throughput inégalé: Diffuse à 363 tokens par seconde, ce qui le rend 45 % plus rapide que le 2.5 Flash pour les applications agentic en temps réel.
Plafond de Reasoning: Performances nettement inférieures sur la logique abstraite (12 % ARC-AGI v2) par rapport aux modèles flagship spécialisés dans le reasoning.
Tarification agressive: À 0,25 $/M de tokens d'entrée, il coûte environ 1/8ème du prix de Gemini 3.1 Pro tout en conservant une intelligence générale élevée.
Lacunes en mathématiques de haut niveau: Difficultés avec les mathématiques de niveau élite, avec un score de seulement 25 % à l'AIME 2025 contre plus de 90 % pour les frontier models.
Maîtrise native du Multimodal: Performances exceptionnelles en vision (92 % DocVQA) et en vidéo (84,8 % VideoMMMU) sans nécessiter d'encodeurs séparés.
Calibration de la factualité: Présente des taux d'hallucination plus élevés dans les tâches de recherche de faits (43,3 % SimpleQA) que les alternatives de niveau Pro ou frontier.
Contrôle granulaire du Compute: Premier modèle à offrir un contrôle précis sur la profondeur de reasoning, permettant d'optimiser le ratio performance-prix.
Dérive des instructions: Peut occasionnellement ignorer des contraintes de formatage mineures dans des instructions multi-étapes extrêmement longues et complexes.

Démarrage rapide API

google/gemini-3.1-flash-lite-preview

Voir la documentation
google SDK
import { GoogleGenAI } from '@google/genai';

const genAI = new GoogleGenAI(process.env.API_KEY);
const model = genAI.getGenerativeModel({ 
  model: 'gemini-3.1-flash-lite-preview',
  thinkingConfig: { thinking_level: 'low' }
});

async function generate() {
  const prompt = "Extraire les entités clés de ce document.";
  const result = await model.generateContent(prompt);
  console.log(result.response.text());
}

generate();

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de Gemini 3.1 Flash-Lite

Voyez ce que la communauté pense de Gemini 3.1 Flash-Lite

Flash-Lite est incroyablement rapide et efficace pour des workflows spécifiques comme la synthèse... c'est un gain de vitesse bienvenu.
utilisateur reddit
reddit
Gemini 3.1 Flash-Lite est le coup de grâce silencieux pour les fournisseurs d'API de milieu de gamme... les courbes de coûts s'accumulent vite.
@9chaku
twitter
3.1 Flash-Lite surpasse 2.5 Flash sur la majorité des benchmarks tout en étant un vrai petit bolide !
Tulsee Doshi
twitter
Pour les bâtisseurs d'agents IA à grande échelle, c'est le modèle qui rend le 'toujours actif' enfin abordable. 363 t/s, c'est sauvage.
@prince_twets
twitter
Le prix est dingue. 0,25 $ pour 1M d'entrée rend plus économique le fait de charger des dépôts entiers dans le context plutôt que de construire un RAG.
utilisateur reddit
reddit
La vitesse du premier token est pratiquement instantanée. C'est la première fois qu'un modèle me semble plus rapide que ma propre frappe.
DevGuru
hackernews

Vidéos sur Gemini 3.1 Flash-Lite

Regardez des tutoriels, critiques et discussions sur Gemini 3.1 Flash-Lite

Le prix est de 25 cents par million de tokens d'entrée et 1,50 $ par million de tokens de sortie... ce qui reste très compétitif vu la vitesse.

Je trouve que c'est un modèle de codage sous-estimé pour le développement front-end, il livre des tokens extrêmement rapidement.

Cela cible vraiment le développeur qui a besoin de scale sans la latency d'un modèle Pro.

La multimodalité ici n'est pas un gadget ; il gère des PDF complexes avec facilité.

Google repousse vraiment les limites de ce qu'un modèle 'lite' peut accomplir en 2026.

Cette fois, il s'agit de Gemini 3.1 Flash-Lite, censé être une version plus rapide et moins coûteuse du modèle Flash.

Ces modèles sont nécessaires car on veut les utiliser dans des applications exigeant un haut throughput.

Le context window de 1 million est désormais la norme pour Gemini, mais le voir sur un modèle aussi rapide est impressionnant.

Il ne gagnera pas d'olympiades de mathématiques, mais il est parfait pour l'extraction et la synthèse.

La latency de l'API est nettement inférieure à celle de GPT-4o-mini lors de mes premiers tests.

Ce nouveau modèle IA de Google est 45 % plus rapide... et il pourrait bien changer la façon dont chacun d'entre nous construit avec l'IA.

Mode low thinking pour les choses simples et rapides. Mode high thinking pour les tâches lourdes... cette flexibilité est ce qui sépare un jouet d'un véritable outil.

Pour les tâches SEO, ce sera mon outil quotidien en raison de son prix.

Le fait qu'il puisse voir une vidéo et en comprendre le contexte presque instantanément change la donne pour les créateurs de contenu.

Google rend très difficile de justifier l'utilisation d'autres fournisseurs pour des tâches à haut volume en ce moment.

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour Gemini 3.1 Flash-Lite

Conseils d'experts pour tirer le meilleur parti de Gemini 3.1 Flash-Lite.

Exploitez les Thinking Levels

Réglez le thinking_level sur 'minimal' pour des tâches simples comme la classification afin de maximiser la vitesse, mais utilisez 'high' pour la génération de code structuré.

Analyse Vidéo Native

Envoyez des fichiers vidéo bruts directement à l'API pour obtenir des analyses rapides sur les événements visuels et sonores simultanément, sans passer par l'étape de transcription.

Privilégiez le Context au RAG

Pour les jeux de données inférieurs à 1M de tokens, chargez l'ensemble des documents directement dans le context window pour éliminer les erreurs de récupération et les coûts de vector DB.

Optimisez avec le Batching

Utilisez l'API de batching pour les tâches non urgentes afin de réduire encore plus les coûts, car Flash-Lite est spécifiquement optimisé pour le traitement asynchrone.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.60/$3.60/1M
anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
xai

Grok-3

xAI

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

128K context
$3.00/$15.00/1M

Questions Fréquentes sur Gemini 3.1 Flash-Lite

Trouvez des réponses aux questions courantes sur Gemini 3.1 Flash-Lite