google

Gemini 3.1 Pro

Gemini 3.1 Pro est le modèle multimodal d'élite de Google, doté du moteur de reasoning DeepThink, d'une context window de plus de 1M et de scores logiques...

MultimodalReasoning approfondiGénération vidéoIA pour WorkspaceGoogle Gemini
google logogoogleGemini19 février 2026
Contexte
2.0Mtokens
Sortie max.
66Ktokens
Prix entrée
$2.50/ 1M
Prix sortie
$15.00/ 1M
Modalité:TextImageAudioVideo
Capacités:VisionOutilsStreamingRaisonnement
Benchmarks
GPQA
94.3%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). Gemini 3.1 Pro a obtenu 94.3% sur ce benchmark.
HLE
44.4%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. Gemini 3.1 Pro a obtenu 44.4% sur ce benchmark.
MMLU
80.6%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. Gemini 3.1 Pro a obtenu 80.6% sur ce benchmark.
MMLU Pro
79.2%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. Gemini 3.1 Pro a obtenu 79.2% sur ce benchmark.
SimpleQA
79.6%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. Gemini 3.1 Pro a obtenu 79.6% sur ce benchmark.
IFEval
92.4%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. Gemini 3.1 Pro a obtenu 92.4% sur ce benchmark.
AIME 2025
92%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. Gemini 3.1 Pro a obtenu 92% sur ce benchmark.
MATH
92%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. Gemini 3.1 Pro a obtenu 92% sur ce benchmark.
GSM8k
98.4%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. Gemini 3.1 Pro a obtenu 98.4% sur ce benchmark.
MGSM
96.5%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. Gemini 3.1 Pro a obtenu 96.5% sur ce benchmark.
MathVista
89.4%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. Gemini 3.1 Pro a obtenu 89.4% sur ce benchmark.
SWE-Bench
71%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. Gemini 3.1 Pro a obtenu 71% sur ce benchmark.
HumanEval
91.2%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. Gemini 3.1 Pro a obtenu 91.2% sur ce benchmark.
LiveCodeBench
82%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. Gemini 3.1 Pro a obtenu 82% sur ce benchmark.
MMMU
84.2%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. Gemini 3.1 Pro a obtenu 84.2% sur ce benchmark.
MMMU Pro
62.5%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. Gemini 3.1 Pro a obtenu 62.5% sur ce benchmark.
ChartQA
91.8%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. Gemini 3.1 Pro a obtenu 91.8% sur ce benchmark.
DocVQA
94.2%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. Gemini 3.1 Pro a obtenu 94.2% sur ce benchmark.
Terminal-Bench
58%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. Gemini 3.1 Pro a obtenu 58% sur ce benchmark.
ARC-AGI
77.1%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. Gemini 3.1 Pro a obtenu 77.1% sur ce benchmark.

À propos de Gemini 3.1 Pro

Découvrez les capacités, fonctionnalités et façons d'utiliser Gemini 3.1 Pro.

Gemini 3.1 Pro représente une exécution mature du framework Sparse Mixture-of-Experts (MoE), couplé nativement à un moteur de traitement multimodal avancé. La caractéristique notable de l'architecture est la démocratisation de la couche DeepThink System 2, qui permet au modèle de délibérer en interne avant de s'engager sur un token de sortie. Ce modèle introduit un système de réflexion unique à trois niveaux, Faible, Moyen et Élevé, permettant aux développeurs de contrôler explicitement le compromis entre latency, coût et profondeur de reasoning.

Avec une context window massive de 1 million de tokens, Gemini 3.1 Pro est hautement optimisé pour les workflows complexes en finance, analyse de données et migrations de code de dépôts entiers. Il démontre une capacité émergente à résoudre des modèles logiques inédits, obtenant un score sans précédent de 77,1 % sur le benchmark ARC-AGI-2. Cela en fait un choix privilégié pour les développeurs qui nécessitent à la fois des interactions multimodal à faible latency et une performance cognitive de haut niveau pour des tâches agentic autonomes.

Gemini 3.1 Pro

Cas d'utilisation de Gemini 3.1 Pro

Découvrez les différentes façons d'utiliser Gemini 3.1 Pro pour obtenir d'excellents résultats.

Analyse de code sur l'ensemble d'un dépôt

Utilisation de la context window de 1M pour ingérer des dépôts logiciels entiers afin de procéder à du refactoring et à la cartographie des dépendances.

Comités d'agents autonomes

Pilotage de workflows agentic multi-étapes où des sous-agents internes débattent et vérifient les solutions avant l'exécution.

Synthèse de recherche scientifique

Analyse de milliers d'articles de recherche et de jeux de données complexes pour extraire des renseignements structurés et des insights factuels.

Création de contenu multimodal

Traitement simultané de texte, d'images et d'audio pour générer des supports pédagogiques complexes et des médias interactifs.

Automatisation via terminal

Exécution de commandes bash complexes et manipulation de systèmes de fichiers avec une haute précision via des modes de reasoning avancés.

Audit de données d'entreprise

Analyse de données financières non structurées et de documents juridiques pour identifier les écarts de conformité avec un rappel factuel quasi parfait.

Points forts

Limitations

Leader du reasoning ARC-AGI-2: Score de 77,1 % sur ARC-AGI-2, plus que doublant la capacité de reasoning des précédents flagship models.
Pénalité tarifaire sur le contexte large: Les prix d'entrée et de sortie doublent une fois qu'un prompt dépasse le seuil de 200 000 tokens, impactant les jobs de traitement par lots massifs.
Context window de 1M de tokens: Gère des bases de code multi-fichiers massives et des vidéos long format avec un rappel state-of-the-art et une faible latency.
Verbosité de sortie extrême: Les benchmarks indiquent que le modèle peut être trop verbeux, générant beaucoup plus de tokens que nécessaire pour des tâches simples.
Stratégie tarifaire compétitive: Tarifé à 2 $/12 $ par million de tokens, ce qui le rend nettement plus abordable que les équivalents chez Anthropic ou OpenAI.
Défis liés au ton nuancé: Les retours de la communauté suggèrent que le ton conversationnel peut sembler moins naturel ou nuancé que la série Claude 3.5.
Niveaux de compute granulaires: Dispose d'un système de réflexion à trois niveaux pour un contrôle précis du développeur sur la profondeur du reasoning interne et le coût.
Incohérence des niveaux de reasoning: La qualité du reasoning varie considérablement entre les niveaux, nécessitant souvent des expérimentations manuelles pour trouver le réglage optimal.

Démarrage rapide API

google/gemini-3.1-pro-preview

Voir la documentation
google SDK
import { GoogleGenAI } from "@google/genai";

const genAI = new GoogleGenAI(process.env.GOOGLE_API_KEY);
const model = genAI.getGenerativeModel({
  model: "gemini-3.1-pro-preview",
  thinkingConfig: { tier: "high" }
});

const prompt = "Analyze this entire codebase for security vulnerabilities.";
const result = await model.generateContent(prompt);
console.log(result.response.text());

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de Gemini 3.1 Pro

Voyez ce que la communauté pense de Gemini 3.1 Pro

Le score de 77,1 % de Gemini 3.1 Pro représente le changement de marché le plus disruptif ; il double plus que le précédent record sur ARC-AGI.
enoumen
reddit
Les benchmarks de codage ne mentent pas. Ce modèle a trouvé un bug dans mon repo que 3.5 et GPT-4o ont complètement manqué.
SiliconValleyCoder
hackernews
Le scandale Gemini 3.1 est vraiment intéressant. Il a écrasé les benchmarks mais les vrais utilisateurs disent que le ton et l'ambiance sont incohérents.
cryptopunk7213
twitter
Le moteur DeepThink peut entraîner des retards importants, parfois plus de 90 secondes, lors du traitement de tâches nécessitant une logique profonde.
TechReviewer2026
youtube
La mise en cache de contexte est la fonctionnalité phare ici. Je fais tourner un bot de documentation entier pour des centimes par rapport à GPT-4o.
CloudArchitect
reddit
Gemini n'a pas réussi à discuter de Python dans une tâche de planification complexe... une partie de la logique était tout simplement absente de son plan final.
Temporary-Mix8022
reddit

Vidéos sur Gemini 3.1 Pro

Regardez des tutoriels, critiques et discussions sur Gemini 3.1 Pro

Gemini 3.1 Pro génère la version la plus détaillée de cette pagode jusqu'à présent

Gemini a de loin la plus large fenêtre d'un million de tokens

La fidélité multimodal dans le traitement audio est sensiblement meilleure que sur le 3.0

Le throughput des tokens reste stable même lorsque la context window se remplit

Le rappel à long terme est pratiquement parfait sur l'ensemble du million de tokens

Sur des puzzles qui ne devraient pas être dans ses données d'entraînement, la série Gemini 3 surpasse tous les autres modèles

3.1 Pro pourrait effectivement réduire le temps d'exécution d'un script de fine-tuning de 300 secondes à 47 secondes

Les étapes de logique DeepThink sont clairement visibles dans la trace, montrant une réelle délibération

Nous atteignons une saturation des benchmarks où seul ARC-AGI compte vraiment pour le progrès

La trajectoire vers l'AGI s'accélère grâce à ces sauts en reasoning abstrait

Je pense vraiment que le 3.1 est une avancée, même si elle est très légère

Il semble surpasser Gemini 3.0 Pro lorsque nous testons exactement les mêmes prompts côte à côte

La précision du codage sur des refactors Python complexes est la meilleure que j'aie vue

La fiabilité de l'API s'est considérablement améliorée au cours du dernier mois de test

Les performances en situation réelle correspondent enfin au battage médiatique des scores de benchmark

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour Gemini 3.1 Pro

Conseils d'experts pour tirer le meilleur parti de Gemini 3.1 Pro.

Sélection du niveau de reasoning

Utilisez le mode de réflexion Élevé pour les mathématiques ou la logique complexe, mais passez au mode Faible pour la mise en forme standard afin d'économiser du compute.

Mise en cache de contexte

Implémentez la mise en cache de contexte pour la documentation statique afin de réduire les prix d'entrée jusqu'à 90 % par million de tokens.

Artifacts structurés

Tirez parti de la capacité du modèle à générer des listes de tâches structurées pour une supervision humaine facilitée lors des exécutions agentic.

Prompting multimodal

Combinez des entrées vidéo et audio pour donner au modèle un contexte complet de scénarios réels plutôt que de simples descriptions textuelles.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

google

Gemini 3.1 Flash Live Preview

Google

Gemini 3.1 Flash Live Preview is Google's ultra-low-latency, audio-to-audio model featuring a 131K context window, high-fidelity multimodal reasoning, and...

131K context
$0.75/$4.50/1M
xai

Grok-3

xAI

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

1M context
$3.00/$15.00/1M
openai

GPT-5.2 Pro

OpenAI

GPT-5.2 Pro is OpenAI's 2025 flagship reasoning model featuring Extended Thinking for SOTA performance in mathematics, coding, and expert knowledge work.

400K context
$21.00/$168.00/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M

Questions Fréquentes sur Gemini 3.1 Pro

Trouvez des réponses aux questions courantes sur Gemini 3.1 Pro