google

Gemini 3.1 Flash-Lite

Gemini 3.1 Flash-Lite는 Google에서 가장 빠르고 비용 효율적인 model입니다. 대규모 작업을 위해 100만 context window, 네이티브 multimodal 지원, 초당 363 tokens의 속도를 제공합니다.

multimodal고속비용 효율적Google Gemini
google logogoogleGemini 3.12026-03-03
컨텍스트
1.0M토큰
최대 출력
66K토큰
입력 가격
$0.25/ 1M
출력 가격
$1.50/ 1M
모달리티:TextImageAudioVideo
기능:비전도구스트리밍
벤치마크
GPQA
86.9%
GPQA: 대학원 수준 과학 Q&A. 생물학, 물리학, 화학 분야의 448개 객관식 문제로 구성된 엄격한 벤치마크. 박사 전문가도 65-74%의 정확도만 달성합니다. Gemini 3.1 Flash-Lite이 이 벤치마크에서 86.9%점을 기록했습니다.
HLE
16%
HLE: 고급 전문 추론. 전문 분야에서 전문가 수준의 추론을 보여주는 모델의 능력을 테스트합니다. Gemini 3.1 Flash-Lite이 이 벤치마크에서 16%점을 기록했습니다.
MMLU
88.9%
MMLU: 대규모 다중 작업 언어 이해. 57개 학술 과목에 걸쳐 16,000개의 객관식 문제로 구성된 종합 벤치마크. Gemini 3.1 Flash-Lite이 이 벤치마크에서 88.9%점을 기록했습니다.
MMLU Pro
80%
MMLU Pro: MMLU 프로페셔널 에디션. 더 어려운 10지선다형 형식의 12,032개 문제를 포함하는 MMLU의 향상된 버전. Gemini 3.1 Flash-Lite이 이 벤치마크에서 80%점을 기록했습니다.
SimpleQA
43.3%
SimpleQA: 사실 정확성 벤치마크. 직접적인 질문에 정확하고 사실적인 응답을 제공하는 모델의 능력을 테스트합니다. Gemini 3.1 Flash-Lite이 이 벤치마크에서 43.3%점을 기록했습니다.
IFEval
85%
IFEval: 지시 따르기 평가. 모델이 특정 지시와 제약 조건을 얼마나 잘 따르는지 측정합니다. Gemini 3.1 Flash-Lite이 이 벤치마크에서 85%점을 기록했습니다.
AIME 2025
25%
AIME 2025: 미국 초청 수학 시험. 명문 AIME 시험의 경쟁 수준 수학 문제. Gemini 3.1 Flash-Lite이 이 벤치마크에서 25%점을 기록했습니다.
MATH
78%
MATH: 수학 문제 해결. 대수, 기하, 미적분 등의 분야를 테스트하는 종합 수학 벤치마크. Gemini 3.1 Flash-Lite이 이 벤치마크에서 78%점을 기록했습니다.
GSM8k
95%
GSM8k: 초등학교 수학 8K. 다단계 추론이 필요한 8,500개의 초등학교 수준 수학 문장제. Gemini 3.1 Flash-Lite이 이 벤치마크에서 95%점을 기록했습니다.
MGSM
92%
MGSM: 다국어 초등학교 수학. GSM8k 벤치마크를 10개 언어로 번역한 것. Gemini 3.1 Flash-Lite이 이 벤치마크에서 92%점을 기록했습니다.
MathVista
75%
MathVista: 수학적 시각 추론. 차트, 그래프 등 시각적 요소가 포함된 수학 문제를 푸는 능력을 테스트합니다. Gemini 3.1 Flash-Lite이 이 벤치마크에서 75%점을 기록했습니다.
SWE-Bench
35%
SWE-Bench: 소프트웨어 엔지니어링 벤치마크. AI 모델이 오픈소스 Python 프로젝트의 실제 GitHub 이슈를 해결하려고 시도합니다. Gemini 3.1 Flash-Lite이 이 벤치마크에서 35%점을 기록했습니다.
HumanEval
88%
HumanEval: Python 프로그래밍 문제. 모델이 올바른 Python 함수 구현을 생성해야 하는 164개의 수작업 프로그래밍 문제. Gemini 3.1 Flash-Lite이 이 벤치마크에서 88%점을 기록했습니다.
LiveCodeBench
72%
LiveCodeBench: 라이브 코딩 벤치마크. 지속적으로 업데이트되는 실제 프로그래밍 챌린지에서 코딩 능력을 테스트합니다. Gemini 3.1 Flash-Lite이 이 벤치마크에서 72%점을 기록했습니다.
MMMU
76.8%
MMMU: 멀티모달 이해. 대학 수준 문제에서 비전-언어 모델을 테스트하는 대규모 다분야 멀티모달 이해 벤치마크. Gemini 3.1 Flash-Lite이 이 벤치마크에서 76.8%점을 기록했습니다.
MMMU Pro
76.8%
MMMU Pro: MMMU 프로페셔널 에디션. 더 도전적인 문제와 더 엄격한 평가를 갖춘 MMMU의 향상된 버전. Gemini 3.1 Flash-Lite이 이 벤치마크에서 76.8%점을 기록했습니다.
ChartQA
91%
ChartQA: 차트 질문 응답. 차트와 그래프에 제시된 정보를 이해하고 추론하는 능력을 테스트합니다. Gemini 3.1 Flash-Lite이 이 벤치마크에서 91%점을 기록했습니다.
DocVQA
92%
DocVQA: 문서 시각 Q&A. 문서 이미지에서 정보를 추출하는 능력을 테스트하는 문서 시각 질문 응답 벤치마크. Gemini 3.1 Flash-Lite이 이 벤치마크에서 92%점을 기록했습니다.
Terminal-Bench
55%
Terminal-Bench: 터미널/CLI 작업. 명령줄 작업을 수행하고 셸 스크립트를 작성하는 능력을 테스트합니다. Gemini 3.1 Flash-Lite이 이 벤치마크에서 55%점을 기록했습니다.
ARC-AGI
12%
ARC-AGI: 추상화 및 추론. AGI를 위한 추상화 및 추론 코퍼스 - 새로운 패턴 인식 퍼즐로 유동 지능을 테스트합니다. Gemini 3.1 Flash-Lite이 이 벤치마크에서 12%점을 기록했습니다.

Gemini 3.1 Flash-Lite 소개

Gemini 3.1 Flash-Lite의 기능, 특징 및 더 나은 결과를 얻는 방법에 대해 알아보세요.

고속 지능에 최적화됨

Gemini 3.1 Flash-Lite는 낮은 latency와 비용 효율성이 중요한 대량의 개발자 워크로드를 위해 설계된 Google의 고속 워크호스 model입니다. 2026년 3월 3일에 출시된 이 model은 Gemini 3.1 시리즈의 최적화된 엔트리 model로, 이전 세대에 비해 첫 번째 token 반환 시간이 2.5배 빠르고 output 속도가 45% 향상되었습니다. 초당 360 tokens 이상을 스트리밍할 수 있어 실시간 애플리케이션과 대규모 데이터 처리에 이상적입니다.

100만 context window와 네이티브 multimodal

이 model은 대규모 100만 token context window 내에서 텍스트, 이미지, 오디오, 비디오 및 PDF 입력을 지원하는 네이티브 multimodal model입니다. 이를 통해 개발자는 복잡한 RAG 파이프라인 없이도 1시간 분량의 영상이나 대규모 법률 아카이브와 같은 거대한 데이터셋을 처리할 수 있습니다. 특히 vision 기능이 강력하여 문서 시각적 질의응답 및 차트 분석에서 뛰어난 성능을 발휘합니다.

세밀한 개발자 제어

주요 특징 중 하나는 'Thinking Levels'(Minimal, Low, Medium, High)의 도입입니다. 이 parameters를 통해 개발자는 작업의 복잡도에 따라 model의 reasoning 깊이를 세밀하게 조절할 수 있습니다. 이러한 유연성 덕분에 사용자는 분류와 같은 단순한 작업에 비용을 과다하게 지출하지 않으면서도, UI 생성 및 데이터 추출과 같이 더 정교한 logic이 필요한 작업에는 강화된 reasoning을 활용할 수 있습니다.

Gemini 3.1 Flash-Lite

Gemini 3.1 Flash-Lite 사용 사례

Gemini 3.1 Flash-Lite을 사용하여 훌륭한 결과를 얻는 다양한 방법을 발견하세요.

대량의 실시간 번역

최소한의 latency와 높은 비용 효율성으로 100개 이상의 언어에 대해 수천 개의 채팅 메시지나 고객 지원 티켓을 원활하게 처리합니다.

multimodal 콘텐츠 중재

네이티브 영상 및 이미지 처리 기능을 활용하여 throughput이 높은 소셜 미디어 피드나 영상 플랫폼에서 부적절한 콘텐츠를 식별합니다.

자동화된 구조화 데이터 추출

100만 token context window를 사용하여 방대한 PDF 아카이브나 긴 법률 문서에서 복잡한 JSON 스키마를 추출합니다.

애자일 프론트엔드 프로토타이핑

반복적인 디자인 작업을 위해 초당 360 tokens 이상의 속도로 기능적인 React/Tailwind UI 구성 요소와 랜딩 페이지를 신속하게 생성합니다.

agentic 작업 오케스트레이션

token 예산을 초과하지 않으면서 다단계 계획 수립, 웹 리서치 및 도구 사용을 수행하는 '상시 가동형' AI agent에 전력을 공급합니다.

저지연 고객 서비스 봇

단순 질의와 복잡한 질의에 따라 reasoning 수준을 조절하여 즉각적인 응답을 제공하는 대화형 어시스턴트를 배포합니다.

강점

제한

독보적인 throughput: 초당 363 tokens를 스트리밍하여 실시간 agentic 애플리케이션에서 2.5 Flash보다 45% 더 빠릅니다.
reasoning의 한계: 추상적 논리(ARC-AGI v2 12%) 부문에서 reasoning 특화 flagship model들에 비해 성능이 현저히 낮습니다.
파격적인 가격 정책: 100만 input tokens당 $0.25로, 높은 범용 지능을 유지하면서도 Gemini 3.1 Pro 비용의 약 1/8 수준입니다.
수학 경시 수준의 격차: 엘리트 수준의 수학 문제 해결에 어려움이 있으며, AIME 2025에서 frontier model들이 90% 이상을 기록할 때 25%에 그쳤습니다.
네이티브 multimodal 숙련도: 별도의 인코더 없이도 vision(DocVQA 92%) 및 영상(VideoMMMU 84.8%) 분야에서 탁월한 성능을 발휘합니다.
사실성 보정: 사실 확인 작업(SimpleQA 43.3%)에서 Pro 등급이나 frontier 대안 모델보다 높은 환각률을 보입니다.
세밀한 연산 제어: reasoning 깊이를 정밀하게 제어할 수 있는 최초의 model로, 가성비를 최적화할 수 있습니다.
지시사항 이탈: 매우 길고 복잡한 다단계 지시사항을 처리할 때 가끔 세부적인 형식 제약을 놓칠 수 있습니다.

API 빠른 시작

google/gemini-3.1-flash-lite-preview

문서 보기
google SDK
import { GoogleGenAI } from '@google/genai';

const genAI = new GoogleGenAI(process.env.API_KEY);
const model = genAI.getGenerativeModel({ 
  model: 'gemini-3.1-flash-lite-preview',
  thinkingConfig: { thinking_level: 'low' }
});

async function generate() {
  const prompt = "Extract key entities from this document.";
  const result = await model.generateContent(prompt);
  console.log(result.response.text());
}

generate();

SDK를 설치하고 몇 분 안에 API 호출을 시작하세요.

Gemini 3.1 Flash-Lite에 대한 사람들의 의견

커뮤니티가 Gemini 3.1 Flash-Lite에 대해 어떻게 생각하는지 확인하세요

Flash-Lite는 정말 빠르고 요약과 같은 특정 워크플로우에 효과적입니다. 이번 속도 향상은 정말 환영할 일입니다.
reddit user
reddit
Gemini 3.1 Flash-Lite는 중급 API 제공업체들에게 결정타와 같습니다. 비용 곡선의 시너지가 빠르게 나타납니다.
@9chaku
twitter
3.1 Flash-Lite는 엄청난 속도를 자랑하면서도 대부분의 benchmark에서 2.5 Flash를 능가합니다!
Tulsee Doshi
twitter
AI agent를 대규모로 운영하는 개발자들에게 이 model은 '상시 가동'을 실제로 저렴하게 만들어주는 존재입니다. 초당 363 tokens는 놀랍습니다.
@prince_twets
twitter
가격이 미쳤습니다. 100만 input당 $0.25라면 RAG를 구축하는 것보다 그냥 전체 저장소를 context에 넣는 게 더 저렴합니다.
reddit user
reddit
첫 번째 token까지의 속도가 기본적으로 즉각적입니다. model이 제 타이핑 속도보다 빠르다고 느껴진 것은 처음입니다.
DevGuru
hackernews

Gemini 3.1 Flash-Lite에 대한 동영상

Gemini 3.1 Flash-Lite에 대한 튜토리얼, 리뷰 및 토론 시청

100만 input tokens당 25센트, 100만 output tokens당 $1.50의 가격은 속도를 고려할 때 여전히 매우 경쟁력 있습니다.

이 model은 프론트엔드 개발에 집중할 때 과소평가된 코딩 model이며, 매우 빠른 속도로 tokens를 생성합니다.

이것은 Pro model의 latency 없이 대규모 확장성이 필요한 개발자를 정조준하고 있습니다.

여기서 multimodal 기능은 단순한 눈속임이 아닙니다. 복잡한 PDF를 아주 쉽게 처리합니다.

Google은 2026년에 'lite' model이 실제로 달성할 수 있는 경계를 정말로 넓히고 있습니다.

이번에는 Gemini 3.1 Flash-Lite입니다. Flash model보다 더 빠르고 저렴한 버전으로 설계되었습니다.

높은 throughput이 필요한 애플리케이션에서 사용하기 위해 이러한 model들이 필요합니다.

100만 context window는 이제 Gemini의 표준이지만, 이렇게 빠른 model에서 구현된 것을 보니 인상적입니다.

수학 경시대회에서 우승하진 못하겠지만, 데이터 추출과 요약에는 완벽합니다.

초기 테스트 결과 API latency가 GPT-4o-mini보다 현저히 낮습니다.

Google의 이 새로운 AI model은 45% 더 빠르며, 우리 모두가 AI로 빌드하는 방식을 바꿀지도 모릅니다.

빠르고 쉬운 작업에는 Low thinking 모드, 고난도 작업에는 High thinking 모드... 이러한 유연성이 장난감과 진짜 도구를 구분 짓는 차이점입니다.

SEO 작업에 있어서는 가격대 때문에 이 model이 저의 주력 도구가 될 것입니다.

영상을 보고 즉각적으로 context를 이해할 수 있다는 점은 콘텐츠 크리에이터들에게 게임 체인저가 될 것입니다.

현재 대량 작업을 위해 다른 제공업체를 사용해야 할 이유를 찾기 어렵게 만들고 있습니다.

단순한 프롬프트 이상

워크플로를 강화하세요 AI 자동화

Automatio는 AI 에이전트, 웹 자동화 및 스마트 통합의 힘을 결합하여 더 짧은 시간에 더 많은 것을 달성할 수 있도록 도와줍니다.

AI 에이전트
웹 자동화
스마트 워크플로

Gemini 3.1 Flash-Lite 프로 팁

Gemini 3.1 Flash-Lite을 최대한 활용하기 위한 전문가 팁.

Thinking Levels 활용하기

분류와 같은 단순한 작업에는 속도 극대화를 위해 thinking_level을 'minimal'로 설정하고, 구조화된 코드 생성에는 'high'를 사용하세요.

네이티브 영상 분석

원본 영상 파일을 API에 직접 입력하여 시각적 사건과 오디오 단서를 동시에 빠르게 분석하세요. transcript 단계를 생략할 수 있어 효율적입니다.

RAG 대신 context 활용

100만 tokens 미만의 데이터셋의 경우, 전체 문서 세트를 context window에 직접 넣어 검색 오류와 vector DB 비용을 제거하세요.

Batching을 통한 최적화

급하지 않은 작업에는 batching API를 사용하여 비용을 더욱 절감하세요. Flash-Lite는 비동기 처리에 특화되어 최적화되어 있습니다.

후기

사용자 후기

워크플로를 혁신한 수천 명의 만족한 사용자와 함께하세요

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

관련 AI Models

anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.60/$3.60/1M
anthropic

Claude 3.7 Sonnet

Anthropic

Claude 3.7 Sonnet is Anthropic's first hybrid reasoning model, delivering state-of-the-art coding capabilities, a 200k context window, and visible thinking.

200K context
$3.00/$15.00/1M
xai

Grok-3

xAI

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

128K context
$3.00/$15.00/1M

Gemini 3.1 Flash-Lite에 대한 자주 묻는 질문

Gemini 3.1 Flash-Lite에 대한 일반적인 질문에 대한 답변 찾기