deepseek

DeepSeek v4

DeepSeek v4 คือ model ระดับ 1.6T parameters แบบ MoE มาพร้อม 1M context window และการรองรับ multimodal ทั้งข้อความ ภาพ และวิดีโอในราคาที่เปลี่ยนโฉมตลาด

Open SourceMultimodalMixture of ExpertsReasoningLong Context
deepseek logodeepseekDeepSeek-V2026-04-23
บริบท
1.0Mโทเคน
เอาต์พุตสูงสุด
384Kโทเคน
ราคาอินพุต
$1.74/ 1M
ราคาเอาต์พุต
$3.48/ 1M
โหมด:TextImageAudioVideo
ความสามารถ:การมองเห็นเครื่องมือสตรีมมิ่งการใช้เหตุผล
เกณฑ์มาตรฐาน
GPQA
90.1%
GPQA: คำถามวิทยาศาสตร์ระดับบัณฑิตศึกษา. เกณฑ์มาตรฐานที่เข้มงวดพร้อม 448 คำถามจากชีววิทยา ฟิสิกส์ และเคมี ผู้เชี่ยวชาญ PhD ทำได้เพียง 65-74% DeepSeek v4 ได้คะแนน 90.1% ในเกณฑ์มาตรฐานนี้
HLE
48.2%
HLE: การใช้เหตุผลระดับผู้เชี่ยวชาญ. ทดสอบความสามารถของโมเดลในการแสดงการใช้เหตุผลระดับผู้เชี่ยวชาญในสาขาเฉพาะทาง DeepSeek v4 ได้คะแนน 48.2% ในเกณฑ์มาตรฐานนี้
MMLU
90.1%
MMLU: ความเข้าใจภาษาแบบมัลติทาสก์ขนาดใหญ่. เกณฑ์มาตรฐานที่ครอบคลุมพร้อม 16,000 คำถามใน 57 วิชา DeepSeek v4 ได้คะแนน 90.1% ในเกณฑ์มาตรฐานนี้
MMLU Pro
87.5%
MMLU Pro: MMLU รุ่นมืออาชีพ. เวอร์ชันที่ปรับปรุงของ MMLU พร้อม 12,032 คำถามและรูปแบบ 10 ตัวเลือกที่ยากขึ้น DeepSeek v4 ได้คะแนน 87.5% ในเกณฑ์มาตรฐานนี้
SimpleQA
57.9%
SimpleQA: เกณฑ์มาตรฐานความถูกต้องของข้อเท็จจริง. ทดสอบความสามารถของโมเดลในการให้คำตอบที่ถูกต้องและเป็นข้อเท็จจริง DeepSeek v4 ได้คะแนน 57.9% ในเกณฑ์มาตรฐานนี้
IFEval
89%
IFEval: การประเมินการปฏิบัติตามคำสั่ง. วัดว่าโมเดลปฏิบัติตามคำสั่งและข้อจำกัดเฉพาะได้ดีเพียงใด DeepSeek v4 ได้คะแนน 89% ในเกณฑ์มาตรฐานนี้
AIME 2025
92%
AIME 2025: การสอบคณิตศาสตร์เชิญชวนอเมริกัน. โจทย์คณิตศาสตร์ระดับการแข่งขันจากการสอบ AIME ที่มีชื่อเสียง DeepSeek v4 ได้คะแนน 92% ในเกณฑ์มาตรฐานนี้
MATH
90.2%
MATH: การแก้ปัญหาคณิตศาสตร์. เกณฑ์มาตรฐานคณิตศาสตร์ที่ครอบคลุมทดสอบการแก้ปัญหาในพีชคณิต เรขาคณิต แคลคูลัส DeepSeek v4 ได้คะแนน 90.2% ในเกณฑ์มาตรฐานนี้
GSM8k
92.6%
GSM8k: คณิตศาสตร์ประถม 8K. 8,500 โจทย์คณิตศาสตร์ระดับประถมศึกษา DeepSeek v4 ได้คะแนน 92.6% ในเกณฑ์มาตรฐานนี้
MGSM
92%
MGSM: คณิตศาสตร์ประถมหลายภาษา. เกณฑ์มาตรฐาน GSM8k แปลเป็น 10 ภาษา DeepSeek v4 ได้คะแนน 92% ในเกณฑ์มาตรฐานนี้
MathVista
72%
MathVista: การใช้เหตุผลเชิงภาพคณิตศาสตร์. ทดสอบความสามารถในการแก้ปัญหาคณิตศาสตร์ที่มีองค์ประกอบภาพ DeepSeek v4 ได้คะแนน 72% ในเกณฑ์มาตรฐานนี้
SWE-Bench
80.6%
SWE-Bench: เกณฑ์มาตรฐานวิศวกรรมซอฟต์แวร์. โมเดล AI พยายามแก้ปัญหา GitHub จริงในโครงการ Python DeepSeek v4 ได้คะแนน 80.6% ในเกณฑ์มาตรฐานนี้
HumanEval
90%
HumanEval: โจทย์เขียนโปรแกรม Python. 164 โจทย์เขียนโปรแกรมที่โมเดลต้องสร้างการใช้งานฟังก์ชัน Python ที่ถูกต้อง DeepSeek v4 ได้คะแนน 90% ในเกณฑ์มาตรฐานนี้
LiveCodeBench
93.5%
LiveCodeBench: เกณฑ์มาตรฐานเขียนโค้ดสด. ทดสอบความสามารถในการเขียนโค้ดบนความท้าทายการเขียนโปรแกรมจริงที่อัปเดตอย่างต่อเนื่อง DeepSeek v4 ได้คะแนน 93.5% ในเกณฑ์มาตรฐานนี้
MMMU
70%
MMMU: ความเข้าใจหลายโหมด. เกณฑ์มาตรฐานความเข้าใจหลายโหมดจาก 30 วิชามหาวิทยาลัย DeepSeek v4 ได้คะแนน 70% ในเกณฑ์มาตรฐานนี้
MMMU Pro
55%
MMMU Pro: MMMU รุ่นมืออาชีพ. เวอร์ชันที่ปรับปรุงของ MMMU พร้อมคำถามที่ท้าทายมากขึ้น DeepSeek v4 ได้คะแนน 55% ในเกณฑ์มาตรฐานนี้
ChartQA
87%
ChartQA: คำถามและคำตอบกราฟ. ทดสอบความสามารถในการเข้าใจและวิเคราะห์ข้อมูลจากกราฟและแผนภูมิ DeepSeek v4 ได้คะแนน 87% ในเกณฑ์มาตรฐานนี้
DocVQA
92%
DocVQA: คำถามเชิงภาพเอกสาร. ทดสอบความสามารถในการสกัดข้อมูลจากภาพเอกสาร DeepSeek v4 ได้คะแนน 92% ในเกณฑ์มาตรฐานนี้
Terminal-Bench
67.9%
Terminal-Bench: งาน Terminal/CLI. ทดสอบความสามารถในการดำเนินการ command-line DeepSeek v4 ได้คะแนน 67.9% ในเกณฑ์มาตรฐานนี้
ARC-AGI
77%
ARC-AGI: การนามธรรมและการใช้เหตุผล. ทดสอบความฉลาดที่ยืดหยุ่นผ่านปริศนาการจดจำรูปแบบใหม่ DeepSeek v4 ได้คะแนน 77% ในเกณฑ์มาตรฐานนี้

เกี่ยวกับ DeepSeek v4

เรียนรู้เกี่ยวกับความสามารถของ DeepSeek v4 คุณสมบัติ และวิธีที่จะช่วยให้คุณได้ผลลัพธ์ที่ดีขึ้น

สถาปัตยกรรมระดับล้านล้าน parameters ที่มีประสิทธิภาพสูง

DeepSeek v4 คือวิวัฒนาการในการออกแบบ Mixture-of-Experts (MoE) โดยขยายขนาดถึง 1.6 ล้านล้าน parameters รวม และ 49 พันล้าน parameters ที่ทำงานอยู่จริง ตัว model ผสาน Compressed Sparse Attention (CSA) และ Heavily Compressed Attention (HCA) เพื่อจัดการกับ context window ขนาด 1 ล้าน tokens เทคโนโลยีเหล่านี้ช่วยลดภาระหน่วยความจำของ KV cache ลงได้ถึง 90% เมื่อเทียบกับสถาปัตยกรรมมาตรฐาน ช่วยให้ inference ได้เร็วขึ้นและใช้ฮาร์ดแวร์ต่ำลงสำหรับงานที่ต้องใช้ context ยาวๆ

การรวมระบบ Multimodal แบบ Native

แตกต่างจาก model อื่นที่ใช้ encoder แยกสำหรับภาพหรือเสียง DeepSeek v4 เป็น multimodal โดยธรรมชาติ ตั้งแต่ขั้นตอนการฝึกฝน ประมวลผลข้อความ ภาพ เสียง และวิดีโอภายในเฟรมเวิร์กเดียว แนวทางนี้ช่วยเพิ่มประสิทธิภาพในการใช้เหตุผลข้ามสื่อ (cross-modal reasoning) ทำให้ model สามารถวิเคราะห์ไฟล์วิดีโอดิบและคลังเอกสารขนาดใหญ่ได้อย่างละเอียดโดยไม่ตกหล่น

การเปลี่ยนแปลงด้านต้นทุนเชิงกลยุทธ์

model นี้ถูกวางตำแหน่งเป็นทางเลือก open-source ที่มีประสิทธิภาพสูงเทียบเท่า model ปิดระดับท็อป ด้วยราคา 1.74 ดอลลาร์ต่อล้าน input tokens ยังคงประสิทธิภาพระดับแนวหน้าทั้งในด้านการเขียนโปรแกรมและคณิตศาสตร์ พร้อมลดต้นทุนการดำเนินงานสำหรับนักพัฒนาได้อย่างมหาศาล การมีตัวเลือก Thinking Mode ยังช่วยให้สามารถใช้เหตุผลเชิงลึกสำหรับการพิสูจน์ทางตรรกะและการแข่งขันเขียนโปรแกรมได้อีกด้วย

DeepSeek v4

กรณีการใช้งานสำหรับ DeepSeek v4

ค้นพบวิธีต่างๆ ที่คุณสามารถใช้ DeepSeek v4 เพื่อได้ผลลัพธ์ที่ยอดเยี่ยม

การ Refactor Codebase ขนาดใหญ่

ใช้ประโยชน์จาก 1M context window เพื่อนำ repository ทั้งหมดมาวิเคราะห์เพื่อตรวจหา bug และปรับปรุงสถาปัตยกรรมระดับองค์กร

การวิเคราะห์วิดีโอแบบ Native

ประมวลผลไฟล์วิดีโอดิบโดยตรงเพื่อตรวจจับฉาก, สร้าง transcript และใช้เหตุผลเชิงภาพที่ซับซ้อน

Agent ซอฟต์แวร์อัตโนมัติ

ปรับใช้ model ใน workflow แบบ agentic เพื่อแก้ไขปัญหาบน GitHub ด้วยอัตราความสำเร็จ 80.6% บน SWE-bench

การสร้างคอนเทนต์แบบ Multi-Modal

สร้างข้อมูลเชิงโครงสร้างและเนื้อหาเชิงสร้างสรรค์ผ่านรูปแบบข้อความ ภาพ และเสียงโดยใช้ model เดียว

การพิสูจน์ทางคณิตศาสตร์ขั้นสูง

แก้โจทย์คณิตศาสตร์ระดับโอลิมปิกและการพิสูจน์ทางทฤษฎีโดยใช้ Thinking Mode สำหรับการใช้เหตุผลเชิงลึก

การดึงข้อมูลองค์กร (Enterprise Knowledge Retrieval)

วิเคราะห์คลังเอกสารมหาศาลในการ prompt ครั้งเดียวเพื่อดึงข้อเท็จจริงโดยไม่จำเป็นต้องใช้ระบบ RAG ที่ซับซ้อน

จุดแข็ง

ข้อจำกัด

Long Context ที่มีประสิทธิภาพสูงสุด: ลดภาระของ KV cache ลง 90% ทำให้ใช้งาน 1M context window ได้อย่างมีประสิทธิภาพบนฮาร์ดแวร์มาตรฐาน
Latence ของ Thinking Mode ที่สูงขึ้น: โหมดการใช้เหตุผลเชิงลึกทำให้เวลาในการตอบกลับคำแรกช้าลง จึงไม่ค่อยเหมาะกับงานที่ต้องการการโต้ตอบที่รวดเร็วทันที
ความคุ้มค่าระดับผู้นำตลาด: มอบความฉลาดระดับ frontier ในราคา 1.74 ดอลลาร์/ล้าน tokens ซึ่งถูกกว่าคู่แข่ง closed-source จากฝั่งตะวันตกอย่างมาก
ข้อจำกัดด้านการปรับแต่งฮาร์ดแวร์: รายงานทางเทคนิคระบุว่าการปรับแต่งถูกปรับให้เหมาะสมกับตัวเร่งความเร็วเฉพาะในประเทศจีนมากกว่ากลุ่ม Nvidia
การเขียนโปรแกรมด้วย Agent ที่เหนือชั้น: ได้คะแนน 80.6% บน SWE-bench Verified ทำให้เป็นหนึ่งใน model ที่มีความสามารถที่สุดสำหรับการทำวิศวกรรมซอฟต์แวร์อัตโนมัติ
ช่องโหว่ด้านความถูกต้องของข้อมูล: ได้คะแนน 57.9% บน SimpleQA ซึ่งบ่งชี้ว่าแม้การใช้เหตุผลจะยอดเยี่ยม แต่การมโนข้อมูล (hallucination) ยังคงเป็นความท้าทาย
Unified Native Multimodality: รองรับข้อความ, ภาพ, เสียง และวิดีโอในสถาปัตยกรรมเดียวโดยไม่จำเป็นต้องใช้ external adapter หรือ sub-model
ข้อกำหนดด้าน KV Cache ที่ซับซ้อน: กลไกการ attention แบบไฮบริด HCA/CSA ต้องการการรองรับ kernel เฉพาะเพื่อให้ได้ประสิทธิภาพสูงสุดในการใช้งาน local

เริ่มต้นด่วน API

deepseek/deepseek-v4-pro

ดูเอกสาร
deepseek SDK
import OpenAI from 'openai';  const deepseek = new OpenAI({   baseURL: 'https://api.deepseek.com',   apiKey: process.env.DEEPSEEK_API_KEY, });  const msg = await deepseek.chat.completions.create({   model: 'deepseek-v4-pro',   messages: [{ role: 'user', content: 'Optimize this Rust kernel for memory efficiency.' }], }); console.log(msg.choices[0].message.content);

ติดตั้ง SDK และเริ่มเรียก API ภายในไม่กี่นาที

ผู้คนพูดอะไรเกี่ยวกับ DeepSeek v4

ดูว่าชุมชนคิดอย่างไรเกี่ยวกับ DeepSeek v4

โหมดการใช้เหตุผลของ DeepSeek v4 พบ bug เรื่อง concurrency ในโค้ด Rust ของผมที่แม้แต่ Claude Opus ยังพลาด ไปสุดจริงๆ
rust_dev_2025
reddit
ยุคของ 1M context ที่คุ้มค่ามาถึงแล้ว เราสามารถรันการ refactor ทั้งโปรเจกต์ได้ในราคาแค่เศษเงิน
tech_lead_alex
twitter
การได้เห็น model จัดการ codebase 1M tokens โดยที่ยังจำข้อมูลที่สำคัญได้ไม่หลุด นี่คือจุดเปลี่ยนที่แท้จริงของปี 2026
logic_fanatic
hackernews
Anthropic และ OpenAI กำลังเจอปัญหาหนักเรื่องราคาแล้ว DeepSeek ทำให้ AI ระดับ frontier กลายเป็นสินค้าทั่วไปเรียบร้อย
CodeMaster
youtube
มันชนะ GPT-5.4 ในด้าน coding benchmark ในขณะที่เป็น open source นี่คือการเปิดตัวที่ใหญ่ที่สุดแห่งปี
AI_Researcher_99
twitter
การบีบอัดหน่วยความจำคือเวทมนตร์ของจริง 1T parameters บนฮาร์ดแวร์ทั่วไปกำลังกลายเป็นจริงแล้ว
GPU_Rich
reddit

วิดีโอเกี่ยวกับ DeepSeek v4

ดูบทเรียน รีวิว และการสนทนาเกี่ยวกับ DeepSeek v4

ประสิทธิภาพหน่วยความจำคือหัวใจสำคัญ การลด KV cache ลง 90% เปลี่ยนทุกอย่าง

การรัน model ระดับ 1T ด้วยความเร็วขนาดนี้ถือเป็นชัยชนะทางสถาปัตยกรรมที่ยิ่งใหญ่

ต้นทุนต่อล้าน tokens ทำให้ startup ขนาดเล็กมองข้ามไม่ได้เลย

ผมไม่เคยเห็น open-source model จัดการ 1 ล้าน tokens ได้เนียนขนาดนี้มาก่อน

รู้สึกว่าช่องว่างระหว่าง open และ closed model ได้ถูกปิดลงอย่างเป็นทางการแล้ว

DeepSeek ไม่ได้แข่งแค่เรื่องราคาแล้ว แต่กำลังเป็นผู้นำด้าน long-context reasoning

การรองรับวิดีโอแบบ native นั้นแข็งแกร่งอย่างน่าประหลาดใจเมื่อเทียบกับ Gemini 2.0

การติดตั้งแบบ local นั้นทำได้ง่ายเกินคาดถ้าใช้ SGLang

ผลทดสอบบน HumanEval แสดงให้เห็นว่าเทียบเท่ากับ GPT-5 แล้ว

context window ขนาดนี้ทำให้ระบบ RAG แทบจะกลายเป็นเรื่องไม่จำเป็นสำหรับโปรเจกต์ขนาดกลาง

ประสิทธิภาพบน coding benchmark ในขณะนี้ยังไม่มี open-weight model อื่นใดเทียบได้

มันเทียบเท่าหรือเหนือกว่า closed model ระดับท็อปในงาน refactoring codebase ขนาดใหญ่

การปรับใช้ engram memory ถือเป็นความสำเร็จทางเทคนิคที่น่าทึ่งในพื้นที่นี้

เราเห็นความแม่นยำของตรรกะถึง 90% ใน Thinking Mode สำหรับคณิตศาสตร์ระดับโอลิมปิก

การปล่อยรุ่นนี้ทำให้ความฉลาดระดับล้านล้าน parameters กลายเป็นสิ่งที่ทุกคนเข้าถึงได้จริง

มากกว่าแค่พรอมต์

เพิ่มพลังให้เวิร์กโฟลว์ของคุณด้วย ระบบอัตโนมัติ AI

Automatio รวมพลังของ AI agents การอัตโนมัติเว็บ และการผสานรวมอัจฉริยะเพื่อช่วยให้คุณทำงานได้มากขึ้นในเวลาน้อยลง

AI Agents
การอัตโนมัติเว็บ
เวิร์กโฟลว์อัจฉริยะ

เคล็ดลับมือโปรสำหรับ DeepSeek v4

เคล็ดลับจากผู้เชี่ยวชาญเพื่อช่วยให้คุณใช้ประโยชน์สูงสุดจาก DeepSeek v4 และได้ผลลัพธ์ที่ดีขึ้น

สลับการใช้งานโหมด Thinking

ใช้โหมดมาตรฐานสำหรับการแชททั่วไป และใช้ Thinking Mode สำหรับงานเขียนโปรแกรมและการพิสูจน์ทางตรรกะโดยเฉพาะ

ใช้ประโยชน์จาก Context Caching

ใช้ฟีเจอร์ context caching ในตัวเพื่อลดค่าใช้จ่ายลงถึง 90% เมื่อใช้ long-context prompt แบบซ้ำๆ

การป้อนข้อมูล Multimodal โดยตรง

ส่งไฟล์เสียงและวิดีโอดิบเข้าสู่ API โดยตรงเพื่อใช้ประโยชน์จากสถาปัตยกรรมแบบ native แทนการแปลงข้อมูลก่อนส่ง

การปรับแต่ง System Prompt

ระบุ JSON schema หรือคำสั่งการใช้เครื่องมือให้ชัดเจนใน system prompt เพื่อการตอบสนองแบบ agentic ที่แม่นยำและน่าเชื่อถือ

คำรับรอง

ผู้ใช้ของเราพูดอย่างไร

เข้าร่วมกับผู้ใช้ที่พึงพอใจนับพันที่ได้เปลี่ยนแปลงเวิร์กโฟลว์ของพวกเขา

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

ที่เกี่ยวข้อง AI Models

anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
moonshot

Kimi k2.6

Moonshot

Kimi k2.6 is Moonshot AI's 1T-parameter MoE model featuring a 256K context window, native video input, and elite performance in autonomous agentic coding.

256K context
$0.95/$4.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

คำถามที่พบบ่อยเกี่ยวกับ DeepSeek v4

ค้นหาคำตอบสำหรับคำถามทั่วไปเกี่ยวกับ DeepSeek v4